JP3352453B2 - camera - Google Patents

camera

Info

Publication number
JP3352453B2
JP3352453B2 JP2000353089A JP2000353089A JP3352453B2 JP 3352453 B2 JP3352453 B2 JP 3352453B2 JP 2000353089 A JP2000353089 A JP 2000353089A JP 2000353089 A JP2000353089 A JP 2000353089A JP 3352453 B2 JP3352453 B2 JP 3352453B2
Authority
JP
Japan
Prior art keywords
lens
focus
focus detection
subroutine
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000353089A
Other languages
Japanese (ja)
Other versions
JP2001188164A (en
Inventor
康夫 須田
明彦 長野
一樹 小西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2000353089A priority Critical patent/JP3352453B2/en
Publication of JP2001188164A publication Critical patent/JP2001188164A/en
Application granted granted Critical
Publication of JP3352453B2 publication Critical patent/JP3352453B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、銀塩フィルムを使
用するカメラあるいはビデオカメラもしくは産業機器と
協同する撮影装置に関し、特に操作者の視線を検出して
視線を向けられた物体に焦点調節し得るカメラ(カメラ
ボディも含むものとする)に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a camera using a silver halide film or a video camera or an image pickup apparatus cooperating with industrial equipment, and more particularly to detecting an operator's line of sight and adjusting focus on an object to which the line of sight is directed. It relates to a camera to be obtained (including a camera body).

【0002】[0002]

【従来の技術】従来の自動カメラには、所謂ワンショッ
トモードとサーボモードが設けられており、対象の動き
により使い分けられている。例えばワンショットモード
は、主に静止した被写体に対して使用され、一旦合焦し
た後はレンズ駆動が禁止され(AFロック状態)、もし
必要ならその後にフレーミングを行うモードである。そ
れに対してサーボモードとは、主として動く被写体に対
して用いられ、被写体距離の変化に追従して連続したレ
ンズ駆動を行い、被写体の動きにあわせて焦点調節を行
うことのできるモードである。
2. Description of the Related Art Conventional automatic cameras are provided with a so-called one-shot mode and a servo mode, which are selectively used depending on the movement of an object. For example, the one-shot mode is a mode mainly used for a still subject, in which the lens driving is inhibited after focusing once (AF lock state), and framing is performed thereafter if necessary. On the other hand, the servo mode is a mode mainly used for a moving subject, in which a continuous lens drive is performed following a change in the subject distance, and the focus can be adjusted in accordance with the movement of the subject.

【0003】また、撮影者の視線位置を検出して、視線
位置に合わせた焦点検出領域を選択できる機能を有する
カメラがある。このようなカメラによれば、AFロック
の操作を行わずとも意図する被写体に合焦させることが
でき、撮影者がカメラに不慣れな場合であっても、ピン
ト合わせを気にせずに写真を撮れるようになった。
There is also a camera having a function of detecting a line of sight of a photographer and selecting a focus detection area in accordance with the line of sight. According to such a camera, it is possible to focus on an intended subject without performing an AF lock operation, and even when the photographer is unfamiliar with the camera, a photograph can be taken without worrying about focusing. It became so.

【0004】また、動く被写体を撮ろうとする場合は、
被写体が常に被写界の中央にいるわけではないのでフレ
ーミングの自由度を増す必要がある。フレーミングの自
由度を増すためには焦点検出領域を増やせばよく、視線
位置を検出することで多数の焦点検出領域の中から意図
するものを簡単に選択することが出来る。
[0004] When a moving subject is to be photographed,
Since the subject is not always in the center of the field, it is necessary to increase the framing flexibility. In order to increase the degree of freedom of framing, it is sufficient to increase the number of focus detection areas. By detecting the line of sight, an intended one can be easily selected from a number of focus detection areas.

【0005】ところで、ワンショットモードからサーボ
モードに自動的に設定を変更できるものがある。ワンシ
ョットモードにおいても被写体の焦点検出情報を観察し
ており、被写体が移動したことを検知すると自動的にサ
ーボモードに設定を変更する機能である。
In some cases, the setting can be automatically changed from the one-shot mode to the servo mode. Even in the one-shot mode, the focus detection information of the subject is observed, and when the movement of the subject is detected, the function automatically changes the setting to the servo mode.

【0006】[0006]

【発明が解決しようとする課題】サーボモードでは被写
体が動くため、被写体の動きに追従したレンズ駆動を行
うためには、焦点検出を正確に行う必要があり、そのた
めには焦点検出を行う前に視線位置を検出する。視線位
置を検出することで撮影者の意図した焦点検出領域を簡
単に選択でき、すなわち正確に被写体を追従した制御を
行うことが出来る。
Since the subject moves in the servo mode, it is necessary to accurately detect the focus in order to drive the lens following the movement of the subject. The gaze position is detected. By detecting the line-of-sight position, the focus detection area intended by the photographer can be easily selected, that is, control can be performed that accurately follows the subject.

【0007】それに対し、ワンショットモードでは、被
写体はほとんどの場合で静止しており、一旦合焦すれば
その後に焦点が変化することはあまりない。したがっ
て、サーボモードと同様の視線を用いた焦点検出を繰り
返すと、場合によっては意図していない部位の焦点検出
を行ってしまい、ピントが意図する被写体からずれてし
まうというおそれがある。
On the other hand, in the one-shot mode, the subject is almost always stationary, and once focused, the focus rarely changes thereafter. Therefore, if focus detection using the same line of sight as in the servo mode is repeated, focus detection may be performed on an unintended part in some cases, and the focus may deviate from the intended subject.

【0008】しかし、ワンショットモードで合焦後に焦
点検出を抑制してしまうと、ワンショットモードからサ
ーボモードに自動的に切換える機能を有効に作動させる
ことができない。
However, if focus detection is suppressed after focusing in the one-shot mode, the function of automatically switching from the one-shot mode to the servo mode cannot be effectively operated.

【0009】したがって、ワンショットモードでは、合
焦後は不用意に視線検出結果に基づいて焦点検出領域を
選択することなく、焦点検出を行うことができる構成を
有することで、被写体の動きに応じて撮影モードを切換
える機能を備えつつも、不用意に焦点位置を変更しない
カメラを提供することを課題とする。なお、本願では、
撮影レンズを固着したカメラ、撮影レンズを着脱するカ
メラそして撮影レンズを離脱させた所謂カメラボディ
を、言葉の煩雑さを避けるため全てカメラと言うことと
する。
Therefore, in the one-shot mode, the focus detection can be performed without inadvertently selecting the focus detection area based on the line of sight detection result after focusing, so that it can respond to the movement of the subject. while a function of switching the photographing mode Te also an object to provide a camera that does not change the focal position in the non-prepared. In this application,
The camera to which the taking lens is fixed, the camera to which the taking lens is attached / detached, and the so-called camera body from which the taking lens is detached are all referred to as a camera in order to avoid complication of words.

【0010】[0010]

【課題を解決するための手段】上記課題を解決するため
に、本願発明は、レンズを駆動してレンズの焦点調節を
制御するレンズ制御手段と、観察者の眼球の視線位置情
報を検出する視線検出手段と、被写界面内に複数存在す
る焦点検出領域のうち前記視線位置情報に基づいて焦
検出領域を選択する選択手段と、いずれかの焦点検出領
焦点検出を行う焦点検出手段と、被写体との距離変
化に伴う結像面位置の変化を追従して補正するサーボモ
ードと、一旦合焦状態であることを前記焦点検出手段が
検出するとそれ以降の合焦のためのレンズ駆動を禁止す
るワンショットモードとを有し、前記ワンショットモー
ドで合焦状態であることを検出した後に、合焦状態であ
ることが検出された焦点検出領域での焦点検出結果に応
じて前記ワンショットモードから前記サーボモードに切
換えるカメラであって、前記ワンショットモードで合焦
状態であることを検出した後は、前記視線検出手段が視
線位置情報を検出せずに、前記焦点検出手段が合焦状態
であることが検出された焦点検出領域で焦点検出を繰り
返し行い、該焦点検出結果に応じて前記サーボモードに
切換えられると、前記視線検出手段が視線位置情報を検
出し、前記焦点検出手段が該視線位置情報に基づいて選
択された焦点検出領域での焦点検出を行うことを特徴と
するカメラを提供する。
SUMMARY OF THE INVENTION In order to solve the above-mentioned problems, the present invention provides a lens control means for controlling the focus adjustment of a lens by driving a lens, and a line of sight for detecting line-of-sight position information of an observer's eyeball. a detecting means, a focus detection means for performing a selecting means for selecting a point detection area focus on the basis of the viewpoint position information of the focus detection area there are a plurality in the photographic interface, the focus detection in one of the focus detection area A servo mode for following and correcting a change in the image plane position due to a change in the distance to the subject, and a lens drive for focusing thereafter after the focus detection unit detects that the object is in focus. and a one-shot mode to prohibit, the one-shot mode
After detecting that the camera is in focus with
A camera switching to the servo mode from the one-shot mode according to the focus detection result of the focus detection area Rukoto is detected, the focus in the one-shot mode
After detecting that the vehicle is in the state, the visual line detecting means performs visual recognition.
The focus detection means is in focus without detecting line position information
Focus detection in the focus detection area where
And returns to the servo mode according to the focus detection result.
When switched, the line-of-sight detection means detects line-of-sight position information.
And the focus detecting means selects the position based on the line-of-sight position information.
A camera is provided which performs focus detection in a selected focus detection area .

【0011】[0011]

【発明の実施の形態】以下、図面に従って本発明の実施
例を説明するもので、図1から図11は装置の動作を説
明するためのフローチャートであり、図12は視線方向
の検出装置を具えたカメラの光学配置を示し、図13か
ら図16は視線方向の検出方法を説明する図である。ま
た、図17から図20は焦点検出装置の構成を説明する
ための図、図24はカメラの主に電気系を示す図であ
る。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below with reference to the drawings. FIGS. 1 to 11 are flowcharts for explaining the operation of the apparatus, and FIG. 12 is provided with a gaze direction detecting apparatus. 13 to 16 are diagrams illustrating a method of detecting a line-of-sight direction. 17 to 20 are diagrams for explaining the configuration of the focus detection device, and FIG. 24 is a diagram mainly showing an electric system of the camera.

【0012】まず図12において、4は一眼レフレック
スカメラのカメラ本体で、5はレンズ鏡筒であり、カメ
ラ本体4に着脱自在もしくは固設されているものとす
る。1は撮影レンズを図式的に示しており、レンズ鏡筒
5内に収納されており、図示しない駆動モータの駆動力
により光軸X方向へ移動しフォーカシングが実行され
る。
First, in FIG. 12, reference numeral 4 denotes a camera body of a single-lens reflex camera, and reference numeral 5 denotes a lens barrel, which is detachably or fixedly mounted on the camera body 4. Reference numeral 1 schematically shows a photographing lens, which is housed in a lens barrel 5 and is moved in the optical axis X direction by the driving force of a driving motor (not shown) to execute focusing.

【0013】2はクイックリターンミラー(主ミラー)
で、3はサブミラーであり、サブミラー3は主ミラー2
に支持されているものとする。続く6は焦点検出装置
で、詳細は後述するが、撮影レンズ1を屈折通過し、主
ミラー2を透過してサブミラー3で反射した光を受け
る。一方、主ミラー2の反射光路上に配された7はフォ
ーカシングスクリーン、8はベンタゴナルプリズム、1
5は接眼レンズで、これらはファインダー系を構成す
る。9は光分割器で、内部には赤外光を反射し可視光を
透過するダイクロイックミラーが斜設されており、ファ
インダー系光路に設けられる。11は投受光レンズ、1
2はハーフミラー、13は赤外光を発光する、LEDの
様な照明点光源である。光源13は投受光レンズ11と
接眼レンズ15を合成した系の一方の焦点位置にあるも
のとし、光源13を発した光束はハーフミラー12、投
受光レンズ11、光分割器9を経て、接眼レンズ15か
ら平行光として移出する。14は素子配列を具える光電
変換器で、接眼レンズ15と投受光レンズ11により前
眼部が結像される位置に配され、眼球像と光源の角膜反
射像を受像する。部材9、11、12、13、14そし
て接眼レンズ15が視線検出装置の光学系を構成する。
2 is a quick return mirror (primary mirror)
3 is a submirror, and submirror 3 is the main mirror 2.
Shall be supported by The subsequent 6 is a focus detection device, which will be described later in detail, receives light reflected by the main mirror 2 and reflected by the sub-mirror 3 while refracting and passing through the taking lens 1. On the other hand, 7 arranged on the reflected light path of the main mirror 2 is a focusing screen, 8 is a bentagonal prism, 1
Reference numeral 5 denotes an eyepiece, which constitutes a finder system. Reference numeral 9 denotes a light splitter, which is internally provided with a dichroic mirror that reflects infrared light and transmits visible light, and is provided on a finder optical path. 11 is a light emitting and receiving lens, 1
Reference numeral 2 denotes a half mirror, and 13 denotes an illumination point light source such as an LED that emits infrared light. The light source 13 is located at one focal position of a system in which the light projecting / receiving lens 11 and the eyepiece 15 are combined, and the light beam emitted from the light source 13 passes through the half mirror 12, the light projecting / receiving lens 11, the light splitter 9, and the eyepiece. The light exits from 15 as parallel light. Reference numeral 14 denotes a photoelectric converter having an element array, which is arranged at a position where the anterior segment is formed by the eyepiece lens 15 and the light projecting / receiving lens 11, and receives an eyeball image and a corneal reflection image of a light source. The members 9, 11, 12, 13, 14 and the eyepiece 15 constitute an optical system of the eye-gaze detecting device.

【0014】続いて視線の方向の検出方法を図13を使
って説明する。図中20は投受光レンズ11と接眼レン
ズ15を合成したレンズを示すものとし、22は観察者
の眼球を模型眼的に示すもので、21は角膜、23は虹
彩である。
Next, a method of detecting the direction of the line of sight will be described with reference to FIG. In the figure, reference numeral 20 denotes a combined lens of the light projecting / receiving lens 11 and the eyepiece 15, reference numeral 22 denotes a model eye of an observer, reference numeral 21 denotes a cornea, and reference numeral 23 denotes an iris.

【0015】LED13より放射された赤外光はレンズ
20により平行光となり眼球の角膜21を照明する。こ
のとき角膜21の表面で反射した赤外光の一部により形
成される角膜反射像dは虹彩23の近傍に生じレンズ2
0により集光されハーフミラー12を透過し光電変換器
14上の位置d′に再結像する。
The infrared light emitted from the LED 13 is converted into parallel light by the lens 20 to illuminate the cornea 21 of the eyeball. At this time, a corneal reflection image d formed by a part of the infrared light reflected on the surface of the cornea 21 occurs near the iris 23 and the lens 2
The light is condensed by 0, passes through the half mirror 12, and is re-imaged at the position d 'on the photoelectric converter 14.

【0016】また虹彩23の端部a、bからの光束は受
光レンズ20、ハーフミラー12を介して光電変換器1
4上の位置a′、b′に該端部a、bの像を結像する。
レンズ20の光軸アに対する眼球の光軸イの回転角θが
小さい場合、虹彩23の端部a、bのZ座標をZa、Z
bとすると、虹彩23の中心位置cの座標Zcは、 Zc≒(Za+Zb)/2 と表わされる。
The light beams from the ends a and b of the iris 23 are passed through the light receiving lens 20 and the half mirror 12 to the photoelectric converter 1.
An image of the end portions a and b is formed at positions a 'and b' on the upper side 4.
When the rotation angle θ of the optical axis a of the eyeball with respect to the optical axis a of the lens 20 is small, the Z coordinates of the ends a and b of the iris 23 are Za and Z
Assuming that b, the coordinate Zc of the center position c of the iris 23 is expressed as Zc ≒ (Za + Zb) / 2.

【0017】また、角膜反射像の発生位置dのZ座標を
Zd、角膜21の曲率中心Oと虹彩23の中心Cまでの
距離をOCとすると眼球光軸イの回転角θは、 OC*sinθ≒Zc−Zd(1) の関係式を略満足する。ここで角膜反射像の位置dのZ
座標Zdと角膜21の曲率中心のOのZ座標Zoとは一
致している。このため光電変換器14上に投影された各
特異点(角膜反射像dおよび虹彩の端部a、b)の位置
を検出することにより眼球光軸イの回転角θを求めるこ
とができる。この時(1)式は、 β*OC*SINθ≒(Za′+Zb′)/2−Zd′(2) とかきかえられる。ただし、βは角膜反射像の発生位置
dとレンズ20との距離L1とレンズ20と光電変換器
14との距離L0とで決まる倍率である。
If the Z coordinate of the corneal reflection image generation position d is Zd, and the distance between the center of curvature O of the cornea 21 and the center C of the iris 23 is OC, the rotation angle θ of the optical axis A of the eyeball is OC * sin θ関係 Zc−Zd (1) is substantially satisfied. Here, Z at the position d of the corneal reflection image
The coordinate Zd coincides with the Z coordinate Zo of O at the center of curvature of the cornea 21. Therefore, by detecting the position of each singular point (the corneal reflection image d and the end portions a and b of the iris) projected on the photoelectric converter 14, the rotation angle θ of the optical axis a of the eyeball can be obtained. At this time, equation (1) can be rewritten as β * OC * SINθ ≒ (Za ′ + Zb ′) / 2−Zd ′ (2). Here, β is a magnification determined by the distance L1 between the generation position d of the corneal reflection image, the lens 20, and the distance L0 between the lens 20 and the photoelectric converter 14.

【0018】なお、ここでは角膜における反射像いわゆ
るプルキンエ第1像を用いた視線検出方法を示したが、
人眼の構造から水晶体の反射像等、4個のプルキンエ像
の形成が知られており、光電変換器14上にはこれらの
像も形成されることになるがプルキンエ第1像以外は比
較的光強度が低いので、適当な電気処理を施すことで検
出の妨げになることはない。また実際に人が物を見る場
合、黄斑が視界の中央になるため眼球の幾何学的な光軸
と視軸(視線)の間には偏差が存在するが、演算の際に
一定量の修正を施すことで実用上問題がなく、精密な修
正を要する場合には特開平1−241511号公報で説
明した方法が採用できる。
Here, the gaze detection method using the reflected image on the cornea, the so-called Purkinje first image, has been described.
The formation of four Purkinje images, such as a reflection image of a crystalline lens, is known from the structure of the human eye. These images are also formed on the photoelectric converter 14, but other than the Purkinje first image are relatively formed. Since the light intensity is low, detection is not hindered by performing appropriate electric treatment. Also, when a person actually looks at an object, there is a deviation between the geometric optical axis of the eyeball and the visual axis (line of sight) because the macula is at the center of the field of view, but a certain amount of correction When there is no practical problem by applying the method described above, and precise correction is required, the method described in Japanese Patent Application Laid-Open No. 1-241511 can be employed.

【0019】図13の配置で、光電変換器14は図中上
下方向に素子を一次元的に配列しているものとし、検出
装置の単純化のために図14に描く通り各素子14は縦
幅が横幅の数倍以上の短冊形状になっている。これによ
り縦方向の検出は困難となるが、眼球の縦方向の平行移
動もしくは回転に対してほとんど不感にすることができ
て信号処理は簡単になる。なお、類似の作用を得るため
素子の並び方向と垂直な方向に屈折力を持つ円柱レンズ
を光電変換器の前面に接着しても良い。
In the arrangement shown in FIG. 13, it is assumed that the photoelectric converter 14 has one-dimensionally arranged elements in the vertical direction in the figure, and each element 14 is vertically arranged as shown in FIG. It has a strip shape whose width is several times or more the width. This makes it difficult to detect in the vertical direction, but makes it almost insensitive to vertical translation or rotation of the eyeball and simplifies signal processing. In order to obtain a similar effect, a cylindrical lens having a refractive power in a direction perpendicular to the arrangement direction of the elements may be bonded to the front surface of the photoelectric converter.

【0020】図14は光電変換器に瞳孔像61とプルキ
ンエ第1像62が形成された様子を描いており、図15
は正面から見た時の観察眼の像を示す。
FIG. 14 illustrates a state in which a pupil image 61 and a Purkinje first image 62 are formed on the photoelectric converter.
Indicates an image of the observation eye when viewed from the front.

【0021】光電変換器で観察眼の像を受像すると図1
6に示す出力が得られ、65はプリキンエ第1像62に
相当する出力、67と68は虹彩のエッジ部に当り、両
側の高い出力値は強膜(白目)に当る。
When the image of the observation eye is received by the photoelectric converter, FIG.
The output shown in FIG. 6 is obtained, 65 corresponds to the Prekinje first image 62, 67 and 68 correspond to the edges of the iris, and high output values on both sides correspond to the sclera (white eye).

【0022】瞳孔中心はエッジ部67、68の位置情報
から得られる。最も簡単にはエッジ部において、虹彩部
81平均の半値に近い出力を生ずる画素番号をi1 、i
2 とする瞳孔中心の位置座標は i0 =(i1 +i2 )/2 で与えられる。プルキンエ第1像の位置は、瞳孔暗部に
おいて局部的に現われる最大のピークから求められるの
で、この位置と先の瞳孔中心との相対位置関係により、
眼球の回転状況、従って、視線の方向を知ることができ
る。なお、82、83は上下のまぶたである。続いて図
17を使って焦点検出装置の構成を説明するが、本焦点
検出装置は、夫々、複数の検出視野を有するブロックの
1つを選択し得る様になっている。図18は軸上ブロッ
クを選択した場合、図19は軸外ブロックを選択した場
合の光学作用を示している。
The pupil center is obtained from the position information of the edge portions 67 and 68. In the simplest case, in the edge portion, the pixel numbers that produce an output close to the half value of the average of the iris portion 81 are i1, i
The position coordinates of the center of the pupil at 2 are given by i0 = (i1 + i2) / 2. Since the position of the Purkinje first image is determined from the maximum peak locally appearing in the pupil dark part, the relative position relationship between this position and the center of the previous pupil gives:
It is possible to know the rotation state of the eyeball, and thus the direction of the line of sight. In addition, 82 and 83 are upper and lower eyelids. Next, the configuration of the focus detection device will be described with reference to FIG. 17. The focus detection device can select one of blocks having a plurality of detection fields, respectively. FIG. 18 shows the optical action when the on-axis block is selected, and FIG. 19 shows the optical action when the off-axis block is selected.

【0023】図中Xは光軸で、図12のサブミラー3で
反射した後の部位に当る。破線と実践で描かれた部材8
1は視野マスクで、軸上ブロックの検出視野を極める矩
形開口81a、81b、81c左軸外ブロック81d、
81e、81f、右軸外ブロック81g、81h、81
iを具え、撮影レンズの予定結像面またはその近傍に配
される。80は可動マスクで、軸上もしくは両軸外ブロ
ックの1つを選択するための矩形開口80aを具え、視
野マスク81に接近して図示しない保持部材に摺動自在
に支持されているものとする。また可動マスク80の端
部には駆動片122が固設されており、駆動片には雌ね
じが形成されている。121はステッピングモータで、
モータの回転軸にリードスクリュー121aが連結され
る。リードスクリュー121aは先程の駆動片の雌ねじ
に螺合しているので、ステッピングモータに給電される
とリードスクリュー121aが回転し、駆動片122そ
して可動マスク80が矢印A方向に移動する。
In the figure, X is an optical axis, which corresponds to a portion after being reflected by the sub mirror 3 in FIG. Member 8 drawn with dashed lines and practice
Reference numeral 1 denotes a field mask, rectangular openings 81a, 81b, and 81c that maximize the detection field of the on-axis block.
81e, 81f, right off-axis blocks 81g, 81h, 81
i, which are arranged at or near a predetermined imaging plane of the taking lens. A movable mask 80 has a rectangular opening 80a for selecting one of an on-axis or off-axis block, and is slidably supported by a holding member (not shown) close to the field mask 81. . A driving piece 122 is fixedly provided at an end of the movable mask 80, and a female screw is formed on the driving piece. 121 is a stepping motor,
The lead screw 121a is connected to the rotation shaft of the motor. Since the lead screw 121a is screwed with the female screw of the driving piece, when the power is supplied to the stepping motor, the lead screw 121a rotates, and the driving piece 122 and the movable mask 80 move in the direction of arrow A.

【0024】従ってステッピングモータ121を正逆転
することで可動マスクの開口は視野マスク81の3つの
ブロックに対応した3つの位置を選択し得る。
Therefore, by rotating the stepping motor 121 forward and backward, the opening of the movable mask can select three positions corresponding to the three blocks of the field mask 81.

【0025】82は分割フィールドレンズで、軸上ブロ
ックを通過した光束と軸外ブロックを通過した光束に互
いに異なった屈折力を付与し、後述する光電変換素子8
5が良好な状態で光束を受ける様に調整している。84
は2次結像レンズ群で、84aから84dまでの正レン
ズが一体的に作られている。正レンズ84a乃至84d
は3通りの対、即ち84aと84d、84bと84c、
84cと84dを構成する。
Reference numeral 82 denotes a split field lens which gives different refractive powers to the light beam passing through the on-axis block and the light beam passing through the off-axis block, and
5 is adjusted to receive a light beam in a good state. 84
Denotes a secondary imaging lens group, in which positive lenses 84a to 84d are integrally formed. Positive lenses 84a to 84d
Are three pairs: 84a and 84d, 84b and 84c,
84c and 84d.

【0026】83は多孔マスクで、正レンズ84a乃至
84dを通過する光束を規制するため夫々の正レンズに
対応する楕円開口を備える。85は光電変換素子で、組
をなす画素の配列SNS3とSNS4、SNS5とSN
S6、SNS7とSNS8を有し、透明樹脂製のパッケ
ージ86に封入されている。なお、視野マスク81の各
ブロックの上段、中段、下段の検出視野を通過した光束
は光電変換素子85の下段、中段、上段のアレイの組に
夫々、入射することになる。
Reference numeral 83 denotes a multi-hole mask, which has elliptical apertures corresponding to the respective positive lenses for restricting a light beam passing through the positive lenses 84a to 84d. Reference numeral 85 denotes a photoelectric conversion element, which is an array of pixels SNS3 and SNS4, and SNS5 and SN
It has S6, SNS7 and SNS8, and is enclosed in a package 86 made of transparent resin. The light beams that have passed through the upper, middle, and lower detection visual fields of each block of the visual field mask 81 are incident on the lower, middle, and upper arrays of the photoelectric conversion elements 85, respectively.

【0027】図18は可動マスク80の開口80aが対
物レンズ1の光軸上にある場合の例で、焦点検出のため
の光束は、可動マスク開口80a、固定マスク開口81
bを通った後、分割フィールドレンズの中央部82aに
入射する。この分割フィールドレンズ82は中央部にお
いて、多孔マスク83と対物レンズの射出瞳面38とを
共役関係におき、特に、多孔マスクの2つの開口83
b、83cの中心を射出瞳の中心に投影している。ま
た、多孔マスクの開口83b、83cを通った光束は、
その背後に置かれた再結像レンズ84のレンズ部84
b、84cに夫々入射する。2次結像レンズ群のレンズ
84b、84cは対物レンズ1の予定結像面と光電変換
素子85の受光面とを共役な関係におき、一対の物体の
2次像を光電変換素子の受光面上に形成する。この2次
結像レンズによって固定マスクの開口81bの像が形成
される光電変換素子上に配された多数の画素から成る一
対の画素列SNS5、SNS6の逆投影像が測距視野と
なる。上記の2次像は撮影レンズ1の予定結像面に対す
る結像状態に応じて、その相対的間隔が変化するため、
これを光電変換した後、所定の演算を施すことで撮影レ
ンズの結像状態を知ることができる。図20のAiとB
iは光電変換した信号の1例である。
FIG. 18 shows an example in which the opening 80a of the movable mask 80 is located on the optical axis of the objective lens 1. A light beam for focus detection is formed by a movable mask opening 80a and a fixed mask opening 81.
After passing through b, the light enters the central portion 82a of the split field lens. The split field lens 82 has a conjugate relationship between the aperture mask 83 and the exit pupil plane 38 of the objective lens at the center, and in particular, the two apertures 83 of the aperture mask.
The centers of b and 83c are projected on the center of the exit pupil. Further, the luminous flux passing through the openings 83b and 83c of the porous mask is
The lens portion 84 of the re-imaging lens 84 placed behind it
b and 84c. The lenses 84b and 84c of the secondary imaging lens group place the planned imaging surface of the objective lens 1 and the light receiving surface of the photoelectric conversion element 85 in a conjugate relationship, and transfer the secondary images of the pair of objects to the light receiving surface of the photoelectric conversion element. Form on top. A back projection image of a pair of pixel rows SNS5 and SNS6 composed of a number of pixels arranged on the photoelectric conversion element on which an image of the opening 81b of the fixed mask is formed by the secondary imaging lens is a distance measurement field. Since the relative distance between the secondary images changes according to the state of image formation of the imaging lens 1 on the predetermined image formation plane,
After the photoelectric conversion, a predetermined operation is performed to determine the image forming state of the photographing lens. Ai and B in FIG.
i is an example of a signal obtained by photoelectric conversion.

【0028】また、視野マスク81bの上下の開口より
焦点検出系に入射した光束は、2次結像レンズ84b、
84cの作用により、光電変換素子の画素列SNS3、
SNS4、SNS7、SNS8の上に結像し、物体の2
次像を形成する。これらの像も同様に対物レンズの結像
状態に応じて、相対的間隔が変化することを利用して固
定マスク81a、81c部における結像状態を知ること
が可能である。
The light beam incident on the focus detection system from the upper and lower openings of the field mask 81b is incident on the secondary imaging lens 84b.
84c, the pixel column SNS3 of the photoelectric conversion element
Image on SNS4, SNS7, SNS8, 2
The next image is formed. Similarly, it is possible to know the image formation state of the fixed masks 81a and 81c by using the fact that the relative distances of these images change according to the image formation state of the objective lens.

【0029】図19は、可動マスク80の開口80aが
対物レンズ1の光軸から外れた位置にある場合の例で、
焦点検出のための光束は、可動マスク開口80a、固定
マスク開口81eを通った後、分割フィールドレンズ8
2の周辺部82bに入射している。分割フィールドレン
ズの周辺部82bの光軸88は対物レンズの光軸とは異
なり、多孔マスク83と対物レンズ1の射出瞳面38と
を共役関係におくとともに、多孔マスクの開口83a、
83bの中心を射出瞳の中心に投影している。多孔マス
ク83a、83bを通った光束は、2次結像レンズ84
のレンズ部に84a、84bに夫々入射し、光電変換素
子の一対の画素列SNS5、SNS6上に夫々物体の2
次像を形成する。従って図18を使って説明した軸上検
出視野の場合と同様に、一対の2次像を画素列SNS
5、SNS6によって光電変換した信号に対し所定の演
算を施すことによって対物レンズの結像状態を知ること
ができる。また、視野マスク81eの上下の開口につい
ては画素列SNS3、SNS4、SNS7、SNS8上
の像を光電変換することで検出可能である。
FIG. 19 shows an example in which the opening 80a of the movable mask 80 is located off the optical axis of the objective lens 1.
The light beam for focus detection passes through the movable mask opening 80a and the fixed mask opening 81e, and then is split into the divided field lens 8
2 is incident on the peripheral portion 82b. The optical axis 88 of the peripheral portion 82b of the split field lens is different from the optical axis of the objective lens, and the porous mask 83 and the exit pupil plane 38 of the objective lens 1 are conjugated with each other.
The center of 83b is projected on the center of the exit pupil. The light beam that has passed through the porous masks 83a and 83b is
Respectively enter the lens portions 84a and 84b of the photoelectric conversion element, and the object 2 is placed on the pair of pixel rows SNS5 and SNS6 of the photoelectric conversion element.
The next image is formed. Therefore, similarly to the case of the on-axis detection visual field described with reference to FIG.
5. By performing a predetermined operation on the signal photoelectrically converted by the SNS 6, the imaging state of the objective lens can be known. The upper and lower openings of the field mask 81e can be detected by photoelectrically converting images on the pixel rows SNS3, SNS4, SNS7, and SNS8.

【0030】なお、視野マスク81g、81h、81i
側の検出系については、軸対称であるための説明を省略
する。
The field masks 81g, 81h, 81i
A description of the detection system on the side is omitted because it is axially symmetric.

【0031】以上のように、画素列SNS3、SNS4
は視野マスク開口81d、81a、81gの位置におけ
る焦点検出に供され、画素列SNS5、SNS6は開口
81e、81b、81hの位置、画素列SNS7、SN
S8は開口81f、81c、81iの位置での焦点検出
に供される。合計9か所の位置における焦点検出が3対
の画素列で可能になっている。いずれも画素列の2次結
像レンズによる逆投影像が実際の検出視野であって、こ
れらをファインダー視野内に図21の様に表示すれば操
作者に都合が良い。但し、検出枠94a乃至94iを図
12のフォーカシングスクリーンの内1面に書き込んで
も良いし、別にフォーカシングスクリーンの上方に隣接
して例えば液晶表示板16を設け、選択したブロックの
検出視野を表示しても良い。
As described above, the pixel rows SNS3, SNS4
Are used for focus detection at the positions of the field mask openings 81d, 81a, 81g, and the pixel columns SNS5, SNS6 are provided at the positions of the openings 81e, 81b, 81h, and the pixel columns SNS7, SN.
S8 is used for focus detection at the positions of the openings 81f, 81c and 81i. Focus detection at nine positions in total is possible with three pairs of pixel rows. In any case, the back-projected image of the pixel array by the secondary imaging lens is the actual detection visual field, and if these are displayed in the finder visual field as shown in FIG. 21, it is convenient for the operator. However, the detection frames 94a to 94i may be written on one of the focusing screens in FIG. 12, or a separate liquid crystal display panel 16 may be provided adjacent above the focusing screen to display the detection field of the selected block. Is also good.

【0032】図22は、多孔マスク83の詳細図で、特
に射出瞳像との位置関係を示すものである。図中90
a、90b、90cはそれぞれ、分割フィールドレンズ
の中央部82a、周辺部82b、82cによる対物レン
ズ1の射出瞳の像で、視野マスク81の9つの開口を通
して得られたものである。射出瞳像90aの内部には、
多孔マスク開口83b、83cが、射出瞳像90bの内
部には、多孔マスク開口83a、83bが、射出瞳像9
0cの内部には多孔マスク開口83c、83dが夫々置
かれている。多孔マスク開口83b、83cは2つの射
出瞳像の共通する領域にあり、これらには2つの検出視
野からの光束が、可動マスク80の位置により選択的に
入射する。このように、一つのマスク開口が2つの検出
視野からの光束を受けるように構成することによって、
撮影レンズの予定結像面と光電変換素子との投影を縮小
結像として、センサ面積を小さくしつつ、更に視野マス
ク81a乃至81iの光束を光電変換素子上に導くこと
が可能となった。
FIG. 22 is a detailed view of the multi-hole mask 83, particularly showing the positional relationship with the exit pupil image. 90 in the figure
Reference numerals a, 90b, and 90c denote images of the exit pupil of the objective lens 1 by the central portion 82a and the peripheral portions 82b and 82c of the split field lens, respectively, obtained through nine openings of the field mask 81. Inside the exit pupil image 90a,
The multi-aperture mask openings 83b and 83c are inside the exit pupil image 90b, and the multi-aperture mask openings 83a and 83b are
Inside of Oc, porous mask openings 83c and 83d are respectively placed. The multi-aperture mask openings 83b and 83c are located in a common region of the two exit pupil images, and light beams from two detection fields are selectively incident on the positions depending on the position of the movable mask 80. As described above, by configuring one mask opening to receive light beams from two detection fields,
It is possible to guide the luminous fluxes of the field masks 81a to 81i onto the photoelectric conversion element while reducing the sensor area by projecting the projected image plane of the taking lens and the photoelectric conversion element as a reduced image.

【0033】次に、図23はカメラを横に構えている
か、縦に構えているかを検知するためのスイッチを示
す。図12に示す視線検知装置で光電変換器14に2次
元のエリアセンサを採用すれば、カメラの構えに応じて
エリアセンサの縦の辺の出力と横の辺の出力を切り替え
れば水平の視線方向を検出することは可能である。しか
しながら本実施例は光電変換器14に1次元センサを採
用しているため、カメラを縦に構えたときは誤検出を生
じるため、検出を中止する構成を取っている。
Next, FIG. 23 shows a switch for detecting whether the camera is held horizontally or vertically. If a two-dimensional area sensor is used for the photoelectric converter 14 in the eye-gaze detecting device shown in FIG. 12, if the output of the vertical side and the output of the horizontal side of the area sensor are switched according to the camera's attitude, the horizontal eye-gaze direction It is possible to detect However, since the present embodiment employs a one-dimensional sensor for the photoelectric converter 14, erroneous detection occurs when the camera is held vertically, so that the detection is stopped.

【0034】本図は重力を利用した検出スイッチの一例
であって、107は回転軸で、軸支されたレバーの1端
には重り108が、他端には摩擦が少なくなる様に構成
したマイクロブラシ106aが設けられる。109、1
10、111は同一円上に配されたわん曲した電極で、
マイクロブラシ106aと電極109が接触していると
きには横位置信号が発生し、マイクロブラシ106aと
電極110または111が接触しているときは縦位置信
号が発生する。
This drawing is an example of a detection switch using gravity. Reference numeral 107 denotes a rotating shaft, and a weight 108 is provided at one end of a shaft-supported lever and the friction is reduced at the other end. A micro brush 106a is provided. 109, 1
10, 111 are curved electrodes arranged on the same circle.
When the microbrush 106a is in contact with the electrode 109, a horizontal position signal is generated, and when the microbrush 106a is in contact with the electrode 110 or 111, a vertical position signal is generated.

【0035】図24は電気系を主に示す。但し、FLN
Sは図12の鏡筒5に対応し、1はLNSに対応する。
又、LEDは同じく図12の照明光源13、SAは光電
変換器14に当る。またSNSは図12の部材6、詳細
には図17の焦点検出装置の光電源変換素子85に対応
し、MTR3は図17のステッピングモータ121に当
る。因みにMTR1はフィルム給送用モータ、MTR2
はシャッターばね巻上げモータである。またSW1とS
W2は、図示しないレリーズボタンの押し下げで順次閉
成されるスイッチを示し、SPCは露光制御用の測光セ
ンサを示す。DSPはカメラの諸情報を表示する表示板
を示す。
FIG. 24 mainly shows the electric system. However, FLN
S corresponds to the lens barrel 5 in FIG. 12, and 1 corresponds to LNS.
Also, the LED corresponds to the illumination light source 13 in FIG. Further, SNS corresponds to the member 6 in FIG. 12, specifically, the optical power conversion element 85 of the focus detection device in FIG. 17, and MTR3 corresponds to the stepping motor 121 in FIG. MTR1 is a film feed motor, MTR2
Is a shutter spring winding motor. SW1 and S
W2 indicates a switch that is sequentially closed by pressing a release button (not shown), and SPC indicates a photometric sensor for exposure control. DSP indicates a display panel for displaying various information of the camera.

【0036】一方、PRSはカメラの制御装置で、例え
ば、内部にCPU(中央処理装置)、ROM、RAM、
EEPROM(電気的消去可能プログラムマブルRO
M)、A/D変換機能を持つ1チップのマイクロ・コン
ピュータであり、ROMに格納されたカメラのシーケン
スプログラムに従って、自動露出制御機能、自動焦点検
出機能、フィルムの巻上げ・巻戻し等のカメラの動作を
行っている。EEPROMは不揮発性メモリの一種で、
各種の調整データが工程において書き込まれている。カ
メラの制御装置PRSは通信用信号SO、SI、SCL
Kを用いて、周辺回路およびレンズと通信し、各々の回
路やレンズの動作を制御する。
On the other hand, PRS is a camera control device, for example, a CPU (central processing unit), ROM, RAM,
EEPROM (Electrically Erasable Programmable RO)
M) A one-chip microcomputer having an A / D conversion function. The camera has an automatic exposure control function, an automatic focus detection function, and a film winding / rewinding function in accordance with a camera sequence program stored in a ROM. Is working. EEPROM is a type of nonvolatile memory.
Various adjustment data are written in the process. The camera control device PRS includes communication signals SO, SI, SCL
K is used to communicate with peripheral circuits and lenses and control the operation of each circuit and lens.

【0037】SOはPRSから出力されるデータ信号、
SIはPRSに入力されるデータ信号、SCLKは信号
SO、SIの同期信号である。
SO is a data signal output from the PRS,
SI is a data signal input to the PRS, and SCLK is a synchronization signal of the signals SO and SI.

【0038】LCMはレンズ通信バッファ回路であり、
カメラの動作中のときはレンズ用電源VLをレンズに与
え、PRSからの信号CLCMが高電位レベルのとき
は、カメラとレンズ間通信のバッファとなる。
LCM is a lens communication buffer circuit,
When the camera is in operation, the lens power supply VL is supplied to the lens. When the signal CLCM from the PRS is at a high potential level, it serves as a buffer for communication between the camera and the lens.

【0039】PRSがCLCMを“H”にして、SCL
Kに同期して所定のデータをSOから送出すると、LC
Mはカメラ・レンズ間接点を介して、SCLK、SOの
各々のバッファ信号LCK、DCLをレンズへ出力す
る。それと同時にレンズからの信号DLCのバッファ信
号をSIに出力し、PRSはSCLKに同期してSIか
らレンズのデータを入力する。
The PRS sets the CLCM to "H", and the SCL
When predetermined data is transmitted from SO in synchronization with K, LC
M outputs buffer signals LCK and DCL of SCLK and SO to the lens via the camera / lens indirect point. At the same time, a buffer signal of the signal DLC from the lens is output to SI, and the PRS inputs lens data from SI in synchronization with SCLK.

【0040】SDR1は焦点検出用のラインセンサ装置
SNSの駆動回路であり、信号CSDR1が“H”のと
き選択されて、SO、SI、SCLKを用いてPRSか
ら制御される。
SDR1 is a drive circuit of the line sensor device SNS for focus detection, which is selected when the signal CSDR1 is "H" and is controlled by the PRS using SO, SI, and SCLK.

【0041】信号CK1はCCD駆動用クロックφ1
1、φ12を生成するためのクロックであり、信号IN
TEND1は蓄積動作が終了したことをPRSへ知らせ
る信号である。
The signal CK1 is a clock φ1 for driving the CCD.
1, a clock for generating φ12, and a signal IN
TEND1 is a signal for notifying the PRS that the accumulation operation has been completed.

【0042】SNSの出力信号OS1はクロックφ1
1、φ12に同期した時系列の像信号であり、SDR1
内の増幅回路で増幅された後、AOS1としてPRSに
出力される。PRSはAOS1をアナログ入力端子から
入力し、CK1に同期して、内部のA/D変換機能でA
/D変換後RAMの所定のアドレスに順次格納する。
The output signal OS1 of the SNS is the clock φ1
1, a time-series image signal synchronized with φ12, and SDR1
After being amplified by the internal amplifier circuit, the signal is output to the PRS as AOS1. The PRS inputs AOS1 from the analog input terminal, and synchronizes with ACK1 by synchronizing with CK1.
After the / D conversion, the data is sequentially stored at a predetermined address of the RAM.

【0043】同じくSNSの出力信号であるAGC1
は、SNS内のAGC制御用センサの出力であり、SD
R1に入力されて、SNSの蓄積制御に用いられる。
AGC1 which is the output signal of SNS
Is the output of the AGC control sensor in the SNS, and SD
It is input to R1 and used for SNS accumulation control.

【0044】対となるセンサ列上に形成された2像の光
電変換出力の、一方の出力をA(i)、他方の出力をB
(i)として図20にした。尚、この例ではセンサの画
素数を40画素(i=0、・・・、39)としている。
One of the photoelectric conversion outputs of the two images formed on the pair of sensor arrays is denoted by A (i), and the other is denoted by B.
FIG. 20 is shown as (i). In this example, the number of pixels of the sensor is 40 pixels (i = 0,..., 39).

【0045】像信号A(i)、B(i)から像ずれ量P
Rを検出する信号処理方法としては特開昭58−142
306号公報、特開昭59-107313号公報、特開
昭60−101513号公報、あるいは特開昭63−1
8314号などが開示されている。
From the image signals A (i) and B (i), the image shift amount P
Japanese Patent Application Laid-Open No. 58-142 discloses a signal processing method for detecting R.
No. 306, JP-A-59-107313, JP-A-60-101513, or JP-A-63-1
No. 8314 is disclosed.

【0046】SDR2は視線検出用のラインセンサ装置
SAの駆動回路であり、信号CSDR2が“H”のとき
選択されて、SO、SI、SCLKを用いてPRSから
制御される。
SDR2 is a drive circuit of the line sensor device SA for line-of-sight detection, which is selected when the signal CSDR2 is "H" and is controlled by the PRS using SO, SI and SCLK.

【0047】信号CK2はCCD駆動用クロックφ2
1、φ22を生成するためのクロックであり、信号IN
TEND2は蓄積動作が終了したことをPRSへ知らせ
る信号である。
The signal CK2 is a clock φ2 for driving the CCD.
1, a clock for generating φ22, and a signal IN
TEND2 is a signal for notifying the PRS that the accumulation operation has been completed.

【0048】SAの出力信号OS2はクロックφ21、
φ22に同期した時系列の像信号であり、SDR2内の
増幅回路で増幅された後、AOS2としてPRSに出力
される。PRSはAOS2をアナログ入力端子から入力
し、CK2に同期して、内部のA/D変換機能でA/D
変換後RAMの所定のアドレスに順次格納する。
The output signal OS2 of SA is clock φ21,
This is a time-series image signal synchronized with φ22, amplified by an amplifier circuit in SDR2, and output to the PRS as AOS2. The PRS inputs AOS2 from the analog input terminal, and synchronizes with ACK2 in synchronization with CK2.
After conversion, the data is sequentially stored at a predetermined address in the RAM.

【0049】同じくSNS2の出力信号であるAGC2
は、SA内のAGC制御用センサの出力であり、SDR
2に入力されて、SNSの蓄積制御に用いられる。
AGC2 which is the output signal of SNS2
Is the output of the AGC control sensor in the SA, and SDR
2 and used for SNS accumulation control.

【0050】LED(図12の13)は人眼照明用のL
EDで、光電素子SA(図12の14)の蓄積と同期し
てトランジスタTR3によって通電され視線の検出に供
される。
The LED (13 in FIG. 12) is an L for human eye illumination.
In the ED, the current is supplied to the transistor TR3 in synchronization with the accumulation of the photoelectric element SA (14 in FIG. 12), and is used for detecting the line of sight.

【0051】SPCは撮影レンズを介した光を受光する
露出制御用の測光センサであり、その出力SSPCはP
RSのアナログ入力端子に入力され、A/D変換後、自
動露出制御(AE)に用いられる。
SPC is an exposure control photometric sensor that receives light through the taking lens, and its output SSPC is P
The signal is input to the analog input terminal of the RS and is used for automatic exposure control (AE) after A / D conversion.

【0052】DDRはスイッチ・センスおよび表示用回
路であり、信号CDDRが“H”のとき選択されて、S
O、SI、SCLKを用いてPRSから制御される。即
ち、PRSから送られてくるデータに基づいてカメラの
表示部材DSPの表示を切り換えたり、不図示のレリー
ズボタン(スイッチSW1、SW2に連動)をはじめモ
ード設定ボタン等各種操作部材のオン・オフ状態、また
図23に示した重力検出スイッチSWCの状態をPRS
に連絡する。
DDR is a switch sense and display circuit, which is selected when the signal CDDR is "H" and
It is controlled from the PRS using O, SI, and SCLK. That is, the display of the display member DSP of the camera is switched based on the data transmitted from the PRS, and the ON / OFF state of various operation members such as a release button (not shown) (linked with the switches SW1 and SW2) and a mode setting button. The state of the gravity detection switch SWC shown in FIG.
Contact

【0053】MDR1、MDR2はフィルム給送、シャ
ッターばね巻上げ用モータMTR1、MTR2の駆動回
路で、信号M1F、M1R、M2F、M2Rでモータの
正転・逆転を実行する。
MDR1 and MDR2 are driving circuits for the film feeding and shutter spring winding motors MTR1 and MTR2, and execute the forward / reverse rotation of the motors by signals M1F, M1R, M2F and M2R.

【0054】MDR3は、焦点検出装置の可動マスク8
0移動用ステッピングモータMTR3(図9の121)
の駆動回路で信号M3Pで駆動ステップ数、信号M3D
で駆動方向指示を受け、ステッピングモータの各相にパ
ルスを分配し、励磁のための電流増幅を行う。
The MDR 3 is a movable mask 8 of the focus detection device.
Zero-movement stepping motor MTR3 (121 in FIG. 9)
The number of driving steps and the signal M3D with the signal M3P
Receives a drive direction instruction, distributes a pulse to each phase of the stepping motor, and performs current amplification for excitation.

【0055】MG1、MG2は各々シャッター先幕・後
幕走行開始用マグネットで、信号SMG1、SMG2、
増幅トランジスタTR1、TR2で通電され、PRSに
よりシャッター制御が行われる。
MG1 and MG2 are magnets for starting the front and rear curtains of the shutter, respectively, and the signals SMG1, SMG2,
Electric current is supplied to the amplification transistors TR1 and TR2, and shutter control is performed by the PRS.

【0056】SW1、SW2はレリーズボタン87に連
動したスイッチで、レリーズボタン87の第一段階の押
下によりSW1がオンし、引き続いて第2段階の押下で
SW2がオンする。制御装置PRSはSW1オンで測光
・視線検出・自動焦点調節を行い、SW2オンをトリガ
として露出制御とその後のフィルムの巻き上げを行う。
SW1 and SW2 are switches linked to the release button 87. SW1 is turned on when the release button 87 is pressed in the first stage, and SW2 is subsequently turned on when pressed in the second stage. The control device PRS performs photometry, line-of-sight detection, and automatic focus adjustment when SW1 is turned on, and performs exposure control and subsequent film winding with SW2 turned on as a trigger.

【0057】なお、前記SW2はマイクロコンピュータ
である制御装置PRSの「割り込み入力端子」に接続さ
れ、SW1オン時のプログラム実行中でもSW2オンに
よって割り込みがかかり、直ちに所定の割り込みプログ
ラムへ制御を移すことができる。
The switch SW2 is connected to the "interrupt input terminal" of the control device PRS, which is a microcomputer. Even when the program is executed when the switch SW1 is turned on, an interrupt is generated by turning on the switch SW2, and the control is immediately transferred to a predetermined interrupt program. it can.

【0058】なお、スイッチ・センス表示用回路DD
R、モータ駆動回路MDR1、MDR2、シャッター制
御は、本発明と直接関わりがないので、詳しい説明は省
略する。
Note that the switch sense display circuit DD
R, the motor drive circuits MDR1 and MDR2, and the shutter control are not directly related to the present invention, and thus detailed description is omitted.

【0059】LCKに同期してレンズ内制御回路LPR
Sに入力される信号DCLは、カメラからレンズFLN
Sに対する命令のデータであり、命令に対するレンズの
動作が予め決められている。
In-lens control circuit LPR in synchronization with LCK
The signal DCL input to S is transmitted from the camera to the lens FLN.
This is data of a command for S, and the operation of the lens for the command is predetermined.

【0060】LPRSは、所定の手続きに従ってその命
令を解析し、焦点調節や絞り制御の動作や、出力DLC
からのレンズの各種パラメータ(開放Fナンバー、焦点
距離、デフォーカス量対繰出し量の係数等)の出力を行
う。
The LPRS analyzes the command in accordance with a predetermined procedure, and performs operations of focus adjustment and aperture control, and output DLC.
Output various parameters of the lens (open F number, focal length, coefficient of defocus amount vs. extension amount, etc.).

【0061】実施例では、全体繰出しの単レンズの例を
示しており、カメラから焦点調節の命令が送られた場合
には、同時に送られてくる駆動量・方向に従って、焦点
調節用モータLMTRを信号LMF、LMRによって駆
動して、光学系を光軸方向移動させて焦点調節を行う。
光学系の移動量はエンコーダ回路ENCのパルス信号S
ENCでモニターして、LPRS内のカウンタで係数し
ており、所定の移動が完了した時点で、信号LMF、L
MRを“L”にしてモータLMTRをS制御する。
The embodiment shows an example of a single lens which is fully extended. When a focus adjustment command is sent from the camera, the focus adjustment motor LMTR is controlled according to the drive amount and direction sent at the same time. Driven by the signals LMF and LMR, the optical system is moved in the optical axis direction to perform focus adjustment.
The movement amount of the optical system is determined by the pulse signal S of the encoder circuit ENC.
The signal is monitored by the ENC and is counted by the counter in the LPRS. When the predetermined movement is completed, the signals LMF, LMF
The MR is set to "L" and the motor LMTR is S-controlled.

【0062】カメラから絞り制御の命令が送られた場合
には、同時に送られてくる絞り段数に従って、絞り駆動
用としては公知のステッピングモータDMTRを駆動す
る。なお、ステッピングモータはオープン制御が可能な
ため、動作をモニターするためのエンコーダを必要とし
ない。
When an aperture control command is sent from the camera, a known stepping motor DMTR for driving the aperture is driven in accordance with the number of aperture stages sent at the same time. Since the stepping motor can perform open control, it does not require an encoder for monitoring the operation.

【0063】次に図1〜図11を用いてカメラの動作を
説明する。図1はPRSに格納されたプログラムの全体
の流れを表わすフローチャートである。上記操作にてプ
ログラムの実行が開始されると、ステップ(002)に
おいてレリーズボタンの第1ストロークにてオンとなる
スイッチSW1の状態検知がなされスイッチSW1がオ
フのときは、ステップ(005)において、レンズに対
して「駆動停止命令」を送出することによって、駆動停
止の指示がなされる。ステップ(005)でPRS内の
RAMに設定されている制御用のフラグが、全てクリア
される。上記ステップ(002)、(005)はスイッ
チSW1がオンとなるか、あるいは電源スイッチがオフ
となるまで繰り返し実行され、従って、レンズ駆動中で
あっても、SW1がオンするとレンズは駆動を停止する
ことになる。SW1がオンとなることによってステップ
(003)へ移行する。ステップ(003)は「AE制
御」のサブルーチンを意味している。この「AE制御」
サブルーチンでは測光演算処理、露光制御ならびに露光
後のシャッターチャージ、フィルム巻き上げ等の一連の
カメラ動作制御が行われる。なお、「AE制御」サブル
ーチンは本発明とは直接関わりがないので詳細な説明は
省略するが、このサブルーチンの機能の概要は次の通り
である。
Next, the operation of the camera will be described with reference to FIGS. FIG. 1 is a flowchart showing the entire flow of the program stored in the PRS. When the execution of the program is started by the above operation, the state of the switch SW1 which is turned on by the first stroke of the release button is detected in step (002), and when the switch SW1 is turned off, in step (005), By sending a “drive stop command” to the lens, a drive stop instruction is issued. At step (005), all the control flags set in the RAM in the PRS are cleared. The above steps (002) and (005) are repeatedly executed until the switch SW1 is turned on or the power switch is turned off. Therefore, even when the lens is being driven, when the switch SW1 is turned on, the lens stops driving. Will be. When SW1 is turned on, the process proceeds to step (003). Step (003) means a subroutine of "AE control". This "AE control"
In the subroutine, a series of camera operation controls such as photometric calculation processing, exposure control, shutter charge after exposure, and film winding are performed. The "AE control" subroutine is not directly related to the present invention, and therefore detailed description is omitted, but the outline of the function of this subroutine is as follows.

【0064】SW1がオン中はこの「AE制御」サブル
ーチンが実行され、その度に測光および露光制御演算、
表示が行われる。不図示のレリーズボタンの第2ストロ
ークでスイッチSW2がオンになると、マイクロコンピ
ュータDRSの持つ割り込み処理機能によってレリーズ
動作が開始され、上記露光制御演算で求められた露光量
に基づいて絞りあるいはシャッター秒時の制御を行い、
露光終了後にはシャッターチャージおよびフィルム給送
動作を行うことによってフィルム1コマの撮影が完了す
る。
While the switch SW1 is on, the "AE control" subroutine is executed.
Display is performed. When the switch SW2 is turned on by the second stroke of the release button (not shown), the release operation is started by the interrupt processing function of the microcomputer DRS, and the aperture or the shutter time is set based on the exposure amount obtained by the above exposure control calculation. Control the
After the exposure is completed, the shutter charge and the film feeding operation are performed to complete the shooting of one frame of the film.

【0065】なお本発明の実施例のカメラはAFのモー
ドとして、いわゆる「ワンショット」と「サーボ」とい
う2つのモードを有し、被写体に応じて自動的に切り換
わるようになっている。AFモードがワンショットのと
きには、一旦合焦するとスイッチSW1をオフするまで
は再びレンズ駆動動作を行わず、また合焦するまではレ
リーズもできないようになっている。
The camera of the embodiment of the present invention has so-called "one-shot" and "servo" as AF modes, and switches automatically according to the subject. When the AF mode is one-shot, once focus is achieved, the lens driving operation is not performed again until the switch SW1 is turned off, and release is not possible until focus is achieved.

【0066】サーボモードの場合には、合焦後も引き続
き被写体の動きに追従したレンズ駆動を行い、後述する
動体予測制御によるレンズ駆動が終了した時点でレリー
ズが許可される。
In the case of the servo mode, the lens is driven to follow the movement of the subject even after focusing, and the release is permitted when the lens driving by the moving object prediction control described later is completed.

【0067】先に述べたように、レリーズ動作はスイッ
チSW2オンによって行われるが、フィルム1コマの撮
影が完了した後もSW2をオンさせたままの場合も、
「AE制御」は一旦終了されたものとしてリターンす
る。従って、SW2をオンさせたままの動作を説明する
と、ワンショットの場合には、合焦するまではレリーズ
できず、合焦すると初めてレリーズ可となり、1コマの
撮影を行う、その後はワンショットなので焦点調節は行
わず、同じレンズ位置のまま次のコマの撮影が行われ、
スイッチSW2がオンしている間は引き続いて撮影が実
行される。
As described above, the release operation is performed by turning on the switch SW2. However, even when the switch SW2 is kept on even after the photographing of one frame of the film is completed, the release operation is performed.
The “AE control” returns assuming that it has been once ended. Therefore, the operation with the SW2 turned on will be described. In the case of a one-shot, the release cannot be performed until the in-focus state is reached. The focus adjustment is not performed, the next frame is shot with the same lens position,
While the switch SW2 is on, shooting is continuously performed.

【0068】サーボモードの場合はスイッチSW2がオ
ンしている間は、「レリーズ動作」「AF制御」「レリ
ーズ動作」「AF制御」というように交互に繰り返され
ることになる。
In the case of the servo mode, while the switch SW2 is on, the operation is alternately repeated such as "release operation", "AF control", "release operation", "AF control".

【0069】さて、以上述べたようにステップ(00
3)において「AF制御」サブルーチンが終了すると、
ステップ(004)の「AF制御」サブルーチンが実行
される。
Now, as described above, step (00)
When the “AF control” subroutine ends in 3),
The "AF control" subroutine of step (004) is executed.

【0070】図2に「AF制御」サブルーチンのフロー
チャートを示す。
FIG. 2 shows a flowchart of the "AF control" subroutine.

【0071】まずステップ(108)ではフラグPRM
Vの状態判別を行う。PRMVは後で述べるように、レ
ンズ制御に関わるフラグで、前回の「AF制御」におい
てレンズ駆動を行ったときに1にセットされるフラグで
ある。いまはスイッチSW1オンから一回目のフローに
ついて述べているのでフラグPRMVは0であり、ステ
ップ(112)に移行する。
First, in step (108), the flag PRM is set.
The state of V is determined. PRMV is a flag related to lens control, which will be set to 1 when the lens is driven in the previous “AF control”, as described later. Since the first flow since the switch SW1 is turned on has been described, the flag PRMV is 0, and the flow shifts to step (112).

【0072】ステップ(112)ではフラグSRMVの
状態を検知しているが、SRMVもレンズ制御に関わる
フラグであり、いまはSRMV=0なのでステップ(1
55)へ移行する。ステップ(155)ではフラグLM
VDIを検知し、やはりであるのでステップ(15
0)へ移行する。
In step (112), the state of the flag SRMV is detected. However, SRMV is also a flag relating to lens control.
Go to 55). In step (155), the flag LM
VDI is detected, and since it is also 0 , step (15)
Go to 0).

【0073】ステップ(150)では「視線検出」サブ
ルーチンを実行する。このサブルーチンを図4に示して
いる。ここで撮影者の視線の位置を検出する。なお、こ
のサブルーチンおよび続くサブルーチンの詳細は後述す
る。
In step (150), a "line-of-sight detection" subroutine is executed. This subroutine is shown in FIG. Here, the position of the line of sight of the photographer is detected. The details of this subroutine and the following subroutine will be described later.

【0074】ステップ(151)では、図11に示した
測距視野範囲設定サブルーチンに従い視線検出結果に基
づいて、図17に示した3ブロック9ヵ所測距視野のう
ち、視線位置に最も近い一ブロックを選択し、ステッピ
ングモータ121を制御して可動マスク80の開口を所
望の位置にセットする。
In step (151), one block closest to the line-of-sight position among the three blocks of nine distance-measuring fields shown in FIG. 17 based on the line-of-sight detection result in accordance with the distance-measuring field-of-view range setting subroutine shown in FIG. Is selected, and the stepping motor 121 is controlled to set the opening of the movable mask 80 at a desired position.

【0075】次のステップ(129)では、「焦点検
出」サブルーチンを実行する。このサブルーチンのフロ
ーチャートは図5に示しているが、このサブルーチン内
で撮影レンズの焦点状態を3つの測距視野について検出
する。これに続くステップ(102)では図3に示すサ
ブルーチンにて被写体が動いているか、静止しているか
を検知してAFモードを設定するが、一回目のフローに
おいては、ワンショットモードとしてAFOFLGはク
リアされてリターンされる。
In the next step (129), a "focus detection" subroutine is executed. The flowchart of this subroutine is shown in FIG. 5. In this subroutine, the focus state of the photographing lens is detected for three distance measurement fields. In the subsequent step (102), the AF mode is set by detecting whether the subject is moving or stationary in the subroutine shown in FIG. 3. In the first flow, AFOFLG is cleared as the one-shot mode. Returned.

【0076】ステップ(152)ではフラグAFOFL
Gの状態検知を行い、一回目のフローではであるので
ステップ(130)に移行する。
In step (152), the flag AFOFL is
The state of G is detected, and since it is 0 in the first flow, the flow proceeds to step (130).

【0077】次のステップ(130)では「判定」サブ
ルーチンを実行する。このサブルーチンのフローチャー
トは図に示している。「判定」サブルーチンは「焦点
検出」サブルーチンの結果に基づいて、3つの測距視野
のうち、焦点調節に用いる一つの測距視野を選択すると
ともに、合焦あるいは焦点検出不能等の判定を行い、さ
らにレンズ駆動が必要ない場合には、レンズ駆動禁止フ
ラグLMVDIをにセットする。
In the next step (130), a "determination" subroutine is executed. Flow chart of this subroutine is shown in FIG. The “judgment” subroutine selects one of the three distance measurement fields of view used for focus adjustment based on the result of the “focus detection” subroutine, and determines whether focusing or focus detection is impossible, and the like. If lens drive is not required, the lens drive prohibition flag LMVDI is set to 1 .

【0078】次にステップ(131)では、合焦または
焦点検出不能を表示するための「表示」サブルーチンを
実行する。これは表示用回路DDR(図13)に所定の
データを通信して、表示装置DSPに表示せしめるわけ
であるが、この動作は本発明とは直接関わりがないの
で、これ以上の説明は省略する。
Next, in a step (131), a "display" subroutine for displaying an in-focus state or an inability to detect a focus is executed. This means that predetermined data is communicated to the display circuit DDR (FIG. 13) and displayed on the display device DSP. However, since this operation is not directly related to the present invention, further description is omitted. .

【0079】ステップ(132)ではフラグLMVDI
の状態を検知する。先に述べたように、レンズ駆動が必
要ない場合にはLMVDIが1にセットされるので、ス
テップ(132)においてLMVDI=1ならばステッ
プ(133)へ移行して「AF制御」サブルーチンをリ
ターンする。フラグLMVDIが0ならば、ステップ
(134)へ移行して、フラグLCFLGの状態検知を
行う。
In step (132), the flag LMVDI
Detect the state of. As described above, if lens drive is not required, LMVDI is set to 1, and if LMVDI = 1 in step (132), the flow advances to step (133) to return to the "AF control" subroutine. . If the flag LMVDI is 0, the process proceeds to step (134) to detect the state of the flag LCFLG.

【0080】LCFLGは、ステップ(129)の「焦
点検出」サブルーチン内で設定される低コントラストフ
ラグで、像信号のコントラストが所定値より低い場合に
1にセットされている。ステップ(134)においてL
CFLGが0ならば、焦点検出するにコントラスト充分
であったということになり、ステップ(135)におい
て後述の「レンズ駆動」を行ったのち、ステップ(13
6)でレンズ駆動フラグPRMVを1にセットし、ステ
ップ(137)で「AF制御」サブルーチンをリターン
する。
LCFLG is a low contrast flag set in the "focus detection" subroutine of step (129), and is set to 1 when the contrast of the image signal is lower than a predetermined value. In step (134), L
If CFLG is 0, it means that the contrast is sufficient for focus detection, and after performing "lens drive" described later in step (135), step (13)
In step 6), the lens drive flag PRMV is set to 1, and in step (137), the "AF control" subroutine is returned.

【0081】ステップ(134)においてLCFLGが
1ならば、低コントラストであったとして、ステップ
(138)へ移行する。
If LCFLG is 1 in step (134), it is determined that the contrast is low, and the flow proceeds to step (138).

【0082】ステップ(138)以降のステップは、い
わゆる「サーチ動作」の最初の制御フローである。
The steps after step (138) are the first control flow of the so-called "search operation".

【0083】さて、ステップ(138)では、レンズと
通信して、焦点調節レンズの移動量をそれに連動したエ
ンコーダの出力パルスで計数する「距離環カウンタ」の
カウント値FCNTをレンズ内制御装置LPRSから入
力する。このカウンタはレンズ用の電源VLの供給開始
時に0にリセットされ、繰出し方向はアップカウント、
繰り込み方向はダウンカウントというように決められて
いる。
In step (138), the count value FCNT of the "distance ring counter" which communicates with the lens and counts the amount of movement of the focusing lens by the output pulse of the encoder associated therewith is transmitted from the in-lens control device LPRS. input. This counter is reset to 0 when the supply of the power supply VL for the lens is started, and the feeding direction is counted up,
The rewinding direction is determined as a down count.

【0084】従って、距離環カウンタのカウント値FC
NTによってレンズ内の焦点調節レンズの光軸方向に対
する相対位置を知ることができる。
Therefore, the count value FC of the distance ring counter
The relative position of the focus adjusting lens in the lens with respect to the optical axis direction can be known by NT.

【0085】次のステップ(139)において、カウン
ト値FCNTをマイクロコンピュータPRS内部のRA
M上の変換領域LPOSに格納・記憶しておく、このカ
ウント値はサーチ動作を開始したときのレンズの相対位
置を表わし、後で述べるように、サーチ動作によってコ
ントラスト充分な被写体を検知できなかった場合に、こ
のサーチ開始レンズ位置にレンズを戻すために使われ
る。
In the next step (139), the count value FCNT is stored in the RA inside the microcomputer PRS.
This count value is stored and stored in the conversion area LPOS on M. This count value indicates the relative position of the lens at the start of the search operation. As will be described later, an object having sufficient contrast cannot be detected by the search operation. In this case, it is used to return the lens to the search start lens position.

【0086】続いて、ステップ(140)でレンズに対
して「至近方向駆動命令」を送出し、これによりサーチ
動作が開始される。レンズはこの命令を受けて、焦点調
節レンズを至近方向へ駆動させる。この命令は駆動量は
指定せずに、単に駆動方向のみを指示する命令であり、
焦点調節レンズが至近端の機械的限界にくれば、レンズ
内制御回路LPRSがそれを検知してレンズ自身が駆動
を停止する。なお、機械的限界位置の検知は、エンコー
ダパルスSENCの時間間隔によって認識する。ステッ
プ(141)では変数SRCNT、フラグSRMVを1
にセットする。SRCNTはサーチ動作の状態を表わす
変数で、サーチ動作を行っていないときには0、レンズ
が至近方向へ駆動しているときには1、無限方向へ駆動
しているときには2、サーチ開始レンズ位置に向かって
駆動しているときには3に設定される。いまここではレ
ンズを至近方向へ駆動させたので、変数SRCNTには
1を設定する。またSRMVはサーチ動作のレンズ駆動
を行ったことを表わすフラグである。
Subsequently, in step (140), a "close-direction driving command" is transmitted to the lens, whereby the search operation is started. The lens receives this command and drives the focusing lens in the closest direction. This command does not specify the driving amount, but simply indicates the driving direction.
When the focus adjustment lens reaches the mechanical limit at the near end, the lens control circuit LPRS detects this and stops driving the lens itself. The detection of the mechanical limit position is recognized based on the time interval of the encoder pulse SENC. In step (141), the variable SRCNT and the flag SRMV are set to 1
Set to. SRCNT is a variable indicating the state of the search operation, and is 0 when the search operation is not performed, 1 when the lens is driven in the close direction, 2 when the lens is driven in the infinite direction, and is driven toward the search start lens position. Is set to 3. Here, since the lens is driven in the close direction, the variable SRCNT is set to 1. SRMV is a flag indicating that the lens drive for the search operation has been performed.

【0087】ステップ(138)〜(141)にてサー
チ動作の最初の制御を行われ、ステップ(142)で
「AF制御」サブルーチンをリターンする。
The first control of the search operation is performed in steps (138) to (141), and the "AF control" subroutine is returned in step (142).

【0088】図1にてステップ(003)の「AF制
御」サブルーチンが終了すると、再びステップ(00
2)でスイッチSW1の状態判別を行っている。ここ
で、SW1がオフされていればステップ(003)でレ
ンズに対して「駆動停止命令」を送出する。即ち、前回
の「AF制御」サブルーチンで何らかのレンズ駆動命令
を出していたとしても、スイッチSW1がオフしたとき
にはレンズ駆動を停止させる。そして、次のステップ
(005)で全フラグをクリアする。
When the "AF control" subroutine of step (003) is completed in FIG.
In step 2), the state of the switch SW1 is determined. If the switch SW1 is turned off, a "drive stop command" is sent to the lens in step (003). That is, even if a certain lens driving command is issued in the previous “AF control” subroutine, the lens driving is stopped when the switch SW1 is turned off. Then, in the next step (005), all flags are cleared.

【0089】ステップ(002)でスイッチSW1がオ
ンのままならば、ステップ(003)の「AE制御」サ
ブルーチンを実行後、ステップ(005)で再び「AF
制御」サブルーチンの実行を開始する。
If the switch SW1 remains on at step (002), the "AE control" subroutine of step (003) is executed, and then "AF" is again executed at step (005).
Control ”subroutine is started.

【0090】スイッチSW1がオン中の「AF制御」サ
ブルーチン(図2)の流れを、場合分けして以下に説明
してゆく。
The flow of the "AF control" subroutine (FIG. 2) while the switch SW1 is on will be described below for each case.

【0091】(A)先ず、過去の「AF制御」サブルー
チンで、低コントラストでなく(フラグLCFLG(1
34)が0)、レンズ駆動が行われた(フラグPRMV
(108)が1)場合について述べる。
(A) First, in the past “AF control” subroutine, instead of low contrast (flag LCFLG (1
34) is 0), the lens is driven (flag PRMV
The case where (108) is 1) will be described.

【0092】「AF制御」サブルーチンが実行される
と、ステップ(108)にてフラグPRMVの状態判別
を行い、ステップ(109)へ移行する。ステップ(1
09)ではレンズと通信して、レンズ内制御回路LPR
Sからレンズ駆動状態の情報を入力する。ここで所定の
駆動を完了しレンズが既に停止していれば、ステップ
(110)へ移行してフラグPRMVをクリアした後、
ステップ(129)以降の新たな焦点調節動作を開始す
る。但し、ワンショットモードとサーボモードで測距視
野決定の取扱いが異なり、ステップ(156)におい
て、フラグAFOFLGが1であれば、ステップ(15
0)に移行して再び視線検出を行い、0であれば、ステ
ップ(129)に移行して前回を同じ測距視野範囲にて
焦点検出を行う。レンズが未だ停止していなければステ
ップ(111)へ移行して「AF制御」サブルーチンを
リターンする。即ち、過去の「AF制御」のステップ
(135)でレンズに対して指示した量の駆動が終了す
るまでは、新たな焦点調節動作は行わないことになる。
When the "AF control" subroutine is executed, the state of the flag PRMV is determined in step (108), and the flow advances to step (109). Step (1
09) communicates with the lens, and the control circuit LPR in the lens.
From S, information on the lens driving state is input. If the predetermined drive is completed and the lens has already stopped, the process proceeds to step (110) to clear the flag PRMV,
A new focus adjustment operation after step (129) is started. However, in the one-shot mode and the servo mode, the handling of the distance measurement visual field determination is different, and if the flag AFOFLG is 1 in step (156), step (15)
Go to step 0) to perform line-of-sight detection again. If it is 0, go to step (129) to perform focus detection in the same distance measurement field of view in the previous time. If the lens has not been stopped, the process proceeds to step (111) and returns to the "AF control" subroutine. That is, a new focus adjustment operation is not performed until the drive of the amount specified for the lens in the past “AF control” step (135) is completed.

【0093】(B)次に、前回の「AF制御」サブルー
チンで、低コントラスト(フラグLCFLGが1)で、
サーチ動作が行われた(フラグSRMVが1)場合につ
いて述べる。
(B) Next, in the previous "AF control" subroutine, with low contrast (the flag LCFLG is 1),
The case where the search operation is performed (the flag SRMV is 1) will be described.

【0094】「AF制御」サブルーチンが実行される
と、ステップ(112)にてフラグSRMVの状態検知
を行い、ステップ(113)へ移行する。
When the "AF control" subroutine is executed, the state of the flag SRMV is detected in step (112), and the flow advances to step (113).

【0095】ステップ(113)ではレンズからレンズ
駆動状態の情報を入力し、レンズが既に停止していれば
ステップ(119)へ移行し、駆動中ならばステップ
(153)へ移行する。前述したようにサーチ動作は (イ)レンズを至近方向へ駆動する(変数SRCNT=
1) (ロ)(イ)の駆動中にコントラストのある被写体を発
見できずに、焦点調節レンズが至近側機械的限界に達す
れば、今後はレンズを無限方向へ駆動する(変数SRC
NT=2) (ハ)(ロ)の駆動中にコントラストのある被写体を発
見できずに、焦点調節レンズが無限側機械的限界に達す
れば、今後はレンズをサーチ開始レンズ位置へ駆動する
(変数SRCNT=3)という制御を行っている。
In step (113), information on the lens driving state is input from the lens. If the lens has already stopped, the flow proceeds to step (119), and if the lens is being driven, the flow proceeds to step (153). As described above, the search operation is performed by (a) driving the lens in the closest direction (variable SRCNT =
1) If the focusing lens reaches the mechanical limit on the near side without finding a subject with contrast during the driving of (b) and (a), the lens is driven infinitely in the future (variable SRC)
NT = 2) (c) If a subject with contrast cannot be found during the driving of (b) and the focusing lens reaches the mechanical limit on the infinity side, the lens is driven to the search start lens position in the future (variable) (SRCNT = 3).

【0096】サーチ動作中においては、焦点検出の前段
に必ず視線検出を行い、そのつど測距視野範囲を設定し
直す。これは一回目のフローで視線位置に基づいて測距
視野範囲を設定したにもかかわらず、焦点検出の結果が
低コントラストであり、サーチ動作に入ったということ
は、撮影レンズの初期デフォーカスが極めて大きく、撮
影者が被写体を正確に知覚していなかった可能性を示し
ており、この状態での視線検出結果は意味を持たないた
めのものである。上記ステップ(153)とステップ
(154)における視線検出と測距視野範囲の設定サブ
ルーチンがこの動作である。
During the search operation, the line of sight is always detected before the focus detection, and the range of the distance measurement visual field is reset each time. This is because despite the fact that the range of the field of view was set based on the line-of-sight position in the first flow, the focus detection result was low contrast, and the search operation was started. This is extremely large, indicating that the photographer may not have correctly perceived the subject, and the gaze detection result in this state has no meaning. The line of sight detection and the subroutine for setting the distance measurement visual field range in the above steps (153) and (154) are this operation.

【0097】ステップ(114)にて「焦点検出」サブ
ルーチンを実行する。このサブルーチンでは被写体のデ
フォーカス量とコントラストを検出する。次にステップ
(115)において低コントラストフラグLCFLGの
状態判定を行い、LCFLGが1で低コントラストなら
ばステップ(117)で「AF制御」サブルーチンをリ
ターンする。即ち、サーチ動作において焦点検出を行っ
たとき、低コントラストならば何もしないことになる。
In step (114), a "focus detection" subroutine is executed. In this subroutine, the defocus amount and the contrast of the subject are detected. Next, in step (115), the state of the low contrast flag LCFLG is determined, and if LCFLG is 1 and the contrast is low, the "AF control" subroutine is returned in step (117). That is, when focus detection is performed in the search operation, nothing is performed if the contrast is low.

【0098】ここでフラグLDFLGが0で低コントラ
ストでないと判定されたときには、ステップ(116)
へ移行し、レンズに対して「駆動停止命令」を送出す
る。次にステップ(118)でフラグSRMVをクリア
した後、ステップ(129)で新たな焦点調節制御を行
うことになる。即ち、サーチ動作中の焦点検出で低コン
トラストでない、つまり焦点検出するに充分なコントラ
ストを検出した場合には、レンズを停止させてサーチ動
作を終了(SRMVを0とする)し、同じ測距視野範囲
にて新たな焦点調節を行うのである。
If the flag LDFLG is 0 and it is determined that the contrast is not low, step (116) is performed.
Then, a “drive stop command” is sent to the lens. Next, after clearing the flag SRMV in step (118), new focus adjustment control is performed in step (129). That is, when the focus detection during the search operation is not low contrast, that is, when a contrast sufficient for focus detection is detected, the lens is stopped and the search operation is terminated (SRMV is set to 0), and the same distance measurement field of view is set. A new focus adjustment is made in the range.

【0099】上述した(イ)の動作でコントラストを検
出できないときには、レンズの焦点調節レンズが至近側
の機械的限界にたっするまで、「AF制御」サブルーチ
ンが実行される度にステップ(117)で「AF制御」
サブルーチンをリターンすることになる。
If the contrast cannot be detected by the above operation (a), each time the "AF control" subroutine is executed until the focusing lens of the lens reaches the mechanical limit on the closest side, the flow goes to step (117). "AF control"
The subroutine will return.

【0100】レンズが至近端に達すると、ステップ(1
13)でレンズ停止を検知してステップ(119)へ移
行する。いま上記(イ)の場合について述べているから
ステップ(120)へ移行する。なお、(ロ)の場合な
らばステップ(119)からステップ(123)へ移行
し、ここでステップ(124)へ移行する。(ハ)の場
合にはここでステップ(161)へ移行してサーチ動作
を終了するわけであるが、(ロ)(ハ)の場合について
は後述する。
When the lens reaches the near end, step (1)
At 13), the lens stop is detected, and the routine proceeds to step (119). Since the above case (a) has been described, the flow shifts to step (120). In the case of (b), the process proceeds from step (119) to step (123), and then proceeds to step (124). In the case of (c), the process proceeds to step (161) to end the search operation. The cases of (b) and (c) will be described later.

【0101】さて、ステップ(120)では変数SRC
NTに1を加えている。これはレンズが至近端に達した
ので、次に無限方向へ駆動させるためで、次のステップ
(121)でレンズに「無限方向駆動命令」を送出し、
上記サーチ動作(ロ)が開始される。そしてステップ
(122)で「AF制御」サブルーチンをリターンす
る。(ロ)動作中にもコントラストが得られない場合の
制御は先に述べた(イ)の場合と同じく、「AF制御」
サブルーチンが実行される度に、ステップ(117)で
リターンし、コントラストが検出された場合も(イ)と
同様である。
In step (120), the variable SRC
One is added to NT. This is because the lens has reached the near end, so that the lens is driven in the infinite direction next. In the next step (121), an "infinite direction driving command" is sent to the lens.
The search operation (b) is started. Then, in a step (122), the "AF control" subroutine is returned. (B) The control when the contrast cannot be obtained even during the operation is the same as the "AF control" as in the case (a) described above.
Each time the subroutine is executed, the process returns in step (117), and the same applies to the case where the contrast is detected.

【0102】レンズの焦点調節レンズが無限側の機械的
限界に達すると、ステップ(113)でレンズ停止を検
知し、ステップ(119)を経てステップ(123)へ
移行する。いまサーチ動作は(ロ)であるからSRCN
Tは2であり、ステップ(123)からステップ(12
4)へ移行する。ステップ(124)では変数SRCN
Tに1を加えており、これによりサーチ動作(ハ)の動
作となる。
When the focusing lens of the lens reaches the mechanical limit on the infinity side, the stop of the lens is detected in step (113), and the process proceeds to step (123) via step (119). Now the search operation is (b), so SRCN
T is 2, and from step (123) to step (12)
Go to 4). In step (124), the variable SRCN
T is incremented by one, which results in the search operation (c).

【0103】ステップ(125)では前述した距離環カ
ウンタ値FCNTを入力し、ステップ(126)で変数
FPにLPOS−FCNTの値を格納する。変数LPO
Sはサーチ動作をしたときの距離環カウンタの値が格納
されており、これから現在のカウンタ値を減算したFP
は、現在のレンズ位置からサーチ開始位置までの距離環
カウンタ値を表わしている。このFPをステップ(12
7)にてレンズへ送出して、距離環カウンタ値でFPな
る量のレンズ駆動を命令する。即ち、レンズをサーチ開
始位置へ駆動するわけである。そしてステップ(12
8)で「AF制御」サブルーチンをリターンする。サー
チ動作(ハ)の動作中の制御はこれまで述べた(イ)
(ロ)の場合と同様である。
In step (125), the above-described distance ring counter value FCNT is input, and in step (126), the value of LPOS-FCNT is stored in the variable FP. Variable LPO
S stores the value of the distance ring counter at the time of the search operation, and subtracts the current counter value from this value.
Represents the distance ring counter value from the current lens position to the search start position. This FP is transferred to step (12
At 7), the lens is sent to the lens to instruct the lens to be driven by the amount of FP by the distance ring counter value. That is, the lens is driven to the search start position. And step (12)
In step 8), the "AF control" subroutine is returned. The control during the operation of the search operation (c) has been described so far (a)
This is the same as in (b).

【0104】焦点調節レンズがサーチ開始位置に達する
と、ステップ(113)でレンズ停止が検知され、ステ
ップ(119)、(123)を経て、ステップ(11
8)でフラグSRMVをクリアしてサーチ動作を終了し
た後、ステップ(129)以降で新たな焦点調節動作を
開始する。
When the focus adjustment lens reaches the search start position, the stop of the lens is detected in step (113), and the process proceeds to steps (119) and (123), and then to step (11).
After the flag SRMV is cleared in 8) and the search operation is completed, a new focus adjustment operation is started in step (129) and subsequent steps.

【0105】次に2回目以降のAF制御のフローについ
て述べる。そのためにまずステップ(102)の動体検
知サブルーチンについて詳述する。
Next, the flow of AF control after the second time will be described. For that purpose, first, the moving object detection subroutine of step (102) will be described in detail.

【0106】図3に動体検知サブルーチンを示す。この
フローはワンショットモードで合焦後、あるいはワンシ
ョットモードで合焦に致らない場合に、像面上における
被写体の連続した移動を検知することによって、AFモ
ードをサーボに変更する機能を有する。
FIG. 3 shows a moving object detection subroutine. This flow has a function of changing the AF mode to servo by detecting continuous movement of the subject on the image plane after focusing in the one-shot mode or when focusing is not achieved in the one-shot mode. .

【0107】まずステップ(624)において、フラグ
AFOFLGの状態を検知し、1であればステップ(6
23)へ移行し、ただちにサブルーチンをリターンす
る。これは一度サーボモードに入ったらワンショットモ
ードへ戻らないようにするためであり、モード間のハン
チング現象を防止するための処置である。
First, in step (624), the state of the flag AFOFLG is detected.
Go to 23), and immediately return to the subroutine. This is to prevent returning to the one-shot mode once the servo mode is entered, and is a measure for preventing a hunting phenomenon between modes.

【0108】ステップ(602)では、図2のステップ
(129)での焦点検出で前回のフローにて選択した測
距視野において焦点検出が可能か否かを判別し、焦点検
出が可能であればステップ(603)へ進みそうでなけ
れば、動体検知動作を初期状態に戻すべく、ステップ
(620)へ移行する。
In step (602), it is determined whether or not focus detection is possible in the focus detection field selected in the previous flow in the focus detection in step (129) in FIG. If the process does not proceed to step (603), the process proceeds to step (620) to return the moving object detection operation to the initial state.

【0109】以降の説明において、デフォーカス量とは
前回あるいは前々回のフローにおいては、選択された測
距視野での値である。
In the following description, the defocus amount is a value in the selected distance-measuring visual field in the previous or two-last flow.

【0110】ステップ(603)では、前々回検出のデ
フォーカス量DF2をDF1へ、前回のデフォーカス量
DF3をDF2へ、今回のデフォーカス量DEFをDF
3に入力し、データの更新を行う。次のステップ(60
4)では焦点検出が3回連続して行えたかどうかを判別
し、ACNT=3であればステップ(607)へ移行
し、そうでなければステップ(605)へ移行する。
In step (603), the defocus amount DF2 detected two times before is set to DF1, the previous defocus amount DF3 is set to DF2, and the current defocus amount DEF is set to DF1.
3 and update the data. Next step (60
In 4), it is determined whether or not focus detection has been performed three times in succession. If ACNT = 3, the flow shifts to step (607); otherwise, the flow shifts to step (605).

【0111】ステップ(605)では、カウンタACN
Tを1カウントアップし、ステップ(606)へ移行す
る。次のステップ(605)では、再度焦点検出が3回
連続して行えたかどうかを判別し、ACNT=3であれ
ばステップ(607)へ進んで動体検知動作を行い、そ
うでなければ、ステップ(623)へ移行し、このサブ
ルーチンをリターンする。
In step (605), the counter ACN
T is incremented by one, and the process proceeds to step (606). In the next step (605), it is determined whether or not focus detection has been performed three consecutive times again. If ACNT = 3, the flow proceeds to step (607) to perform a moving object detection operation. 623), and this subroutine is returned.

【0112】ステップ(607)では、前々回の焦点検
出から前回の焦点検出までのデフォーカス変化量DFA
および前回の焦点検出から今回の焦点検出までのデフォ
ーカス変化量DFBを演算する。
In step (607), the defocus change amount DFA from the focus detection two times before to the previous focus detection
And the defocus change amount DFB from the previous focus detection to the current focus detection is calculated.

【0113】次のステップ(608)では、前回の焦点
検出から今回の焦点検出までのデフォーカス変化量DF
Bが所定値ADより小さいかどうかを判別し、ADより
小さければステップ(609)へ進み、そうでなければ
ステップ(620)へ移行する。そこでデフォーカス変
化量DFBが所定値ADより大きいときには、被写体の
移動ではなく、障害物の視野への侵入やフレーミング変
更によってデフォーカス量が変化したと考え、このよう
な場合には、動体検知動作をリセットすべくステップ
(620)へ移行する。ADの値の一例として0.5m
m程度の値を用いているが、時間の要素を考慮したデフ
ォーカス変化速度によって、上記判定を行うと、焦点検
出の時間間隔による影響を取り除くことができ、更に正
確な判定が可能になる。
In the next step (608), the defocus change amount DF from the previous focus detection to the current focus detection is calculated.
It is determined whether or not B is smaller than a predetermined value AD. If B is smaller than AD, the process proceeds to step (609); otherwise, the process proceeds to step (620). Therefore, when the defocus change amount DFB is larger than the predetermined value AD, it is considered that the defocus amount has changed due to the invasion of the obstacle into the field of view or the framing change, not the movement of the subject. To step (620) to reset. 0.5m as an example of the value of AD
Although a value of about m is used, if the above-described determination is performed based on the defocus change speed in consideration of the time factor, the influence of the time interval of focus detection can be removed, and more accurate determination can be performed.

【0114】ステップ(609)では、撮影レンズの焦
点距離をLF2に入力し、次のステップ(610)で
は、合焦となった時点での撮影レンズの焦点距離LF1
と現在の焦点距離LF2の変化率AIZを計算する。
In step (609), the focal length of the photographing lens is input to LF2. In the next step (610), the focal length LF1 of the photographing lens at the time of focusing is obtained.
And the change rate AIZ of the current focal length LF2 are calculated.

【0115】ステップ(611)では、ステップ(61
0)で演算された焦点距離変化率AIZが0.2より小
さいか否かを判別し、小さければステップ(612)へ
移行し、そうでなければステップ(620)へ進み、動
体検知動作をリセットする。ここで焦点距離変化率が大
きいとき、すなわち、撮影レンズが部分フォーカスであ
るとかズームレンズ等で大きくズーミングをしたときに
は、ズーミングによってデフォーカス量が変化する可能
性があり、このようなデフォーカス変化によって誤って
動体と判断されることを防止するためである。
In step (611), step (61)
It is determined whether the focal length change rate AIZ calculated in 0) is smaller than 0.2, and if it is smaller, the process proceeds to step (612); otherwise, the process proceeds to step (620) to reset the moving object detection operation. I do. Here, when the focal length change rate is large, that is, when the photographing lens is partially focused or when zooming is greatly performed with a zoom lens or the like, the defocus amount may change due to zooming. This is to prevent the moving object from being erroneously determined.

【0116】ステップ(612)では、デフォーカス変
化量DFAとDFBの値が同じかどうか判別するもので
あり、DFA/DFB>0であれば、同方向であると判
断し、ステップ(613)に移行し、そうでなければ、
ステップ(620)へ進み、動体検知動作をリセットす
る。これは、被写体が一方向に移動していれば、デフォ
ーカス量の変化する方向も同じなので、これによって動
体と判断し、そうでなければ動体検知をやり直すため、
各パラメータをリセットする。
In step (612), it is determined whether or not the values of the defocus change amounts DFA and DFB are the same. If DFA / DFB> 0, it is determined that the directions are the same, and the process proceeds to step (613). Migrate, otherwise
Proceeding to step (620), the motion detection operation is reset. This is because if the subject is moving in one direction, the direction in which the defocus amount changes is the same, so it is determined that it is a moving object, and if not, the moving object detection is redone,
Reset each parameter.

【0117】ステップ(613)では、動体の判定を行
うためのパラメータMOVECNTを1カウントアップ
し、ステップ(614)へ進む。
In step (613), the parameter MOVECNT for determining the moving object is counted up by one, and the flow advances to step (614).

【0118】ステップ(614)では、デフォーカス変
化量DFBが所定値BDより大きいかどうかを判別し、
BDより大きいときステップ(615)へ進み、そうで
ないとき、ステップ(616)へ移行する。ステップ
(615)では、MOVECNTを1カウントアップ
し、ステップ(616)へ移行する。これはデフォーカ
ス変化量DFBが所定値BD(例えば0.08mm)よ
り大きい、すなわち速い被写体に対してはMOVECN
Tのカウントスピードを上げ、サーボ制御への移行を早
くするためのものである。そして、この判定はデフォー
カス変化量以外のパラメータ、例えばデフォーカス変化
速度を使えば、焦点検出の時間間隔による影響を取り除
くことができ、より正確な判定を行うことができる。
In step (614), it is determined whether or not the defocus change amount DFB is larger than a predetermined value BD.
If it is larger than BD, proceed to step (615); otherwise, proceed to step (616). In step (615), MOVECNT is counted up by one, and the routine goes to step (616). This is because the defocus change amount DFB is larger than a predetermined value BD (for example, 0.08 mm).
This is to increase the count speed of T and to speed up the transition to servo control. If a parameter other than the defocus change amount, for example, a defocus change speed is used for this determination, the influence of the time interval of focus detection can be removed, and more accurate determination can be made.

【0119】ステップ(616)では、今回検出したデ
フォーカス量DF3が所定値CD(例えば0.2mm)
より大きい(後ピン)かどうかを判定し、CDより大き
ければステップ(617)へ進み、そうでなければ、ス
テップ(618)へ移行する。ステップ(617)では
MOVECNTを1カウントアップしてステップ(61
8)へ進む。ここでは、画面中央にある被写体が、ある
程度以上後ピン状態となれば、サーボ制御への移行を早
くするため、MOVECNTのカウントアップスピード
を速くしている。
In step (616), the currently detected defocus amount DF3 is set to a predetermined value CD (for example, 0.2 mm).
It is determined whether or not the size is larger (back focus). If the size is larger than the CD, the process proceeds to step (617); otherwise, the process proceeds to step (618). In step (617), MOVECNT is counted up by one, and step (61) is performed.
Proceed to 8). Here, if the subject at the center of the screen is in the back focus state to some extent, the count-up speed of MOVECNT is increased in order to speed up the transition to the servo control.

【0120】ステップ(618)では動体判定のパラメ
ータMOVECNTが6以上かどうかを判定し、6以上
であれば動体と判断し、ステップ(619)へ移行し、
そうでなければステップ(623)へ進み、このサブル
ーチンをリターンする。
In step (618), it is determined whether the moving object determination parameter MOVECNT is 6 or more. If it is 6 or more, it is determined that the object is a moving object, and the flow advances to step (619).
If not, proceed to step (623) and return this subroutine.

【0121】ステップ(619)では、焦点検出の制御
モードをサーボ制御にするため、AFOFLGに1を入
力し、ステップ(623)でこのサブルーチンをリター
ンする。次にステップ(620)〜(622)は、動体
検知動作を初期状態に戻すものであり、ステップ(62
0)では焦点検出の回数をカウントするACNTをリセ
ットし、次にステップ(621)では、撮影レンズの現
在の焦点距離をLF1に入力する。そしてステップ(6
22)では、MOVECNTをリセットし、ステップ
(623)にて、このサブルーチンをリターンする。そ
して、このサブルーチンは、動体と検知されるかあるい
はレリーズスイッチSW2オンかSW1がオフするまで
繰り返される。
In step (619), 1 is input to AFOFLG to set the focus detection control mode to servo control, and the subroutine is returned in step (623). Next, steps (620) to (622) are for returning the moving object detection operation to the initial state.
At 0), ACNT for counting the number of times of focus detection is reset, and then at step (621), the current focal length of the photographing lens is input to LF1. And step (6)
At 22), MOVECNT is reset, and at step (623), this subroutine is returned. This subroutine is repeated until a moving object is detected or the release switch SW2 is turned on or SW1 is turned off.

【0122】また、図2のフローにより一度合焦してか
ら、以上説明した動体検知サブルーチンにおいて、AF
OFLGに1がセットされるまでは、レンズ駆動禁止フ
ラグLMVDIに1がセットされており、ステップ(1
55)に続いてはステップ(129)が実行され、視線
検出を行うことなく、同一の測距視野の焦点検出結果に
基づいた動体検知を行う。
After focusing once according to the flow of FIG. 2, the AF is executed in the moving object detection subroutine described above.
Until OFLG is set to 1, 1 is set to the lens drive inhibition flag LMVDI, and step (1) is performed.
After step 55), step (129) is executed, and the moving object is detected based on the focus detection result of the same distance measurement field of view without performing the line-of-sight detection.

【0123】動体であることが検知され、AFOLFL
Gに1がセットされると、ステップ(152)において
分岐し、ステップ(104)へと移行する。ステップ
(104)においてレンズ駆動禁止フラグLMVDIが
クリアされ、続いてステップ(157)においてサーボ
動作に必要な撮影レンズの予測駆動の演算が行われる。
A moving object is detected, and AFOLFL
When 1 is set to G, the process branches at step (152) and proceeds to step (104). In step (104), the lens drive prohibition flag LMVDI is cleared, and then, in step (157), the calculation of the predictive drive of the photographing lens required for the servo operation is performed.

【0124】ステップ(158)では予測演算の結果に
基づいたレンズ駆動が行われ、ステップ(159)にお
いて、フラグPRMVに1をセットして、ステップ16
0でサブルーチンをリターンする。
In step (158), the lens is driven based on the result of the prediction operation. In step (159), 1 is set to the flag PRMV, and in step 16
Return the subroutine with 0.

【0125】続いて図4の「視線検出」サブルーチンの
フローチャートを説明する。
Next, the flow chart of the "line-of-sight detection" subroutine of FIG. 4 will be described.

【0126】まず、ステップ(201)においては、図
23、図24に示したカメラの縦横検出用スイッチSW
Cの状態を検知することにより、カメラの姿勢を判別す
る。この結果縦位置であれば視線検出動作をせずにステ
ップ(214)に移行する。また、横位置であれば、ス
テップ(203)に移行し、視線検出を開始する。ステ
ップ(214)では視線VPに光軸上であることを意味
する0を入力し、ステップ(213)でリターンする。
First, in step (201), the vertical / horizontal detection switch SW of the camera shown in FIGS.
The posture of the camera is determined by detecting the state of C. If the result is the vertical position, the flow shifts to step (214) without performing the line-of-sight detection operation. If the position is the horizontal position, the flow shifts to step (203) to start gaze detection. In step (214), 0, which means on the optical axis, is input to the line of sight VP, and the process returns in step (213).

【0127】ステップ(203)では、LED(図12
の13)を点灯させ、眼球を照明すると同時に、視線検
出用光電変換素子SA(図12の14)の蓄積を開始さ
せる。具体的には、図15の制御装置PRSがセンサ駆
動回路SDR2に蓄積開始コマンドを送出し、SDR2
が光電変換素子SAのクリア信号CLRを“L”にして
電荷の蓄積が始まる。
In step (203), the LED (FIG. 12)
13) is turned on to illuminate the eyeball, and at the same time, the accumulation of the eye-gaze detecting photoelectric conversion element SA (14 in FIG. 12) is started. Specifically, the control device PRS of FIG. 15 sends an accumulation start command to the sensor drive circuit SDR2,
Sets the clear signal CLR of the photoelectric conversion element SA to "L", and the accumulation of charges starts.

【0128】ステップ(204)では、PRSの入力I
NTEND2端子の状態を検知し、蓄積が終了したかど
うかを調べる。センサ駆動回路SDR2は蓄積開始と同
時に信号INTEND2を“L”にし、SAからのAG
C信号SAGC2をモニターし、SAGC2が所定のレ
ベルに達すると、信号INTEND2を“H”にし、同
時に電荷転送信号SH2を所定時間“H”にして、蓄積
された電荷をCCD部に転送させる構造を有している。
In the step (204), the input I of the PRS
The state of the NTEND2 terminal is detected, and it is checked whether the accumulation is completed. The sensor drive circuit SDR2 sets the signal INTEND2 to "L" at the same time as the accumulation starts,
The C signal SAGC2 is monitored, and when the SAGC2 reaches a predetermined level, the signal INTEND2 is set to "H", and at the same time, the charge transfer signal SH2 is set to "H" for a predetermined time to transfer the accumulated charges to the CCD unit. Have.

【0129】ステップ(204)でINTEND2端子
が“H”ならば、蓄積が終了したということでステップ
(205)に移行し、“L”ならば蓄積未終了というこ
とで、もう一度ステップ(204)を実行する。
If the INTEND2 terminal is "H" in step (204), the process proceeds to step (205) because the accumulation is completed, and if "L", the accumulation is not completed and the process in step (204) is performed again. Execute.

【0130】ステップ(205)では、光電変換素子S
Aの像信号OS2をセンサ駆動回路SDR2で増巾した
信号AOS2のA/D変換および、そのデジタル信号の
RAM格納を行う。より詳しく述べるならば、SDR2
はPRSからのクロックCK2に同期してCCD駆動用
クロックφ21、φ22を生成してSA内部の制御回路
へ与え、SAはφ21、φ22によって、CCD部が駆
動され、CCD内の電荷は、像信号として出力OS2か
ら時系列的に出力される。この信号はSDR2内部の増
巾器で増巾された後に、AOS2として、PRSのアナ
ログ入力端子へ入力される。PRSは自らが出力してい
るクロックCK2に同期してA/D変換を行い、A/D
変換後のデジタル像信号を順次RAMの所定アドレスに
格納していく。
At step (205), the photoelectric conversion element S
The A / D conversion of the signal AOS2 obtained by amplifying the A image signal OS2 by the sensor drive circuit SDR2 and the digital signal storage in the RAM are performed. More specifically, SDR2
Generates the CCD driving clocks φ21 and φ22 in synchronization with the clock CK2 from the PRS and supplies the clocks to the control circuit inside the SA. The SA drives the CCD unit by φ21 and φ22, and the electric charge in the CCD is the image signal. Are output in time series from the output OS2. This signal is amplified by the amplifier inside the SDR2 and then input to the analog input terminal of the PRS as AOS2. The PRS performs A / D conversion in synchronization with the clock CK2 output by itself, and
The converted digital image signals are sequentially stored at predetermined addresses in the RAM.

【0131】ステップ(206)においては、ステップ
(205)において得られた眼球の情報に基づき、瞳孔
のエッジを検出する。前述したように、これは虹彩部の
出力平均の半値に近い出力を生ずる画素を抽出すること
によって行われる。
In step (206), the edge of the pupil is detected based on the eyeball information obtained in step (205). As mentioned above, this is done by extracting the pixels that produce an output close to half the average of the output of the iris.

【0132】ステップ(207)においては、ステップ
(206)の処理中に得られた、像のコントラスト値、
およびSPC(図21)出力に対応したファインダー輝
度から算出される予測瞳孔径と検出瞳孔径との差等によ
って、瞳孔径検出結果の信頼性を判断する。なお、予測
瞳孔径とは、外界の明るさに応じて収縮、拡大する瞳孔
径の標準的な値である。すなわち、眼球の跳躍運動中に
蓄積が行われて、瞳の像が不鮮明であった場合や、まつ
げによる像出力の低下を瞳孔と取り違えた場合等を排除
する。信頼性充分と判断されたときは、ステップ(20
8)へ移行し、信頼性が不十分と判断されたときは、ス
テップ(212)へ移行する。
In step (207), the contrast value of the image obtained during the processing in step (206) is obtained.
And the difference between the predicted pupil diameter calculated from the finder brightness corresponding to the SPC (FIG. 21) output and the detected pupil diameter, etc., to determine the reliability of the pupil diameter detection result. The predicted pupil diameter is a standard value of the pupil diameter that contracts and expands according to the brightness of the external world. That is, accumulation is performed during the jumping movement of the eyeball, and the case where the image of the pupil is unclear or the case where the decrease in the image output due to eyelashes is mistaken for the pupil is excluded. If it is determined that the reliability is sufficient, the step (20)
The process proceeds to 8), and when it is determined that the reliability is insufficient, the process proceeds to step (212).

【0133】次にステップ(208)では、第1プルキ
ンエ像の抽出を行う。これは瞳孔あるいは虹彩上に現わ
れた輝度ピークを検出することによって行われる。
Next, at step (208), the first Purkinje image is extracted. This is done by detecting a luminance peak appearing on the pupil or iris.

【0134】ステップ(209)では、検出した第1プ
ルキンエ像のコントラストを所定値と比較することによ
って、メガネ等によるゴースト光がプルキンエ像と重な
った場合あるいは、まばたきによってプルキンエ像が半
分欠けた場合等を検出し、このときには信頼性不十分と
してステップ(212)へ分岐し、信頼性が充分なとき
はステップ(210)へ移行する。
In the step (209), the contrast of the detected first Purkinje image is compared with a predetermined value to determine whether the ghost light from the glasses or the like overlaps the Purkinje image, or if the Purkinje image is half missing due to blinking, etc. Is detected, and at this time, it is determined that the reliability is insufficient, and the process branches to step (212). If the reliability is sufficient, the process proceeds to step (210).

【0135】続くステップ(210)では、(2)式に
基づいて眼球の回転角を演算する。
In the following step (210), the rotation angle of the eyeball is calculated based on the equation (2).

【0136】ステップ(211)ではステップ(21
0)で得られた眼球の回転角と、ファインダー光学系の
既定値からピント板上の視点(線)VPを算出し、ステ
ップ(213)においてサブルーチンをリターンする。
In step (211), step (21)
The viewpoint (line) VP on the focus plate is calculated from the rotation angle of the eyeball obtained in step 0) and the default value of the finder optical system, and the subroutine is returned in step (213).

【0137】第1プルキンエ像と瞳孔エッジの抽出にお
いて、信頼性不十分と判定された場合分岐したステップ
(212)では、視線検出不能を表すフラグVLNGに
1をセットし、ステップ(212)においてサブルーチ
ンをリターンする様になっている。
In the extraction of the first Purkinje image and the pupil edge, if it is determined that the reliability is insufficient, in the step (212), the flag VLNG indicating that the line of sight cannot be detected is set to 1 and the subroutine is executed in the step (212). Is to be returned.

【0138】次に図11に「測距視野範囲設定」サブル
ーチンのフローチャートに示す。このサブルーチンは、
視線検出結果に基づいて、測距視野を持つ3つのブロッ
クのうち、どれを選択するか決定するものである。
Next, FIG. 11 is a flow chart showing a subroutine of "range setting of the field of view for distance measurement". This subroutine
Based on the gaze detection result, it is determined which of the three blocks having the distance measurement field is to be selected.

【0139】まずステップ(902)において、視線検
出サブルーチン内で設定された視線検出不能フラグVL
NGの状態を検知し、0であれば、ステップ(903)
に移行し、1であればステップ(906)に分岐して、
サブルーチンをリターンする。これは、視線検出不能時
は、測距視野範囲を前回のフローと同一位置に設定する
ことを意味している。
First, in step (902), the gaze detection disable flag VL set in the gaze detection subroutine
NG state is detected, and if it is 0, step (903)
And if it is 1, branch to step (906),
Return the subroutine. This means that when the line of sight cannot be detected, the range-finding visual field range is set to the same position as in the previous flow.

【0140】ステップ(903)において、ピント板上
の視点VP情報(光軸からの距離)と所定の値a、例え
ばファインダー視野の半分35mmカメラにおいては1
8mmとを比較する。aよりも大なる場合は撮影者は被
写体像以外の撮影情報等を見ていたと判断し、このとき
の視線位置に基づく測距視野範囲の設定はせず、ステッ
プ(906)にてリターンする。
In step (903), the viewpoint VP information (distance from the optical axis) on the focus plate and a predetermined value a, for example, 1 in the case of a 35 mm camera half the viewfinder field of view.
Compare with 8 mm. If it is larger than a, it is determined that the photographer has been looking at photographing information and the like other than the subject image, and the range of the range-finding field of view is not set based on the line of sight at this time.

【0141】ステップ(904)では、視点VPに最も
近い測距視野範囲を3つのうちから選択する。
In step (904), a distance measurement field of view closest to the viewpoint VP is selected from three ranges.

【0142】ステップ(905)では、可動マスク80
の移動用ステッピングモータMTR3を駆動制御して、
選択された視野範囲の焦点検出を可能にする。
In the step (905), the movable mask 80
Drive control of the moving stepping motor MTR3 of
Enables focus detection for a selected field of view.

【0143】図5に「焦点検出」サブルーチンのフロー
チャートを示す。ステップ(802)〜(804)にお
いて、選択したブロック内の上、中央、下の各測距視野
について、撮影レンズのデフォーカス量DF(1)、D
F(2)、DF(3)と像信号のコントラストを演算す
る。
FIG. 5 shows a flowchart of the "focus detection" subroutine. In steps (802) to (804), the defocus amounts DF (1) and D of the photographing lens for the upper, middle, and lower distance measurement fields in the selected block.
The contrast between F (2) and DF (3) and the image signal is calculated.

【0144】ステップ(805)においては、ステップ
(802)〜(804)で演算されたコントラストがす
べて所定値以下であった場合に、ステップ(806)に
分岐する。またどれか一つでも所定値以上のコントラス
トがあれば、ステップ(807)に移行し、サブルーチ
ンをリターンする。
In step (805), if all the contrasts calculated in steps (802) to (804) are equal to or smaller than the predetermined value, the flow branches to step (806). If any one of the contrasts is equal to or greater than the predetermined value, the process proceeds to step (807) and returns to the subroutine.

【0145】続いて「判定」サブルーチンおよび「予測
演算」サブルーチンについて説明する。これらは、視線
検出の結果によって測距視野ブロックが決まった後、そ
の範囲内にある複数の測距視野の情報を焦点調節に用い
るためのサブルーチンで、カメラの焦点調節動作モード
に応じて使い分けられる。
Next, the "determination" subroutine and the "prediction calculation" subroutine will be described. These are subroutines for using the information of a plurality of ranging visual fields within the range for focus adjustment after the ranging field block is determined based on the result of the eye gaze detection, and are selectively used according to the focusing operation mode of the camera. .

【0146】まず図6で「判定」サブルーチンのフロー
チャートを説明する。
First, the flowchart of the "determination" subroutine will be described with reference to FIG.

【0147】ステップ701では最初の測距演算かどう
かをここで判定する。最初の測距演算の場合ステップ7
02へそうでないときはステップ704へ分岐する。
In step 701, it is determined here whether or not this is the first distance measurement calculation. Step 7 in the case of the first distance calculation
If not, the flow branches to step 704.

【0148】ステップ702ではレンズとFLNSとの
通信を行ってレンズの情報をマイコン内へ入力する。レ
ンズから焦点距離、至近距離、敏感度係数、くし歯ピッ
チ、などの情報を読み込む。
In step 702, communication between the lens and the FLNS is performed to input lens information into the microcomputer. Information such as focal length, close distance, sensitivity coefficient, and comb pitch is read from the lens.

【0149】ステップ703、ステップ702で読み込
んだ情報をもとに、測距視野別に至近しきい値を計算
(TH(1)、TH(2)、TH(3))する。
Based on the information read in steps 703 and 702, the closest threshold value is calculated for each of the distance measurement fields (TH (1), TH (2), TH (3)).

【0150】これらしきい値は測距点によって異なった
値が設定される。たとえば、上下の測距点に対するしき
い値は、その時のレンズの焦点距離fを使って、 TH(1)=TH(3)=20f を設定する。中央に対するしきい値は、上下の測距点の
しきい値より近く設定して、例えば、 TH(2)=10f と設定する。これは画面の中央、近距離に撮影者の意図
しないものが入ってしまうことが少ないことを考慮した
ものである。さらにマイクロレンズなど接写状態にある
と想定される場合は、このしきい値に一定の倍率(1よ
り小さい)をかけてしきい値を下げる。
These thresholds are set to different values depending on the distance measuring point. For example, TH (1) = TH (3) = 20f is set as the threshold value for the upper and lower ranging points using the focal length f of the lens at that time. The threshold value for the center is set closer to the threshold value of the upper and lower distance measurement points, and for example, TH (2) = 10f. This is in consideration of the fact that an unintended object of the photographer rarely enters the center or a short distance of the screen. Further, when it is assumed that a macro lens is in a close-up state, the threshold value is reduced by multiplying the threshold value by a certain magnification (smaller than 1).

【0151】ステップ704は現在のレンズ絶対位置
(フォーカス値)をレンズから読み込むレンズに絶対位
置の情報がない場合、電源ON時など適当な時に一度レ
ンズを無限端につきあて、それからのレンズの動きを所
定のメモリに記憶しておくことにより、現在のレンズ位
置を求めることができる。
Step 704 is to read the current lens absolute position (focus value) from the lens. If there is no information on the absolute position of the lens, the lens is once applied to the infinite end at an appropriate time such as when the power is turned on, and the movement of the lens from that point is determined. By storing in a predetermined memory, the current lens position can be obtained.

【0152】ステップ714ではコントラストが所定値
以上であった測距視野について、デフォーカス量DF
(1)〜DF(3)とS4で記憶したレンズ位置から各
測距点の焦点検出している絶対距離AD(1)〜AD
(3)を求める。また、絶対距離データの個数をNNに
記憶する。
In step 714, the defocus amount DF is determined for the distance measurement field of view whose contrast is equal to or greater than the predetermined value.
(1) to DF (3) and absolute distances AD (1) to AD at which the focus of each ranging point is detected from the lens position stored in S4
Find (3). The number of absolute distance data is stored in NN.

【0153】ステップ715ではAD(1)〜AD
(3)を比較して近い距離順の順番をつける。N1にA
D(1)〜AD(3)の最も近い距離の測距点番号を入
れ、2番目の距離の測距点番号はN2へ、N3には最も
遠い距離の測距点番号を入れる。
In step 715, AD (1) to AD (1)
(3) is compared and the order of the closest distance is assigned. A in N1
The distance measuring point number of the closest distance from D (1) to AD (3) is entered, the distance measuring point number of the second distance is entered into N2, and the distance measuring point number of the furthest distance is entered into N3.

【0154】ステップ724ではNN=1であればステ
ップ(719)に分岐する。
In step 724, if NN = 1, the flow branches to step (719).

【0155】ステップ716では測距した点の中で最も
近い距離のものとしきい値を比較する。ステップ715
で最も近い距離の測距点番号(N1)を求めてあるので
測距点N1の測距距離としきい値AD(N1)とTH
(N1)の比較を行う。しきい値TH(N1)より測距
距離AD(N1)が小さければステップ717へ分岐す
る。大きければステップ720へ分岐する。
In step 716, the threshold value is compared with the closest measured distance point. Step 715
Has been found, the distance measuring point number (N1) of the closest distance is obtained.
(N1) is compared. If the distance measurement distance AD (N1) is smaller than the threshold value TH (N1), the flow branches to step 717. If it is larger, the process branches to step 720.

【0156】ステップ725はNN=2であれば、ステ
ップ(719)に分岐する。
If NN = 2, step 725 branches to step (719).

【0157】ステップ720では測距距離が連続的に遠
ざかっているかを判定する。測距点は上から順に番号が
ついているので、近距離順にならべたN1?N3が小さ
い順か大きい順に並んでいれば測距離が連続的に遠ざか
っていることが判定できる。連続的に遠ざかっている場
合ステップ718に分岐し、そうでなければステップ7
19に分岐する。
At step 720, it is determined whether or not the distance measurement distance is continuously increasing. Since the distance measuring points are numbered in order from the top, if the distances N1 to N3 are arranged in ascending order or descending order, it can be determined that the distance measuring points are continuously increasing. If it is continuously away, the process branches to step 718;
Branch to 19.

【0158】ステップ717は近距離点がしきい値より
小さかった場合なので2番目に近い点を選択する。2番
目の距離の測距点番号N2をOPに記憶する。
In step 717, since the near point is smaller than the threshold value, the second closest point is selected. The distance measuring point number N2 of the second distance is stored in OP.

【0159】ステップ718において、被写体が連続的
に並んでいる場合、測距点を中央(測距点番号2)にす
る。選択された測距点番号2をOPに記憶する。
In step 718, if the subjects are continuously arranged, the distance measuring point is set at the center (ranging point number 2). The selected ranging point number 2 is stored in the OP.

【0160】ステップ719はステップ716、ステッ
プ720の判定により分岐しなかった場合、最近距離点
をOPに記憶する。
In the step 719, if no branch is made by the judgments in the steps 716 and 720, the nearest distance point is stored in the OP.

【0161】ステップ721では選択点の選択が終了し
たら、選択した測距点が合焦であるかどうかを判定す
る。合焦時はステップ722に分岐し合焦でなければス
テップ723に分岐する。
At step 721, when the selection of the selected point is completed, it is determined whether or not the selected distance measuring point is in focus. At the time of focusing, the flow branches to step 722, and when not focused, the flow branches to step 723.

【0162】ステップ722において合焦フラグJFF
LDに1をセットし、ステップ723においてサブルー
チンをリターンする。
At step 722, the focus flag JFF
LD is set to 1 and the subroutine is returned in step 723.

【0163】次に「予測演算」サブルーチンのフローを
図7を用いて説明する。図7は「予測演算」サブルーチ
ンのフローを示したものであり、予測演算の可否を判定
し、予測可能であれば、AFタイムラグとレリーズタイ
ムラグを考慮したレンズ駆動量を計算するものである。
Next, the flow of the "prediction calculation" subroutine will be described with reference to FIG. FIG. 7 shows the flow of the "prediction calculation" subroutine, in which it is determined whether or not the prediction calculation is possible. If the prediction is possible, the lens driving amount is calculated in consideration of the AF time lag and the release time lag.

【0164】ステップ(302)は、予測に必要なデー
タの蓄積がなされたかどうかを判定するためのカウンタ
COUNTをカウントアップするかどうかを判定する。
本実施例では3回以上の測距データ・レンズ駆動データ
が蓄積されている場合、すなわちCOUNT>2であれ
ば予測演算可能であり、これ以上のカウントアップは必
要ないので、COUNT>2であればステップ(30
4)へ進む。また、COUNT<3であればステップ
(303)でCOUNTをカウントアップした後ステッ
プ(304)へ進む。
In step (302), it is determined whether or not a counter COUNT for determining whether data necessary for prediction has been accumulated is counted up.
In this embodiment, when distance measurement data and lens drive data are accumulated three or more times, that is, when COUNT> 2, prediction calculation can be performed, and further counting up is not required. BA step (30
Proceed to 4). If COUNT <3, COUNT is counted up in step (303), and then the process proceeds to step (304).

【0165】ステップ(304)では、今回の予測演算
のためのデータの更新を行っている。即ち予測演算は特
開平1-288816に記載の(6)、(7)、
(8)、(9)式に基づいて行われるため、そのデータ
としては前回および前々回のデフォーカス量としてDF
2 ,DF1 、前回および前々回のレンズ駆動量として
DL2,DL1 、前回および前々回の時間間隔として
TM2 ,TM1 、見込タイムラグTLを必要とする。
よってステップ(304)では焦点検出が行われるごと
に前々回に得られたデフォーカス量DF2を記憶領域D
F1 に、また前回に得られたデフォーカス量DLを記
憶領域DF2 に入力し、更に前々回に得られた像面移
動量換算のレンズ駆動量DL2を記憶領域DL1 に、
前回に得られた像面移動量換算のレンズ駆動量DLを記
憶領域DL2 に入力し、各記憶領域のデータを今回の
予測演算に必要なデータに更新する。
In step (304), data for the current prediction operation is updated. That is, the prediction calculation is performed according to (6), (7), and (2) described in JP-A-1-288816.
Since the calculation is performed based on the equations (8) and (9), the data includes the DF
2, DF1; DL2 and DL1 as the last and two-last lens drive amounts; TM2 and TM1 as the last and two-last time intervals; and expected time lag TL.
Therefore, in step (304), each time the focus detection is performed, the defocus amount DF2 obtained two times before is stored in the storage area D.
F1 and the defocus amount DL obtained last time is input to the storage area DF2, and the lens drive amount DL2 obtained two times before is converted to the image plane movement amount obtained in the storage area DL1.
The lens driving amount DL converted in the image plane movement amount obtained last time is input to the storage area DL2, and the data in each storage area is updated to the data necessary for the current prediction calculation.

【0166】ステップ(305)では使用している測距
点の位置を表わすAFPが「0」かどうか判定する。こ
こでAFPが「−1」のときは下側の測距視野、「0」
のときには中央の測距点、「1」のときには上側の測距
視野を使用していることを示している。すなわちステッ
プ(305)では中央の測距視野を使用中かどうかを判
定し、中央の測距視野を使用していればステップ(30
6)へ移行し、そうでなければステップ(307)へ移
行する。
In step (305), it is determined whether or not the AFP indicating the position of the used distance measuring point is "0". Here, when the AFP is “−1”, the lower distance measurement field of view, “0”
Indicates that the center ranging point is used, and "1" indicates that the upper ranging field is used. That is, in step (305), it is determined whether or not the center ranging field of view is being used. If the center ranging field of view is being used, step (30) is performed.
Go to 6), otherwise go to step (307).

【0167】ステップ(307)ではステップ(30
5)と同様にして、下側の測距視野を使用しているかど
うかを判定し、下側の測距視野を使用していればステッ
プ(308)へ移行し、上側の測距視野を使用していれ
ばステップ(309)へ移行する。
In step (307), step (30)
In the same manner as in 5), it is determined whether or not the lower ranging field of view is used. If the lower ranging field of view is used, the process proceeds to step (308), and the upper ranging field is used. If so, the process proceeds to step (309).

【0168】ステップ(306)、(308)、(30
9)では今回使用した測距視野で今回測距したデフォー
カス量をRAM上の記憶領域DF3 に入力し、データの
更新を行う。ここでステップ(306)では中央の測距
視野のセンサの像信号に基づくデフォーカス量DFB、
ステップ(308)では下側の測距点のセンサ像信号に
基づくデフォーカス量DFA、ステップ(309)では
上側の測距点のセンサの像信号に基づくデフォーカス量
DFCを入力している。そして上記ステップを終了する
とステップ(310)へ移行する。
Steps (306), (308), (30)
In 9), the defocus amount measured this time in the field of view used this time is input to the storage area DF3 in the RAM, and the data is updated. Here, in step (306), the defocus amount DFB based on the image signal of the sensor in the center distance measurement field,
In step (308), the defocus amount DFA based on the sensor image signal of the lower ranging point is input, and in step (309), the defocus amount DFC based on the image signal of the sensor of the upper ranging point is input. When the above steps are completed, the process proceeds to step (310).

【0169】ステップ(310)では予測演算に必要な
データが上記各記憶領域に入力されているか否かを判別
する。上記の如く予測演算は今回、前回、前々回のデフ
ォーカス量と前回、前々回のレンズ駆動量を必要とし、
過去3回以上の焦点調節動作が行われていることを条件
としている。よってステップ(303)にて焦点調節動
作が行われるごとにカウンタCOUNTに+1を行い、
カウンタに焦点調節動作が行われた回数をカウントさ
せ、その回数が2より大きいか否か、即ち3回以上の動
作が行われたか否かを判別し、3回以上行われ、予測演
算が可能な場合にはステップ(312)へ、また、不可
能な場合にはステップ(319)へ移行させる。
In step (310), it is determined whether or not data necessary for the prediction operation has been input to each of the storage areas. As described above, the prediction calculation requires the defocus amount this time, the previous time and the previous two times and the lens driving amount last time and the previous two times,
The condition is that three or more focus adjustment operations have been performed in the past. Therefore, every time the focus adjustment operation is performed in step (303), the counter COUNT is incremented by +1.
The counter is made to count the number of times the focus adjustment operation has been performed, and it is determined whether the number of times is greater than 2, that is, whether or not the operation has been performed three or more times. If not, the process proceeds to step (312). If not possible, the process proceeds to step (319).

【0170】ステップ(312)では今回更新されたデ
フォーカス量が予測に適しているかどうかについて「像
面位置の連続性」について判定し、連続性があると判定
されればステップ(313)へ移行し、そうでなければ
ステップ(314)へ移行する。ここで「像面位置の連
続性」の判定方法については後述する。
In the step (312), it is determined whether or not the continuity of the image plane position is determined whether the defocus amount updated this time is suitable for the prediction. If it is determined that there is continuity, the process proceeds to the step (313). Otherwise, the process proceeds to step (314). Here, the method of determining the “continuity of the image plane position” will be described later.

【0171】ステップ(312)において像面位置の連
続性が無いと判断され、ステップ(314)へ移行する
と、このステップにて「測距視野変更」のサブルーチン
で使用する測距視野を変更する。またこのサブルーチン
の詳細な説明については後述する。
In step (312), it is determined that the continuity of the image plane position is not present, and when the flow proceeds to step (314), the distance measuring field used in the subroutine "change distance measuring field" is changed in this step. A detailed description of this subroutine will be described later.

【0172】ステップ(315)では測距視野を変更
後、ANGによって予測可能になったかどうかを判定
し、可能であればステップ(313)へ移行し、予測不
可能(不適切なデータ)であればステップ(316)へ
移行する。
In step (315), after changing the distance measurement field, it is determined whether or not the prediction is possible by ANG. If possible, the process proceeds to step (313), and if the prediction is impossible (unsuitable data). If so, the process proceeds to step (316).

【0173】ステップ(316)では一度予測制御を中
止するため、データの蓄積がなされた回数をカウントす
るCOUNTをリセットする。そしてステップ(31
7)では、予測可否判定のフラグANGをリセットす
る。
In step (316), the COUNT for counting the number of times data has been accumulated is reset to temporarily stop the prediction control. And step (31)
In 7), the flag ANG of the prediction possibility determination is reset.

【0174】ステップ(318)では像面移動量換算の
レンズ駆動量DLに中央の測距視野のデフォーカス量D
FBを入力する。これは、1度予測不能となった場合、
再度AFをスタートするときに使用する測距視野を中央
の測距視野としたものであるが、これは、中央の測距視
野である必要はなく、例えば最初に選択した測距視野、
あるいは最後に使用した測距視野を使用しても良い。
In the step (318), the defocus amount D of the center distance measurement field is added to the lens drive amount DL in terms of the image plane movement amount.
Enter FB. This means that once it becomes unpredictable,
The distance measurement field used when starting AF again is the center distance measurement field, but this need not be the center distance measurement field. For example, the distance measurement field selected first,
Alternatively, the ranging field used last may be used.

【0175】また、初回と2回目の測距ではステップ
(319)に移行しステップ(319)にて像面移動量
換算のレンズ駆動量DLに今回更新されたデフォーカス
量DF3 を入力する。
In the first and second distance measurements, the process shifts to step (319), and in step (319), the defocus amount DF3 updated this time is input to the lens drive amount DL in terms of the image plane movement amount.

【0176】また、ステップ(312)で予測可能と判
断され、ステップ(313)へ移行した場合には、ステ
ップ(313)で見込みタイムラグTLの計算を行う。
記憶領域TM2 には前述の如く、前回から今回の焦点検
出動作までの時間が記憶されており、今回の焦点調節に
要する時間もTM2 と一致しているものと仮定のもと
で、見込みタイムラグTL=TM2 +TRを求める。こ
こでTRはレリーズタイムラグである。
When it is determined in step (312) that prediction is possible and the process proceeds to step (313), the expected time lag TL is calculated in step (313).
As described above, the time from the previous time to the current focus detection operation is stored in the storage area TM2, and the estimated time lag TL is assumed based on the assumption that the time required for the current focus adjustment also matches TM2. = TM2 + TR. Here, TR is a release time lag.

【0177】次のステップ(320)、(321)では
各記憶領域DF1 〜DF3 、DL1、DL2 、TM1 、
TM2 に格納されたデータに基づき(6)、(7)式の
a、b項を表わすA、Bを求めステップ(322)へ移
行する。
In the next steps (320) and (321), each of the storage areas DF1 to DF3, DL1, DL2, TM1,.
Based on the data stored in TM2, A and B representing the terms a and b in the equations (6) and (7) are obtained, and the routine proceeds to step (322).

【0178】ステップ(322)では各記憶手段のデー
タおよびステップ(313)およびステップ(32
0)、(321)の演算値に基づき(9)式の演算値を
求め、これを今回の像面移動量換算のレンズ駆動量DL
を求める。
In the step (322), the data of each storage means and the steps (313) and (32)
(9) is calculated based on the calculated values of (0) and (321), and this is calculated as the lens driving amount DL in terms of the current image plane movement amount.
Ask for.

【0179】次のステップ(323)では、ステップ
(322)、(318)、(319)で求まったレンズ
駆動量DLと撮影レンズの開放FナンバーFNおよび所
定の係数δ(本実施例では0.035mm)の積FN・
δを比較し、DL<FN・δであればステップ(32
4)へ移行し、そうでなければステップ(325)にて
リターンする。
In the next step (323), the lens drive amount DL obtained in steps (322), (318), and (319), the open F number FN of the photographing lens, and a predetermined coefficient δ (in this embodiment, 0. 035mm) product FN
δ are compared, and if DL <FN · δ, step (32)
Go to 4), otherwise return in step (325).

【0180】ステップ(324)では先のステップ(3
23)にて、像面深度FN・δよりレンズ駆動量DLが
小さい、すなわちレンズ駆動の必要性がないと判断し、
レンズ駆動量DL=0とし、レンズの駆動を禁止する。
これにより不必要な微小レンズ駆動を行うことがなくな
り、使用感および電力消費の両面を改善することができ
る。また、本実施例ではFNを撮影レンズの開放Fナン
バーとしたが、これを撮影絞り値としても何ら問題はな
く、δも0.035mmに限定するものではない。そし
て、このステップを終了すると、次のステップ(32
5)にてこのサブルーチンをリターンする。
In step (324), the previous step (3)
23), it is determined that the lens driving amount DL is smaller than the image plane depth FN · δ, that is, it is not necessary to drive the lens,
The lens driving amount DL is set to 0, and the driving of the lens is prohibited.
As a result, unnecessary driving of the minute lens is not performed, and both of usability and power consumption can be improved. In the present embodiment, FN is the open F number of the taking lens. However, there is no problem even if this is used as the taking aperture value, and δ is not limited to 0.035 mm. When this step is completed, the next step (32
In 5), this subroutine is returned.

【0181】次に「測距点変更」サブルーチンのフロー
を図8を用いて説明する。図は「測距視野変更」サブル
ーチンのフローを示したものであり、今回、選択された
測距視野のデフォーカス量が予測制御に適さないと判断
されたため、予測制御可能な他の測距点に変更するサブ
ルーチンである。
Next, the flow of the subroutine "change distance measuring point" will be described with reference to FIG. The figure shows the flow of the “change distance measurement field of view” subroutine. Since it is determined that the defocus amount of the selected distance measurement field of view is not suitable for the prediction control, other distance measurement points that can be predicted and controlled can be used. Is a subroutine for changing to

【0182】ステップ(402)では、今回使用した測
距視野が中央の測距視野であるかどうかをAFPによっ
て判定し、中央の測距視野を使用していればステップ
(403)へ移行し、そうでなければステップ(41
3)へ移行する。
In step (402), it is determined by the AFP whether or not the currently used ranging field of view is the center ranging field. If the center ranging field of view is used, the process proceeds to step (403). Otherwise, step (41)
Go to 3).

【0183】ステップ(413)では、ステップ(40
2)と同様にして、今回、使用測距視野が下側の測距視
野であるかどうかを判定し、下側の測距視野を使用して
いれば、ステップ(414)へ移行し、上側の測距視野
を使用していればステップ(425)へ移行する。
In step (413), step (40)
In the same manner as in 2), it is determined whether the currently used ranging field of view is the lower ranging field of view. If the lower ranging field of view is being used, the process proceeds to step (414), and If the distance measurement field of view is used, the process proceeds to step (425).

【0184】ステップ(403)〜(412)、(41
4)〜(423)、(425)〜(434)はそれぞれ
今回使用した測距視野以外の測距視野のデフォーカス量
から、前回までの像面一変化に近い像面位置変化をして
いる測距視野を選択するものである。
Steps (403) to (412), (41)
4) to (423) and (425) to (434) indicate changes in the image plane position close to the previous image plane change from the defocus amount of the ranging field other than the currently used ranging field. This is to select the distance measurement field of view.

【0185】ステップ(403)では、前々回の測距か
ら前回の測距までの像面移動速度V1を計算する。そし
て、次のステップ(404)では左側の測距視野のデフ
ォーカス量DFAを使用して、前回の測距から今回の測
距までの像面移動速度V2を計算する。
In the step (403), the image plane moving speed V1 from the distance measurement two times before to the previous distance measurement is calculated. In the next step (404), the image plane moving speed V2 from the previous distance measurement to the current distance measurement is calculated using the defocus amount DFA of the left distance measurement field of view.

【0186】ステップ(405)では、ステップ(40
3)、(404)で算出されたV1、V2の差の絶対値
VAを計算している。これは今までの像面移動速度V1
と新しい左側の測距視野での像面移動度V2との差、つ
まり連続性を表わすものであり、VAの値が小さいほど
連続性が高い。
In step (405), step (40)
3), the absolute value VA of the difference between V1 and V2 calculated in (404) is calculated. This is the conventional image plane moving speed V1
And the continuity of the image plane mobility V2 in the new left ranging field of view, that is, the continuity. The smaller the value of VA, the higher the continuity.

【0187】ステップ(406)では、上側の測距視野
のデフォーカス量DFCを使用して、前回の測距から今
回の測距までの像面移動度V3を計算する。そして、ス
テップ(407)では、ステップ(405)と同様にし
て上側の測距視野を使用した場合の連続性を表わすVC
を計算する。
In step (406), the image plane mobility V3 from the previous distance measurement to the current distance measurement is calculated using the defocus amount DFC in the upper distance measurement field of view. Then, in step (407), VC indicating the continuity when the upper distance measurement field of view is used in the same manner as in step (405).
Is calculated.

【0188】次のステップ(408)では、像面位置変
化の連続性を評価するVAとVCを比較し、VA<V
C、すなわち下側の測距視野での連続性の方が高ければ
ステップ(411)へ移行し、そうでなければステップ
(409)へ移行する。
In the next step (408), VA and VC for evaluating the continuity of image plane position change are compared, and VA <V
If C, that is, the continuity in the lower distance measurement field is higher, the process proceeds to step (411), and if not, the process proceeds to step (409).

【0189】ステップ(409)では、上側の測距視野
の方が連続性が高いということから、RAM上の記憶領
域DF3 に上側の測距視野のデフォーカス量DFCを入
力する。そして、ステップ(410)では、使用する測
距点を表わすAFPに上側の測距視野を表わす「1」を
入力する。
In step (409), the defocus amount DFC of the upper distance measurement field is input to the storage area DF3 on the RAM because the upper distance measurement field has higher continuity. Then, in step (410), "1" representing the upper ranging field of view is input to the AFP representing the ranging point to be used.

【0190】ステップ(411)では、下側の測距視野
の方が連続性が高いということから、RAM上の記憶領
域DF3 に下側の測距視野のデフォーカス量DFAを入
力する。そしてステップ(412)にて、下側の測距視
野を表わす「−1」をAFPに入力する。
In step (411), the defocus amount DFA of the lower distance measurement field is input to the storage area DF3 on the RAM because the lower distance measurement field has higher continuity. Then, in step (412), "-1" representing the lower distance measurement field of view is input to the AFP.

【0191】ステップ(410)あるいは(412)を
終了すると、ステップ(435)へ移行する。また、ス
テップ(414)〜(423)、(425)〜(43
4)も同様にして、前々回から前回までの像面位置変化
に使い、連続性の高い測距点を選択するものであり、そ
の動作はステップ(403)〜(412)と同様であ
り、その詳細な説明は省略する。
When the step (410) or (412) is completed, the flow shifts to the step (435). Steps (414) to (423) and (425) to (43)
Similarly, 4) is used for selecting a ranging point having high continuity by using the image plane position change from the last two times to the previous time, and the operation is the same as steps (403) to (412). Detailed description is omitted.

【0192】ステップ(435)では変更された測距視
野のデフォーカス量から像面位置の連続性が予測制御に
適しているかどうかを判定し、適していればステップ
(438)へ移行し、適していなければステップ(43
6)へ移行する。
In step (435), it is determined whether or not the continuity of the image plane position is suitable for predictive control based on the changed defocus amount of the distance measurement field of view, and if so, the process proceeds to step (438). If not, step (43)
Go to 6).

【0193】ステップ(436)では測距視野を最も適
した点に変更したにもかかわらず、予測制御に適してい
ないと判定されたことから、予測制御を一度中止するフ
ラグANGに「1」を入力する。そしてステップ(43
7)では、使用する測距視野を中央の測距視野に戻すた
めAFPに「0」を入力する。そして、このステップを
終了するとステップ(438)に移行し、このサブルー
チンをリターンする。
In step (436), it is determined that the field of view is not suitable for predictive control even though the range-finding field has been changed to the most suitable point. Therefore, "1" is set to the flag ANG for temporarily suspending predictive control. input. And step (43)
In 7), "0" is input to the AFP in order to return the used distance measurement field to the center distance measurement field. Then, when this step ends, the flow shifts to the step (438), and this subroutine is returned.

【0194】上述の予測演算および測距点変更サブルー
チンにて、最初に使用した測距点のデフォーカスデータ
でステップ(312)にて像の連続性が認められない時
に測距視野変更がなされ、3測距点のうち最も連続性の
高い測距視野でのデフォーカスデータが検知され、この
データに基づいてステップ(435)にて再度連続性有
無の判定がなされ、連続性が認められれば上記最も連続
性の高いデフォーカスデータに基づく予測演算が(31
3)〜(322)のステップで実行され続ける。なお、
このとき上記デフォーカスデータの測距点を示すAFP
の値が、そのデータの測距点に応じた値となり、以後の
焦点検出は変更された測距点からのデフォーカスデータ
に応じて行われ測距点の変更がなされる。また、ステッ
プ(435)でも連続性が認められない時にはANG=
1となされ予測処理を一時中止し、中央の測距視野のデ
ータによるレンズ駆動が行われる。
In the above-described prediction calculation and ranging point change subroutine, when the continuity of the image is not recognized in step (312) with the defocus data of the ranging point used first, the ranging field is changed. The defocus data in the field of view having the highest continuity among the three distance measuring points is detected. Based on this data, the presence or absence of continuity is determined again in step (435). The prediction calculation based on the most continuous defocus data is (31
3) to (322) are continuously executed. In addition,
At this time, the AFP indicating the ranging point of the defocus data
Becomes a value corresponding to the ranging point of the data, and the subsequent focus detection is performed according to the defocus data from the changed ranging point, and the ranging point is changed. When continuity is not recognized even in step (435), ANG =
The prediction processing is temporarily stopped, and the lens is driven based on the data of the center distance measurement field.

【0195】次に図9を用いて「像面位置の連続性判
定」サブルーチンについて説明する。
Next, the "determination of continuity of image plane position" subroutine will be described with reference to FIG.

【0196】ステップ(502)は各記憶領域のデータ
に基づき(DF2 +DL1 -DF1)/TM1 なる演算を
行う。この演算は図2の時刻t1 とt2 間の像面移動速
度の平均値V1を計算するステップである。次のステッ
プ(503)での演算は同様に時刻t2 とt3 間の像面
移動速度の平均値V2を計算するステップである。この
後ステップ(504)へ進む。
In step (502), an operation of (DF2 + DL1-DF1) / TM1 is performed based on the data in each storage area. This calculation is a step of calculating the average value V1 of the image plane moving speed between times t1 and t2 in FIG. The calculation in the next step (503) is a step of similarly calculating the average value V2 of the image plane moving speed between times t2 and t3. Thereafter, the process proceeds to step (504).

【0197】ステップ(504)では、ステップ(50
2)、(503)で求めた像面移動速度V1、V2の差
の絶対値VAを計算し、ステップ(505)へ移行す
る。
In step (504), step (50)
2), calculate the absolute value VA of the difference between the image plane moving speeds V1 and V2 obtained in (503), and proceed to step (505).

【0198】ステップ(505)ではステップ(50
4)で求まったVAとあらかじめ設定された数AXを比
較し、VAがAXより大のときは像面位置の連続性無
し、VAがAXより小のときには連続性有りと判断され
る。
In step (505), step (50)
The VA obtained in 4) is compared with a preset number AX. When VA is larger than AX, it is determined that there is no continuity of the image plane position, and when VA is smaller than AX, it is determined that there is continuity.

【0199】上記フローによる連続性の有り、無しの判
定原理は同一の被写体を追っていればその時の像面移動
速度も連続的に変化することになることに基づいてい
る。そこで、時間的に隣接した、像面移動速度を算出
し、この差が小さければ像面移動速度が連続的に変化し
ているものとみなし、同一の被写体を測距していると判
断して予測演算を行う。これに対し像面移動速度の変化
が十分大きい場合には、像面移動速度が連続的に変化し
ていないとみなしている。
The principle of judging presence / absence of continuity by the above flow is based on the fact that if the same object is followed, the image plane moving speed at that time also changes continuously. Therefore, the image plane moving speeds that are temporally adjacent to each other are calculated, and if this difference is small, it is assumed that the image plane moving speed is continuously changing, and it is determined that the same subject is being measured. Perform a prediction operation. On the other hand, when the change in the image plane moving speed is sufficiently large, it is considered that the image plane moving speed does not continuously change.

【0200】図10に「レンズ駆動」サブルーチンのフ
ローチャートを示す。
FIG. 10 shows a flowchart of the "lens drive" subroutine.

【0201】このサブルーチンが実行されると、ステッ
プ(1502)においてレンズと通信して、2つのデー
タ「S」「PTH」を入力する。「S」は撮影レンズ固
有の「デフォーカス量対焦点調節レンズくり出し量の係
数」であり、例えば全体繰出し型の単レンズの場合に
は、撮影レンズ全体が焦点調節レンズであるからS=1
であり、ズームレンズの場合には各ズーム位置によって
Sは変化する。「PTH」は焦点調節レンズLNSの光
軸方向の移動に連動したエンコーダENCの出力1パル
ス当たりの焦点調節レンズのくり出し量である。
When this subroutine is executed, two data "S" and "PTH" are input in step (1502) by communicating with the lens. “S” is a “defocus amount vs. a coefficient of a focus adjusting lens drawn-out amount” unique to a photographing lens. For example, in the case of a single lens of a full extension type, S = 1 because the entire photographing lens is a focus adjusting lens.
In the case of a zoom lens, S changes depending on each zoom position. “PTH” is the amount of focus adjustment lens per pulse output from the encoder ENC that is interlocked with the movement of the focus adjustment lens LNS in the optical axis direction.

【0202】従って現在の撮影レンズのデフォーカス量
DEF、上記S、PTHにより焦点調節レンズのくり出
し量をエンコーダの出力パルス数に換算した値、いわゆ
るレンズ駆動量FPは次式で与えられることになる。
Therefore, the current defocus amount DEF of the photographing lens, and the value obtained by converting the amount of protrusion of the focusing lens into the number of output pulses of the encoder by the above S and PTH, that is, the so-called lens drive amount FP, is given by the following equation. .

【0203】FP=DEF×S/PTH ステップ(1503)は上式をそのまま実行している。FP = DEF × S / PTH Step (1503) executes the above equation as it is.

【0204】ステップ(1504)ではステップ(50
3)で求めたFPをレンズに送出して焦点調節レンズ
(全体繰出し型単レンズの場合には撮影レンズ全体)の
駆動を命令する。
At step (1504), step (50)
The FP obtained in step 3) is sent to the lens to instruct driving of the focus adjusting lens (in the case of the whole extension single lens, the entire photographing lens).

【0205】以上の説明においては、選択された測距視
野ブロックの中に垂直方向に3つの独立した測距視野が
ある例を用いたが、これらの測距視野は複数の測距視野
を連ねた一続きの測距視野であってもよく、これを元の
複数の領域に分割して、例えば右、中央、左を上、中
央、下に置き換えて前述したと同様の処理が適用でき
る。
In the above description, there is used an example in which there are three independent distance measurement fields in the vertical direction in the selected distance measurement field block, but these distance measurement fields are formed by connecting a plurality of distance measurement fields. A series of distance measurement fields may be used, which is divided into a plurality of original areas, and the same processing as described above can be applied, for example, by replacing the right, center, and left with upper, center, and lower.

【0206】なお、これまで説明した実施例は受動方式
の焦点検出装置を示したが能動方式の焦点検出装置であ
っても良い。一方、至近距離が比較的長くパララックス
を無視できる場合、あるいはそれを補償できるカメラの
機種では外部測距の検出装置を使用できるケースがあ
る。
Although the embodiments described so far have described the passive type focus detecting device, the active type focus detecting device may be used. On the other hand, when the close distance is relatively long and parallax can be ignored, or a camera model that can compensate for it, there is a case where a detection device for external distance measurement can be used.

【0207】[0207]

【発明の効果】以上、本願発明によれば、ワンショット
モードでは、合焦後は不用意に視線検出結果に基づいて
焦点検出領域を選択してしまうことがなく、精度良く被
写体を撮影することが可能となる。
As described above, according to the present invention, in the one-shot mode, the subject can be accurately photographed without inadvertently selecting the focus detection area based on the result of the visual line detection after focusing. Becomes possible.

【0208】また合焦後においては、視線検出は抑制す
るが、焦点検出は引き続き行うのでワンショットモード
であっても被写体が動き始めれば、自動的にサーボモー
ドに変更され、被写体の動きに応じた撮影モードで撮影
を行うことが可能となる。
[0208] After focusing, the line-of-sight detection is suppressed, but the focus detection is continued. Therefore, if the subject starts moving even in the one-shot mode, the mode is automatically changed to the servo mode, and the mode is changed according to the movement of the subject. It is possible to perform shooting in the shooting mode that has been set.

【図面の簡単な説明】[Brief description of the drawings]

【図1】カメラの全体の動作を概略示すフローチャー
ト。
FIG. 1 is a flowchart schematically showing the overall operation of a camera.

【図2】本発明の実施例に係る制御動を説明するための
フローチャート。
FIG. 2 is a flowchart for explaining a control operation according to the embodiment of the present invention.

【図3】動体検知のサブルーチンを説明するためのフロ
ーチャート。
FIG. 3 is a flowchart illustrating a subroutine of moving object detection.

【図4】視線検出のサブルーチンを説明するためのフロ
ーチャート。
FIG. 4 is a flowchart for explaining a subroutine of line-of-sight detection.

【図5】焦点検出のサブルーチンを説明するためのフロ
ーチャート。
FIG. 5 is a flowchart illustrating a focus detection subroutine.

【図6】判定のサブルーチンを説明するためのフローチ
ャート。
FIG. 6 is a flowchart illustrating a subroutine for determination.

【図7】予測演算のサブルーチンを説明するためのフロ
ーチャート。
FIG. 7 is a flowchart illustrating a prediction calculation subroutine.

【図8】測距点変更のサブルーチンを説明するためのフ
ローチャート。
FIG. 8 is a flowchart for explaining a subroutine for changing a ranging point.

【図9】像面位置の連続性に関するサブルーチンを説明
するためのフローチヤート。
FIG. 9 is a flowchart for explaining a subroutine relating to continuity of an image plane position.

【図10】レンズ駆動に関するサブルーチンを説明する
ためのフローチヤート。
FIG. 10 is a flowchart for explaining a subroutine relating to lens driving.

【図11】測距視野範囲設定のサブルーチンを説明する
ためのフローチャート。
FIG. 11 is a flowchart illustrating a subroutine for setting a distance measurement visual field range.

【図12】実施例に係る一眼レフカメラの断面図。FIG. 12 is a sectional view of a single-lens reflex camera according to the embodiment.

【図13】視線検出の方法を説明するための図。FIG. 13 is a diagram for explaining a method of detecting a line of sight.

【図14】前眼部反射像と光電変換素子の画素列との光
学関係を示す図。
FIG. 14 is a diagram illustrating an optical relationship between a reflected image of an anterior ocular segment and a pixel row of a photoelectric conversion element.

【図15】前眼部とプルキンエ反射像との光学関係を示
す図。
FIG. 15 is a diagram showing an optical relationship between an anterior segment and a Purkinje reflection image.

【図16】光電変換素子の出力を示す図。FIG. 16 illustrates an output of a photoelectric conversion element.

【図17】焦点検出装置の斜視図。FIG. 17 is a perspective view of a focus detection device.

【図18】軸上検出視野の検出の際の光学挙動を示す
図。
FIG. 18 is a diagram showing an optical behavior when detecting an on-axis detection visual field.

【図19】軸外検出視野の検出の際の光学挙動を示す
図。
FIG. 19 is a diagram showing an optical behavior when detecting an off-axis detection visual field.

【図20】焦点検出装置の任意の一視野に関する出力信
号の例を示す図。
FIG. 20 is a diagram showing an example of an output signal for an arbitrary field of view of the focus detection device.

【図21】一眼レフカメラのファインダー視野に検出視
野を表示した様子を示す図。
FIG. 21 is a diagram showing a state in which a detection visual field is displayed in a finder visual field of a single-lens reflex camera.

【図22】焦点検出装置の多孔マスクの正面図。FIG. 22 is a front view of a multi-hole mask of the focus detection device.

【図23】カメラの姿勢検出スイッチの正面図。FIG. 23 is a front view of a posture detection switch of the camera.

【図24】カメラの電気系ブロック図。FIG. 24 is an electric block diagram of the camera.

【符号の説明】[Explanation of symbols]

2 主ミラー 3 サブミラー 4 カメラ本体 5 レンズ鏡筒 6 焦点検出装置 9 光分割器 13 光源 14 光電変換器 80 可動マスク 81 視野マスク 83 多孔マスク 84 2次結像レンズ群 Reference Signs List 2 Main mirror 3 Sub mirror 4 Camera body 5 Lens barrel 6 Focus detection device 9 Light splitter 13 Light source 14 Photoelectric converter 80 Movable mask 81 Field mask 83 Porous mask 84 Secondary imaging lens group

───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 平2−126211(JP,A) 特開 昭59−135448(JP,A) 特開 平2−42430(JP,A) (58)調査した分野(Int.Cl.7,DB名) G02B 7/28 - 7/40 G03B 13/36 ────────────────────────────────────────────────── ─── Continuation of the front page (56) References JP-A-2-126211 (JP, A) JP-A-59-135448 (JP, A) JP-A-2-42430 (JP, A) (58) Field (Int.Cl. 7 , DB name) G02B 7/ 28-7/40 G03B 13/36

Claims (1)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 レンズを駆動してレンズの焦点調節を制
御するレンズ制御手段と、観察者の眼球の視線位置情報
を検出する視線検出手段と、被写界面内に複数存在する
焦点検出領域のうち前記視線位置情報に基づいて焦点検
出領域を選択する選択手段と、いずれかの焦点検出領域
焦点検出を行う焦点検出手段と、被写体との距離変化
に伴う結像面位置の変化を追従して補正するサーボモー
ドと、一旦合焦状態であることを前記焦点検出手段が検
出するとそれ以降の合焦のためのレンズ駆動を禁止する
ワンショットモードとを有し、前記ワンショットモード
で合焦状態であることを検出した後に、合焦状態である
ことが検出された焦点検出領域での焦点検出結果に応じ
て前記ワンショットモードから前記サーボモードに切換
えるカメラであって、 前記ワンショットモードで合焦状態であることを検出し
た後は、前記視線検出手段が視線位置情報を検出せず
に、前記焦点検出手段が合焦状態であることが検出され
た焦点検出領域で焦点検出を繰り返し行い、該焦点検出
結果に応じて前記サーボモードに切換えられると、前記
視線検出手段が視線位置情報を検出し、前記焦点検出手
段が該視線位置情報に基づいて選択された焦点検出領域
での焦点検出を行うことを特徴とするカメラ。
A lens control unit that controls a focus adjustment of the lens by driving the lens; a line-of-sight detection unit that detects line-of-sight position information of an observer's eyeball; of a selecting means for selecting a point detection area focus on the basis of the viewpoint position information, one of the focus detection area
In a focus detection means for performing focus detection, and the servo mode to correct by following the change of the focal plane position caused by the change in distance between the subject, the focus detecting means detects later to be a once-focus state and a one-shot mode for prohibiting the lens drive for focusing, the one-shot mode
Is in focus after detecting in focus with
A camera that switches from the one-shot mode to the servo mode in accordance with a focus detection result in a focus detection area in which a focus state is detected in the one-shot mode.
After that, the gaze detection means does not detect the gaze position information
It is detected that the focus detection means is in focus.
Focus detection is repeated in the focus detection area
When switched to the servo mode according to the result,
The line-of-sight detecting means detects line-of-sight position information, and
Focus detection area in which a step is selected based on the line-of-sight position information
A camera which performs focus detection in a camera.
JP2000353089A 2000-11-20 2000-11-20 camera Expired - Fee Related JP3352453B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000353089A JP3352453B2 (en) 2000-11-20 2000-11-20 camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000353089A JP3352453B2 (en) 2000-11-20 2000-11-20 camera

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP09333998A Division JP3278397B2 (en) 1998-04-06 1998-04-06 Camera with gaze detection function

Publications (2)

Publication Number Publication Date
JP2001188164A JP2001188164A (en) 2001-07-10
JP3352453B2 true JP3352453B2 (en) 2002-12-03

Family

ID=18825903

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000353089A Expired - Fee Related JP3352453B2 (en) 2000-11-20 2000-11-20 camera

Country Status (1)

Country Link
JP (1) JP3352453B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4698896B2 (en) * 2001-07-27 2011-06-08 京セラ株式会社 Out-of-focus determination method in AF scan
JP4810159B2 (en) * 2005-08-12 2011-11-09 キヤノン株式会社 Focus adjustment device, imaging device, and control method of focus adjustment device
JP2010113130A (en) * 2008-11-06 2010-05-20 Nikon Corp Focus detecting device, imaging apparatus, focus detecting method
JP6183421B2 (en) * 2015-08-03 2017-08-23 カシオ計算機株式会社 Image processing apparatus and program
JP7289714B2 (en) 2019-04-26 2023-06-12 キヤノン株式会社 FOCUS ADJUSTMENT DEVICE, IMAGING DEVICE, FOCUS ADJUSTMENT METHOD, AND PROGRAM

Also Published As

Publication number Publication date
JP2001188164A (en) 2001-07-10

Similar Documents

Publication Publication Date Title
JP3210027B2 (en) camera
US5091742A (en) Camera having an auto focusing device
JP2605282B2 (en) Automatic focusing device
EP0438116B1 (en) Focus detection apparatus
US5198856A (en) Camera having camera-shake detecting device
JPH06175002A (en) Automatic zoom camera
US5983030A (en) Optical apparatus having a visual axis detector
JP3352453B2 (en) camera
US5140359A (en) Multi-point distance measuring apparatus
JP4560173B2 (en) Focus detection device
US5402199A (en) Visual axis detecting apparatus
EP0438140B1 (en) Focus detecting device in a camera
JP3278397B2 (en) Camera with gaze detection function
JP2974637B2 (en) Automatic focusing device
JP2832006B2 (en) Automatic focusing device
JP2001188163A (en) Camera provided with function of detecting line of sight
JPH0618772A (en) Camera provided with function for detecting line of sight
JP4054436B2 (en) Optical device
JPH05107454A (en) Camera having focus detecting means and sight line detecting means
JPH06138378A (en) Camera provided with focus detecting means and line-of-sight detecting means
EP0439167B1 (en) Focus detection apparatus
JPH06313842A (en) Automatic focusing camera
JP3486464B2 (en) Automatic focusing device
JP4262034B2 (en) Optical device and camera
JP4594402B2 (en) Auto focus camera

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20020827

LAPS Cancellation because of no payment of annual fees