JPH06175012A - Focus detector for camera - Google Patents

Focus detector for camera

Info

Publication number
JPH06175012A
JPH06175012A JP32958192A JP32958192A JPH06175012A JP H06175012 A JPH06175012 A JP H06175012A JP 32958192 A JP32958192 A JP 32958192A JP 32958192 A JP32958192 A JP 32958192A JP H06175012 A JPH06175012 A JP H06175012A
Authority
JP
Japan
Prior art keywords
line
output signal
sight direction
lens
cpu
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP32958192A
Other languages
Japanese (ja)
Other versions
JP3164447B2 (en
Inventor
Masabumi Yamazaki
正文 山崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optical Co Ltd filed Critical Olympus Optical Co Ltd
Priority to JP32958192A priority Critical patent/JP3164447B2/en
Publication of JPH06175012A publication Critical patent/JPH06175012A/en
Application granted granted Critical
Publication of JP3164447B2 publication Critical patent/JP3164447B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B2213/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B2213/02Viewfinders
    • G03B2213/025Sightline detection

Landscapes

  • Focusing (AREA)
  • Viewfinders (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

PURPOSE:To reduce power cosumption and to eliminate an unpleasant feeling given to an observer by efficiently performing finder display expressing the line-of-sight direction of a photographer and the driving of a lens. CONSTITUTION:A CPU 18 generates a 1st output signal in accordance with the line-of-sight direction in the visual field frame of the finder of a camera. When the output signal from the CPU 18 is an almost fixed value for a specified time or more, a lens driving circuit 8 drives the lens in order to adjust focus in the line-of-sight direction in accordance with the output signal. A temporal low-pass filter is applied to the output signal from the CPU 18, and a liquid crystal display part 21 displays the visual field frame nearly aligned with the line-of-sight direction in accordance with the output signal in the visual field frame of the finder.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、カメラのファインダ視
野枠内の所望の被写体に焦点調節を行うカメラの焦点検
出装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a focus detecting device for a camera, which adjusts a focus on a desired subject within a viewfinder frame of the camera.

【0002】[0002]

【従来の技術】従来、ファインダを覗く撮影者の視線方
向を検出し、その視線情報に基づいてカメラの種々の動
作を行う技術が提案されている。
2. Description of the Related Art Conventionally, there has been proposed a technique for detecting the line-of-sight direction of a photographer looking into a viewfinder and performing various operations of a camera based on the line-of-sight information.

【0003】例えば、特開平4−190177号公報で
は、ファインダ視野枠上に視線方向と略一致する所定範
囲の視線領域を表示し、上記視野領域内の被写体の焦点
を検出する技術が開示されている。この技術は、カメラ
のファインダ視野枠内の視線方向を検出し、その視野枠
上に上記視線方向と略一致する所定範囲の視線領域を表
示し、該視線領域内の被写体の焦点を検出するものであ
る。このように、この技術は、画面の視線方向の所定範
囲内の出力に基づいて焦点検出を行うことに特徴を有し
ていた。
For example, Japanese Patent Application Laid-Open No. 4-190177 discloses a technique of displaying a line-of-sight region in a predetermined range substantially matching the line-of-sight direction on a viewfinder field frame and detecting the focus of a subject within the field-of-view region. There is. This technique detects a line-of-sight direction in a viewfinder frame of a camera, displays a line-of-sight region in a predetermined range substantially matching the line-of-sight direction on the field-of-view frame, and detects a focus of a subject in the line-of-sight region. Is. As described above, this technique is characterized in that the focus detection is performed based on the output within the predetermined range in the line-of-sight direction of the screen.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、上記特
開平4−190177号公報により開示された技術で
は、視線の微動に応じて忠実に視線方向を表わす指標を
ファインダ視野枠内に表示してしまうので、表示が撮影
者に不快感を与えてしまう。
However, in the technique disclosed in Japanese Patent Laid-Open No. 4-190177, the index indicating the direction of the line of sight faithfully according to the slight movement of the line of sight is displayed in the viewfinder frame. , The display makes the photographer feel uncomfortable.

【0005】更に、上記技術では、指標の位置に常に焦
点を合わせるため、上記指標の位置が変わる毎にレンズ
駆動を行ってしまう為、当該レンズ駆動の動きに無駄が
多く、更には消費電力の増大をも招いてしまう。
Further, in the above technique, since the focus is always focused on the position of the index, the lens is driven every time the position of the index changes, so that the movement of the lens drive is wasteful and power consumption is further reduced. It also invites an increase.

【0006】本発明は上記問題に鑑みてなされたもの
で、その目的とするところは、撮影者の視線方向を表わ
すファインダ表示やレンズ駆動等を効率良く行うこと
で、消費電力を軽減すると共に観察者に与える不快感を
無くし、更には所望とする被写体に迅速且つ適格にピン
ト合せを行うことある。
The present invention has been made in view of the above problems, and it is an object of the present invention to reduce power consumption and observe by efficiently performing viewfinder display showing the photographer's line-of-sight direction and lens driving. Discomfort to a person may be eliminated, and a desired subject may be quickly and properly focused.

【0007】[0007]

【課題を解決するための手段】上記目的を達成するため
に、本発明の第1の態様によるカメラの焦点検出装置
は、カメラのファインダ視野枠内の撮影者の視線方向に
応じた第1の出力信号を発生する第1の出力手段と、上
記第1の出力手段の出力信号が所定時間以上略一定のと
き、該出力信号に応じた視線方向に焦点を合わせるため
レンズを駆動するレンズ駆動手段と、上記第1の出力手
段の出力信号に時間的なローパスフィルタをかけるフィ
ルタ手段と、上記フィルタ手段の出力信号に応じた視線
方向と略一致する視野枠を上記ファインダ視野枠内に表
示する表示手段とを具備することを特徴とする。
In order to achieve the above object, the focus detection device for a camera according to the first aspect of the present invention is a first focus detection device according to the direction of the line of sight of the photographer in the viewfinder frame of the camera. First output means for generating an output signal, and lens driving means for driving a lens to focus in the line-of-sight direction according to the output signal when the output signal of the first output means is substantially constant for a predetermined time or longer. A display means for applying a temporal low-pass filter to the output signal of the first output means; and a display for displaying a visual field frame substantially coincident with the line-of-sight direction corresponding to the output signal of the filter means in the finder visual field frame. And means.

【0008】また、第2の態様によるカメラの焦点検出
装置は、カメラのファインダ視野枠内の撮影者の視線方
向に応じた第1の出力信号を発生する第1の出力手段
と、上記第1の出力手段の出力信号が所定時間以上で略
一定のとき、該出力信号に応じた視線方向に焦点を合わ
せるためレンズを駆動するレンズ駆動手段と、上記レン
ズ駆動手段によるレンズの駆動中に、上記第1の出力手
段の出力信号が所定以上変化したときに上記駆動を中止
する制御手段とを具備することを特徴とする。
The focus detecting device for a camera according to the second aspect includes first output means for generating a first output signal according to the line-of-sight direction of the photographer in the viewfinder frame of the camera, and the first output means. When the output signal of the output means is substantially constant for a predetermined time or longer, the lens drive means for driving the lens to focus in the line-of-sight direction according to the output signal, and the lens drive means while driving the lens, And a control means for stopping the driving when the output signal of the first output means changes by a predetermined amount or more.

【0009】[0009]

【作用】即ち、本発明の第1の態様によるカメラの焦点
検出装置では、第1の出力手段がカメラのファインダ視
野枠内の撮影者の視線方向に応じた第1の出力信号を発
生し、レンズ駆動手段が上記第1の出力手段の出力信号
が所定時間以上略一定のとき、該出力信号に応じた視線
方向に焦点を合わせるためレンズを駆動する。そして、
フィルタ手段が上記第1の出力手段の出力信号に時間的
なローパスフィルタをかけ、表示手段が上記フィルタ手
段の出力信号に応じた視線方向と略一致する視野枠を上
記ファインダ視野枠内に表示する。
That is, in the focus detecting device for a camera according to the first aspect of the present invention, the first output means generates the first output signal in accordance with the line-of-sight direction of the photographer within the viewfinder frame of the camera, When the output signal of the first output means is substantially constant for a predetermined time or longer, the lens driving means drives the lens to focus in the line-of-sight direction according to the output signal. And
The filter means applies a temporal low-pass filter to the output signal of the first output means, and the display means displays in the viewfinder field frame a visual field frame that substantially matches the line-of-sight direction corresponding to the output signal of the filter means. .

【0010】また、第2の態様によるカメラの焦点検出
装置では、第1の出力手段がカメラのファインダ視野枠
内の撮影者の視線方向に応じた第1の出力信号を発生
し、レンズ駆動手段が上記第1の出力手段の出力信号が
所定時間以上で略一定のとき、該出力信号に応じた視線
方向に焦点を合わせるためレンズを駆動する。そして、
制御手段が上記レンズ駆動手段によるレンズの駆動中
に、上記第1の出力手段の出力信号が所定以上変化した
ときに上記駆動を中止する。
Further, in the camera focus detection device according to the second aspect, the first output means generates the first output signal according to the direction of the line of sight of the photographer within the viewfinder frame of the camera, and the lens driving means. When the output signal of the first output means is substantially constant for a predetermined time or longer, the lens is driven to focus in the line-of-sight direction according to the output signal. And
The control means stops the driving when the output signal of the first output means changes by a predetermined amount or more while the lens is being driven by the lens driving means.

【0011】[0011]

【実施例】以下、図面を参照して、本発明の実施例につ
いて説明する。図1は、本発明の焦点検出装置を適用し
た自動焦点調節(AF;Auto Focussing)カメラの構成を概
略的に示すブロック構成図である。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a block configuration diagram schematically showing the configuration of an automatic focusing (AF) camera to which the focus detection device of the present invention is applied.

【0012】同図に示すように、視線方向検出用センサ
15はA/Dコンバータ17を介してCPU18に接続
されており、該CPU18には、視線検出開始スイッチ
SW3が配設されている。更に、このCPU18は、セ
ンサドライバ16を介して上記視線方向検出用センサ1
5に接続されており、液晶ドライバ20を介して液晶表
示部21にも接続されている。そして、このCPU18
は上記A/Dコンバータ17、CPU6にも接続されて
いる。
As shown in the figure, the line-of-sight direction detecting sensor 15 is connected to a CPU 18 via an A / D converter 17, and the CPU 18 is provided with a line-of-sight detection start switch SW3. Further, the CPU 18 uses the sensor driver 16 to detect the line-of-sight direction sensor 1
5 and is also connected to the liquid crystal display unit 21 via the liquid crystal driver 20. And this CPU 18
Is also connected to the A / D converter 17 and the CPU 6.

【0013】そして、撮影レンズ1、焦点検出光学系2
を介して入射される被写体像を受光するエリアイメージ
センサ3は、A/Dコンバータ5を介してCPU6に接
続されており、該CPU6はセンサドライバ4を介して
エリアイメージセンサ3に接続されていると共に、A/
Dコンバータ5にも接続されている。そして、このCP
U6は液晶ドライバ11を介して液晶表示部12に接続
されていると共に、モータ9を制御するレンズ駆動回路
8や、露出制御回路13にも接続されている。さらに、
CPU6には、情報入力部14や、ホトインタラプタ1
0、レンズROM7も接続されている。そして、このC
PU6には、カメラ動作スタートスイッチSW1やレリ
ーズスイッチSW2が配設されている。そして、CPU
18にはタイマ19が内蔵されている。
Then, the photographing lens 1 and the focus detection optical system 2
The area image sensor 3 that receives a subject image incident via the is connected to the CPU 6 via the A / D converter 5, and the CPU 6 is connected to the area image sensor 3 via the sensor driver 4. With A /
It is also connected to the D converter 5. And this CP
U6 is connected to the liquid crystal display unit 12 via the liquid crystal driver 11, and is also connected to the lens drive circuit 8 for controlling the motor 9 and the exposure control circuit 13. further,
The CPU 6 includes an information input unit 14 and a photo interrupter 1
0 and the lens ROM 7 are also connected. And this C
The PU 6 is provided with a camera operation start switch SW1 and a release switch SW2. And CPU
A timer 19 is built in the device 18.

【0014】このような構成において、上記エリアイメ
ージセンサ3は、焦点検出光学系2によって結像される
像を電気信号に光電変換するものであり、ドライバ4は
上記エリアイメージセンサ3を駆動制御するものであ
る。そして、A/Dコンバータ5は上記エリアイメージ
センサ3からのアナログ出力をデジタル信号に変換して
CPU6に出力するものであり、当該CPU6は視線方
向検出以外のカメラ全体の制御を司るもので、例えばエ
リアイメージセンサ3の出力に基づいて、被写体距離の
演算や、絞り値やシャッタスピードの表示や、露出制御
を行なうようになっている。
In such a structure, the area image sensor 3 photoelectrically converts the image formed by the focus detection optical system 2 into an electric signal, and the driver 4 drives and controls the area image sensor 3. It is a thing. The A / D converter 5 converts the analog output from the area image sensor 3 into a digital signal and outputs the digital signal to the CPU 6. The CPU 6 controls the entire camera other than the detection of the line-of-sight direction. Based on the output of the area image sensor 3, the subject distance is calculated, the aperture value and shutter speed are displayed, and the exposure is controlled.

【0015】さらに、レンズROM7はレンズ鏡筒内に
設けられており、撮影レンズ1のFナンバーや像のズレ
量からデフォーカス量を求めるための変換係数など焦点
検出に必要な各種のデータを記憶するものである。そし
て、レンズ駆動回路8はCPU6の制御によってモータ
9を駆動することで前記撮影レンズ1の位置を移動する
ものである。
Further, the lens ROM 7 is provided in the lens barrel, and stores various data necessary for focus detection such as the F number of the taking lens 1 and the conversion coefficient for obtaining the defocus amount from the image shift amount. To do. The lens driving circuit 8 moves the position of the photographing lens 1 by driving the motor 9 under the control of the CPU 6.

【0016】そして、通常、被写体距離を検出し、当該
距離情報に基づいて撮影レンズ1を駆動するAF動作に
おいては、撮影レンズ1の駆動量をCPU6にフィード
バックする必要がある。この場合、撮影レンズ1が実際
に移動されたその移動量を駆動用モータ9の回転数で代
用するのが一般的となっている。そして、ホトインタラ
プラ10は、この回転数を検出する。
Usually, in the AF operation of detecting the subject distance and driving the taking lens 1 based on the distance information, it is necessary to feed back the driving amount of the taking lens 1 to the CPU 6. In this case, it is general that the moving amount of the photographing lens 1 actually moved is substituted by the rotation speed of the drive motor 9. Then, the photointerrupter 10 detects this rotation speed.

【0017】さらに、上記CPU6においては、エリア
イメージセンサ3の光電変換出力信号から、ファインダ
視野枠内の視線方向と略一致する所定領域の信号を選択
し、上記所定領域内の物体に対するデフォーカス量を演
算するだけでなく、上記所定領域のセンサ出力信号を平
均化し平均輝度Bvを求め、情報入力部14より入力さ
れたフィルム感度Sv,シャッタスピードTv,絞り値
Avなどの情報と共にアペックス演算を行ない、シャッ
タスピードTvや絞り値Avを求める。このシャッタス
ピードTvや絞り値Avは、液晶ドライバ11を介して
液晶表示12により表示される。
Further, the CPU 6 selects a signal of a predetermined area which substantially coincides with the line-of-sight direction in the viewfinder field frame from the photoelectric conversion output signal of the area image sensor 3, and defocuses the object within the predetermined area. In addition to averaging the sensor output signals in the predetermined area to obtain the average brightness Bv, the apex operation is performed together with the information such as the film sensitivity Sv, the shutter speed Tv, and the aperture value Av input from the information input unit 14. , Shutter speed Tv and aperture value Av are obtained. The shutter speed Tv and the aperture value Av are displayed on the liquid crystal display 12 via the liquid crystal driver 11.

【0018】さらに、上記CPU18に内蔵されたタイ
マ19は、正確な時間を計時するためのものであり、視
線方向検出用センサ15は視線方向検出用光学系によっ
て結像される像を電気信号に光電変換するものである。
そして、センサドライバ16は上記視線方向検出用セン
サ15を駆動するものであり、該視線方向検出用センサ
15のアナログ出力信号は、A/Dコンバータ17によ
りデジタル信号に変換されCPU18内のRAMにスト
アされる。
Further, the timer 19 built in the CPU 18 is for measuring an accurate time, and the line-of-sight direction detecting sensor 15 converts an image formed by the line-of-sight direction detecting optical system into an electric signal. Photoelectric conversion.
The sensor driver 16 drives the line-of-sight direction detecting sensor 15, and the analog output signal of the line-of-sight direction detecting sensor 15 is converted into a digital signal by the A / D converter 17 and stored in the RAM in the CPU 18. To be done.

【0019】このCPU18は、視線方向検出のための
全体の制御を司るもので、例えば視線検出用センサ15
の出力信号に基づいて視線方向を演算したり、ファイン
ダ視野枠内に上記視線方向と略一致する領域に視野枠を
表示したりする。そして、この視野枠は、液晶ドライバ
20を介して液晶表示部21に、例えば図2(a),
(b)のように表示される。次に、図3は、実施例の光
学系を詳細に示す光学配置図である。
The CPU 18 is responsible for the overall control for detecting the line-of-sight direction. For example, the line-of-sight detection sensor 15 is provided.
Calculates the line-of-sight direction based on the output signal of, or displays the field-of-view frame in the finder field-of-view frame in a region substantially matching the line-of-sight direction. Then, this field frame is displayed on the liquid crystal display unit 21 via the liquid crystal driver 20, for example, as shown in FIG.
It is displayed as shown in (b). Next, FIG. 3 is an optical layout diagram showing in detail the optical system of the embodiment.

【0020】同図において、上記焦点検出光学系2は、
撮影レンズ1の前群レンズ31と後群レンズ34の間に
設けられたハーフミラー32とフィールドレンズ33と
明るさ絞りや光軸傾けプリズムなどからなる視野伝達光
学系47とで構成されており、該視野伝達光学系47
は、導かれる光束を瞳分割によって2つに分割し、エリ
アイメージセンサ3上に2つの像Ia,Ibを結像する
ようになっている。
In the figure, the focus detection optical system 2 is
It is composed of a half mirror 32 provided between a front lens group 31 and a rear lens group 34 of the taking lens 1, a field lens 33, and a visual field transmission optical system 47 including a diaphragm, an optical axis tilt prism, and the like. The visual field transmission optical system 47
Is configured to divide the guided light flux into two by pupil division and form two images Ia and Ib on the area image sensor 3.

【0021】そして、赤外LED42からレンズ41を
介して平行光束が作られ、該平行光束はダイクロイック
ミラー40,39を介して眼100に入射する。そし
て、眼100で反射された光はダイクロイックミラー3
9,40及びレンズ43を介してセンサ44で撮像され
視線方向が計算される。
Then, a parallel light beam is produced from the infrared LED 42 through the lens 41, and the parallel light beam enters the eye 100 through the dichroic mirrors 40 and 39. Then, the light reflected by the eye 100 is reflected by the dichroic mirror 3.
An image is picked up by the sensor 44 through the lenses 9, 40 and the lens 43, and the line-of-sight direction is calculated.

【0022】このように、撮影レンズ31,主ミラー3
5、スロット36、ペンタプリズム38及びダイクロイ
ックミラー39を介して撮影者が観測する注視点の位置
を検出することが可能となる。尚、図中、45はシャッ
タ、46はフィルムである。ここで、本発明における焦
点検出の原理について説明すると、本実施例では、瞳分
割による2つの像Ia,Ibの間隔から被写体距離を求
める位相差方式が採用されている。即ち、撮影レンズ1
の前群レンズ31,ハーフミラー32を通過した光束
は、視野伝達光学系47によって分割され、エリアイメ
ージセンサ3上にそれぞれIa,Ibとなって結像され
る。
In this way, the taking lens 31 and the main mirror 3
It is possible to detect the position of the gazing point observed by the photographer via the 5, slot 36, pentaprism 38, and dichroic mirror 39. In the figure, 45 is a shutter and 46 is a film. Here, the principle of focus detection in the present invention will be described. In the present embodiment, a phase difference method for obtaining the object distance from the interval between the two images Ia and Ib by dividing the pupil is adopted. That is, the taking lens 1
The light fluxes that have passed through the front group lens 31 and the half mirror 32 are split by the visual field transmission optical system 47, and are imaged as Ia and Ib on the area image sensor 3, respectively.

【0023】この場合、例えば合焦時には、図5(a)
に示すように、被写体距離に関わらず2つの像Ia,I
bはある所定の間隔faをもって結像される。また、こ
の合焦時に対して、被写体の前にピントが合っている前
ピン時には、図5(b)に示すように2つの像Ia,I
bの間隔fb が合置時の間隔より狭くなる。更に、被写
体の後にピントが合っている後ピン時には、図5(c)
に示すように、2つの像Ia,Ibの間隔fc が合焦時
の間隔faよりも広くなる。
In this case, for example, at the time of focusing, FIG.
, The two images Ia, I
b is imaged at a predetermined interval fa. Further, when the subject is in focus before this focusing, the two images Ia and Ia as shown in FIG.
The spacing fb of b is narrower than the spacing at the time of merging. Furthermore, when the subject is in focus and the subject is back-focused, as shown in FIG.
As shown in, the distance fc between the two images Ia and Ib is wider than the distance fa at the time of focusing.

【0024】従って、これら2つの像Ia,Ibの間隔
を演算することにより被写体までの距離を演算すること
ができる。以上が位相差方式による焦点検出の原理であ
る。次に、視線方向検出の原理については、例えば、特
開平2−5号公報や特開平2−65834号公報、或い
は電子通信学会技術報告PRU88−73,PP17−
24に詳しく述べられている。
Therefore, the distance to the object can be calculated by calculating the distance between these two images Ia and Ib. The above is the principle of focus detection by the phase difference method. Next, regarding the principle of the gaze direction detection, for example, Japanese Patent Application Laid-Open Nos. 2-5 and 2-65834, or the Institute of Electronics and Communication Engineers technical report PRU88-73, PP17-
24.

【0025】これらは、眼の瞳孔と角膜反射像(第1プ
ルキンエ像)、又は虹彩と角膜反射像の組合せから視線
方向を検出するもので、注視点を指示する方法として注
目されている。尚、図4は、眼の角膜反射像、瞳孔、虹
彩の出力波形の一例を示したものである。
These are methods for detecting the direction of the line of sight from the combination of the pupil of the eye and the corneal reflection image (first Purkinje image) or the combination of the iris and the corneal reflection image, and are attracting attention as a method of instructing the gazing point. Note that FIG. 4 shows an example of output waveforms of the corneal reflection image of the eye, the pupil, and the iris.

【0026】例えば図6は、眼に平行光束Lが入射する
とき、眼が中央を見ているとき(実線)の角膜反射像、
即ち、第1プルキンエ像Pと、眼が角度θの方向を見て
いるとき(点線)の第1プルキンエ像P´のできる位置
関係を示す図である。
For example, FIG. 6 shows a corneal reflection image when the parallel light flux L enters the eye and the eye is looking at the center (solid line).
That is, it is a diagram showing the positional relationship between the first Purkinje image P and the first Purkinje image P ′ when the eye is looking in the direction of the angle θ (dotted line).

【0027】同図において、虚像P,P´は角膜の曲率
半径をrとすると角膜表面から、およそr/2の距離の
位置にできる。眼の動きは眼球の中心Cを回転中心とし
て行なわれる。そして、眼球がθx だけの回転をする
と、角膜の中心はOからO´に移り平行光束の像は横方
向に、  ̄OCsin θx …(1) だけ移動し、I´の位置にくることになる。 ̄OCは大
体6mmであるからθ=5°の場合その変化量は約0.5
mmである。いま、図4に示すように、瞳孔エッジのx座
標をx1 ,x2 とすると瞳孔の中心位置Cの座標x
c は、 xc =(x1 +x2 )/2 …(2) と表わされる。また、第1プルキンエ像の位置Pのx座
標をxp とすると回転角θが小さい範囲では、
In the figure, the virtual images P and P'can be located at a distance of about r / 2 from the corneal surface, where r is the radius of curvature of the cornea. The movement of the eye is performed with the center C of the eyeball as the center of rotation. Then, when the eyeball rotates by θ x , the center of the cornea moves from O to O ', and the image of the parallel light flux moves laterally by  ̄ OCsin θ x … (1) to reach the position of I'. become.  ̄ OC is about 6 mm, so when θ = 5 °, the amount of change is about 0.5.
mm. As shown in FIG. 4, assuming that the x-coordinate of the pupil edge is x 1 and x 2 , the coordinate x of the center position C of the pupil is x.
c is expressed as x c = (x 1 + x 2 ) / 2 (2). Further, assuming that the x coordinate of the position P of the first Purkinje image is x p , in the range where the rotation angle θ is small,

【0028】[0028]

【数1】 の関係が成り立つ。[Equation 1] The relationship is established.

【0029】実際には、xc ,xp は視線検出用光学系
(倍率β)を介して、視線方向検出用センサ15上に投
影された図4に示すような像を画像処理することによっ
て得られる。このxc ,xp をxc ´,xp ´と書き換
えることにより、
Actually, x c and x p are obtained by performing image processing on an image projected on the line-of-sight direction detection sensor 15 as shown in FIG. 4 through the line-of-sight detection optical system (magnification β). can get. By rewriting these x c and x p as x c ′ and x p ′,

【0030】[0030]

【数2】 となり、上下方向の回転角θy も全く同様に求めること
ができる。このθx ,θy が解れば、ファインダ光学系
α倍率からファインダ視野内の視線方向と一致する視野
枠の中心座標(x,y)を求めることができる。以下、
図7乃至図11のフローチャートを参照して、本実施例
に係る焦点検出装置の動作について説明する。図7及び
図8は、上記CPU18の動作を示すフローチャートで
ある。
[Equation 2] Therefore, the vertical rotation angle θ y can be obtained in exactly the same manner. If these θ x and θ y are known, the center coordinates (x, y) of the field frame that coincides with the line-of-sight direction in the finder field can be obtained from the finder optical system α magnification. Less than,
The operation of the focus detection apparatus according to this embodiment will be described with reference to the flowcharts of FIGS. 7 and 8 are flowcharts showing the operation of the CPU 18.

【0031】動作を開始すると(ステップS100)、
先ず、CPU18は液晶表示部12によりAF視野領域
を画面中央に表示し(ステップS101)、続いて視線
検出開始が行なわれたか否かを、具体的にはスイッチS
W3が押されたか否かを検出する(ステップS10
2)。
When the operation is started (step S100),
First, the CPU 18 causes the liquid crystal display unit 12 to display the AF visual field area in the center of the screen (step S101), and then determines whether or not the visual axis detection is started, specifically, the switch S.
It is detected whether W3 is pressed (step S10).
2).

【0032】そして、視線検出が開始されると使用する
フラグや定数の初期設定を行なう。即ち、FLAG1に
“0”を、iに“1”を、Nに“0”をそれぞれストア
する(ステップS103)。続いて、視線検出用センサ
15の出力信号をA/D変換し(ステップS104)、
そのディジタルデータをCPU18内のRAMにストア
する(ステップS105)。
When the line-of-sight detection is started, the flags and constants to be used are initialized. That is, "0" is stored in FLAG1, "1" is stored in i, and "0" is stored in N (step S103). Subsequently, the output signal of the line-of-sight detection sensor 15 is A / D converted (step S104),
The digital data is stored in the RAM in the CPU 18 (step S105).

【0033】続いて、CPU18に内蔵のタイマカウン
タ19をリセットすると同時にタイマカウンタを開始す
る(ステップS106)。そして、上記した原理で視線
方向の座標(x,y)を演算し、xをメモリMepy
(1)に、yをメモリMepy(1)にそれぞれストア
する(ステップS107,108)。
Subsequently, the timer counter 19 built in the CPU 18 is reset and the timer counter is started at the same time (step S106). Then, the coordinates (x, y) in the line-of-sight direction are calculated according to the above-described principle, and x is stored in the memory Mepy.
In (1), y is stored in the memory Mepy (1) (steps S107 and S108).

【0034】続いて、FLAG1が“0”であるか否か
を判断する(ステップS109)。このステップS10
9において、FLAG1が“0”である場合には、視線
方向データのストアされているメモリMepx(1),
Mepy(1)の内容をメモリMepx(0),Mep
y(0)に転送し(ステップS119)、FLAG1に
“1”をストアし、次のステップS120に進む(ステ
ップS115)。
Then, it is determined whether FLAG1 is "0" (step S109). This step S10
9, when FLAG1 is “0”, the memory Mepx (1), in which the line-of-sight direction data is stored,
The contents of Mepy (1) are stored in the memory Mepx (0), Mep.
Transfer to y (0) (step S119), store "1" in FLAG1, and proceed to the next step S120 (step S115).

【0035】一方、上記ステップS109において、F
LAG1が“1”である場合には、演算された視線方向
データ(Mepx(1),Mepy(1))を前回に演
算された視線方向データ(Mepx(0),Mepy
(0))と比較し、所定以上変化しているか否かを判別
する(ステップS110)。即ち、αを定数として、 (Mepx(0)−α)≦(Mepx(1))≦(Mepx(0)+α) …(5) であるか否かを判別する。
On the other hand, in step S109, F
When LAG1 is “1”, the calculated line-of-sight direction data (Mepx (1), Mepy (1)) is calculated as the previously calculated line-of-sight direction data (Mepx (0), Mepy).
(0)) and it is determined whether or not there is a change of a predetermined amount or more (step S110). That is, with α as a constant, it is determined whether or not (Mepx (0) −α) ≦ (Mepx (1)) ≦ (Mepx (0) + α) (5).

【0036】そして、上記(5)式の関係が成り立つと
きには、左右方向(以下、x方向とする)の視線方向は
変化していないと認識し、続いて同様に上下方向(以
下、y方向とする)の視線方向の変化を判別する。そし
て、上記(5)式と同様に、 (Mepy(0)−α)≦(Mepy(1))≦(Mepy(0)+α) …(6) であるとき、y方向の視線方向も変化していないと認識
する(ステップS116)。
Then, when the relation of the above equation (5) is established, it is recognized that the line-of-sight direction in the left-right direction (hereinafter, referred to as x direction) has not changed, and similarly, the vertical direction (hereinafter, referred to as y direction). The change in the line-of-sight direction of (YES) is determined. Then, as in the above formula (5), when (Mepy (0) −α) ≦ (Mepy (1)) ≦ (Mepy (0) + α) (6), the line-of-sight direction in the y direction also changes. It is recognized that it is not (step S116).

【0037】こうして、x方向もy方向も視線方向が変
化していないと認識すると、次にタイマカウンタの内容
TIMEを判別し(ステップS117)、TIMEが所
定時間t1 以上であるときには、CPU6へ割り込み信
号INT1を送信する(ステップS118)。そして、
CPU6はCPU18から割り込み信号INT1を受け
付けると、それまでの動作を一時中断して割り込みルー
チンINT1に分岐する。
In this way, when it is recognized that the line-of-sight direction has not changed in either the x-direction or the y-direction, the content TIME of the timer counter is determined (step S117), and if the TIME is longer than the predetermined time t1, the CPU 6 is interrupted. The signal INT1 is transmitted (step S118). And
When the CPU 6 receives the interrupt signal INT1 from the CPU 18, the CPU 6 temporarily suspends the operation up to that point and branches to the interrupt routine INT1.

【0038】図10に示すように、この割り込みルーチ
ン“INT1”に入るとまず(ステップS301)、割
り込み信号INT1による割り込みを禁止する(ステッ
プS302)。これは割り込み受付け状態のままにする
と、割り込み用スタッフがオーバーフローする可能性が
あるからである。つぎに,視線方向データ(Mepx,
Mepy)を受信し、メモリにストアする(ステップS
303)。
As shown in FIG. 10, when the interrupt routine "INT1" is entered (step S301), the interrupt by the interrupt signal INT1 is prohibited (step S302). This is because the interrupt stuff may overflow if the interrupt acceptance state is left. Next, line-of-sight direction data (Mepx,
Receives Mepy) and stores it in memory (step S
303).

【0039】そして、INT1の割込禁止を解除し(ス
テップS304)、割込用スタッフの番地を初期設定し
た後(ステップS305)、割り込みルーリン“INT
1”からリターンし、メインプログラムの動作を続行す
る(ステップS306)。
Then, after the interruption prohibition of INT1 is released (step S304) and the address of the interruption staff is initialized (step S305), the interrupt ruling "INT
The process returns from "1" to continue the operation of the main program (step S306).

【0040】さて、メインプログラムに戻ると、つぎに
CPU18は、CPU6に対し視線方向データ(Mep
x(1),Mepy(1))を送信する。つまり、CP
U6は視線方向データが所定時間t1 以上変化しないと
きのみ視線方向データを受け取り、上記視線方向と略一
致するファインダ視野枠内の物体に焦点を合わせる(ス
テップS119)。
Now, when returning to the main program, the CPU 18 then instructs the CPU 6 to obtain the sight line direction data (Mep).
x (1), Mepy (1)) is transmitted. That is, CP
U6 receives the line-of-sight direction data only when the line-of-sight direction data has not changed for a predetermined time t1 or more, and focuses on an object in the viewfinder field frame that substantially matches the line-of-sight direction (step S119).

【0041】一方、上記S110、S116において、
x,y方向の視線方向が変化しているときは、CPU6
へ割り込み信号INT2を送信する(ステップS11
1)。そして、CPU6はCPU18から割り込み信号
INT2を受けつけると、CPU6は割り込みルーチン
“INT2”に分岐する。
On the other hand, in S110 and S116 described above,
When the line of sight in the x and y directions is changing, the CPU 6
The interrupt signal INT2 is transmitted to (step S11
1). When the CPU 6 receives the interrupt signal INT2 from the CPU 18, the CPU 6 branches to the interrupt routine "INT2".

【0042】図11に示すように、割り込みルーチン
“INT2”に入ると(ステップS401)、まずIN
T2の割り込みを禁止する(ステップS402)。そし
て、レンズ駆動を停止した後(ステップS403)、割
り込み信号INT2による割り込み禁止を解除する(ス
テップS404)。続いて、割込スタックの初期設定を
行なった後(ステップS405)、インタラプトルーチ
ンからメインプログラムにリターンする。これにより無
駄なレンズ駆動を防止するのである(ステップS40
6)。
As shown in FIG. 11, when the interrupt routine "INT2" is entered (step S401), first the IN
The interruption of T2 is prohibited (step S402). Then, after the lens driving is stopped (step S403), the interruption inhibition by the interruption signal INT2 is released (step S404). Then, after initializing the interrupt stack (step S405), the interrupt routine is returned to the main program. This prevents unnecessary lens driving (step S40).
6).

【0043】さて、メインプログラムに戻ると、つぎに
視線方向データ(Mepx(1),Mepy(1))を
それぞれメモリMepx(0),Mepy(0)に転送
し(ステップS112)、タイマ19を再びリセットす
ると同時にタイマから開始させる(ステップS11
3)。
Now, when returning to the main program, the line-of-sight direction data (Mepx (1), Mepy (1)) is transferred to the memories Mepx (0), Mepy (0), respectively (step S112), and the timer 19 is set. When it is reset again, the timer is started at the same time (step S11).
3).

【0044】尚、ステップS109でFLAG1のチェ
ックをしたのはステップS110,S116で前のデー
タとの比較が必要だが、CPU18のスタート最初にお
いては前のデータがないためである。以上がレンズ駆動
のためのAF視野領域の判別のための動作である。
The FLAG1 is checked in step S109 because comparison with the previous data is required in steps S110 and S116, but there is no previous data at the start of the CPU 18. The above is the operation for determining the AF visual field area for driving the lens.

【0045】ここで、眼球はたえず微動しており、一定
方向を見ているつもりでも時々無意識に瞬間的である
か、視線方向は大きく変化することがある。そして、こ
の眼球の動きに追従して視野枠の表示をしたのでは、表
示が大変ちらちらして見にくいものとなる。
Here, the eyeball is constantly moving slightly, and even if the user is looking at a certain direction, it may be unintentional and instantaneous, or the line-of-sight direction may change greatly. If the visual field frame is displayed in accordance with the movement of the eyeball, the display flickers so that it is difficult to see.

【0046】そこで、ステップS120以降では、視線
方向の時間移動平均(ローパスフィルタ)をとることに
より、視野枠の表示をなめらかにスムーズにする。即
ち、ステップS120以降は、AF視野領域の視野枠を
表示するための視野座標を決める為のプログラムであ
る。
Therefore, after step S120, the time-average moving average (low-pass filter) in the line-of-sight direction is taken to smoothly and smoothly display the field frame. That is, the program after step S120 is a program for determining the visual field coordinates for displaying the visual field frame of the AF visual field area.

【0047】ステップS120では、まず定数カウンタ
Nの内容をインクリメントする。このNは視線方向検出
が開始されてから視線方向データが何回更新されたかを
検出するためのカウンタである。即ち、移動平均演算を
行なう場合、移動平均演算を行なうに必要なデータ数
(本実施例では5)が揃うまでは正しい結果が得られな
い。このとき、移動平均演算のための視線方向データの
更新を行なう。即ち、メモリMepx(i)にMepx
(i−1)の内容を、Mepy(i)にMepy(i−
1)の内容を転送する(i=1〜5)(ステップS12
1〜S123)。続いて、上記カウンタNの内容が
“5”でなければ、ステップS107に戻り、Nの内容
(N)が5であれば移動平均
In step S120, the content of the constant counter N is first incremented. This N is a counter for detecting how many times the line-of-sight direction data has been updated since the line-of-sight direction detection was started. That is, when the moving average calculation is performed, a correct result cannot be obtained until the number of data (5 in this embodiment) necessary for performing the moving average calculation is prepared. At this time, the line-of-sight direction data for moving average calculation is updated. That is, the Mepx is stored in the memory Mepx (i).
The contents of (i-1) are stored in Mepy (i) as Mepy (i-
The contents of 1) are transferred (i = 1 to 5) (step S12).
1 to S123). Then, if the content of the counter N is not "5", the process returns to step S107, and if the content (N) of N is 5, the moving average is calculated.

【0048】[0048]

【数3】 [Equation 3]

【0049】を演算し、それぞれメモリMdspx,M
dspyにストアする(ステップS124、S12
5)。このMdspx,Mdspyは,視線方向を表わ
す視野枠の座標であるので、これを用いて視線方向表示
位置を更新する(ステップS126)。続いて、CPU
6と接続されたフラグ信号FLAG2が“1”であるか
否かを判別する。FLAG2は通常は“0”でレリーズ
されるとCPU6から“1”が送信される(ステップS
127)。
Is calculated, and the memories Mdspx and Mdsp
Store in dspy (steps S124, S12)
5). Since Mdspx and Mdspy are the coordinates of the visual field frame indicating the line-of-sight direction, the line-of-sight direction display position is updated using these (step S126). Then, CPU
It is determined whether or not the flag signal FLAG2 connected to 6 is "1". When the FLAG2 is normally released with "0", "1" is transmitted from the CPU 6 (step S
127).

【0050】このステップS127で、FLAG2が
“1”であれば、続いてFLA3が“1”か否かを判別
する(ステップS128)。このFLAG3はCPU6
に接続され通常は“0”であり、露出が終了するとCP
U6はFLAG3を“0”にする。そして、上記ステッ
プS128において、FLAG3が“1”であれば、上
記S100にリターンする(ステップS129)。次
に、図9はCPU6の動作を示すフローチャートであ
る。
If FLAG2 is "1" in step S127, it is subsequently determined whether FLA3 is "1" (step S128). This FLAG3 is CPU6
It is normally “0” when connected to the
U6 sets FLAG3 to "0". If FLAG3 is "1" in step S128, the process returns to step S100 (step S129). Next, FIG. 9 is a flowchart showing the operation of the CPU 6.

【0051】動作を開始すると(ステップS200)、
スタートスイッチSW1がオンしているか否かを判別す
る(ステップS201)。そして、スタートスイッチS
W1が押されていれば、視線方向データメモリMep
x,Mepy(それぞれx方向,y方向の視線方向デー
タである)を初期設定する。
When the operation is started (step S200),
It is determined whether or not the start switch SW1 is turned on (step S201). And the start switch S
If W1 is pressed, the line-of-sight direction data memory Mep
Initialize x and Mepy (line-of-sight direction data in the x and y directions, respectively).

【0052】ここでは、メモリMepx,Mepyに図
2(a)に示す画面中央の視野枠に相当する視線方向デ
ータ(γ,7)をストアする。従って、CPU18から
視線方向データが送信されない場合は画面中央位置の視
野枠の物体に焦点を合わせることにする(ステップS2
02)。
Here, the sight line direction data (γ, 7) corresponding to the visual field frame at the center of the screen shown in FIG. 2A is stored in the memories Mepx and Mepy. Therefore, when the line-of-sight direction data is not transmitted from the CPU 18, the object in the visual field frame at the center position of the screen is focused (step S2).
02).

【0053】続いて、エリアイメージセンサ3の出力信
号のA/D変換を行なう(ステップS203)。そし
て、Mepx,Mepyで決まる視野領域のセンサ出力
信号を選択し(ステップS204)、上記センサ出力信
号の平均輝度BVを演算する(ステップS205)。さ
らに、情報入力部14により入力されたフィルム感度S
Vや絞り値AVやシャッタースピードTVを用いてアペ
ックス演算(BV+SV=AV+TV)を行なう(ステ
ップS206)。
Then, the output signal of the area image sensor 3 is A / D converted (step S203). Then, the sensor output signal in the visual field region determined by Mepx and Mepy is selected (step S204), and the average brightness BV of the sensor output signal is calculated (step S205). Further, the film sensitivity S input by the information input unit 14
Apex calculation (BV + SV = AV + TV) is performed using V, aperture value AV, and shutter speed TV (step S206).

【0054】そして、上記アペックス演算により求めた
シャッタースピードTVや絞り値AVを液晶表示12に
表示する(ステップS207)。更に、前記した原理に
基づき、上記Mepx,Mepyで決まる視野領域のセ
ンサ出力信号を用いて、視野領域に存在する物体に対す
るデフォーカス量、即ち、焦点合致位置からのピント位
置ずれ量を演算する(ステップS208)。
Then, the shutter speed TV and the aperture value AV obtained by the apex operation are displayed on the liquid crystal display 12 (step S207). Further, based on the above-described principle, the sensor output signal of the visual field determined by Mepx and Mepy is used to calculate the defocus amount with respect to the object existing in the visual field, that is, the focus position shift amount from the focus matching position ( Step S208).

【0055】続いて、レンズの駆動量を演算し(ステッ
プS209)、モータ9に信号を送り所定量レンズを駆
動する(ステップS210)。そして、レンズ駆動が終
了すると、続いてレリーズスイッチSW2の状態を調べ
レリーズされたか否かを判別する。このレリーズスイッ
チSW2が開いていれば、レリーズされていないと判断
し、ステップS203に戻り、以上のプログラムを繰り
返す。
Then, the lens drive amount is calculated (step S209), and a signal is sent to the motor 9 to drive the lens by a predetermined amount (step S210). Then, when the lens driving is completed, the state of the release switch SW2 is subsequently checked to determine whether or not the release is performed. If the release switch SW2 is open, it is determined that the release is not made, the process returns to step S203, and the above program is repeated.

【0056】そして、ステップS212において、レリ
ーズスイッチSW2が閉じていれば、CPU18と接続
しているFLAG2に“1”をFLAG3に“0”を出
力する(ステップS213)。そして、露出制御を行な
い(ステップS214)、露出制御が終了すると(ステ
ップS215)、CPU18と接続しているFLAG3
に“1”、FLAG2に“0”を出力する(ステップS
216)。こうして、ステップS203に戻り、同様の
動作を繰り返す。
If the release switch SW2 is closed in step S212, "1" is output to FLAG2 connected to the CPU 18 and "0" is output to FLAG3 (step S213). Then, the exposure control is performed (step S214), and when the exposure control ends (step S215), the FLAG3 connected to the CPU 18 is connected.
"1" to FLAG2 and "0" to FLAG2 (step S
216). Thus, the process returns to step S203, and the same operation is repeated.

【0057】以上詳述したように、本発明のカメラの焦
点検出装置では、ファインダー視野内の視線方向と略一
致する視線方向にピントを合わせる焦点検出装置におい
て、視線方向と略一致する視野枠を、ファインダ視野枠
内に視線の微動に左右されずに安定して表示することが
できる。
As described above in detail, in the focus detecting apparatus for a camera of the present invention, in the focus detecting apparatus for focusing in the line-of-sight direction substantially matching the line-of-sight direction in the viewfinder field, the field-of-view frame substantially matching the line-of-sight direction is set. , It is possible to stably display in the viewfinder field frame without being affected by the slight movement of the line of sight.

【0058】また、上記視線方向と略一致する視野枠内
の物体に焦点を合わせるためのレンズ駆動も視線の微動
や瞬間的な大きな変化に左右されずに、滑らかに行うこ
とができる。
Further, the lens drive for focusing on the object in the visual field frame which substantially coincides with the line-of-sight direction can be smoothly performed without being influenced by the slight movement of the line-of-sight or a large instantaneous change.

【0059】[0059]

【発明の効果】本発明によれば、撮影者の視線方向を表
わすファインダ表示やレンズ駆動等を効率良く行うこと
で、消費電力を軽減すると共に観察者に与える不快感を
無くし、更には所望とする被写体に迅速且つ適格にピン
ト合せを行うカメラの焦点検出装置を提供することがで
きる。
According to the present invention, by efficiently performing the finder display showing the line of sight of the photographer, driving the lens, etc., the power consumption is reduced and the discomfort given to the observer is eliminated, and further, it is desired. It is possible to provide a focus detection device for a camera that quickly and appropriately focuses an object to be captured.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の焦点検出装置が適用されるAFカメラ
の構成を概略的に示したブロック構成図である。
FIG. 1 is a block configuration diagram schematically showing a configuration of an AF camera to which a focus detection device of the present invention is applied.

【図2】(a)及び(b)は、ファインダ表示の一例を
示す図である。
2A and 2B are diagrams showing an example of a finder display.

【図3】実施例に係る焦点検出装置の光学系を詳細に示
す光学配置図である。
FIG. 3 is an optical layout diagram showing in detail an optical system of the focus detection device according to the embodiment.

【図4】眼の角膜反射像、瞳孔、虹彩の出力波形の一例
を示したものである。
FIG. 4 shows an example of output waveforms of a corneal reflection image of an eye, a pupil, and an iris.

【図5】(a)乃至(c)は、焦点検出の原理について
説明するための図である。
5A to 5C are diagrams for explaining the principle of focus detection.

【図6】第1プルキンエ像のできる位置関係を示す図で
ある。
FIG. 6 is a diagram showing a positional relationship in which a first Purkinje image is formed.

【図7】CPU18の動作を示すフローチャートであ
る。
FIG. 7 is a flowchart showing the operation of the CPU 18.

【図8】CPU18の動作を示すフローチャートであ
る。
FIG. 8 is a flowchart showing the operation of the CPU 18.

【図9】CPU6の動作を示すフローチャートである。FIG. 9 is a flowchart showing the operation of the CPU 6.

【図10】割り込みルーチン“INT1”の動作を示す
フローチャートである。
FIG. 10 is a flowchart showing the operation of an interrupt routine “INT1”.

【図11】割り込みルーチン“INT2”の動作を示す
フローチャートである。
FIG. 11 is a flowchart showing an operation of an interrupt routine “INT2”.

【符号の説明】[Explanation of symbols]

1…撮影レンズ、2…焦点検出光学系、3…エリアイメ
ージセンサ、4…センサドライバ、5…A/Dコンバー
タ、6…CPU、7…レンズROM、8…レンズ駆動回
路、9…モータ、10…ホトインタラプラ、11…液晶
ドライバ、12…液晶表示部、13…露出制御回路、1
4…情報入力部、15…視線方向検出用センサ、16…
センサドライバ、17…A/Dコンバータ、18…CP
U、19…タイマ、20…液晶ドライバ、21…液晶表
示部。
1 ... Photographing lens, 2 ... Focus detection optical system, 3 ... Area image sensor, 4 ... Sensor driver, 5 ... A / D converter, 6 ... CPU, 7 ... Lens ROM, 8 ... Lens drive circuit, 9 ... Motor, 10 ... Photointerpler, 11 ... Liquid crystal driver, 12 ... Liquid crystal display section, 13 ... Exposure control circuit, 1
4 ... Information input part, 15 ... Sensor for detecting gaze direction, 16 ...
Sensor driver, 17 ... A / D converter, 18 ... CP
U, 19 ... Timer, 20 ... Liquid crystal driver, 21 ... Liquid crystal display section.

【手続補正書】[Procedure amendment]

【提出日】平成5年3月23日[Submission date] March 23, 1993

【手続補正1】[Procedure Amendment 1]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0030[Name of item to be corrected] 0030

【補正方法】変更[Correction method] Change

【補正内容】[Correction content]

【0030】[0030]

【数2】 となり、上下方向の回転角θy も全く同様に求めること
ができる。このθx ,θy が解れば、ファインダ光学系
α倍率からファインダ視野内の視線方向と一致する視野
枠の中心座標(x,y)を求めることができる。以下、
図7乃至図11のフローチャートを参照して、本実施例
に係る焦点検出装置の動作について説明する。図7及び
図8は、上記CPU18の動作を示すフローチャートで
ある。
[Equation 2] Therefore, the vertical rotation angle θ y can be obtained in exactly the same manner. If these θ x and θ y are known, the center coordinates (x, y) of the field frame that coincides with the line-of-sight direction in the finder field can be obtained from the finder optical system α magnification. Less than,
The operation of the focus detection apparatus according to this embodiment will be described with reference to the flowcharts of FIGS. 7 and 8 are flowcharts showing the operation of the CPU 18.

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 カメラのファインダ視野枠内の撮影者の
視線方向に応じた第1の出力信号を発生する第1の出力
手段と、 上記第1の出力手段の出力信号が所定時間以上略一定の
とき、該出力信号に応じた視線方向に焦点を合わせるた
めレンズを駆動するレンズ駆動手段と、 上記第1の出力手段の出力信号に時間的なローパスフィ
ルタをかけるフィルタ手段と、 上記フィルタ手段の出力信号に応じた視線方向と略一致
する視野枠を上記ファインダ視野枠内に表示する表示手
段と、を具備することを特徴とするカメラの焦点検出装
置。
1. A first output means for generating a first output signal according to a line-of-sight direction of a photographer in a viewfinder frame of a camera, and an output signal of the first output means is substantially constant for a predetermined time or longer. At this time, the lens driving means for driving the lens for focusing in the line-of-sight direction corresponding to the output signal, the filter means for applying a temporal low-pass filter to the output signal of the first output means, and the filter means A focus detecting device for a camera, comprising: a display unit that displays a field frame that substantially matches the line-of-sight direction corresponding to the output signal in the finder field frame.
【請求項2】 カメラのファインダ視野枠内の撮影者の
視線方向に応じた第1の出力信号を発生する第1の出力
手段と、 上記第1の出力手段の出力信号が所定時間以上で略一定
のとき、該出力信号に応じた視線方向に焦点を合わせる
ためレンズを駆動するレンズ駆動手段と、 上記レンズ駆動手段によるレンズの駆動中に上記第1の
出力手段の出力信号が所定以上変化したときに上記駆動
を中止する制御手段と、を具備することを特徴とするカ
メラの焦点検出装置。
2. A first output means for generating a first output signal according to a photographer's line-of-sight direction within a viewfinder frame of a camera; and an output signal of the first output means for a predetermined time or more. At a constant time, the lens drive means for driving the lens to focus in the line-of-sight direction according to the output signal, and the output signal of the first output means changed by a predetermined amount or more while the lens was being driven by the lens drive means. A focus detecting device for a camera, comprising: a control unit that sometimes stops the driving.
JP32958192A 1992-12-09 1992-12-09 Automatic focusing device Expired - Fee Related JP3164447B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP32958192A JP3164447B2 (en) 1992-12-09 1992-12-09 Automatic focusing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP32958192A JP3164447B2 (en) 1992-12-09 1992-12-09 Automatic focusing device

Publications (2)

Publication Number Publication Date
JPH06175012A true JPH06175012A (en) 1994-06-24
JP3164447B2 JP3164447B2 (en) 2001-05-08

Family

ID=18222952

Family Applications (1)

Application Number Title Priority Date Filing Date
JP32958192A Expired - Fee Related JP3164447B2 (en) 1992-12-09 1992-12-09 Automatic focusing device

Country Status (1)

Country Link
JP (1) JP3164447B2 (en)

Also Published As

Publication number Publication date
JP3164447B2 (en) 2001-05-08

Similar Documents

Publication Publication Date Title
EP0480774B1 (en) Camera control system
US5335035A (en) Visual line direction detecting device for the camera
JPH06304142A (en) Device for detecting line of sight
JPH07151950A (en) Camera
JPH0323431A (en) Photography device with gaze point detecting means
JPH10170813A (en) Focus detector, automatic focusing device, and camera
JP2749818B2 (en) Eye gaze detection device
US5402199A (en) Visual axis detecting apparatus
JP2794856B2 (en) Observation device
JP2872292B2 (en) Equipment having line-of-sight detection means
US5737642A (en) Camera having a line-of-sight detecting means
US5576796A (en) Optical apparatus having function to detect visual axis
JP3164447B2 (en) Automatic focusing device
JPH0556924A (en) Video camera
JP3186212B2 (en) Eye-gaze input camera
JP3457973B2 (en) Camera focus detection device
JP4054436B2 (en) Optical device
JP2948975B2 (en) Eye gaze detection device
JP3184542B2 (en) camera
JPH04267230A (en) Camera having line-of-sight detecting device
JP2000131599A (en) Device and camera having line-of-sight selecting function
JPH10148864A (en) Photometry device for camera
JP3500171B2 (en) Camera focus control device
JPH10170814A (en) Focus detector, automatic focusing device, and camera
JPH0928673A (en) Sight line detection device and optical apparatus equipped with the same

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 19990525

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090302

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090302

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100302

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110302

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110302

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120302

Year of fee payment: 11

LAPS Cancellation because of no payment of annual fees