JPH07146432A - Sight line detecting device - Google Patents

Sight line detecting device

Info

Publication number
JPH07146432A
JPH07146432A JP29657293A JP29657293A JPH07146432A JP H07146432 A JPH07146432 A JP H07146432A JP 29657293 A JP29657293 A JP 29657293A JP 29657293 A JP29657293 A JP 29657293A JP H07146432 A JPH07146432 A JP H07146432A
Authority
JP
Japan
Prior art keywords
light
line
sight
projecting
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP29657293A
Other languages
Japanese (ja)
Inventor
Shinichi Kodama
晋一 児玉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optical Co Ltd filed Critical Olympus Optical Co Ltd
Priority to JP29657293A priority Critical patent/JPH07146432A/en
Publication of JPH07146432A publication Critical patent/JPH07146432A/en
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B2213/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B2213/02Viewfinders
    • G03B2213/025Sightline detection

Landscapes

  • Focusing (AREA)
  • Lenses (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

PURPOSE:To detect a line of sight speedily and precisely by detecting the center gravity of the white of the eye of a photographer by processing a difference between a different light emission pattern and the detecting signal. CONSTITUTION:Light emitting LED17a and 17b are arranged in an almost symmetric position by sandwiching a plane containing the finder optical axis of a finder optical system 16 between them, and a PSD 19 receives reflected light of projected light of at least one of the light emitting LED17 and 17b, reflected from a prescribed area of eyes of a photographer. A CPU12 controls the light emission timing in a combined light emission pattern of the light emitting LED17a and 17b and the light receiving timing of the PSD19 in synchronism with the light emission timing, and extracts information on the sight line direction by processing a difference obtained by subtracting light receiving output by the light emission pattern of the light emitting LED17a and 17b from light receiving output of the PSD19 by the combined light emission pattern.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は撮影者の視線方向を検出
し該視線信号にてカメラの情報を設定する視線検出装置
に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a line-of-sight detection device for detecting the direction of the line-of-sight of a photographer and setting camera information with the line-of-sight signal.

【0002】[0002]

【従来の技術】従来、カメラへの各種情報の入力は、例
えばダイアルや釦等によって行われており、入力情報が
増加するに従って操作環境は煩雑になっている。例えば
ファインダを覗く撮影者の視線方向を検出し、その視線
の情報よりカメラに情報入力する技術については、特開
昭63−194237号公報や特開平3−87818号
公報等により開示されている。
2. Description of the Related Art Conventionally, various kinds of information are input to a camera by using, for example, a dial or a button, and the operating environment becomes complicated as the input information increases. For example, a technique of detecting the line-of-sight direction of a photographer looking into a viewfinder and inputting information to the camera from the information of the line-of-sight is disclosed in Japanese Patent Laid-Open No. 63-194237, Japanese Patent Laid-Open No. 3-87818, and the like.

【0003】そして、特開平1−160537号公報や
特開平2−206425号公報等によれば、検出方式等
において角膜や虹彩、瞳孔、強膜(白目)等のいずれか
を用いて検出する技術が開示されている。
According to Japanese Unexamined Patent Publication No. 1-160537, Japanese Unexamined Patent Publication No. 2-206425, etc., a technique of detecting using a cornea, an iris, a pupil, a sclera (white eye), etc. Is disclosed.

【0004】さらに、視線検出位置を用いた測距情報の
決定に関する技術も特開平4−307506号公報や特
開平5−88075号公報等により開示されている。こ
の他、センサの信号処理においても投光LEDに同期し
て点灯時/非点灯時の信号の差分処理を行うことがよく
行われている。
Further, a technique relating to determination of distance measurement information using the sight line detection position is also disclosed in JP-A-4-307506 and JP-A-5-88075. In addition to the above, in the signal processing of the sensor, it is common to perform the differential processing of the signal at the time of lighting / non-lighting in synchronization with the light emitting LED.

【0005】そして、例えば「視線検出のための瞳孔撮
影光学系の設計法」(伴野明著、電子情報通信学会論文
誌 D-II vol.J74-D-II No.6 pp736 〜747 1991年 6
月;特開平2−138673号公報に対応)中の記述で
は、異なる位置からの投光、即ち赤目発生位置での投光
と赤目発生しない位置での投光にて検出した信号を差分
処理し、赤目信号を顔の中より抽出し瞳孔検出を行う技
術も示されている。
Then, for example, "Design Method of Pupil Imaging Optical System for Detecting Line of Sight" (Akira Banno, IEICE Transactions D-II vol.J74-D-II No.6 pp736-747 1991 6
(Corresponding to JP-A-2-138673)), the signals detected by light projection from different positions, that is, light projection at a red eye occurrence position and light projection at a red eye non-occurrence position are subjected to difference processing. A technique for extracting the red-eye signal from the face and detecting the pupil is also shown.

【0006】[0006]

【発明が解決しようとする課題】しかしながら、視線検
出では、“どこ(位置)からどの方向(回転)”といっ
た情報を知る必要があった。前述の如く、従来の複数の
眼の情報として例えば角膜反射光や虹彩エッジ等を用い
る検出方式では、エリアセンサと高度の画像処理アルゴ
リズムを必要としており、一つの眼の情報として白目/
黒目の割合等を用いる検出方式では、撮影者が覗く位置
を固定する必要があった。
However, in the line-of-sight detection, it is necessary to know information such as "where (position) to which direction (rotation)". As described above, the conventional detection method using, for example, corneal reflected light or iris edge as the information of a plurality of eyes requires an area sensor and an advanced image processing algorithm.
In the detection method using the ratio of black eyes, it is necessary to fix the position viewed by the photographer.

【0007】そして、カメラに用いる場合は、撮影者が
覗く位置を固定、つまりファインダ位置の固定やアイポ
イントの固定等しようとすると使いにくいものとなり、
更には撮影者に過度の負担を負わせることにもなった。
また、撮影者が覗く位置をある程度自由にすると、複数
の情報を用いて検出することができるが、現状のエリア
センサにて複数の信号を検出して視線方向を検出する技
術では、高価なセンサと個人差を吸収するキャリブレー
ションを含めた高度な画像処理アルゴリズムを必要と
し、コンパクトカメラ等の視線検出には高価で使いにく
く遅い等の問題点があった。また、フォトダイオード等
の受光素子にて白目/黒目の割合を検出しようとすると
黒目を構成する虹彩部の反射率と白目の反射率が赤外光
に対して大きく異ならない為、検出S/Nが厳しいもの
となり調整が難しくなった。
When used for a camera, it becomes difficult to fix the position where the photographer looks into, that is, the finder position or the eye point.
Furthermore, it also puts an excessive burden on the photographer.
Further, if the photographer can freely look into the position to some extent, the information can be detected using a plurality of pieces of information. However, the current area sensor detects a plurality of signals to detect the line-of-sight direction. Therefore, there is a problem that a sophisticated image processing algorithm including calibration that absorbs individual differences is required, and that line-of-sight detection of a compact camera or the like is expensive and difficult to use. In addition, when an attempt is made to detect the white-eye / black-eye ratio with a light-receiving element such as a photodiode, the reflectance of the iris portion forming the black eye and the reflectance of the white eye do not significantly differ with respect to infrared light. Became difficult and adjustment became difficult.

【0008】上記キャリブレーションの問題に対して、
シーケンス内(検出シーケンス開始から視線情報取り込
みまで)に初期位置の表示をファインダ内に行い、表示
による眼の像の変化を基にして視線位置を検出しようと
する方式もあるが、当該方式にもPSD等の安いセンサ
にて実現することが望まれる。しかし、PSD等の画像
分解能の低い、つまり画素分割がないセンサの場合撮影
者の白目/まぶたからの拡散光等の影響により視線の変
化に応じた特徴点の変化が検出できなくなってしまう。
また撮影者の視線の変化に応じた特徴信号は、投光LE
Dが点灯した場合に発生する為に検出成分と非検出成分
が同時に発生する。従って、この赤目発生/赤目非発生
のような投光を用いた場合には、眼の判別ではなく眼の
回転を検出しようとすると赤目による新しいノイズが発
生すると共に、細かな信号検出が出来なくなる。
With respect to the above calibration problem,
There is also a method in which the initial position is displayed in the finder within the sequence (from the start of the detection sequence to the gaze information acquisition), and the gaze position is detected based on the change in the eye image caused by the display. It is desired to realize it with a cheap sensor such as PSD. However, in the case of a sensor having a low image resolution such as PSD, that is, a sensor having no pixel division, it becomes impossible to detect the change of the feature point according to the change of the line of sight due to the influence of the diffused light from the white eye / eyelid of the photographer.
In addition, the characteristic signal corresponding to the change of the line of sight of the photographer is
Since this occurs when D is lit, a detected component and a non-detected component occur at the same time. Therefore, when light projection such as red eye generation / non-red eye generation is used, if the eye rotation is detected instead of eye discrimination, new noise is generated by the red eye and fine signal detection cannot be performed. .

【0009】本発明は上記問題に鑑みてなされたもの
で、その目的とするところは、異なるパターン投光とそ
の検出信号の差分処理にて撮影者の白目重心を検出し、
迅速且つ的確な視線検出を行う安価で高精度の視線検出
装置を提供することにある。
The present invention has been made in view of the above problems. An object of the present invention is to detect the center of gravity of the photographer's eyes by difference processing of different pattern projections and their detection signals.
It is an object of the present invention to provide an inexpensive and highly accurate visual axis detection device that performs quick and accurate visual axis detection.

【0010】[0010]

【課題を解決するための手段】上記目的を達成するため
に、本発明の第1の態様による視線検出装置は、ファイ
ンダ光学系のファインダ光軸を含む平面を挟んで略対象
な第1及び第2の位置に各々少なくとも1つづつ配置さ
れた第1及び第2の投光手段と、上記第1又は第2の投
光手段の内の少なくとも1つの投光光が撮影者の眼の所
定領域から反射する反射光を受光する受光手段と、上記
第1及び第2の投光手段の組合わせ投光パターンにおけ
る投光タイミングと該投光タイミングに同期した上記受
光手段の受光タイミングとを制御する制御手段と、上記
受光手段の出力に基づいて、視線方向に関する情報を抽
出する視線情報抽出手段とを具備したことを特徴とす
る。
In order to achieve the above object, the line-of-sight detection apparatus according to the first aspect of the present invention is a first and a second object which are substantially symmetrical to each other with a plane including a finder optical axis of a finder optical system interposed therebetween. At least one of the first and second light projecting means arranged at two positions, and at least one of the first or second light projecting means is a predetermined region of the photographer's eye. The light receiving means for receiving the reflected light reflected from the light emitting means, the light projecting timing in the combined light projecting pattern of the first and second light projecting means, and the light receiving timing of the light receiving means synchronized with the light projecting timing are controlled. It is characterized by comprising a control means and a visual line information extraction means for extracting information on the visual line direction based on the output of the light receiving means.

【0011】また、第2の態様による視線検出装置は、
上記視線情報抽出手段は、上記第1及び第2の投光手段
の組合わせ投光パターンによる上記受光出力から上記第
1又は第2の投光手段の投光パターンによる上記受光出
力を引いた差分処理を行うことを特徴とする。
The line-of-sight detection apparatus according to the second aspect is
The line-of-sight information extracting means subtracts the received light output of the first or second light projecting means from the received light output of the combined light projecting pattern of the first and second light projecting means. It is characterized by performing processing.

【0012】[0012]

【作用】即ち、本発明の第1の態様による視線検出装置
では、第1及び第2の投光手段がファインダ光学系のフ
ァインダ光軸を含む平面を挟んで略対象な第1及び第2
の位置に各々少なくとも1つづつ配置されており、受光
手段が上記第1又は第2の投光手段の内の少なくとも1
つの投光光が撮影者の眼の所定領域から反射する反射光
を受光する。そして、制御手段が上記第1及び第2の投
光手段の組合わせ投光パターンにおける投光タイミング
と該投光タイミングに同期した上記受光手段の受光タイ
ミングとを制御し、視線情報抽出手段が上記受光手段の
出力に基づいて、視線方向に関する情報を抽出する。
That is, in the line-of-sight detection device according to the first aspect of the present invention, the first and second light projecting means are substantially symmetrical to each other with the plane including the finder optical axis of the finder optical system interposed therebetween.
Of at least one of the first or second light projecting means.
The two projected lights receive the reflected lights reflected from the predetermined area of the photographer's eye. Then, the control means controls the light projecting timing in the combined light projecting pattern of the first and second light projecting means and the light receiving timing of the light receiving means synchronized with the light projecting timing, and the line-of-sight information extracting means carries out the above. Information about the line-of-sight direction is extracted based on the output of the light receiving unit.

【0013】また、第2の態様による視線検出装置で
は、上記視線情報抽出手段により、上記第1及び第2の
投光手段の組合わせ投光パターンによる上記受光出力か
ら上記第1又は第2の投光手段の投光パターンによる上
記受光出力を引いた差分処理が行われる。
Further, in the visual axis detecting device according to the second aspect, the visual axis information extracting means is used to detect the first or second of the received light output by the combined light projecting pattern of the first and second light projecting means. Difference processing is performed by subtracting the received light output by the light projection pattern of the light projecting means.

【0014】[0014]

【実施例】本発明の実施例について説明する前に、本発
明に採用される視線検出の原理について説明する。尚、
視線方向を検出する方法としては種々の方法が挙げられ
るが、ここでは白目(強膜)の重心の移動成分を用いて
眼球の回転を検出するものを採用する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Before describing the embodiments of the present invention, the principle of line-of-sight detection adopted in the present invention will be described. still,
There are various methods for detecting the line-of-sight direction, but here, a method of detecting the rotation of the eyeball by using the moving component of the center of gravity of the white eye (sclera) is adopted.

【0015】先ず図13は光軸周辺より投光された光束
の眼球90からの反射光の受光出力の様子を示す図であ
る。眼球90に光を投光し、その反射像をとらえると受
光出力の高い第1プルキンエ像(角膜反射像)95aが
検出される。この第1プルキンエ像95a以外のプルキ
ンエ像は反射光量が弱く反射像のできる位置が異なる
為、検出することは難しい。そして、眼球90に光を投
光した時の眼底からの反射光95bは赤目(眼底からの
投光された光が検出系に戻った場合に発生)が発生しな
い場合には出力が低く、赤目が発生する場合には図では
示されていないが持ち上がる。尚、この図13におい
て、符号91は虹彩、92は強膜(白目)、93は瞳孔
をそれぞれ示している。
First, FIG. 13 is a diagram showing how the reflected light from the eyeball 90 of the light beam projected from the periphery of the optical axis is received and output. When light is projected onto the eyeball 90 and its reflected image is captured, a first Purkinje image (corneal reflected image) 95a having a high received light output is detected. It is difficult to detect the Purkinje images other than the first Purkinje image 95a because the amount of reflected light is weak and the position where the reflected image is formed is different. Then, the reflected light 95b from the fundus when the light is projected onto the eyeball 90 has a low output when the red eye (occurs when the light projected from the fundus returns to the detection system) does not occur, and the red eye When occurs, it is lifted though not shown in the figure. In FIG. 13, reference numeral 91 is an iris, 92 is a sclera (white eye), and 93 is a pupil.

【0016】次に図14は眼球90の回転による検出像
の変化の様子を示す図である。即ち、図14(a)乃至
(c)は、それぞれ左,中,右(撮影者)に眼球を動か
した場合の目の様子と受光素子出力とを示している。こ
れら図14(a)乃至(c)より白目の発生の割合が変
化することが明かであり、発生した白目の片側のみを用
いることで眼球の回転を検出できる。また、一般写真撮
影の1回のシャッタシーケンス(1stレリーズ付近か
ら2ndレリーズまで)においては眼のシフトは大きく
変化することはなく、相対的な動き、即ち白目の重心変
化と基準位置を検出することで撮影者が見ようとする方
向を知ることができる。尚、基準位置検出はシーケンス
内で行なうようにするとよい。
Next, FIG. 14 is a diagram showing how the detected image changes as the eyeball 90 rotates. That is, FIGS. 14A to 14C show the state of the eyes and the light receiving element output when the eyes are moved to the left, the center, and the right (the photographer), respectively. It is clear from FIGS. 14A to 14C that the rate of occurrence of the white eye changes, and the rotation of the eyeball can be detected by using only one side of the white eye that has occurred. Also, in one shutter sequence of general photography (from near the 1st release to the 2nd release), the eye shift does not change greatly, and relative movement, that is, the change in the center of gravity of the white eye and the reference position are detected. You can know the direction the photographer is going to see. The reference position detection may be performed within the sequence.

【0017】以下、このような原理に基づく本発明の実
施例について説明する。先ず図1は本発明の第1の実施
例に係る視線検出装置の構成を示す図である。図1に示
すように、検出軸方向にて光軸を挟んで配置された複数
の投光素子を有する投光部1は投光制御部2に接続さ
れ、投光された光束の眼からの反射光を受光する受光部
3は特徴抽出部4に接続され、特徴抽出部4は受光部3
と投光制御部2にそれぞれ接続されている。
An embodiment of the present invention based on such a principle will be described below. First, FIG. 1 is a diagram showing the configuration of a visual axis detection device according to a first embodiment of the present invention. As shown in FIG. 1, a light projecting unit 1 having a plurality of light projecting elements arranged with the optical axis sandwiched in the detection axis direction is connected to a light projecting control unit 2, and the projected light beam from the eye is projected. The light receiving unit 3 that receives the reflected light is connected to the feature extracting unit 4, and the feature extracting unit 4 receives the light receiving unit 3.
And the light projecting control unit 2 are connected to each other.

【0018】このような構成において、投光部1は投光
制御部2の信号に基づいて複数ある投光素子により撮影
者の眼に対して投光を行い、投光制御部2は一つ以上の
投光パターンを作成し、さらに投光タイミングを作成す
る。そして、受光部3は投光された光束の眼からの反射
光を受光し電気信号に変換し、特徴抽出部4に出力す
る。さらに、特徴抽出部4は投光制御部2の投光タイミ
ングと投光パターンに信号と投光信号に同期して取り込
んだ受光部3に信号を基に信号処理(差分処理)を行
い、視線特徴信号を抽出する。
In such a configuration, the light projecting section 1 projects light to the photographer's eye by a plurality of light projecting elements based on the signal from the light projecting control section 2, and one light projecting control section 2 is provided. The above light projection pattern is created, and the light projection timing is further created. Then, the light receiving unit 3 receives the reflected light from the eye of the projected light beam, converts it into an electric signal, and outputs it to the feature extraction unit 4. Further, the feature extraction unit 4 performs signal processing (difference processing) on the basis of the signal to the light receiving unit 3 which is captured in synchronization with the signal and the light emitting signal in the light emitting timing and light emitting pattern of the light emitting control unit 2, and the line-of-sight Extract feature signals.

【0019】次に図2のフローチャートを参照して、第
1の実施例の処理シーケンスについて説明する。ここ
で、第1の実施例では2つの投光素子により投光を行う
ものとし、以下にいうパターンa,b,cによる投光は
下記の表に示す関係のもとに決定される。
Next, the processing sequence of the first embodiment will be described with reference to the flowchart of FIG. Here, in the first embodiment, it is assumed that light is projected by two light projecting elements, and the light projected by the following patterns a, b, and c is determined based on the relationship shown in the following table.

【0020】[0020]

【表1】 [Table 1]

【0021】さて、本シーケンスを開始すると、先ず眼
球にパターンaの投光を行い(ステップS1)、データ
Daを検出する(ステップS2)。そして、眼球にパタ
ーンbの投光を行い(ステップS3)、データDbを検
出する(ステップS4)。さらに、眼球にパターンcの
投光を行い(ステップS5)、データDcを検出する
(ステップS6)。そして、この検出したデータDa,
Db,Dcの信号にて信号処理(D0 =Db−Da,D
1 =Db−Dc)を行い(ステップS7)、このデータ
D0 ,D1 にて重心検出を行い(ステップS7)、全て
のシーケンスを終了する(ステップS9)。
When the present sequence is started, first, the pattern a is projected onto the eyeball (step S1), and the data Da is detected (step S2). Then, the pattern b is projected onto the eyeball (step S3), and the data Db is detected (step S4). Further, the pattern c is projected onto the eyeball (step S5), and the data Dc is detected (step S6). Then, the detected data Da,
Signal processing with Db and Dc signals (D0 = Db-Da, D
1 = Db-Dc) is performed (step S7), the center of gravity is detected from the data D0 and D1 (step S7), and all the sequences are finished (step S9).

【0022】このように、第1の実施例に係る視線検出
装置では、上記2つの投光素子の組合わせ投光パターン
による上記受光部の受光出力から、上記各投光素子の投
光パターンによる上記受光出力を引いた差分処理を行
い、視線方向に関する情報を抽出する。
As described above, in the line-of-sight detection apparatus according to the first embodiment, from the light-receiving output of the light-receiving unit by the combined light-projecting pattern of the two light-projecting elements, the light-projecting pattern of each of the light-projecting elements is obtained. A difference process is performed by subtracting the received light output to extract information about the line-of-sight direction.

【0023】次に図3は本発明の第2の実施例に係る視
線検出装置の構成を示す図である。本実施例では横配置
の3点AFのフォーカスエリアの選択を視線信号を用い
て行っている。また、本実施例も上記第1の実施例と同
様に投光LEDを2つ用いた構成となっている。
Next, FIG. 3 is a diagram showing the structure of a visual axis detecting device according to the second embodiment of the present invention. In this embodiment, the focus area of the horizontally arranged three-point AF is selected using the line-of-sight signal. Further, this embodiment also has a configuration using two light emitting LEDs as in the first embodiment.

【0024】複数点測距回路(マルチAF回路)11,
I/F回路20は中央演算処理装置(CPU)12に接
続されており、該CPU12は表示回路13,投光LE
D17a,17b,駆動回路15に接続されている。こ
の駆動回路15はレンズ14にも接続されている。そし
て、投光LED17a,17b及びファインダ光学系1
6は視線検出光学系18に接続されている。また、表示
回路13はファインダ光学系16に接続されている。そ
して、上記視線検出光学系18は視線センサ19に接続
されており、該視線センサ(PSD)19はインターフ
ェース回路(I/F回路)20を介して上記CPU12
に接続されている。上記PSD19は光量分布の重心位
置を明るさに依存する電流比にて検出するデバイスであ
る。
Multi-point distance measuring circuit (multi-AF circuit) 11,
The I / F circuit 20 is connected to a central processing unit (CPU) 12, which has a display circuit 13 and a light projecting LE.
D17a, 17b and the drive circuit 15 are connected. The drive circuit 15 is also connected to the lens 14. Then, the light emitting LEDs 17a and 17b and the finder optical system 1
Reference numeral 6 is connected to the line-of-sight detection optical system 18. The display circuit 13 is also connected to the finder optical system 16. The visual axis detection optical system 18 is connected to a visual axis sensor 19, and the visual axis sensor (PSD) 19 is connected to the CPU 12 via an interface circuit (I / F circuit) 20.
It is connected to the. The PSD 19 is a device that detects the position of the center of gravity of the light amount distribution with a current ratio that depends on brightness.

【0025】このような構成において、マルチAF回路
11は複数点に測距を行い測距情報をCPU12へ送
り、視線検出系はCPU12からの指令を受けると、表
示回路13より所定の表示が行われると共に投光LED
17a,17bより視線検出光学系18及びファインダ
光学系16を介して眼球90に対して光が投光される。
In such a structure, the multi-AF circuit 11 measures the distance to a plurality of points and sends the distance measurement information to the CPU 12, and when the line-of-sight detection system receives a command from the CPU 12, a predetermined display is displayed from the display circuit 13. Lighted LED
Light is projected from the eyes 17a and 17b to the eyeball 90 via the line-of-sight detection optical system 18 and the finder optical system 16.

【0026】そして、この眼球90からの反射光は再び
ファインダ光学系16,視線検出光学系18を介して視
線センサ19に受光される。そして、このPSD19か
らの出力信号は、I/F回路20を介してCPU12に
取り込まれ、重心位置に対応する信号と明るさに対応す
る信号に変換された後、CPU12に入力される。
The reflected light from the eyeball 90 is again received by the line-of-sight sensor 19 via the finder optical system 16 and the line-of-sight detecting optical system 18. The output signal from the PSD 19 is taken into the CPU 12 via the I / F circuit 20, converted into a signal corresponding to the position of the center of gravity and a signal corresponding to the brightness, and then input to the CPU 12.

【0027】このCPU12はI/F回路20より取り
込まれた信号を基に信号処理後の重心検出より得られた
視線に関する情報とマルチAF回路11より得られた複
数点の測距情報を基に視線位置に対応するフォーカスエ
リアのデフォーカス量を決定する。さらに、設定された
デフォーカス量にて駆動回路15を介してレンズ14を
駆動する。
This CPU 12 is based on the information about the line of sight obtained by the detection of the center of gravity after signal processing based on the signal taken in by the I / F circuit 20 and the distance measurement information of a plurality of points obtained by the multi AF circuit 11. The defocus amount of the focus area corresponding to the line-of-sight position is determined. Further, the lens 14 is driven via the drive circuit 15 with the set defocus amount.

【0028】次に図4は上記視線検出光学系18の詳細
な構成を示す図である。図4に示すように、投光LED
(IRED:赤外帯域投光LED)17a,17bから
の投光光の光路上には投光レンズ21を介してハーフミ
ラー22が配置されており、上記投光光は該ハーフミラ
ー22により反射される。そして、この反射光の光路上
にはプリズム23が配置されており、反射光はプリズム
23の反射面23aにて反射され、ファインダ24を介
して撮影者の眼球90へと導かれる。 上記撮影者の眼
球90からの反射光は入射光と同じ光路を通ってファイ
ンダ24を介してプリズム23に入射され、その反射面
23aにて反射される。そして、この反射光はハーフミ
ラー22を透過し、受光レンズ25を介して視線センサ
19に受光される。
Next, FIG. 4 is a diagram showing a detailed structure of the visual axis detecting optical system 18. As shown in FIG.
A half mirror 22 is disposed on the optical path of the light projected from the (IRED: infrared band projection LED) 17a, 17b via a projection lens 21, and the projected light is reflected by the half mirror 22. To be done. A prism 23 is arranged on the optical path of the reflected light, and the reflected light is reflected by the reflecting surface 23a of the prism 23 and guided to the eyeball 90 of the photographer through the finder 24. The reflected light from the eyeball 90 of the photographer enters the prism 23 through the finder 24 through the same optical path as the incident light, and is reflected by the reflecting surface 23a. Then, the reflected light passes through the half mirror 22 and is received by the line-of-sight sensor 19 via the light receiving lens 25.

【0029】一方、被写体光は該被写体光に重ねて表示
を示す表示液晶26を介してプリズムに入射され、その
反射面23aを透過して、更にファインダ24を介して
撮影者の眼球90へと導かれる。尚、本構成ではファイ
ンダ光学系を投受光にて一部兼用しているが、投光系,
受光系の一方のみ共用(投光系をファインダ光学系の外
に設置等)や両方ともファインダ光学系と共用しないよ
うにしてもよい。
On the other hand, the subject light is incident on the prism through the display liquid crystal 26 which is superposed on the subject light and indicates a display, passes through the reflecting surface 23a thereof, and further passes through the viewfinder 24 to the eyeball 90 of the photographer. Be guided. In this configuration, although the finder optical system is also used as a light emitting and receiving part,
It is also possible to share only one of the light receiving systems (such as installing the light projecting system outside the finder optical system) or not sharing both of them with the finder optical system.

【0030】次に図5は投光LED17a,17bと受
光センサ19と眼球90の等価的な関係を示す図であ
る。投光LED17a,17bの投光光束の光軸とPS
D19の受光光束の光軸は一致せず投光光束は眼球90
を横から照らすような構成とし眼底光からの直接反射光
がPSD19に入り難い構成となっている。
Next, FIG. 5 is a diagram showing an equivalent relationship between the light emitting LEDs 17a and 17b, the light receiving sensor 19 and the eyeball 90. The optical axes of the projected light fluxes of the light projecting LEDs 17a and 17b and the PS
The optical axes of the received light beams of D19 do not match, and the projected light beams are
Is configured to be illuminated from the side, and the direct reflection light from the fundus light is difficult to enter the PSD 19.

【0031】次に図6に投光光束による眼球からの反射
信号の検出信号の様子を示す図である。2つの投光LE
D17a,17bによる眼球からの反射像は、該投光L
ED17a,17bの発光にて白目からの反射光像と角
膜からの反射像ができる。投光LED17a,17bが
2つ共に発光した場合は角膜からの反射像が2つのピー
クを有し(図6(a)参照)、投光LEDが1つのみ発
光の場合は角膜からの反射像が1つのピークのみを有す
る(図6(b),(c)参照)。尚、同図は検出方向に
信号を投影加算したものである。
Next, FIG. 6 is a diagram showing a state of a detection signal of a reflection signal from the eyeball by the projected light flux. Two floodlight LE
The reflected image from the eyeball by D17a, 17b is the projected light L
The reflected light image from the white eye and the reflected image from the cornea can be formed by the light emission of the EDs 17a and 17b. When both of the projecting LEDs 17a and 17b emit light, the reflected image from the cornea has two peaks (see FIG. 6 (a)), and when only one projecting LED emits light, the reflected image from the cornea. Has only one peak (see FIGS. 6B and 6C). In the figure, signals are projected and added in the detection direction.

【0032】そして、投光LED17a,17bが2つ
発光時と1つ発光時の差分処理をした場合は図6
(d),(e)に示すように片側の白目の動きの重心を
検出することができる。しかしながら、2投光と1投光
では総光量が異なる白目成分と角膜反射成分とCD成分
(総光量の違いにて発生)のバランスにて重心位置が決
定される為、眼球の移動変化に対して検出重心の変化量
はリニアに変化しない。これについては、図7に示す通
りである。
When the difference processing between the two light emitting LEDs 17a and 17b emitting one light and the one emitting one is performed, FIG.
As shown in (d) and (e), the center of gravity of the movement of the white eye on one side can be detected. However, since the barycentric position is determined by the balance of the white-eye component, the corneal reflection component, and the CD component (generated due to the difference in the total light amount), which have different total light amounts between the two light projections and the one light projection, The amount of change in the detected center of gravity does not change linearly. This is as shown in FIG.

【0033】以下、図8のフローチャートを参照して、
第1の実施例のメインシーケンスについて説明する(初
期化表示は図12(a),(c)に示すものを使用す
る)。メインシーケンスを開始すると、先ず1stレリ
ーズのON/OFF判定を行う(ステップS11)。そ
して、1stレリーズ“OFF”の場合にはステップS
25へ移行し全ての動作を終了し、1stレリーズ“O
N”の場合には続いてイニシャライズ(フォーカスエリ
アを中央に設定)を行う(ステップS12)。
Hereinafter, with reference to the flowchart of FIG.
The main sequence of the first embodiment will be described (the initialization display uses those shown in FIGS. 12A and 12C). When the main sequence is started, first, ON / OFF determination of the 1st release is performed (step S11). If the first release is "OFF", step S
25, all the operations are completed, and the 1st release “O”
In the case of N ", initialization (setting the focus area to the center) is subsequently performed (step S12).

【0034】次いで、視線を検出するサブルーチン“視
線検出”を実行する(ステップS13)。そして、この
サブルーチン“視線検出”にて検出された視線座標X
a,Xb(視線重心)をXA1,XA2に入れる(ステ
ップS14)。さらに、マルチAF(AFデータ:左よ
りDL,DC,DR:AF方式は公知の位相差方式でも
アクティブ方式でもよい),AE(本実施例には記して
ないがカメラに公知の測光)を行う(ステップS1
5)。そして、視線基準位置検出用の表示(表示フラシ
ングまたは音を併用して行うとさらによい。また、AF
終了の信号と兼用してもよい)を行う(ステップS1
6)。
Then, a subroutine "line of sight detection" for detecting the line of sight is executed (step S13). Then, the line-of-sight coordinates X detected by this subroutine "line-of-sight detection"
a, Xb (center of gravity of the line of sight) are put into XA1, XA2 (step S14). Further, multi AF (AF data: DL, DC, DR: AF method from the left may be a known phase difference method or an active method) and AE (photometer known to the camera although not described in this embodiment) are performed. (Step S1
5). Then, the display for detecting the sight line reference position (display flashing or sound is preferably used together.
It may also be used as an end signal) (step S1)
6).

【0035】そして、再度サブルーチン“視線検出”を
実行し(ステップS17)、このサブルーチン“視線検
出”にて検出された視線座標Xa,Xb(視線重心)を
XB1,XB2に入れる(ステップS18)。さらに、
カメラの情報(ステップS16にて表示されなかった情
報)をファインダ内に表示し(ステップS19)、サブ
ルーチン“フォーカスエリア設定”を実行する(ステッ
プS20)。
Then, the subroutine "line-of-sight detection" is executed again (step S17), and the line-of-sight coordinates Xa, Xb (centroids of line-of-sight) detected by this subroutine "line-of-sight detection" are put into XB1, XB2 (step S18). further,
The camera information (information not displayed in step S16) is displayed in the viewfinder (step S19), and the subroutine "focus area setting" is executed (step S20).

【0036】そして、1stレリーズのON/OFF判
定を行い(ステップS21)、1stレリーズ“OF
F”の場合にはステップS25へ移行し、1stレリー
ズ“ON”の場合には2ndレリーズの判定を行う(ス
テップS22)。また、2ndレリーズ“ON”でない
場合にはステップS21へ戻り、2ndレリーズ“O
N”の場合には設定されたフォーカスエリアのデフォー
カス量(測距データLにて決定される)に応じてレンズ
を駆動する(ステップS23)。
Then, the ON / OFF judgment of the 1st release is performed (step S21), and the 1st release "OF".
If it is F ", the process proceeds to step S25, and if it is the first release" ON ", the second release is determined (step S22). If it is not the second release" ON ", the process returns to step S21 and the second release is performed. "O
In the case of N ″, the lens is driven according to the defocus amount of the set focus area (determined by the distance measurement data L) (step S23).

【0037】こうして、露光シーケンス,巻き上げシー
ケンス等のカメラシーケンスを行い(ステップS2
4)、本シーケンスを終了する(ステップS25)。次
に図9のフローチャートを参照して、視線を検出するサ
ブルーチン“視線検出”のシーケンスを説明する。
In this way, the camera sequence such as the exposure sequence and the winding sequence is performed (step S2).
4) Then, this sequence is finished (step S25). Next, with reference to the flowchart of FIG. 9, a sequence of a subroutine "visual axis detection" for detecting a visual axis will be described.

【0038】サブルーチン“視線検出”のシーケンスを
開始すると、先ず変数のイニシャライズ(変数i)を行
い(ステップS31)、IREDを「パターン1」にて
撮影者の目に投光する(ステップS32)。そして、こ
のIREDの投光に同期してPSD出力信号をIL1,
IR1,I(1)=IL1+IR1として検出する(ス
テップS33)。そして、IREDを「パターン2」に
て撮影者の目に投光し(ステップS34)、このIRE
Dの投光に同期してPSD出力信号をIL2,IR2,
I(2)=IL2+IR2として検出する(ステップS
35)。さらに、IREDをパターン3にて撮影者の目
に投光し(ステップS36)、IREDの投光に同期し
てPSD出力信号をIL3,IR3,I(3)=IL3
+IR3とし検出する(ステップS37)。
When the subroutine "line-of-sight detection" sequence is started, first, a variable is initialized (variable i) (step S31), and the IRED is projected to the photographer's eyes in "pattern 1" (step S32). Then, the PSD output signal is set to IL1, in synchronization with the projection of this IRED.
It is detected as IR1, I (1) = IL1 + IR1 (step S33). Then, the IRED is projected in the eyes of the photographer in the "pattern 2" (step S34), and the IRE
The PSD output signal is set to IL2, IR2, in synchronization with the light projection of D.
It is detected as I (2) = IL2 + IR2 (step S
35). Further, the IRED is projected in the eyes of the photographer in the pattern 3 (step S36), and the PSD output signal is IL3, IR3, I (3) = IL3 in synchronization with the projection of the IRED.
It is detected as + IR3 (step S37).

【0039】次いで明るさに関する信号I(1)〜I
(3)の判定(まばたき,メガネ等の異常)を行う(ス
テップS38,S40,S41)。即ち、E2a<I
(2)<E2bでない場合には(ステップS38)、カウ
ント値iをインクリメントして(ステップS39)、ス
テップS32へ戻る。さらに、E1a<I(1)<E1bの
場合には(ステップS40)、I(3)の判定を同様に
行う(ステップS46)。
Next, signals I (1) to I (I) relating to brightness
The determination of (3) (blinking, abnormality of glasses, etc.) is performed (steps S38, S40, S41). That is, E2a <I
(2) <E2b is not satisfied (step S38), the count value i is incremented (step S39), and the process returns to step S32. Further, when E1a <I (1) <E1b (step S40), the determination of I (3) is similarly made (step S46).

【0040】また、E3a<I(3)<E3bの場合には
(ステップS46)、次式により検出電流を差分処理し
重心を検出し(S47,S48)、ステップS51へい
く。尚、以下の式においてhは所定の係数、gは検出不
能の所定値を示している。
If E3a <I (3) <E3b (step S46), the detected current is subjected to the difference processing by the following equation to detect the center of gravity (S47, S48), and the process proceeds to step S51. In the following equation, h represents a predetermined coefficient and g represents a non-detectable predetermined value.

【0041】電流処理:IAL=IL2−IL1,IA
R=IR2−IR1 IBL=IL2−IL3,IBR=IR2−IR3 重心処理:Xa=h×(IAR−IAL)/(IAR+
IAL) Xb=h×(IBR−IBL)/(IBR+IBL) さらに、E3a<I(3)<E3bでない場合には(ステッ
プS46)、次式により一方の投光の検出電流を差分処
理し重心を検出し、ステップS51へ移行する(ステッ
プS49,S50)。
Current processing: IAL = IL2-IL1, IA
R = IR2-IR1 IBL = IL2-IL3, IBR = IR2-IR3 Centroid processing: Xa = h * (IAR-IAL) / (IAR +
IAL) Xb = h * (IBR-IBL) / (IBR + IBL) Further, when E3a <I (3) <E3b is not satisfied (step S46), the detected current of one of the light projections is subjected to the difference processing by the following equation to determine the center of gravity. It is detected and the process proceeds to step S51 (steps S49 and S50).

【0042】電流処理:IAL=IL2−IL1,IA
R=IR2−IR1 重心処理:Xa=h×(IAR−IAL)/(IAR+
IAL) Xb=g また、E3a<I(3)<E3bの場合には(ステップS4
1)、次式により一方の投光の検出電流を差分処理し重
心を検出し、ステップS51へいく(ステップS43,
S44)。
Current processing: IAL = IL2-IL1, IA
R = IR2-IR1 Centroid processing: Xa = h * (IAL-IAL) / (IAL +
IAL) Xb = g If E3a <I (3) <E3b (step S4)
1), the detection current of one of the light projections is subjected to difference processing by the following equation to detect the center of gravity, and the process proceeds to step S51 (step S43,
S44).

【0043】電流処理:IBL=IL2−IL3,IB
R=IR2−IR3 重心処理:Xa=g Xb=h×(IBR−IBL)/(IBR+IBL) こうしてカウント値iの判定を行い(ステップS4
2)、i>k(kは1以上の所定値)でない場合にはス
テップS39へ戻り、i>kの場合には重心値Xa=
g,Xb=g(gは所定値)を設定し(ステップS4
5)、本サブルーチンを抜ける(ステップS51)。
Current processing: IBL = IL2-IL3, IB
R = IR2-IR3 Centroid processing: Xa = g Xb = h * (IBR-IBL) / (IBR + IBL) Thus, the count value i is determined (step S4).
2), if i> k (k is a predetermined value of 1 or more), the process returns to step S39, and if i> k, the center of gravity value Xa =
g, Xb = g (g is a predetermined value) is set (step S4).
5) Then, this subroutine is exited (step S51).

【0044】ここで、図10は投光/検出のタイミング
例を示す図である。図10(a),(b)に示すよう
に、投光LED17a,17bの同時発光に同期してP
SD19が信号を検出(1)し、投光LED17aのみ
の発光と同期してPSD19が信号を検出(2)し、投
光LED17bのみの発光と同期してPSD19が信号
を検出(3)する。本実施例では、(1)と(2),
(2)と(3)の信号の差分処理を行い、これらの処理
を1シーケンスとしてこのパターンを所定回数k繰り返
す。尚、PSD19の信号検出は電流検出型で示したが
積分検出型にて構成してもよい。また、投光LED17
a,17bの順序は変更してもよいことは勿論である。
Here, FIG. 10 is a diagram showing an example of the timing of light projection / detection. As shown in FIGS. 10A and 10B, P is synchronized with the simultaneous light emission of the light projecting LEDs 17a and 17b.
The SD19 detects a signal (1), the PSD 19 detects a signal (2) in synchronization with the light emission of only the light projecting LED 17a, and the PSD 19 detects a signal (3) in synchronization with the light emission of only the light projecting LED 17b. In this embodiment, (1) and (2),
The difference processing of the signals of (2) and (3) is performed, and these patterns are set as one sequence, and this pattern is repeated a predetermined number of times k. Although the signal detection of the PSD 19 is shown as the current detection type, it may be configured as the integral detection type. In addition, the projection LED 17
Of course, the order of a and 17b may be changed.

【0045】以下、図11のフローチャートを参照し
て、フォーカスエリアを設定するサブルーチン“フォー
カスエリア設定”のシーケンスを説明する。本サブルー
チンのシーケンスに入ると、先ず重心座標XA1,XA
2,XB1,XB2の有効性判定を行う(ステップS5
1乃至S57)。
The sequence of the "focus area setting" subroutine for setting the focus area will be described below with reference to the flowchart of FIG. When entering the sequence of this subroutine, first, the barycentric coordinates XA1, XA
2, the effectiveness of XB1 and XB2 is determined (step S5).
1 to S57).

【0046】即ち、XA1=g且つXA2=gである場
合には(ステップS51)、視線情報は使用しないで、
マルチAFのアルゴリズムにて測距データLを設定した
後(ステップS58)、視線モードマークを点滅して警
告表示を行いステップS72へ移行する(ステップS5
9)。そして、XA1=g且つXA2=gではないが
(ステップS52)、XB1=g且つXB2=gである
場合には同様にステップS58以降の処理に移る。さら
に、XA1=gであり(ステップS53)、XB2=g
である場合も(ステップS57)ステップS58以降の
処理に移る。
That is, when XA1 = g and XA2 = g (step S51), the line-of-sight information is not used,
After setting the distance measurement data L by the multi-AF algorithm (step S58), the line-of-sight mode mark blinks to display a warning, and the process proceeds to step S72 (step S5).
9). Then, when XA1 = g and XA2 = g are not satisfied (step S52), but XB1 = g and XB2 = g are satisfied, the process similarly proceeds to step S58 and subsequent steps. Further, XA1 = g (step S53), and XB2 = g
Also (step S57), the process proceeds to step S58 and thereafter.

【0047】また、XB2=gでない場合には(ステッ
プS57)、一方の投光LEDの投光による基準位置と
の変化量X2(X2=XA2−XB2)を求め(ステッ
プS66)、この変化量X2の位置の判定を行う(ステ
ップS67,S68)。そして、dM2≦X2≦dP2
の場合には(ステップS67)、フォーカスエリアを中
央に設定し、測距データLをDCに設定する(ステップ
S70)。さらに、dM2≦X2≦dP2ではないが、
X2>dP2である場合には(ステップS68)、フォ
ーカスエリアを左に設定し、測距データLをDLに設定
する(ステップS69)。また、X2>dP2でない場
合には(ステップS68)、フォーカスエリアを右に設
定し、測距データLをDRに設定する(ステップS7
1)。
If XB2 = g is not satisfied (step S57), the amount of change X2 (X2 = XA2-XB2) from the reference position due to the projection of one of the light projecting LEDs is calculated (step S66), and this amount of change is calculated. The position of X2 is determined (steps S67 and S68). Then, dM2 ≦ X2 ≦ dP2
In the case of (step S67), the focus area is set to the center and the distance measurement data L is set to DC (step S70). Further, although not dM2 ≦ X2 ≦ dP2,
If X2> dP2 (step S68), the focus area is set to the left and the distance measurement data L is set to DL (step S69). If X2> dP2 is not satisfied (step S68), the focus area is set to the right and the distance measurement data L is set to DR (step S7).
1).

【0048】一方、XB1=gでないが(ステップS5
4)、XA2=gの場合には(ステップS55)、一方
の投光LEDの投光による基準位置との変化量X1(X
1=XA1−XB1)を求め(ステップS60)、変化
量X1の位置の判定を行う(ステップS61,S6
2)。そして、dM1≦X1≦dP1の場合には(ステ
ップS61)、フォーカスエリアを中央に設定し、測距
データLをDCに設定する(ステップS70)。さら
に、X1>dM1の場合には(ステップS62)、フォ
ーカスエリアを右に設定し、測距データLをDRに設定
する(ステップS71)。また、X1>dM2でない場
合(ステップ62)、フォーカスエリアを左に設定し、
測距データLをDLに設定する(ステップS69)。
On the other hand, although XB1 = g is not satisfied (step S5)
4), when XA2 = g (step S55), the change amount X1 (X
1 = XA1-XB1) is calculated (step S60), and the position of the change amount X1 is determined (steps S61 and S6).
2). If dM1 ≦ X1 ≦ dP1 (step S61), the focus area is set to the center and the distance measurement data L is set to DC (step S70). Further, when X1> dM1 (step S62), the focus area is set to the right and the distance measurement data L is set to DR (step S71). If X1> dM2 is not satisfied (step 62), the focus area is set to the left,
The distance measurement data L is set to DL (step S69).

【0049】また、XA2=gではないが、XB2=g
である場合には(ステップS56)、前述したステップ
S60以降の処理に移行する。そして、XB2=gでな
い場合には(ステップS56)、基準位置との変化量X
1(=XA1−XB1),X2(=XA2−XB2)を
求め(ステップS63)、この変化量X1,X2の位置
の判定を行う(ステップS64,S65)。そして、X
1<dMの場合には(ステップS64)、フォーカスエ
リアを右に設定し、測距データLをDRに設定する(ス
テップS71)。さらに、X2<dPの場合には(ステ
ップS65)、フォーカスエリアを左に設定し、測距デ
ータLをDLに設定する(ステップS69)。また、X
2>dPでない場合には(ステップS65)、フォーカ
スエリアを中央に設定し、測距データLをDCに設定す
る(ステップS70)。
Although not XA2 = g, XB2 = g
If it is (step S56), the process shifts to the process of step S60 and after. If XB2 = g is not satisfied (step S56), the amount of change X from the reference position is X.
1 (= XA1-XB1) and X2 (= XA2-XB2) are obtained (step S63), and the positions of the change amounts X1 and X2 are determined (steps S64 and S65). And X
If 1 <dM (step S64), the focus area is set to the right and the distance measurement data L is set to DR (step S71). Further, when X2 <dP (step S65), the focus area is set to the left and the distance measurement data L is set to DL (step S69). Also, X
If not 2> dP (step S65), the focus area is set to the center and the distance measurement data L is set to DC (step S70).

【0050】こうして設定された測距データLより撮影
レンズのデフォーカス量を算出し(ステップS72)、
本サブルーチンを抜ける(ステップS73)。ここで、
図12はファインダ表示の様子を示す図である。
The defocus amount of the photographing lens is calculated from the distance measurement data L thus set (step S72),
Exit this subroutine (step S73). here,
FIG. 12 is a diagram showing a finder display.

【0051】図12(a),(c)はスーパーインポー
ズにて画面の中央に表示する場合であり、図12
(b),(d)は枠の部分に表示する場合である。ま
た、視線モードの表示は視線検出モードの場合点灯し、
視線検出出来ない場合点滅にて警告する。尚、表示方法
はフラッシング,大きさの変化等にて動的表示が望まし
い。更に、ファインダ周辺には上記以外の表示(合焦表
示,ストロボ発光表示等)がある。尚、図12(d)は
合焦表示の初期化の表示を兼用した場合を示している。
12 (a) and 12 (c) show the case of displaying in the center of the screen by superimposing.
(B) and (d) are cases where the frame is displayed. In addition, the line-of-sight mode display lights up in the line-of-sight detection mode,
If the line of sight cannot be detected, a warning is given by blinking. The display method is preferably dynamic display by flashing, size change, or the like. Further, there are other displays (focus display, strobe light emission display, etc.) other than the above around the viewfinder. Incidentally, FIG. 12D shows a case where the initialization display of the focus display is also used.

【0052】以上、本発明の実施例について説明した
が、本発明はこれに限定されることなく種々の改良、変
更が可能であることは勿論である。例えば、重心検出が
可能であればPSD以外のセンサ(ラインセンサ等)を
用いてもよい。そして、投光LEDの数は1つ以上であ
れば2つに限定されることはなく、投光パターンも2つ
以上でもよい。さらに、測距点は複数であれば3点に捕
らわれる必要はなく複数であればよい。また、カメラの
シーケンスとしては視線検知が必要ない場合(測距点が
深度内に入る場合等)は視線検出シーケンスを省略する
のがよい。
Although the embodiments of the present invention have been described above, it is needless to say that the present invention is not limited to these and various improvements and modifications can be made. For example, a sensor (line sensor or the like) other than PSD may be used as long as the center of gravity can be detected. Further, the number of the light emitting LEDs is not limited to two as long as it is one or more, and the light emitting pattern may be two or more. Further, if there are a plurality of distance measuring points, there is no need to be caught by three points, and it is sufficient that there are a plurality of distance measuring points. Further, when the line-of-sight detection is not required as the camera sequence (when the distance measuring point is within the depth, etc.), the line-of-sight detection sequence may be omitted.

【0053】さらに、信頼性(まばたき)判定を投光の
検出信号の総和で行っているが各投光毎に行った方がさ
らによく、さらに、まばたき以外のカメラと顔の接触
(カメラファインダに眼を押し付けている)の判定や眼
がね判定を組み合わせるとさらによい。さらに、視線検
出や視線表示、視線検出はAF、AE等のカメラのシー
ケンスと平行に行われてもよい。また、PSDの検出積
分時間を投光LED17a,投光LED17bの両方発
光時と一方発光時で異なるようにしてもよく、発光強度
を変えてもよい。また、積分時間をかえてもよく、電流
検出の場合は発光強度を変えることもよい。そして、投
光LED17a,17bは光軸に対して非対称でもよ
く、投光タイミングも対称に投光する必要はない。
Further, the reliability (blinking) is determined by the sum of the detection signals of the light emission, but it is better to perform it for each light emission. Furthermore, the contact between the camera and the face other than the blink (in the camera finder). It is more preferable to combine the judgment of "pressing eyes" and the judgment of eyelashes. Furthermore, the line-of-sight detection, the line-of-sight display, and the line-of-sight detection may be performed in parallel with a sequence of cameras such as AF and AE. Also, the PSD detection integration time may be different between when both the light emitting LED 17a and the light emitting LED 17b emit light, and when one emits light, the light emission intensity may be changed. Further, the integration time may be changed, and the light emission intensity may be changed in the case of current detection. The light projecting LEDs 17a and 17b may be asymmetric with respect to the optical axis, and it is not necessary to project the light projecting timing symmetrically.

【0054】以上詳述したように、本発明の視線検出装
置では、投光LED17a,17bが検出軸に対して光
軸を挟んで配置された投複数の光源にて構成され、投光
制御部の信号にて撮影者の眼に投光され、受光部は複数
の投光部からの投光に同期して眼からの投光部の反射光
を受光し、特徴抽出部は異なった投光パターンにて受光
した受光部の出力信号を信号処理し、視線に関する特徴
信号を抽出することができる。さらに、この投光制御部
は複数の投光部の一つ以上の投光パターンと投光タイミ
ングを制御し、特徴抽出部は異なる投光パターンに同期
して検出された受光部の出力間の差分処理を行い、差分
値の大きさに応じて投光パターンの中での有効性の判定
を行うことができる。
As described above in detail, in the line-of-sight detection device of the present invention, the light-projecting LEDs 17a and 17b are composed of a plurality of light sources arranged with the optical axis sandwiched between the detection axes, and the light-projection control section. Signal is emitted to the eye of the photographer, the light receiving unit receives the reflected light from the light emitting unit from the eyes in synchronization with the light emitted from the plurality of light emitting units, and the feature extracting unit emits different light. The output signal of the light receiving unit received in the pattern can be signal-processed to extract the characteristic signal regarding the line of sight. Further, the light emission control unit controls one or more light emission patterns and light emission timings of the plurality of light emission units, and the feature extraction unit synchronizes between outputs of the light receiving units detected in synchronization with different light emission patterns. By performing the difference processing, it is possible to determine the effectiveness in the light projection pattern according to the magnitude of the difference value.

【0055】[0055]

【発明の効果】本発明によれば、異なるパターン投光と
その検出信号の差分処理にて撮影者の白目重心を検出
し、迅速且つ的確な視線検出を行う。安価で高精度の視
線検出装置を提供することができる。
According to the present invention, the center of gravity of the photographer's eyes is detected by the different pattern projection and the difference processing of the detection signals thereof, and the line of sight is swiftly and accurately detected. It is possible to provide an inexpensive and highly accurate visual line detection device.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第1の実施例に係る視線検出装置の構
成を示す図である。
FIG. 1 is a diagram showing a configuration of a visual line detection device according to a first exemplary embodiment of the present invention.

【図2】第1の実施例の処理シーケンスを示すフローチ
ャートである。
FIG. 2 is a flowchart showing a processing sequence of the first embodiment.

【図3】本発明の第2の実施例に係る視線検出装置の構
成を示す図である。
FIG. 3 is a diagram showing a configuration of a visual line detection device according to a second exemplary embodiment of the present invention.

【図4】視線検出光学系18の詳細な構成を示す図であ
る。
FIG. 4 is a diagram showing a detailed configuration of a line-of-sight detection optical system 18.

【図5】投光LED17a,17bと受光センサ19と
眼球90の等価的な関係を示す図である。
FIG. 5 is a diagram showing an equivalent relationship among light emitting LEDs 17a and 17b, a light receiving sensor 19, and an eyeball 90.

【図6】投光光束による眼球からの反射信号の検出信号
の様子を示す図である。
FIG. 6 is a diagram showing a state of a detection signal of a reflected signal from an eyeball by a projected light beam.

【図7】眼球90の移動変化に対する検出重心の変化量
を示す図である。
7 is a diagram showing the amount of change in the detected center of gravity with respect to the change in movement of the eyeball 90. FIG.

【図8】第1の実施例のメインシーケンスを示すフロー
チャートである。
FIG. 8 is a flowchart showing a main sequence of the first embodiment.

【図9】視線を検出するサブルーチン“視線検出”のシ
ーケンスを説明するためのフローチャートである。
FIG. 9 is a flowchart for explaining a sequence of a subroutine “visual axis detection” for detecting a visual axis.

【図10】投光/受光の検出タイミングの例を示す図で
ある。
FIG. 10 is a diagram showing an example of detection timing of light projection / light reception.

【図11】フォーカスエリアを設定するサブルーチン
“フォーカスエリア設定”のシーケンスを示すフローチ
ャートである。
FIG. 11 is a flowchart showing a sequence of a subroutine “focus area setting” for setting a focus area.

【図12】ファインダ表示例を示す図である。FIG. 12 is a diagram showing a finder display example.

【図13】光軸周辺より投光された光束の眼球90から
の反射光の受光出力の様子を示す図である。
FIG. 13 is a diagram showing how received light of reflected light from an eyeball 90 of a light beam projected from around the optical axis is received.

【図14】眼球90の回転による検出像の変化の様子を
示す図である。
FIG. 14 is a diagram showing how a detected image changes due to rotation of an eyeball 90.

【符号の説明】[Explanation of symbols]

1…投光部、2…投光制御部、3…受光部、4…特徴抽
出部、11…マルチAF回路、12…CPU、13…表
示回路、14…撮影レンズ、15…駆動回路、16…フ
ァインダ光学系、17…投光LED、18…視線光学
系、19…位置検出素子、20…インターフェース回
路。
DESCRIPTION OF SYMBOLS 1 ... Projection part, 2 ... Projection control part, 3 ... Light receiving part, 4 ... Feature extraction part, 11 ... Multi AF circuit, 12 ... CPU, 13 ... Display circuit, 14 ... Photographing lens, 15 ... Drive circuit, 16 ... finder optical system, 17 ... projecting LED, 18 ... line-of-sight optical system, 19 ... position detecting element, 20 ... interface circuit.

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 ファインダ光学系のファインダ光軸を含
む平面を挟んで略対象な第1及び第2の位置に各々少な
くとも1つづつ配置された第1及び第2の投光手段と、 上記第1又は第2の投光手段の内の少なくとも1つの投
光光が撮影者の眼の所定領域から反射する反射光を受光
する受光手段と、 上記第1及び第2の投光手段の組合わせ投光パターンに
おける投光タイミングと該投光タイミングに同期した上
記受光手段の受光タイミングとを制御する制御手段と、 上記受光手段の出力に基づいて視線方向に関する情報を
抽出する視線情報抽出手段と、 を具備したことを特徴とする視線検出装置。
1. A first and second light projecting means arranged at least one at substantially symmetrical first and second positions with a plane including the finder optical axis of the finder optical system interposed therebetween, and A combination of a light receiving means for receiving at least one of the first or second light projecting means, which is reflected light from a predetermined region of the photographer's eye, and the first and second light projecting means. Control means for controlling the light projecting timing in the light projecting pattern and the light receiving timing of the light receiving means synchronized with the light projecting timing; and a line-of-sight information extracting means for extracting information about the line-of-sight direction based on the output of the light receiving means, A line-of-sight detection device comprising:
【請求項2】 上記視線情報抽出手段は、上記第1及び
第2の投光手段の組合わせ投光パターンによる上記受光
出力から上記第1又は第2の投光手段の投光パターンに
よる上記受光出力を引いた差分処理を行うことを特徴と
する請求項1に記載の視線検出装置。
2. The line-of-sight information extracting means receives from the light-receiving output by the combined light-projecting pattern of the first and second light-projecting means and receives the light by the light-projecting pattern of the first or second light-projecting means. The line-of-sight detection apparatus according to claim 1, wherein the difference processing is performed by subtracting the output.
JP29657293A 1993-11-26 1993-11-26 Sight line detecting device Withdrawn JPH07146432A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP29657293A JPH07146432A (en) 1993-11-26 1993-11-26 Sight line detecting device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP29657293A JPH07146432A (en) 1993-11-26 1993-11-26 Sight line detecting device

Publications (1)

Publication Number Publication Date
JPH07146432A true JPH07146432A (en) 1995-06-06

Family

ID=17835282

Family Applications (1)

Application Number Title Priority Date Filing Date
JP29657293A Withdrawn JPH07146432A (en) 1993-11-26 1993-11-26 Sight line detecting device

Country Status (1)

Country Link
JP (1) JPH07146432A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019501720A (en) * 2015-12-31 2019-01-24 ミラメトリックス インコーポレイテッド System and apparatus for eye tracking

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019501720A (en) * 2015-12-31 2019-01-24 ミラメトリックス インコーポレイテッド System and apparatus for eye tracking
US10984236B2 (en) 2015-12-31 2021-04-20 Mirametrix Inc. System and apparatus for gaze tracking

Similar Documents

Publication Publication Date Title
JP3158643B2 (en) Camera having focus detecting means and line-of-sight detecting means
JPH06304142A (en) Device for detecting line of sight
US5983030A (en) Optical apparatus having a visual axis detector
JP3297481B2 (en) Eye gaze detection device
US5402199A (en) Visual axis detecting apparatus
JPH07146432A (en) Sight line detecting device
JP3256294B2 (en) Eye gaze detection apparatus and eye gaze detection method
JP3176147B2 (en) Eye gaze detection device
JP3391892B2 (en) Eye gaze detecting device, optical device, and eye gaze detecting method
JPH07222719A (en) Line of sight detector
JP3225628B2 (en) Eye gaze detection device
JPH07168082A (en) Line of sight detector
JP3530647B2 (en) Eye gaze detecting device and optical device
JP3500171B2 (en) Camera focus control device
JPH10148864A (en) Photometry device for camera
JP2003339642A (en) Visual line detector and optical apparatus having the same
JPH05232372A (en) Camera provided with device for detecting line of sight
JPH07104170A (en) Visual line detector
JP2022096819A (en) Sight line detection device
JP2002062473A (en) Optical device and camera
JP3461392B2 (en) camera
JPH08308801A (en) Sight line detector
JP2744420B2 (en) Camera with gaze detection means
JP3624030B2 (en) Gaze detection device and optical device
JPH07159671A (en) Line-of-sight detecting device

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20010130