JPH06308371A - Line-of-sight detecting device - Google Patents

Line-of-sight detecting device

Info

Publication number
JPH06308371A
JPH06308371A JP5101166A JP10116693A JPH06308371A JP H06308371 A JPH06308371 A JP H06308371A JP 5101166 A JP5101166 A JP 5101166A JP 10116693 A JP10116693 A JP 10116693A JP H06308371 A JPH06308371 A JP H06308371A
Authority
JP
Japan
Prior art keywords
light
line
sight
photographer
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP5101166A
Other languages
Japanese (ja)
Inventor
Shinichi Kodama
晋一 児玉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optical Co Ltd filed Critical Olympus Optical Co Ltd
Priority to JP5101166A priority Critical patent/JPH06308371A/en
Publication of JPH06308371A publication Critical patent/JPH06308371A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B2213/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B2213/02Viewfinders
    • G03B2213/025Sightline detection

Abstract

PURPOSE:To eliminate an erroneous line of sight signal and to realize operation according to the more accurate line of sight signal by judging the blink of a photographer which is a noise signal at high speed by simple constitution in the case of performing the operation of a camera by using the line of-sight signal. CONSTITUTION:When a light projection part 1 projects light toward the eyeball 90 of the photographer, a light receiving part 2 detects reflected light from the eyeball 90 of the photographer, and a control part 3 controls the projection of light by the light projection part 1 and the detection timing of the light receiving part 2. A light quantity decision part 4 detects the blink of the photographer by deciding light quantity in the same area as the light receiving part 2, and a line of sight detection part 5 detects the line of sight based on a signal from the light receiving part 2. Furthermore, the detection part 5 detects the line of sight based on a value from the decision part 4. In the case the decision part 4 detects the blink of the photographer, the detected result on the line of sight by the detection part 5 is invalidated.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は撮影者の視線方向を検出
する装置に係り、特に当該視線方向の信号に基づいて例
えばフォーカスエリアやストロボのオン/オフ等のカメ
ラの情報を設定する視線検出装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a device for detecting a line-of-sight direction of a photographer, and more particularly to a line-of-sight detection for setting camera information such as focus area and strobe on / off based on a signal of the line-of-sight direction. Regarding the device.

【0002】[0002]

【従来の技術】従来、カメラへの各種情報の入力はダイ
アルや釦等によって行われており、入力情報が増加する
に従って操作環境は煩雑になっている。そこで、例えば
ファインダを覗く撮影者の視線方向を検出し、その視線
方向の情報によりカメラに情報入力する技術が、特開昭
63−194237公報や特開平3−87818公報、
特開平4−307506公報等により提案されている。
2. Description of the Related Art Conventionally, various kinds of information are input to a camera by using dials, buttons, etc., and the operating environment becomes complicated as the input information increases. Therefore, for example, a technique of detecting the line-of-sight direction of a photographer looking through a finder and inputting information to the camera based on the information about the line-of-sight direction is disclosed in Japanese Patent Laid-Open No. 63-194237 and Japanese Patent Laid-Open No. 3-87818.
It is proposed by Japanese Patent Laid-Open No. 4-307506.

【0003】また、視線方向の検出方法等に関する技術
も特開平2−206425公報等により提案されてい
る。そして、このように撮影者の視線方向を検出して、
その検出した視線信号にてカメラの操作を行う場合に
は、人間の生理現象である眼の開閉(まばたき)の判定
が重要となる。この点に鑑みて、撮影者のまばたきを検
出し、その情報を制御に取り入れた技術が実開昭63−
174804公報や特開平03−39135公報や特開
平2−57433公報等により提案されている。これら
の技術ではカメラの視線検出装置において撮影者がまば
たきをしたかを検出像の明るさ、即ち検出サンサの総和
又は総電流値により検出する構成が採られている。
Further, a technique relating to a method of detecting the line-of-sight direction, etc. has been proposed in Japanese Patent Application Laid-Open No. 2-206425. Then, by detecting the line of sight of the photographer in this way,
When the camera is operated with the detected line-of-sight signal, it is important to judge whether the eye is opened or closed (blinking), which is a physiological phenomenon of human beings. In view of this point, a technique that detects the blinking of the photographer and incorporates the information into the control is disclosed in Japanese Utility Model Publication 63-.
174804, JP-A-03-39135, JP-A-2-57433 and the like. In these techniques, the line-of-sight detection device of a camera detects whether the photographer blinks or not by the brightness of the detected image, that is, the sum of the detected sensors or the total current value.

【0004】ところで、現状のまばたき検出において
は、眼の特徴点(角膜反射光,光採部面積)を抽出する
必要があり、このためには例えば2次元CCDなどの高
分解能センサが必要となる。そして、簡易な視線検出に
おいては安価なPSDやPD又は分解能の荒いCCDセ
ンサを使用することが必須である。この場合、分解能の
不足により、まばたきの判定を上記したように眼の特徴
点を用いて判定することは困難である。さらに、検出中
にまばたきをした場合には、投光LEDの反射光量は正
規の眼からの反射光に比べてかなり明るくなるか、又は
逆に肌(瞼)の色により暗くなる傾向がある。
By the way, in the current blink detection, it is necessary to extract eye feature points (corneal reflected light, light collecting area), and for this purpose, a high resolution sensor such as a two-dimensional CCD is required. . In addition, it is essential to use an inexpensive PSD or PD or a CCD sensor with a rough resolution for simple line-of-sight detection. In this case, it is difficult to determine the blinking using the eye feature points as described above due to lack of resolution. Further, when blinking during detection, the amount of reflected light of the light emitting LED tends to be considerably brighter than that of light reflected from a regular eye, or conversely, it tends to be darker due to the color of the skin (eyelids).

【0005】[0005]

【発明が解決しようとする課題】前述したように、撮影
者のまばたきを判定するためには眼の特徴点を抽出すべ
く、例えば角膜の反射光の確認や光彩部の面積の変化量
等を基に判定を行っているが、このような手法において
は、眼の特徴点を検出するために、例えば2次元CCD
等の高分解能なセンサが必要となり、コストや実装上の
問題が生ずると共に条件判定にも長時間を要してしま
う。
As described above, in order to determine the blinking of the photographer, in order to extract the feature points of the eye, for example, confirmation of the reflected light of the cornea and the amount of change in the area of the iris portion are performed. Although the determination is performed based on the above, in such a method, in order to detect the feature points of the eye, for example, a two-dimensional CCD is used.
Therefore, a high-resolution sensor is required, which causes problems in cost and mounting, and also requires a long time for condition determination.

【0006】さらに、光量変化の波形を時間軸で観測す
ることで、まばたきの判定を行う場合には、所定時間の
測定が必要となり、正確にまばたきと判定するのには長
時間を要してしまう。
Further, by observing the waveform of the change in the light quantity on the time axis, it is necessary to measure a predetermined time when the blink is determined, and it takes a long time to accurately determine the blink. I will end up.

【0007】本発明は上記問題に鑑みてなされたもの
で、その目的とするところは、視線信号を用いてカメラ
の操作を行う場合において、ノイズ信号となる撮影者の
まばたきを簡単な構成で迅速に判断することで誤った視
線信号を除去し、より的確な視線信号による操作をもた
らす視線検出装置を提供することにある。
The present invention has been made in view of the above problems, and an object thereof is to quickly blink a photographer with a simple structure, which becomes a noise signal when operating a camera using a line-of-sight signal. It is to provide a line-of-sight detection device that eliminates an erroneous line-of-sight signal by making a determination based on the above determination and brings about an operation with a more accurate line-of-sight signal.

【0008】[0008]

【課題を解決するための手段】上記目的を達成するため
に、本発明の第1の態様による視線検出装置は、撮影者
の眼に向けて投光する投光手段と、上記撮影者の眼から
反射光を検出する受光手段と、上記投光手段の投光や受
光手段の検出タイミングを制御する制御手段と、上記受
光手段と同一領域の光量を判定することで上記撮影者の
まばたきを検出する光量判定手段とを具備することを特
徴とする。
In order to achieve the above object, a line-of-sight detection apparatus according to a first aspect of the present invention includes a light projecting means for projecting light toward a photographer's eye and the photographer's eye. The light-receiving means for detecting reflected light from the light-receiving means, the control means for controlling the light-projecting means and the detection timing of the light-receiving means, and the amount of light in the same area as the light-receiving means are determined to detect the blinking of the photographer. And a light amount determining means for controlling the light amount.

【0009】また、第2の態様による視線検出装置は、
撮影者の眼に向けて投光する投光手段と、上記撮影者の
眼から反射光を検出する受光手段と、上記投光手段の投
光や受光手段の検出タイミングを制御する制御手段と、
上記受光手段と同一領域の光量を判定することで上記撮
影者のまばたきを検出する光量判定手段と、上記受光手
段の信号に基づいて視線を検出する視線検出手段とを具
備し、上記視線検出手段は上記光量判定手段の値に基づ
いて視線検出を行い、上記光量判定手段が撮影者のまば
たきを検出した場合には上記視線検出手段による視線検
出の結果を無効とすることを特徴とする。
The line-of-sight detection apparatus according to the second aspect is
A light projecting means for projecting light toward the photographer's eyes, a light receiving means for detecting reflected light from the photographer's eyes, and a control means for controlling the light projecting of the light projecting means and the detection timing of the light receiving means,
The eye-gaze detecting means includes a light-amount determining means that detects the blink of the photographer by determining the light amount in the same area as the light-receiving means, and a line-of-sight detecting means that detects a line of sight based on a signal from the light-receiving means. Is configured to detect the line of sight based on the value of the light amount determining unit, and invalidate the result of the line of sight detection by the line of sight detecting unit when the light amount determining unit detects the blink of the photographer.

【0010】[0010]

【作用】即ち、本発明の第1の態様による視線検出装置
では、投光手段が撮影者の眼に向けて投光すると、受光
手段が上記撮影者の眼から反射光を検出し、制御手段が
上記投光手段の投光や受光手段の検出タイミングを制御
する。そして、光量判定手段が上記受光手段と同一領域
の光量を判定することで上記撮影者のまばたきを検出す
る。
That is, in the visual axis detection device according to the first aspect of the present invention, when the light projecting means projects light toward the photographer's eye, the light receiving means detects reflected light from the photographer's eye, and the control means. Controls the projection timing of the light projecting means and the detection timing of the light receiving means. Then, the light amount determining means detects the blink of the photographer by determining the light amount in the same area as the light receiving means.

【0011】また、第2の態様による視線検出装置で
は、投光手段が撮影者の眼に向けて投光すると、受光手
段が上記撮影者の眼から反射光を検出し、制御手段が上
記投光手段の投光や受光手段の検出タイミングを制御す
る。そして、光量判定手段が上記受光手段と同一領域の
光量を判定することで上記撮影者のまばたきを検出し、
視線検出手段が上記受光手段の信号に基づいて視線を検
出する。さらに、上記視線検出手段は上記光量判定手段
の値に基づいて視線検出を行い、上記光量判定手段が撮
影者のまばたきを検出した場合には上記視線検出手段に
よる視線検出の結果を無効とする。
Further, in the line-of-sight detection apparatus according to the second aspect, when the light projecting means projects light toward the photographer's eye, the light receiving means detects reflected light from the photographer's eye, and the control means projects the projecting light. It controls the projection timing of the light means and the detection timing of the light receiving means. Then, the light amount determination means detects the blink of the photographer by determining the light amount in the same area as the light receiving means,
The sight line detecting means detects the sight line based on the signal from the light receiving means. Further, the line-of-sight detection unit detects the line-of-sight based on the value of the light-quantity determination unit, and invalidates the result of the line-of-sight detection by the line-of-sight detection unit when the light-quantity determination unit detects the blink of the photographer.

【0012】[0012]

【実施例】先ず本発明の実施例について説明する前に、
本発明の実施例が採用した視線方向検出の原理について
説明する。視線方向を検出する方法としては種々の方法
が挙げられるが、ここではカメラに適用できる方法とし
てプルキンエ像と眼底の反射像、又は虹彩のエッジを用
いて検出する方法について簡単に述べる。
EXAMPLES Before describing the examples of the present invention,
The principle of the gaze direction detection adopted by the embodiment of the present invention will be described. There are various methods for detecting the line-of-sight direction. Here, as a method applicable to the camera, a method of detecting using the Purkinje image and the reflection image of the fundus or the edge of the iris will be briefly described.

【0013】図20に示すように、一般に光95が眼球
90を通過すると、各界面部毎に反射が生じる。即ち角
膜前面91、各膜後面91´、水晶体の前面93´、水
晶体の後面93”の各界面で反射される。これらの反射
によって結ばれる像は当業技術関係者においては良く知
られているもので、一般にはプルキンエ像と称されてい
る。そして、角膜前面91から各々第1プルキンエ像、
第2プルキンエ像、第3プルキンエ像、第4プルキンエ
像と称される。同図において符号92は虹彩、93は水
晶体、94は網膜、97は強膜をそれぞれ示す。
As shown in FIG. 20, when light 95 generally passes through the eyeball 90, reflection occurs at each interface. That is, it is reflected at the interfaces of the front surface 91 of the cornea, the rear surface 91 'of each cornea, the front surface 93' of the lens, and the rear surface 93 "of the lens. The images formed by these reflections are well known to those skilled in the art. It is generally called the Purkinje image, and the first Purkinje image from the anterior surface of the cornea 91,
They are called the second Purkinje image, the third Purkinje image, and the fourth Purkinje image. In the figure, reference numeral 92 is an iris, 93 is a lens, 94 is a retina, and 97 is a sclera.

【0014】本発明は上記第1プルキンエ像を利用して
視線を検出するもので、この第1プルキンエ像は角膜前
面91からの反射光によって結ばれる光源の虚像であ
り、単に角膜反射像とも呼ばれる最も強い反射像であ
る。
The present invention uses the first Purkinje image to detect the line of sight, and the first Purkinje image is a virtual image of a light source formed by reflected light from the anterior surface of the cornea 91, and is also simply called a corneal reflection image. This is the strongest reflection image.

【0015】この反射像である第1プルキンエ像95a
の様子は図21により示され、眼球90に光を投光し、
その反射像をとらえると、受光出力の高い第1プルキン
エ像95aが検出される。そして、この第1プルキンエ
像95a以外のプルキンエ像は反射光量が弱く反射像の
できる位置が異なる為に検出することは難しい。
The first Purkinje image 95a which is the reflection image
21 is shown in FIG. 21, in which light is projected onto the eyeball 90,
When the reflected image is captured, the first Purkinje image 95a having a high received light output is detected. The Purkinje images other than the first Purkinje image 95a are difficult to detect because the amount of reflected light is weak and the position where a reflected image can be formed is different.

【0016】そして、眼球90に光を投光した時に眼底
からの反射光95bにより眼底像が瞳孔の周縁99のシ
ルエットとして検出される。この眼底からの反射像95
bは第1プルキンエ像95aと共に図21に示してある
が、この2つの像を用いて視線方向を検出する。
When light is projected onto the eyeball 90, the fundus image is detected as a silhouette of the peripheral edge 99 of the pupil by the reflected light 95b from the fundus. Reflected image 95 from this fundus
Although b is shown in FIG. 21 together with the first Purkinje image 95a, the gaze direction is detected using these two images.

【0017】上記検出像は、眼球90の回転により図2
2に示すように変化する。即ち、眼球90の光軸98と
眼に投光する光束が平行にある場合は図22(a)に示
すように眼底像95bの中心、即ち瞳孔中心と第1プル
キンエ像95aの中心が一致している。そして、眼球9
0が回転した場合には、図22(b)に示すように光軸
98が眼球90の回転中心90cを中心に回転してい
る。その場合、眼底像95bの中心は眼からの反射光を
受光するセンサ画素列上の異なった位置に受光できる。
さらに、第1プルキンエ像95aの中心は眼底像95b
の中心とも相対的に異なる位置に受光する。これは、角
膜91の前面に持つ曲面の中心が眼球の回転中心と異な
る為である。
The detected image is shown in FIG.
It changes as shown in 2. That is, when the optical axis 98 of the eyeball 90 and the light flux projected on the eye are parallel to each other, the center of the fundus image 95b, that is, the center of the pupil and the center of the first Purkinje image 95a coincide with each other, as shown in FIG. ing. And eyeball 9
When 0 is rotated, the optical axis 98 is rotated around the rotation center 90c of the eyeball 90, as shown in FIG. In that case, the center of the fundus image 95b can be received at different positions on the sensor pixel row that receives the reflected light from the eye.
Further, the center of the first Purkinje image 95a is the fundus image 95b.
The light is received at a position relatively different from the center of. This is because the center of the curved surface on the front surface of the cornea 91 is different from the center of rotation of the eyeball.

【0018】従って、この2つの像のセンサ画素列に対
する絶対位置のずれと上記2つの像の相対的なずれよ
り、ファインダを覗く撮影者の眼球90の回転量とシフ
ト量を求めることができ、更には撮影者がどこを見てい
るか判別することができる。
Therefore, the amount of rotation and the amount of shift of the eyeball 90 of the photographer looking into the viewfinder can be obtained from the displacement of the absolute positions of the two images with respect to the sensor pixel array and the relative displacement of the two images. Furthermore, it is possible to determine where the photographer is looking.

【0019】次に本発明が採用した視線検出像からの特
徴抽出処理について説明する。図23は、眼球中心が固
定されるような場合の回転と角膜反射95aと眼底反射
95bの様子を示す図である。同図において、pxは角
膜反射95aの重心位置、ixは眼底反射95bの重心
位置を示す。本発明の実施例では、特徴抽出をこの角膜
反射像95a又は眼底反射像95bを用いて検出する。
眼球中心が固定されるならば眼底反射95bの重心位置
ix,角膜反射95aの重心位置pxのみ、又は両方を
含めた重心位置を検出すれば回転角は検出できるからで
ある。また、図23に示す眼底反射は一般に赤目状態、
即ち眼底からの反射光が多い場合であり、赤目状態でな
い場合、即ち明るい状態で光彩が絞られた場合、又は反
射光が受光系に戻らない場合には眼底反射95bの出力
は更に低下する。そして、ファインダ中央から見た場
合、図23(a)は回転角0で中央を、図23(b)は
回転角負で左側を、図23(c)は回転角正で右側を見
ていることになる。
Next, the feature extraction processing from the line-of-sight detection image adopted by the present invention will be described. FIG. 23 is a diagram showing rotation and corneal reflection 95a and fundus reflection 95b when the center of the eyeball is fixed. In the figure, px indicates the center of gravity of the corneal reflection 95a, and ix indicates the center of gravity of the fundus reflection 95b. In the embodiment of the present invention, the feature extraction is detected using the corneal reflection image 95a or the fundus reflection image 95b.
This is because if the center of the eyeball is fixed, the rotation angle can be detected by detecting only the barycentric position ix of the fundus reflection 95b, the barycentric position px of the corneal reflection 95a, or the barycentric position including both. In addition, the fundus reflex shown in FIG.
That is, when there is a large amount of reflected light from the fundus, when the red-eye state is not present, that is, when the iris is narrowed in a bright state, or when the reflected light does not return to the light receiving system, the output of the fundus reflection 95b further decreases. When viewed from the center of the finder, FIG. 23 (a) looks at the center with a rotation angle of 0, FIG. 23 (b) looks at the left side with a negative rotation angle, and FIG. 23 (c) looks at the right side with a positive rotation angle. It will be.

【0020】次に、図24は眼球がシフトと角膜反射9
5aと眼底反射95bの様子を示す図である。同図にお
いて、pxは角膜反射95aの重心位置,ixは眼底反
射95bの重心位置を示す。眼底反射95bの重心位置
ix、角膜反射95aの重心位置pxのみ、又は両方を
含めた重心位置を検出すれば、大まかなシフト量は検出
できる。また、図24に示す眼底反射は一般に赤目状
態、即ち眼底からの反射光が多い場合であり、赤目状態
でない場合、即ち明るい状態で光彩が絞られた場合、又
は反射光が受光系に戻らない場合には、眼底反射95b
の出力は更に低下する。そして、ファインダ中央から見
た場合、図24(a)はシフト量0で中央を、図24
(b)はシフト量負で左側を、図24(c)はシフト量
正で右側を見ていることになる。
Next, in FIG. 24, the eyeball shift and the corneal reflection 9
It is a figure which shows the mode of 5a and the fundus reflection 95b. In the figure, px indicates the barycentric position of the corneal reflection 95a, and ix indicates the barycentric position of the fundus reflex 95b. The rough shift amount can be detected by detecting the barycentric position ix of the fundus reflection 95b, the barycentric position px of the corneal reflection 95a alone, or the barycentric position including both. Further, the fundus reflection shown in FIG. 24 is generally in a red-eye state, that is, when there is a large amount of reflected light from the fundus, and when it is not in the red-eye state, that is, when the iris is narrowed in a bright state, or the reflected light does not return to the light receiving system. In some cases, fundus reflex 95b
Output is further reduced. Then, when viewed from the center of the finder, FIG.
24B, the shift amount is negative and the left side is viewed, and FIG. 24C, the shift amount is positive and the right side is viewed.

【0021】従って、これら図23、図24より検出光
量分布の重心位置を検出することで視線がどちらを見て
いるかをほぼ検出することができる。さらに、一般に1
回のシャッターシーケンス(1stレリーズ付近から2
ndレリーズまで)においては眼のシフトは大きく変化
することはなく、相対的な動きを検出することで撮影者
が見ようとする範囲の大きさは判定可能となる。また、
シーケンス内での基準位置検出を行うことで見ようとし
ている大まかな位置を検出することができる。
Therefore, by detecting the position of the center of gravity of the detected light amount distribution from FIGS. 23 and 24, it is possible to almost detect which the line of sight is looking. In addition, generally 1
Shutter sequence (2 from near 1st release)
The shift of the eye does not change significantly in the (until the nd release), and the size of the range that the photographer tries to see can be determined by detecting the relative movement. Also,
By performing reference position detection in the sequence, it is possible to detect a rough position to be viewed.

【0022】以下、前述したような原理に基づく本発明
の実施例について説明する。図1は本発明の第1の実施
例に係る視線検出装置の構成を示す図である。同図に示
すように、制御部3は投光部1と受光部2、光量判定部
4、視線検出部5に接続されており、この受光部2は制
御部3と光量判定部4、視線検出部5に接続されてお
り、光量判定部4は受光部2と視線検出部5に接続され
ている。
An embodiment of the present invention based on the above-mentioned principle will be described below. FIG. 1 is a diagram showing a configuration of a visual line detection device according to a first embodiment of the present invention. As shown in the figure, the control unit 3 is connected to the light projecting unit 1 and the light receiving unit 2, the light amount determining unit 4, and the line-of-sight detecting unit 5, and the light receiving unit 2 includes the control unit 3, the light amount determining unit 4, and the line-of-sight. The light amount determination unit 4 is connected to the detection unit 5, and the light amount determination unit 4 is connected to the light receiving unit 2 and the line-of-sight detection unit 5.

【0023】このような構成において、投光部1は制御
部3の発光信号にて撮影者の眼に照明を投光し、受光部
2は制御部3の発光信号に応じて撮影者の眼からの反射
光を受光する。さらに制御部3は投光部1と受光部2、
光量判定部4、視線検出部5にタイミング信号(発光信
号等)を発生させる。そして、光量判定部4は制御部3
のタイミング信号で受光部2にて検出された明るさを所
定値と比較してまばたきを判定し、その情報を視線検出
部5へ出力する。そして、視線検出部5は制御部3のタ
イミング信号と光量判定部4のまばたき情報と受光部2
の信号を基に視線方向を検出する。
In such a configuration, the light projecting unit 1 projects the illumination of the photographer's eye by the light emission signal of the control unit 3, and the light receiving unit 2 responds to the light emission signal of the control unit 3 by the photographer's eye. Receives the reflected light from. Further, the control unit 3 includes a light projecting unit 1 and a light receiving unit 2,
A timing signal (light emission signal or the like) is generated in the light amount determination unit 4 and the line-of-sight detection unit 5. Then, the light quantity determination unit 4 is connected to the control unit 3
The brightness detected by the light receiving unit 2 is compared with a predetermined value with the timing signal of (1) to determine blinking, and the information is output to the line-of-sight detecting unit 5. Then, the line-of-sight detection unit 5 receives the timing signal of the control unit 3, the blink information of the light amount determination unit 4, and the light receiving unit 2.
The line-of-sight direction is detected based on the signal of.

【0024】次に、図2は上記第1の実施例を更に具現
化した第2の実施例に係る視線検出装置の構成を示す図
である。本実施例では横配置の3点AFのフォーカスエ
リアの選択を視線信号を用いて行う。
Next, FIG. 2 is a diagram showing the structure of a visual axis detecting device according to a second embodiment which is a further implementation of the first embodiment. In this embodiment, the focus area of the horizontally arranged three-point AF is selected using the line-of-sight signal.

【0025】同図に示すように、複数点測距回路(マル
チAF回路)11と撮影レンズ14は中央演算処理装置
(CPU)12に接続さりており、このCPU12は表
示回路13に接続されている。そして、上記CPU12
は駆動回路15を介してレンズ14にも接続されてお
り、さらに、上記CPU12は投光LED17にも接続
されており、該投光LED17及びファインダ光学系1
6は視線検出光学系18に接続されている。そして、上
記視線検出光学系18は光量分布の重心位置を明るさに
依存する電流比にて検出する視線センサ(PSD)19
に接続されており、該PSD19は光量の重心検出に対
応する信号を出力し、インターフェース回路(I/F回
路)20を介して上記CPU12に接続されている。
As shown in the figure, a multi-point distance measuring circuit (multi-AF circuit) 11 and a photographing lens 14 are connected to a central processing unit (CPU) 12, which is connected to a display circuit 13. There is. Then, the CPU 12
Is also connected to a lens 14 via a drive circuit 15, and the CPU 12 is also connected to a light projecting LED 17, and the light projecting LED 17 and the finder optical system 1 are connected.
Reference numeral 6 is connected to the line-of-sight detection optical system 18. The line-of-sight detection optical system 18 detects the position of the center of gravity of the light amount distribution with a current ratio depending on the brightness, and a line-of-sight sensor (PSD) 19
The PSD 19 outputs a signal corresponding to the detection of the center of gravity of the light quantity, and is connected to the CPU 12 via an interface circuit (I / F circuit) 20.

【0026】このような構成において、マルチAF回路
11は複数点について測距を行い測距情報をCPU12
へ送り、レンズ14は焦点距離情報(ズーム値情報)を
CPU12に送る。さらに、視線検出系はCPU12か
らの指令を受けると、投光LED17より視線検出光学
系18及びファインダ光学系16を介して眼球90に対
して光が投光される。そして、この眼球からの反射光は
再びファインダ光学系16、視線検出光学系18を介し
て視線センサ19に受光される。そして、この視線セン
サ(PSD)19からの出力信号は、I/F回路20に
より重心位置に対応する信号と明るさに対応する信号に
変換された後に、CPU12に入力される。そして、C
PU12はI/F回路20より視線に関する情報、明る
さに関する情報とマルチAF回路11より複数点の測距
情報を基に撮影者のまばたきを検出すると共にデフォー
カス量を設定する。更に、設定されたデフォーカス量に
て駆動回路15を介してレンズ14を駆動する。
In such a configuration, the multi-AF circuit 11 measures the distances at a plurality of points, and the distance measurement information is sent to the CPU 12.
The lens 14 sends the focal length information (zoom value information) to the CPU 12. Further, when the line-of-sight detection system receives a command from the CPU 12, light is emitted from the light projecting LED 17 to the eyeball 90 via the line-of-sight detection optical system 18 and the finder optical system 16. Then, the reflected light from the eyeball is again received by the visual axis sensor 19 via the finder optical system 16 and the visual axis detecting optical system 18. The output signal from the line-of-sight sensor (PSD) 19 is converted by the I / F circuit 20 into a signal corresponding to the position of the center of gravity and a signal corresponding to the brightness, and then input to the CPU 12. And C
The PU 12 detects the blinking of the photographer and sets the defocus amount based on the information on the line of sight and the information on the brightness from the I / F circuit 20 and the distance measurement information on the plurality of points from the multi AF circuit 11. Further, the lens 14 is driven via the drive circuit 15 with the set defocus amount.

【0027】次に、図3は上記視線検出光学系18の詳
細な構成を示す図である。同図において、投光LED1
7からの投光光の光路上には投光レンズ21を介してハ
ーフミラー22が配置されており、上記投光光は該ハー
フミラー22により反射される。そして、この反射光の
光路上にはプリズム23が配置されており、反射光はプ
リズム23の反射面23aにて反射され、ファインダ2
4を介して撮影者の眼球90へと導かれる。そして、上
記撮影者の眼球90からの反射光は、入射光と同じ光路
を通ってファインダ24を介してプリズム23に入射さ
れ、その反射面23aにて反射される。そして、この反
射光はハーフミラー22を透過し、受光レンズ25を介
して視線センサ19に受光される。
Next, FIG. 3 is a diagram showing a detailed structure of the visual axis detecting optical system 18. In the figure, the light emitting LED 1
A half mirror 22 is disposed on the optical path of the light projected from the light source 7 through a light projecting lens 21, and the light projected is reflected by the half mirror 22. A prism 23 is arranged on the optical path of this reflected light, and the reflected light is reflected by the reflecting surface 23a of the prism 23, and the finder 2
4 is guided to the eyeball 90 of the photographer. Then, the reflected light from the eyeball 90 of the photographer enters the prism 23 through the finder 24 through the same optical path as the incident light and is reflected by the reflecting surface 23a. Then, the reflected light passes through the half mirror 22 and is received by the line-of-sight sensor 19 via the light receiving lens 25.

【0028】一方、被写体光は、該被写体光に重ねて表
示を示す表示液晶26を介してプリズムに入射され、そ
の反射面23aを透過して、更にファインダ24を介し
て撮影者の眼球90へと導かれる。
On the other hand, the subject light is incident on the prism through the display liquid crystal 26 which is superimposed on the subject light and indicates a display, passes through the reflecting surface 23a thereof, and further passes through the finder 24 to the eyeball 90 of the photographer. Is led.

【0029】以下、図4のフローチャートを参照して、
第2の実施例のメインシーケンスについて説明する。メ
インシーケンスをスタートすると(ステップS10
1)、先ず1stレリーズスイッチがオンされたか否か
を判定し(ステップS102)、1stレリーズスイッ
チがオフされている場合にはステップS115へ移行
し、1stレリーズスイッチがオンされた場合にはイニ
シャライズを行う。ここではフォーカスエリアを中心に
設定する(ステップS103)。
Hereinafter, with reference to the flowchart of FIG.
The main sequence of the second embodiment will be described. When the main sequence is started (step S10
1) First, it is determined whether or not the 1st release switch is turned on (step S102). If the 1st release switch is turned off, the process proceeds to step S115, and if the 1st release switch is turned on, initialization is performed. To do. Here, the focus area is set as the center (step S103).

【0030】続いて、後述するサブルーチン“視線検出
1”を実行し(ステップS104)、このサブルーチン
“視線検出1”にて検出された視線座標X(視線重心)
をX1にストアする(ステップS105)。そして、公
知の位相差方式やアクティブ方式によりマルチAFを行
い(ステップS106)、視線基準位置検出用の表示を
行う。この表示はフラッシング又は音を併用して行うと
更に効果的であり、AF終了の信号と兼用することもで
きる(ステップS107)。
Subsequently, a subroutine "line-of-sight detection 1" to be described later is executed (step S104), and the line-of-sight coordinate X (line-of-sight center of gravity) detected in this subroutine "line-of-sight detection 1" is detected.
Is stored in X1 (step S105). Then, the multi-AF is performed by the known phase difference method or active method (step S106), and the display for detecting the visual axis reference position is performed. This display is more effective if it is performed by using flushing or sound together, and it can also be used as an AF end signal (step S107).

【0031】そして、再度、上記サブルーチン“視線検
出1”を実行し(ステップS108)、このサブルーチ
ン“視線検出1”にて検出された視線座標X(視線重
心)をX0にストアする(ステップS109)。次い
で、後述するサブルーチン“フォーカスエリア設定”を
実行する(ステップS110)。
Then, the above subroutine "visual axis detection 1" is executed again (step S108), and the visual axis coordinate X (visual axis gravity center) detected by this subroutine "visual axis detection 1" is stored in X0 (step S109). . Then, a subroutine "focus area setting" described later is executed (step S110).

【0032】続いて、1stレリーズスイッチがオンさ
れたか否かを判定し(ステップS111)、1stレリ
ーズスイッチがオフされている場合にはステップS11
5へ移行し、1stレリーズスイッチがオンされている
場合には2ndレリーズスイッチの判定を行う(ステッ
プS112)。そして、2ndレリーズスイッチがオフ
されている場合にはステップS111へ戻り、2ndレ
リーズスイッチがオンされている場合には先に設定され
たフォーカスエリアのデフォーカス量に応じてレンズを
駆動する(ステップS113)。そして、露光シーケン
スや巻き上げシーケンス等のカメラシーケンスを行い
(ステップS114)、本シーケンスを終了する(ステ
ップS115)。
Subsequently, it is determined whether or not the 1st release switch is turned on (step S111), and if the 1st release switch is turned off, step S11.
If the 1st release switch is turned on, the process proceeds to step 5 to determine the 2nd release switch (step S112). If the 2nd release switch is off, the process returns to step S111, and if the 2nd release switch is on, the lens is driven according to the defocus amount of the previously set focus area (step S113). ). Then, a camera sequence such as an exposure sequence and a winding sequence is performed (step S114), and this sequence is finished (step S115).

【0033】次に、図5のフローチャートを参照して、
上記サブルーチン“視線検出1”のシーケンスについて
説明する。サブルーチン“視線検出1”をスタートする
と(ステップS201)、イニシャライズを行なう。こ
こでは変数i,j,m,E,Xを“0”に初期化する
(ステップS202)。そして、変数iをインクリメン
トし(ステップS203)、IRED(赤外LED)を
撮影者の眼に投光し(ステップS204)、このIRE
D投光に同期して光量に相当する信号(総電流値)をE
iとして検出し(ステップS205)、重心座標Xiを
検出する(ステップS206)。そして、明るさに対応
する信号を加算処理(E=E+Ei)する(ステップS
207)。
Next, referring to the flow chart of FIG.
The sequence of the above-mentioned subroutine "visual axis detection 1" will be described. When the subroutine "line-of-sight detection 1" is started (step S201), initialization is performed. Here, the variables i, j, m, E, and X are initialized to "0" (step S202). Then, the variable i is incremented (step S203), and the IRED (infrared LED) is projected onto the photographer's eye (step S204).
D The signal (total current value) corresponding to the light intensity is synchronized with E
It is detected as i (step S205), and the barycentric coordinate Xi is detected (step S206). Then, the signal corresponding to the brightness is subjected to addition processing (E = E + Ei) (step S
207).

【0034】この検出が所定回数(k)行われると(ス
テップS208)、平均の明るさに対応する信号を検出
し(E=E/k)(ステップS209)、変数jをイン
クリメントし(ステップS210)、各検出電流よりま
ばたき判定を行う。ここでは、検出電流Ejと平均電流
Eとの差の絶対値が所定値dより大きい時はまばたきと
判定する。尚、検出電流Ejと平均電流の比で判定して
もよい(ステップS211)。そして、|Ej−E|<
dでない場合にはステップS214へ移行し、|Ej−
E|<dである場合には重心の総和Xを算出(X=X+
Xj)し(ステップS212)、変数mをインクリメン
トする(ステップS213)。
When this detection is performed a predetermined number of times (k) (step S208), a signal corresponding to the average brightness is detected (E = E / k) (step S209) and the variable j is incremented (step S210). ), Blink determination is performed from each detected current. Here, when the absolute value of the difference between the detected current Ej and the average current E is larger than the predetermined value d, it is determined that the eye blinks. The determination may be made by the ratio of the detected current Ej and the average current (step S211). And | Ej-E | <
If not d, the process proceeds to step S214, and | Ej-
When E | <d, the total sum X of the centers of gravity is calculated (X = X +
Xj) (step S212), and the variable m is incremented (step S213).

【0035】この視線算出が所定回数(k)だけ行われ
ると(ステップS214)、重心の平均値を算出し(X
=X/m)(ステップS215)、本ルーチンを抜けメ
インシーケンスに戻る(ステップS216)。
When this line-of-sight calculation is performed a predetermined number of times (k) (step S214), the average value of the center of gravity is calculated (X
= X / m) (step S215), the process exits this routine and returns to the main sequence (step S216).

【0036】次に、図6のフローチャートを参照して、
上記サブルーチン“フォーカスエリア設定”のシーケン
スを説明する。本サブルーチン“フォーカスエリア設
定”をスタートすると(ステップS301)、先ず動き
量|X0−X1|≦kの判定を行う。このkは所定値で
あり、ズーム値の変化にてフォーカスエリアが変化する
場合はズーム値に応じて変化する(ステップS30
2)。そして、|X0−X1|≦kの場合にはフォーカ
スエリアを中央に設定(測距データ)する(ステップS
304)。さらに、|X0−X1|≦kでない場合には
(X0−X1)>kの判定を行う(ステップS30
3)。そして、(X0−X1)>kの場合にはフォーカ
スエリアを右に設定する(ステップS305)。さら
に、(X0−X1)>kでない場合にはフォーカスエリ
アを左に設定する(ステップS306)。こうして、本
シーケンスを終了しメインシーケンスに戻る(ステップ
S307)。
Next, referring to the flow chart of FIG.
The sequence of the subroutine "focus area setting" will be described. When this subroutine "focus area setting" is started (step S301), first, the amount of movement | X0-X1 | ≤k is determined. This k is a predetermined value, and if the focus area changes due to a change in zoom value, it changes according to the zoom value (step S30).
2). Then, if | X0−X1 | ≦ k, the focus area is set at the center (distance measurement data) (step S
304). Further, if | X0-X1 | ≦ k is not satisfied, it is determined that (X0-X1)> k (step S30).
3). Then, if (X0-X1)> k, the focus area is set to the right (step S305). Further, if (X0-X1)> k is not satisfied, the focus area is set to the left (step S306). In this way, the present sequence is ended and the process returns to the main sequence (step S307).

【0037】ここで、図7は上記ファインダの表示の様
子を示す図であり、図7(a)はスーパーインポーズに
て画面の中央に表示する場合を示し、図7(b)は枠の
部分に表示する場合を示す。
Here, FIG. 7 is a diagram showing a display state of the finder, FIG. 7A shows a case of displaying in the center of the screen by superimposing, and FIG. 7B shows a frame. The case where it is displayed in the part is shown.

【0038】次に、本発明の第3の実施例について説明
する。第3の実施例の構成は第2実施例と同様である
が、サブルーチン“視線検出”のシーケンスが異なり、
これに特徴がある。
Next, a third embodiment of the present invention will be described. The configuration of the third embodiment is the same as that of the second embodiment, but the sequence of the subroutine "visual axis detection" is different,
This is characteristic.

【0039】以下、図8のフローチャートを参照して、
第3の実施例によるサブルーチン“視線検出2”のシー
ケンスについて説明する。サブルーチン“視線検出2”
をスタートすると(ステップS401)。イニシャライ
ズを行なう。ここでは、変数i,Ed,Xを“0”に初
期化する(ステップS402)。そして、IRED(赤
外LED)を撮影者の眼球に投光し(ステップS40
3)、このIRED投光に同期して光量に相当する信号
(総電流値)をEpとして検出し(ステップS40
4)、重心座標Xpを検出する(ステップS405)。
続いて、この検出電流Epより、まばたき判定を行う。
ここでは、検出電流Epが所定電流Edより大きい時は
まばたきと判定する(ステップS406)。そして、E
p<Edでない場合にはステップS403へ戻り、Ep
<Edの場合には変数iをインクリメントし(ステップ
S407)、視線重心の総和Xを算出(X=X+Xp)
する(ステップS408)。さらに、所定回数(k)だ
け検出すると(ステップS409)、視線重心の平均値
を算出し(X=X/k)(ステップS410)、本ルー
チンを抜けメインシーケンスに戻る(ステップS41
1)。
Hereinafter, with reference to the flowchart of FIG.
The sequence of the subroutine "visual axis detection 2" according to the third embodiment will be described. Subroutine "line of sight detection 2"
Is started (step S401). Initialize. Here, the variables i, Ed, and X are initialized to "0" (step S402). Then, the IRED (infrared LED) is projected onto the eyeball of the photographer (step S40).
3) In synchronization with this IRED projection, a signal (total current value) corresponding to the light amount is detected as Ep (step S40).
4) The barycentric coordinate Xp is detected (step S405).
Then, blink determination is performed based on the detected current Ep.
Here, when the detected current Ep is larger than the predetermined current Ed, it is determined that the eye blinks (step S406). And E
When p <Ed is not satisfied, the process returns to step S403 and Ep
<Ed, the variable i is incremented (step S407), and the total X of the line-of-sight center of gravity is calculated (X = X + Xp).
Yes (step S408). Further, when the detection is performed a predetermined number of times (k) (step S409), the average value of the line-of-sight center of gravity is calculated (X = X / k) (step S410), and this routine is exited to return to the main sequence (step S41).
1).

【0040】次に、本発明の第4の実施例について説明
する。第4の実施例の構成は第2の実施例と同様である
が、メインシーケンスで基準位置の取り込みを先に行
い、更に視線信号の信頼性を判定することに特徴を有し
ている。
Next, a fourth embodiment of the present invention will be described. The configuration of the fourth embodiment is similar to that of the second embodiment, but is characterized in that the reference position is fetched first in the main sequence and the reliability of the line-of-sight signal is determined.

【0041】以下、図9のフローチャートを参照して、
第4の実施例のメインシーケンスについて説明する。メ
インシーケンスをスタートすると(ステップS50
1)、先ず1stレリーズスイッチがオンされているか
否かを判定する(ステップS502)。そして、1st
レリーズスイッチがオフの場合にはステップS523へ
移行し、1stレリーズスイッチがオンされている場合
にはイニシャライズを行なう。ここではフォーカスエリ
アを中央に設定し、タイマtを“0”に設定する。(ス
テップS503)。
Hereinafter, with reference to the flowchart of FIG.
The main sequence of the fourth embodiment will be described. When the main sequence is started (step S50
1) First, it is determined whether or not the 1st release switch is turned on (step S502). And 1st
If the release switch is off, the process proceeds to step S523, and if the 1st release switch is on, initialization is performed. Here, the focus area is set to the center and the timer t is set to "0". (Step S503).

【0042】続いて、視線入力モードの判定を行い(ス
テップS504)、視線入力モードでない場合にはステ
ップS516へ移行する。これに対して、視線入力モー
ドの場合には視線基準位置検出用の表示を行い(ステッ
プS505)、続いて、後述するサブルーチン“視線検
出3”を実行し(ステップS506)、このサブルーチ
ン“視線検出3”にて検出された視線座標X(視線重
心)をX0にストアする(ステップS507)。
Subsequently, the line-of-sight input mode is determined (step S504), and if it is not the line-of-sight input mode, the process proceeds to step S516. On the other hand, in the case of the line-of-sight input mode, display for detecting the line-of-sight reference position is performed (step S505), and subsequently, a subroutine “line-of-sight detection 3” described later is executed (step S506), and this subroutine “line-of-sight detection” is executed. The line-of-sight coordinate X (line-of-sight center of gravity) detected in 3 "is stored in X0 (step S507).

【0043】続いて、公知の位相差方式やアクティブ方
式等によるマルチAFを行い(ステップS508)、検
出信号の信頼性を評価する。ここでは、検出値Xが
“0”の場合は、まばたき状態が続いたことになり正確
な視線情報とは言えない(ステップS509)。そこ
で、X=0でない場合にはステップS517へ移行し、
X=0の場合にはタイマスタートとなる(ステップS5
10)。そして、タイマの時間判定(Tは所定値、T=
0でもよい)を行う(ステップS511)。
Subsequently, multi-AF according to a known phase difference method or active method is performed (step S508) to evaluate the reliability of the detection signal. Here, if the detected value X is "0", it means that the blinking state has continued, and it cannot be said that the line-of-sight information is accurate (step S509). Therefore, when X = 0 is not satisfied, the process proceeds to step S517,
When X = 0, the timer starts (step S5).
10). Then, the time judgment of the timer (T is a predetermined value, T =
0 may be performed) (step S511).

【0044】そして、t≧Tとなると、再度、上記サブ
ルーチン“視線検出3”を実行し(ステップS51
2)、このサブルーチン“視線検出3”で検出された視
線座標(視線重心)XをX1にストアする(ステップS
513)。更に検出信号の信頼性を評価し(ステップS
514)、X=0でない場合にはステップS517へ移
行し、X=0の場合には前述したサブルーチン“フォー
カスエリア設定”を実行する。このサブルーチンは第2
実施例と同様である(ステップS515)。
When t.gtoreq.T, the subroutine "line of sight detection 3" is executed again (step S51).
2) Store the line-of-sight coordinates (line-of-sight center of gravity) X detected in this subroutine "line-of-sight detection 3" in X1 (step S
513). Furthermore, the reliability of the detection signal is evaluated (step S
514), if X = 0, the process proceeds to step S517, and if X = 0, the above-mentioned subroutine "focus area setting" is executed. This subroutine is the second
This is similar to the embodiment (step S515).

【0045】一方、上記ステップ504にて視線モード
でない場合にはマルチAFを行い(ステップS51
6)、マルチ測距値より公知のマルチAFの選択(例え
ば最至近選択)を行う(ステップS517)。そして、
撮影レンズの駆動量を選択されたAFデータより算出す
る(ステップS518)。
On the other hand, if the line-of-sight mode is not set in step 504, multi-AF is performed (step S51).
6) A known multi-AF is selected (for example, the closest selection) from the multi-distance measurement values (step S517). And
The drive amount of the photographing lens is calculated from the selected AF data (step S518).

【0046】続いて、1stレリーズスイッチがオンさ
れたか否かを判定し(ステップS519)、1stレリ
ーズスイッチがオフされている場合にはステップS52
3へ移行し、1stレリーズスイッチがオンされている
場合には2ndレリーズスイッチの判定を行う(ステッ
プS520)。そして、2ndレリーズスイッチがオフ
されている場合にはステップS519へ戻り、2ndレ
リーズスイッチがオンされている場合には先に設定され
たフォーカスエリアのデフォーカス量に応じてレンズを
駆動する(ステップS521)。そして、露光シーケン
スや巻き上げシーケンス等のカメラシーケンスを行い
(ステップS522)、本シーケンスを終了する(ステ
ップS523)。
Subsequently, it is determined whether or not the 1st release switch is turned on (step S519), and if the 1st release switch is turned off, step S52.
If the first release switch is turned on, the process proceeds to step 3, and the second release switch is determined (step S520). If the 2nd release switch is off, the process returns to step S519, and if the 2nd release switch is on, the lens is driven according to the defocus amount of the focus area set previously (step S521). ). Then, a camera sequence such as an exposure sequence and a winding sequence is performed (step S522), and this sequence is ended (step S523).

【0047】次に、図10のフローチャートを参照し
て、上記サブルーチン“視線検出3”のシーケンスにつ
いて説明する。サブルーチン“視線検出3”をスタート
すると(ステップS601)、先ずイニシャライズを行
なう。ここでは変数i,j,m,E,Xを“0”に初期
化する(ステップS602)。そして、変数iをインク
リメントし(ステップS603)、IRED(赤外LE
D)を撮影者の眼に投光し(ステップS604)、この
IRED投光に同期して光量に相当する信号(総電流
値)をEiとして検出し(ステップS605)、重心座
標Xiを検出する(ステップS606)。
Next, the sequence of the subroutine "line-of-sight detection 3" will be described with reference to the flowchart of FIG. When the subroutine "line of sight detection 3" is started (step S601), first, initialization is performed. Here, the variables i, j, m, E, and X are initialized to "0" (step S602). Then, the variable i is incremented (step S603), and IRED (infrared LE)
D) is projected on the photographer's eye (step S604), and a signal (total current value) corresponding to the light amount is detected as Ei in synchronization with this IRED projection (step S605), and the barycentric coordinate Xi is detected. (Step S606).

【0048】そして、明るさに対応する信号を加算処理
(E=E+Ei)する(ステップS607)。この検出
が所定回数(k)行われると(ステップS608)、平
均明るさに対応する信号を検出し(E=E/k)(ステ
ップS609)、変数jをインクリメントし(ステップ
S610)、各検出電流より、まばたき判定を行う。こ
こでは、検出電流Ejと平均電流Eとdの和の大小を判
定する(ステップS611)。そして、Ej<E+dで
ない場合にはステップS614へ移行し、Ej<E+d
である場合には重心の総和X(X=X+Xj)を算出し
(ステップS612)、変数mをインクリメントする
(ステップS613)。
Then, the signal corresponding to the brightness is added (E = E + Ei) (step S607). When this detection is performed a predetermined number of times (k) (step S608), a signal corresponding to the average brightness is detected (E = E / k) (step S609), the variable j is incremented (step S610), and each detection is performed. Blinking is determined from the current. Here, the magnitude of the sum of the detected current Ej and the average currents E and d is determined (step S611). Then, if Ej <E + d is not satisfied, the process proceeds to step S614, and Ej <E + d.
If it is, the total sum X (X = X + Xj) of the center of gravity is calculated (step S612), and the variable m is incremented (step S613).

【0049】そして、この視線算出が所定回数(k)だ
け行われると(ステップS614)、正規検出回数mの
判定(m≧P)を行う(Pは所定値で“0”でもよい)
(ステップS615)。そして、m≧Pの場合には重心
の平均値を算出し(X=X/m)(ステップS61
6)、m≧Pでない場合には重心値を0(X=0)に設
定し(ステップS617)、本ルーチンを抜けてメイン
シーケンスに戻る(ステップS618)。
When this line-of-sight calculation is performed a predetermined number of times (k) (step S614), the regular detection number m is determined (m ≧ P) (P may be a predetermined value “0”).
(Step S615). Then, when m ≧ P, the average value of the center of gravity is calculated (X = X / m) (step S61).
6) If m ≧ P, the center of gravity value is set to 0 (X = 0) (step S617), the routine exits from this routine and returns to the main sequence (step S618).

【0050】次に、本発明の第5の実施例について説明
する。第5の実施例では明るさを測るセンサを別途設置
する。また、検出方式の基本原理は同様であり以下に示
す方式を用いる。
Next, a fifth embodiment of the present invention will be described. In the fifth embodiment, a sensor for measuring brightness is installed separately. The basic principle of the detection method is the same, and the method shown below is used.

【0051】即ち、図11(a)に示すような視線信号
を、図11(b)に示すように微分処理し、更に図11
(c)に示すように絶対値化し、図11(d)に示すよ
うに信号の所定のレベルVsにて2値化した信号を視線
検出に用いる。
That is, the line-of-sight signal as shown in FIG. 11A is differentiated as shown in FIG.
The signal is converted into an absolute value as shown in (c) and binarized at a predetermined level Vs of the signal as shown in FIG.

【0052】一方、上記眼球90の回転角の検出につい
ては、図12(a)に示すような視線検出像に対して上
記したような処理を行い、図12(b)に示すような信
号を得る。尚、図12(a),(b)共に横軸は画素列
の座標を示す。そして、図12(b)に示す信号におい
て、信号a,bの中心をA、信号b,cの中心をBと
し、このA,B間の長さを像の中心位置間隔Xとする
と、図12(c)に示すように、この中心位置間隔Xと
眼球の回転角θとは比例関係となる。本実施例では回転
角をこの関係より求める。
On the other hand, regarding the detection of the rotation angle of the eyeball 90, the above-described processing is performed on the line-of-sight detection image as shown in FIG. 12 (a), and the signal as shown in FIG. 12 (b) is obtained. obtain. 12A and 12B, the horizontal axis represents the coordinates of the pixel row. Then, in the signal shown in FIG. 12B, when the center of the signals a and b is A, the center of the signals b and c is B, and the length between the A and B is the center position interval X of the image, As shown in FIG. 12 (c), the center position interval X and the rotation angle θ of the eyeball have a proportional relationship. In this embodiment, the rotation angle is obtained from this relationship.

【0053】図13は、第5の実施例に係る視線検出装
置の構成を示す図である。本実施例は第2実施例の構成
において、更に眼の明るさ状態を検出する測光センサ3
3を配置した構成となっている。そして、視線検出セン
サをPSDから2次元CCDに変更している。その他の
構成は第2の実施例と同一内容であるので同一符号を付
し、ここでは説明を省略する。
FIG. 13 is a diagram showing the structure of the visual axis detection device according to the fifth embodiment. In this embodiment, in the configuration of the second embodiment, the photometric sensor 3 for detecting the brightness state of the eye is further added.
3 is arranged. Then, the line-of-sight detection sensor is changed from PSD to a two-dimensional CCD. The other structure is the same as that of the second embodiment, so the same reference numerals are given and the description thereof is omitted here.

【0054】次に、図14は第5の実施例の視線光学系
18の構成を示す図である。第5の実施例では、第2実
施例の構成において、更に眼球90からの反射光をハー
フミラー22の後のハーフミラー31にて光量を分岐
し、集光光学系を介して測光センサ33で検出する。そ
の他の構成は第2の実施例と同一内容であるので同一符
号を付し、ここでは説明を省略する。
Next, FIG. 14 is a diagram showing the structure of the line-of-sight optical system 18 of the fifth embodiment. In the fifth embodiment, in the configuration of the second embodiment, the reflected light from the eyeball 90 is further branched by the half mirror 31 after the half mirror 22, and the light amount is split by the photometric sensor 33 via the condensing optical system. To detect. The other structure is the same as that of the second embodiment, so the same reference numerals are given and the description thereof is omitted here.

【0055】以下、図15のフローチャートを参照し
て、第5の実施例のメインシーケンスについて説明す
る。メインシーケンスをスタートすると(ステップS7
01)、1stレリーズスイッチがオンされたか否かを
判定する(ステップS702)。そして、1stレリー
ズスイッチがオフの場合にはステップS712へ移行
し、1stレリーズスイッチがオンの場合にはイニシャ
ライズを行なう。ここではフォーカスエリアを中央に設
定する(ステップS703)。続いて後述するサブルー
チン“視線検出4”を実行し(ステップS704)、検
出された座標に応じてフォーカスエリアを設定する(ス
テップS705)。さらに、この設定されたフォーカス
エリアを表示し(ステップS706)、設定されたフォ
ーカスエリアにてAFを行う(ステップS707)。そ
してAF情報を基にレンズを駆動する(ステップS70
8)。続いて、1stレリーズスイッチがオンされたか
否かの判定を再度行い(ステップS709)。1stレ
リーズスイッチがオフの場合にはステップS712へ移
行し、1stレリーズスイッチがオンされている場合に
は2ndレリーズスイッチがオンされているか否かを判
定する(ステップS710)。そして、2ndレリーズ
スイッチがオフされている場合にはステップS709に
戻り、2ndレリーズスイッチがオンされている場合に
は、露光シーケンスや巻き上げシーケンス等のカメラシ
ーケンスを行い(ステップS711)、本シーケンスを
終了する(ステップS712)。
The main sequence of the fifth embodiment will be described below with reference to the flowchart of FIG. When the main sequence starts (step S7)
01) It is determined whether or not the 1st release switch is turned on (step S702). Then, if the 1st release switch is off, the process proceeds to step S712, and if the 1st release switch is on, initialization is performed. Here, the focus area is set to the center (step S703). Subsequently, a later-described subroutine "visual axis detection 4" is executed (step S704), and a focus area is set according to the detected coordinates (step S705). Further, the set focus area is displayed (step S706), and AF is performed in the set focus area (step S707). Then, the lens is driven based on the AF information (step S70).
8). Then, it is determined again whether or not the 1st release switch is turned on (step S709). If the 1st release switch is off, the process proceeds to step S712, and if the 1st release switch is on, it is determined whether or not the 2nd release switch is on (step S710). If the 2nd release switch is off, the process returns to step S709. If the 2nd release switch is on, a camera sequence such as an exposure sequence and a winding sequence is performed (step S711), and this sequence ends. Yes (step S712).

【0056】次に、図16のフローチャートを参照し
て、上記サブルーチン“視線検出4”のシーケンスにつ
いて説明する。サブルーチン“視線検出4”をスタート
すると(ステップS801)、センサのリセットを行い
(ステップS802)、積分をスタートする(ステップ
S803)。そして、明るさEを検出し(ステップS8
04)、積分を終了する(ステップS805)。続いて
明るさ判定(E<Ep)を行い(Ep;所定値)(ステ
ップS806)。E<Epでない場合にはステップS8
02へ戻り、E<Epの場合には後述するサブルーチン
“視線処理”を実行し(ステップS807)、本サブル
ーチンを抜けメインルーチンにリターンする(ステップ
S808)。
Next, the sequence of the above subroutine "line-of-sight detection 4" will be described with reference to the flowchart in FIG. When the subroutine "visual axis detection 4" is started (step S801), the sensor is reset (step S802), and integration is started (step S803). Then, the brightness E is detected (step S8
04), and ends the integration (step S805). Subsequently, brightness determination (E <Ep) is performed (Ep; predetermined value) (step S806). If not E <Ep, step S8
Returning to step 02, if E <Ep, a subroutine "line-of-sight processing" described below is executed (step S807), the process exits this subroutine and returns to the main routine (step S808).

【0057】次に、図17のフローチャートを参照し
て、上記サブルーチン“視線処理”のシーケンスについ
て説明する。サブルーチン“視線処理”をスタートする
と(ステップS901)、視線データをメモリに記憶し
(ステップS902)、この記憶した視線データに対し
て微分処理を行う(ステップS903)。さらに、この
微分処理した信号を所定レベルにて2値化し(ステップ
S905)、角膜反射と眼底反射の重心距離Xを算出す
る(ステップS906)。こうして本サブルーチンを終
了し、メインルーチンに戻る(ステップS907)。
尚、この視線処理の様子は先に図11に示した通りであ
る。
Next, the sequence of the above subroutine "line-of-sight processing" will be described with reference to the flowchart in FIG. When the subroutine "line-of-sight processing" is started (step S901), the line-of-sight data is stored in the memory (step S902), and the stored line-of-sight data is differentiated (step S903). Further, this differentiated signal is binarized at a predetermined level (step S905), and the barycentric distance X between corneal reflex and fundus reflex is calculated (step S906). In this way, the present subroutine is finished and the process returns to the main routine (step S907).
The state of this line-of-sight processing is as previously shown in FIG.

【0058】以上、本発明の実施例について説明した
が、本発明はこれに限定されることなく種々の改良、変
更が可能であることは勿論である。例えば、重心検出が
可能であればPSD以外のセンサとしてラインセンサ等
をを用いてもよい。そして、明るさ判定をA/D変換し
た後にソフトウェア的に加算してもよい。さらに、角膜
反射でなく白眼/黒目の割合をフォトダイオードにより
検出して目の動きとしてもよい。また、投光は検出終了
時に終了しても、連続して投光しサンプルを離散的に行
ってもよい。尚、図18(a)には離散投光時の様子を
示し、図18(b)には連続投光の様子を示した。
Although the embodiments of the present invention have been described above, it is needless to say that the present invention is not limited to these and various improvements and changes can be made. For example, a line sensor or the like may be used as the sensor other than the PSD as long as the center of gravity can be detected. Then, the brightness determination may be A / D converted and then added by software. Furthermore, instead of corneal reflection, the ratio of white eye / black eye may be detected by a photodiode and used as eye movement. Further, the light projection may be finished at the end of the detection, or the light projection may be continuously carried out to sample the sample discretely. Incidentally, FIG. 18A shows a state of discrete light projection, and FIG. 18B shows a state of continuous light projection.

【0059】そして、基準位置設定用の表示は液晶、又
は視野絞りを挿入して図19に示すような状態を一時的
に構成してもよい。さらに、重心検出をヒストグラムに
て検出し、最も頻度の多い値としてもよい。また、測距
点は複数であれば3点に捕らわれる必要はない。そし
て、カメラのシーケンスとしては、例えば測距点が深度
内に入る場合等、視線検知が必要ない場合には視線検出
シーケンスを省略するのがよい。さらに測距点選択以外
(カメラのスイッチとして)に使用してもよい。
The display for setting the reference position may be temporarily configured by inserting a liquid crystal or a field diaphragm into a state as shown in FIG. Further, the detection of the center of gravity may be detected by a histogram and may be set as the most frequent value. Further, if the distance measuring points are plural, it is not necessary to be caught by three points. As for the camera sequence, the visual axis detection sequence may be omitted when visual axis detection is not necessary, for example, when the distance measuring point is within the depth. Further, it may be used for other than the distance measuring point selection (as a camera switch).

【0060】以上詳述したように、本発明の焦点検出装
置では、撮影者のまばたきの判定を安価かつ簡単な構成
にて実現し、まばたき時の視線情報を無効にすること
で、より確実に視線による情報入力を行うことができ
る。
As described above in detail, in the focus detection apparatus of the present invention, the determination of the blinking of the photographer is realized with an inexpensive and simple structure, and the line-of-sight information at the time of blinking is invalidated, whereby the blinking can be more reliably performed. Information can be input by the line of sight.

【0061】[0061]

【発明の効果】本発明によれば、視線信号を用いてカメ
ラの操作を行う場合、ノイズ信号となる撮影者のまばた
きを簡単な構成で高速に判断することで誤った視線信号
を除去し、より的確な視線信号による操作を実現した視
線検出装置を提供することができる。
According to the present invention, when the camera is operated by using the line-of-sight signal, the eye-blink of the photographer, which is a noise signal, can be determined at high speed with a simple structure to eliminate an erroneous line-of-sight signal. It is possible to provide a line-of-sight detection device that realizes an operation with a more accurate line-of-sight signal.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第1の実施例に係る視線検出装置の構
成を示す図である。
FIG. 1 is a diagram showing a configuration of a visual line detection device according to a first exemplary embodiment of the present invention.

【図2】第1の実施例を更に具現化した第2の実施例に
係る視線検出装置の構成を示す図である。
FIG. 2 is a diagram showing a configuration of a line-of-sight detection device according to a second embodiment that further embodies the first embodiment.

【図3】視線検出光学系18の詳細な構成を示す図であ
る。
FIG. 3 is a diagram showing a detailed configuration of a line-of-sight detection optical system 18.

【図4】第2の実施例のメインシーケンスを示すフロー
チャートである。
FIG. 4 is a flowchart showing a main sequence of the second embodiment.

【図5】サブルーチン”視線検出”のシーケンスを説明
するためのフローチャートである。
FIG. 5 is a flowchart for explaining a sequence of a subroutine “visual axis detection”.

【図6】サブルーチン“フォーカスエリア設定”のシー
ケンスを説明するためのフローチャートである。
FIG. 6 is a flowchart for explaining a sequence of a subroutine “focus area setting”.

【図7】ファインダの表示の様子を示す図である。FIG. 7 is a diagram showing how a finder is displayed.

【図8】第3の実施例によるサブルーチン“視線検出”
のシーケンスを説明するためのフローチャートである。
FIG. 8 is a subroutine “line of sight detection” according to the third embodiment.
3 is a flowchart for explaining the sequence of FIG.

【図9】第4の実施例のメインシーケンスについて説明
するためのフローチャートである。
FIG. 9 is a flowchart illustrating a main sequence of a fourth embodiment.

【図10】サブルーチン”視線検出”のシーケンスにつ
いて説明するためのフローチャートである。
FIG. 10 is a flowchart for explaining a sequence of a subroutine “visual axis detection”.

【図11】視線検出について説明するための図である。FIG. 11 is a diagram for explaining line-of-sight detection.

【図12】眼球90の回転角の検出について説明するた
めの図である。
FIG. 12 is a diagram for explaining detection of a rotation angle of an eyeball 90.

【図13】第5の実施例に係る視線検出装置の構成を示
す図である。
FIG. 13 is a diagram showing a configuration of a visual line detection device according to a fifth exemplary embodiment.

【図14】第5の実施例の視線光学系18の構成を示す
図である。
FIG. 14 is a diagram showing a configuration of a line-of-sight optical system 18 of a fifth example.

【図15】第5の実施例のメインシーケンスについて説
明するためのフローチャートである。
FIG. 15 is a flowchart illustrating a main sequence of a fifth embodiment.

【図16】サブルーチン”視線検出”のシーケンスにつ
いて説明するためのフローチャートである。
FIG. 16 is a flowchart for explaining a sequence of a subroutine “visual axis detection”.

【図17】サブルーチン“視線処理”のシーケンスにつ
いて説明するためのフローチャートである。
FIG. 17 is a flowchart for explaining a sequence of a subroutine “line-of-sight processing”.

【図18】(a)は離散投光時の様子を示し、(b)は
連続投光の様子を示す図である。
FIG. 18A is a diagram showing a state of discrete light projection, and FIG. 18B is a diagram showing a state of continuous light projection.

【図19】基準位置設定用の表示を液晶又は視野絞りを
挿入して構成した改良例を示す図である。
FIG. 19 is a diagram showing an improved example in which a display for setting a reference position is configured by inserting a liquid crystal or a field diaphragm.

【図20】人間の眼球90の構造を示す図である。20 is a diagram showing the structure of a human eyeball 90. FIG.

【図21】角膜前面91からの反射光によって結ばれる
光源の虚像である第1プルキンエ像95aの様子を示す
図である。
FIG. 21 is a diagram showing a state of a first Purkinje image 95a which is a virtual image of a light source formed by reflected light from the front surface of the cornea 91.

【図22】眼球の回転により検出像が変化する様子を示
す図である。
FIG. 22 is a diagram showing how a detected image changes as the eyeball rotates.

【図23】眼球中心が固定されるような場合の回転と角
膜反射95aと眼底反射95bの様子を示す図である。
FIG. 23 is a diagram showing a state of rotation and corneal reflection 95a and fundus reflection 95b when the center of the eyeball is fixed.

【図24】眼球がシフトと角膜反射95aと眼底反射9
5bの様子を示す図である。
FIG. 24: Eye shift and corneal reflex 95a and fundus reflex 9
It is a figure which shows the mode of 5b.

【符号の説明】[Explanation of symbols]

1…投光部、2…受光部、3…制御部、4…光量判定
部、5…視線検出部。
DESCRIPTION OF SYMBOLS 1 ... Projection part, 2 ... Light receiving part, 3 ... Control part, 4 ... Light amount determination part, 5 ... Line-of-sight detection part.

フロントページの続き (51)Int.Cl.5 識別記号 庁内整理番号 FI 技術表示箇所 G03B 13/02 9120−2K 9119−2K G03B 3/00 A Continuation of the front page (51) Int.Cl. 5 Identification number Office reference number FI technical display location G03B 13/02 9120-2K 9119-2K G03B 3/00 A

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 撮影者の眼に向けて投光する投光手段
と、 上記撮影者の眼から反射光を検出する受光手段と、 上記投光手段の投光や受光手段の検出タイミングを制御
する制御手段と、 上記受光手段と同一領域の光量を判定することで上記撮
影者のまばたきを検出する光量判定手段と、を具備する
ことを特徴とする視線検出装置。
1. A light projecting unit for projecting light toward a photographer's eye, a light receiving unit for detecting reflected light from the photographer's eye, and a light projecting unit for projecting light or detecting timing of the light receiving unit. The eye-gaze detecting device comprising: a control unit that controls the light amount; and a light amount determining unit that detects the blink of the photographer by determining the light amount in the same area as the light receiving unit.
【請求項2】 撮影者の眼に向けて投光する投光手段
と、 上記撮影者の眼から反射光を検出する受光手段と、 上記投光手段の投光や受光手段の検出タイミングを制御
する制御手段と、 上記受光手段と同一領域の光量を判定することで上記撮
影者のまばたきを検出する光量判定手段と、 上記受光手段の信号に基づいて視線を検出する視線検出
手段と、を具備し、上記視線検出手段は上記光量判定手
段の値に基づいて視線検出を行い、上記光量判定手段が
撮影者のまばたきを検出した場合には上記視線検出手段
による視線検出の結果を無効とすることを特徴とする視
線検出装置。
2. A light projecting means for projecting light toward a photographer's eye, a light receiving means for detecting reflected light from the photographer's eye, and a light projecting means for detecting the light projecting means and a detection timing of the light receiving means. Control means, a light amount determining means for detecting the blink of the photographer by determining the light amount in the same area as the light receiving means, and a visual line detecting means for detecting a visual line based on the signal of the light receiving means. However, the line-of-sight detection means performs line-of-sight detection based on the value of the light amount determination means, and when the light amount determination means detects the blink of the photographer, the result of the line-of-sight detection by the line-of-sight detection means is invalidated. A line-of-sight detection device.
JP5101166A 1993-04-27 1993-04-27 Line-of-sight detecting device Pending JPH06308371A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5101166A JPH06308371A (en) 1993-04-27 1993-04-27 Line-of-sight detecting device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5101166A JPH06308371A (en) 1993-04-27 1993-04-27 Line-of-sight detecting device

Publications (1)

Publication Number Publication Date
JPH06308371A true JPH06308371A (en) 1994-11-04

Family

ID=14293449

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5101166A Pending JPH06308371A (en) 1993-04-27 1993-04-27 Line-of-sight detecting device

Country Status (1)

Country Link
JP (1) JPH06308371A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5926655A (en) * 1995-08-15 1999-07-20 Canon Kabushiki Kaisha Line of sight detection device and an apparatus having a line of sight detection device
JP2012239550A (en) * 2011-05-17 2012-12-10 Fujitsu Ltd Corneal reflection determining program, corneal reflection determining device, and method for determining corneal reflection
WO2023012566A1 (en) * 2021-08-05 2023-02-09 株式会社半導体エネルギー研究所 Electronic apparatus, and operation method for electronic apparatus

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5926655A (en) * 1995-08-15 1999-07-20 Canon Kabushiki Kaisha Line of sight detection device and an apparatus having a line of sight detection device
JP2012239550A (en) * 2011-05-17 2012-12-10 Fujitsu Ltd Corneal reflection determining program, corneal reflection determining device, and method for determining corneal reflection
WO2023012566A1 (en) * 2021-08-05 2023-02-09 株式会社半導体エネルギー研究所 Electronic apparatus, and operation method for electronic apparatus

Similar Documents

Publication Publication Date Title
US6634749B1 (en) Eye tracking system
JP7358530B2 (en) Object recognition device and method of controlling the object recognition device
JPH06304142A (en) Device for detecting line of sight
JP2001116985A (en) Camera with subject recognizing function and subject recognizing method
JPH05285113A (en) Detection of pupillary center and detection of pupillary ring part
JPH07151950A (en) Camera
US5402199A (en) Visual axis detecting apparatus
JPH06308371A (en) Line-of-sight detecting device
CN114342352A (en) Electronic device, electronic device control method, program, and storage medium
JP2870852B2 (en) Optical equipment
JP3344757B2 (en) Focus area setting device
JP3559622B2 (en) Gaze detection device and optical apparatus having gaze detection device
JP3256294B2 (en) Eye gaze detection apparatus and eye gaze detection method
JP2754663B2 (en) Gaze detection method and gaze detection device
JP3304408B2 (en) Gaze detection device and device having gaze detection device
JP2948975B2 (en) Eye gaze detection device
JP3308635B2 (en) camera
JP3500171B2 (en) Camera focus control device
JP2925147B2 (en) Eye gaze detection device and optical equipment
JP3184634B2 (en) Optical device having line-of-sight detection device
JP3219491B2 (en) Eye gaze detection device
JP2024003432A (en) Electronic device
JP3137216B2 (en) Focus area setting device
JPH07313460A (en) Glance detecting device of camera
JP3391892B2 (en) Eye gaze detecting device, optical device, and eye gaze detecting method

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20030107