JPH07313460A - Glance detecting device of camera - Google Patents

Glance detecting device of camera

Info

Publication number
JPH07313460A
JPH07313460A JP6109683A JP10968394A JPH07313460A JP H07313460 A JPH07313460 A JP H07313460A JP 6109683 A JP6109683 A JP 6109683A JP 10968394 A JP10968394 A JP 10968394A JP H07313460 A JPH07313460 A JP H07313460A
Authority
JP
Japan
Prior art keywords
light
signal
line
photographer
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP6109683A
Other languages
Japanese (ja)
Inventor
Shinichi Kodama
晋一 児玉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optical Co Ltd filed Critical Olympus Optical Co Ltd
Priority to JP6109683A priority Critical patent/JPH07313460A/en
Publication of JPH07313460A publication Critical patent/JPH07313460A/en
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B2213/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B2213/02Viewfinders
    • G03B2213/025Sightline detection

Abstract

PURPOSE:To detect the glance direction of a photographer with high reliability through simple constitution. CONSTITUTION:A projection part 1 projects 1st and 2nd pieces of luminous flux which have specific angles of incidence on the eyeballs of the photographer and a sensor 4 photodetects reflected light from the eyeballs by the projection part 1 after the light is imaged. On the basis of the signal from the sensor 4 corresponding to the light projection of the projection part 1, the gaze point of the photographer is estimated while the reliability is evaluated. The 1st pieces of projection luminous flux is reflected by the eyeground and the 2nd piece of projection luminous flux is not reflected by the eyeground. If a Purkinje image shifts by more than specified, the glance information detected by time division is ignored.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、撮影者の視線情報を基
にカメラに指示を与えるカメラの視線検出装置に関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a visual axis detecting device for a camera, which gives an instruction to the camera based on the visual axis information of the photographer.

【0002】[0002]

【従来の技術】従来、カメラへの各種情報の入力は、例
えばダイアル、釦等によって行われており、入力情報が
増加するに従って操作環境は煩雑になっている。例えば
ファインダを覗く撮影者の視線方向を検出し、その視線
の情報よりカメラに情報入力する技術については、特開
昭63−194237号公報や特開平3−87818号
公報等により多数開示されている。
2. Description of the Related Art Conventionally, various kinds of information are input to a camera by using, for example, a dial or a button, and the operating environment becomes complicated as the input information increases. For example, many techniques for detecting the line-of-sight direction of a photographer looking into the viewfinder and inputting information to the camera based on the line-of-sight information are disclosed in Japanese Patent Laid-Open No. 63-194237, Japanese Patent Laid-Open No. 3-87818, and the like. .

【0003】そして、検出方式等において、角膜や虹
彩、瞳孔、強膜(白目)等のいずれかを用いて検出する
技術については、特開平1−160537号公報や特開
平2−206425号公報等により多数開示されてい
る。
Regarding the detection method using any one of the cornea, the iris, the pupil, the sclera (white eye), etc., JP-A-1-160537, JP-A-2-206425, etc. Have been disclosed by many.

【0004】さらに、視線検出位置を用いた測距情報の
決定に関しても、特開平4−307506号公報や特開
平5−88075号公報等により多数開示されている。
また、センサの信号処理においても投光LEDに同期し
て点灯時/非点灯時の信号の差分処理を行うことがよく
行われている。
Further, regarding the determination of the distance measurement information using the sight line detection position, a large number are disclosed in Japanese Patent Laid-Open Nos. 4-307506 and 5-88075.
Further, also in the signal processing of the sensor, it is common to perform the differential processing of the signal at the time of lighting / non-lighting in synchronization with the light emitting LED.

【0005】そして、異なる位置からの投光(赤目発生
位置での投光と赤目の発生しない位置での投光)にて検
出した信号を差分処理し、赤目信号の顔の中より抽出し
瞳孔を検出を行う技術についても特開平2−13867
3号公報によりが開示されている。
Then, the signals detected by the light projections from different positions (light projection at the red-eye generating position and light projection at the position where the red-eye does not occur) are subjected to difference processing and extracted from the face of the red-eye signal to extract the pupil. Japanese Patent Application Laid-Open No. 2-13867
No. 3 gazette is disclosed.

【0006】[0006]

【発明が解決しようとする課題】しかしながら、既に実
用化されている視線システムは、エリアセンサを用いて
いるためコストが高く、実装性でも問題がある。さら
に、2次元の画像より画像処理を行って方向を正確に検
出している為、時間がかかり、高速処理のため処理装置
が必要になる。
However, the line-of-sight system that has already been put into practical use has a high cost because of the use of the area sensor, and there is a problem in mountability. Furthermore, since the image processing is performed from the two-dimensional image to accurately detect the direction, it takes time and a processing device is required for high-speed processing.

【0007】また、フォーカスエリアの自動判定に視線
情報を使う場合は、既にAFアルゴリズムによってかな
り選択の最適化ができており、おおまかな視線方向を情
報として追加するだけでもかなり有効になる。よって、
簡単な処理による大まかな視線検出システムが必要にな
る。
Further, when the line-of-sight information is used for the automatic determination of the focus area, the AF algorithm has already been able to considerably optimize the selection, and it is quite effective to add the rough line-of-sight direction as information. Therefore,
A rough line-of-sight detection system with simple processing is required.

【0008】さらに、上記エリアセンサ(2次元画像)
でないため以下のような問題が発生する。即ち、第1に
検出した画像が本当に目の画像かの判定ができにくく、
第2に時分割での目の動きの判定ができにくい。
Further, the area sensor (two-dimensional image)
However, the following problems occur. That is, it is difficult to determine whether the first detected image is really an eye image,
Secondly, it is difficult to determine the eye movement in time division.

【0009】本発明は上記問題に鑑みてなされたもの
で、その目的とするところは、時分割にて検出した視線
情報でプルキンエ像が所定以上ずれた場合には視線情報
を無視することで、簡単な構成にて信頼性の高い撮影者
の視線方向の検出を可能とすることにある。
The present invention has been made in view of the above problems, and an object thereof is to ignore the line-of-sight information when the Purkinje image deviates by a predetermined amount or more from the line-of-sight information detected by time division. It is to enable highly reliable detection of the line-of-sight direction of a photographer with a simple configuration.

【0010】[0010]

【課題を解決するための手段】上記目的を達成するため
に、本発明の第1の態様によるカメラの視線検出装置
は、それぞれ所定の入射角を有した第1,第2の光束を
撮影者の眼球に投射する第1及び第2の投光手段と、上
記第1及び第2の投光手段による眼球からの反射光を結
像した後に受光する光電変換手段とを具備してなり、上
記第1及び第2の投光手段に応じた上記光電変換手段か
らの信号に基づいて撮影者の注視点を信頼性を評価しつ
つ推定することを特徴とする。
In order to achieve the above object, the visual axis detection device for a camera according to the first aspect of the present invention uses a first and a second luminous flux having a predetermined incident angle, respectively. The first and second light projecting means for projecting the light onto the eyeball, and the photoelectric conversion means for receiving the reflected light from the eyeball by the first and second light projecting means and thereafter receiving the light. It is characterized in that the gazing point of the photographer is estimated while evaluating the reliability based on the signals from the photoelectric conversion means corresponding to the first and second light projecting means.

【0011】そして、第2の態様によるカメラの視線検
出装置は、上記第1投光手段による光束は眼底反射を発
生させ、上記第2投光手段による光束は眼底反射を発生
させないことを特徴とする。
The visual axis detecting device for a camera according to the second aspect is characterized in that the luminous flux by the first light projecting means causes fundus reflection and the luminous flux by the second light projecting means does not cause fundus reflection. To do.

【0012】さらに、第3の態様によるカメラの視線検
出装置は、構図決定のための接眼光学系に含まれた光路
分割手段と、第1の位置に置かれ、上記光路分割手段を
介して撮影者の眼球に所定波長の光を投射する第1の投
光手段と、第2の位置に置かれ、上記光路分割手段を介
して撮影者の眼球に所定波長の光を投射する第2の投光
手段と、上記第1,第2の投光手段による反射光を上記
光路分割手段を介して結像した後に受光する光電変換手
段とを具備してなり、上記光電変換手段からの出力のう
ち、上記第1光源手段に対応する信号と、上記第2光源
手段による信号とに基づいて撮影者の注視点を信頼性を
評価しつつ推定することを特徴とする。
Further, the visual axis detection device for a camera according to the third aspect is arranged at the first position and the optical path splitting means included in the eyepiece optical system for determining the composition, and the image is taken through the optical path splitting means. A first light projecting means for projecting light of a predetermined wavelength onto the eyeball of the person and a second light projecting device which is placed at a second position and projects light of a predetermined wavelength onto the eyeball of the photographer through the optical path dividing means. It comprises a light means and a photoelectric conversion means for receiving the reflected light from the first and second light projecting means after forming an image through the optical path dividing means, and of the outputs from the photoelectric conversion means. , And estimating the gazing point of the photographer while evaluating the reliability based on the signal corresponding to the first light source means and the signal from the second light source means.

【0013】[0013]

【作用】即ち、本発明の第1の態様によるカメラの視線
検出装置では、第1及び第2の投光手段はそれぞれ所定
の入射角を有した第1,第2の光束を撮影者の眼球に投
射し、光電変換手段は上記第1及び第2の投光手段によ
る眼球からの反射光を結像した後に受光する。そして、
上記第1及び第2の投光手段に応じた上記光電変換手段
からの信号に基づいて撮影者の注視点を信頼性を評価し
つつ推定する。
That is, in the visual axis detection device for a camera according to the first aspect of the present invention, the first and second light projecting means respectively emit the first and second light fluxes having a predetermined incident angle to the photographer's eyeball. And the photoelectric conversion means receives the light reflected from the eyeball by the first and second light projecting means after forming an image. And
The gazing point of the photographer is estimated while evaluating the reliability based on the signals from the photoelectric conversion means corresponding to the first and second light projecting means.

【0014】そして、第2の態様によるカメラの視線検
出装置では、上記第1投光手段による光束は眼底反射を
発生させ、上記第2投光手段による光束は眼底反射を発
生させない。
In the visual axis detecting device for a camera according to the second aspect, the luminous flux by the first light projecting means causes fundus reflection, and the luminous flux by the second light projecting means does not cause fundus reflection.

【0015】さらに、第3の態様によるカメラの視線検
出装置では、光路分割手段は構図決定のための接眼光学
系に含まれており、第1の投光手段は第1の位置に置か
れ、上記光路分割手段を介して撮影者の眼球に所定波長
の光を投射し、第2の投光手段は第2の位置に置かれ、
上記光路分割手段を介して撮影者の眼球に所定波長の光
を投射する。さらに、光電変換手段は上記第1,第2の
投光手段による反射光を上記光路分割手段を介して結像
した後に受光する。そして、上記光電変換手段からの出
力のうち、上記第1光源手段に対応する信号と、上記第
2光源手段による信号とに基づいて撮影者の注視点を信
頼性を評価しつつ推定する。
Furthermore, in the visual axis detection device for a camera according to the third aspect, the optical path dividing means is included in the eyepiece optical system for determining the composition, and the first light projecting means is placed at the first position. The light of a predetermined wavelength is projected onto the eyeball of the photographer via the optical path splitting means, and the second light projecting means is placed at the second position.
Light of a predetermined wavelength is projected onto the eyeball of the photographer through the optical path splitting means. Further, the photoelectric conversion means receives the reflected light from the first and second light projecting means after forming an image through the optical path dividing means. Then, the gazing point of the photographer is estimated based on the signal corresponding to the first light source means and the signal from the second light source means out of the outputs from the photoelectric conversion means while evaluating the reliability.

【0016】[0016]

【実施例】先ず本発明の実施例について説明する前に、
本発明に採用される視線検出の原理について説明する。
視線方向を検出する方法としては種々の方法が挙げられ
るが、ここではカメラに適用できる方法として既に当業
技術関係者においては良く知られている第1プルキンエ
像と称される角膜反射像と眼底の反射像、又は虹採のエ
ッジを用いて検出する方法について簡単に説明する。
尚、構造的説明は既に公知である為、ここでは省略す
る。
EXAMPLES Before describing the examples of the present invention,
The principle of line-of-sight detection adopted in the present invention will be described.
There are various methods for detecting the line-of-sight direction. Here, as a method applicable to a camera, a corneal reflection image called a first Purkinje image and a fundus oculi which are already well known to those skilled in the art. A method of detecting using the reflection image or the edge of the rainbow collection will be briefly described.
Since the structural description is already known, it is omitted here.

【0017】先ず図2には略光軸より投光された光束の
眼からの反射光の受光出力の様子を示し説明する。不図
示の眼球90に光を投光し、その反射像をとらえると受
光出力の高い第1プルキンエ像は反射光量が弱く反射像
のできる位置が異なる為、検出することは難しい。
First, FIG. 2 shows the manner in which the reflected light from the eye of the luminous flux projected from substantially the optical axis is received and output. When light is projected onto an eyeball 90 (not shown) and a reflected image thereof is captured, the first Purkinje image having a high received light output has a small amount of reflected light and a position where a reflected image can be formed is different, which makes it difficult to detect.

【0018】そして、眼球90に光を投光した時の眼底
からの反射光95bにより眼底像が瞳孔の周像である虹
採エッジ94のシルエットとして検出される。この眼底
からの反射像95bは第1プルキンエ像95aと共に図
2に示してあるが、この2つの像を用いて視線方向を検
出する。尚、符号91は虹採、92は強膜(白目)、9
3は瞳孔、94は虹採エッジをそれぞれ示している。
Then, the reflected light 95b from the fundus when the light is projected onto the eyeball 90 causes the fundus image to be detected as the silhouette of the rainbow sampling edge 94 which is the peripheral image of the pupil. The reflected image 95b from the fundus is shown in FIG. 2 together with the first Purkinje image 95a, and the gaze direction is detected using these two images. Incidentally, reference numeral 91 is a rainbow harvest, 92 is a sclera (white eye), 9
3 is a pupil, and 94 is a rainbow sampling edge.

【0019】次に図3には眼球の回転による検出像の変
化の様子を示し説明する。眼球90の光軸98と眼に投
光する光束とが平行である場合、図3(a)に示すよう
に、眼底像95bの中心即ち瞳孔中心と第1プリキンエ
像95aの中心が一致している。そして、眼球90の回
転した場合には、図3(b)に示すように光軸98が眼
球90の回転中心90cを中心に回転している。
Next, FIG. 3 shows how the detected image changes due to the rotation of the eyeball. When the optical axis 98 of the eyeball 90 and the light flux projected on the eye are parallel, as shown in FIG. 3A, the center of the fundus image 95b, that is, the center of the pupil and the center of the first Purkinje image 95a coincide with each other. There is. When the eyeball 90 rotates, the optical axis 98 rotates around the rotation center 90c of the eyeball 90 as shown in FIG.

【0020】この場合、眼底像95bの中心は眼からの
反射光を受光するセンサ画素列上の異なった位置に受光
できる。さらに、第1プルキンエ像95aの中心は眼底
像95bの中心とも相対的に異なる位置に受光する。こ
れは、角膜の前面に持つ曲面の中心が眼球の回転中心と
異なる為である。
In this case, the center of the fundus image 95b can be received at different positions on the sensor pixel row that receives the reflected light from the eye. Further, the center of the first Purkinje image 95a receives light at a position relatively different from the center of the fundus image 95b. This is because the center of the curved surface on the front surface of the cornea is different from the center of rotation of the eyeball.

【0021】従って、この2つの像のセンサ画素列に対
する絶対位置のずれと上記2つの像の相対的なずれよ
り、ファインダを覗く撮影者の眼球90の回転量とシフ
ト量を求めることができ、更には撮影者がどこを見てい
るか判別することができる。本発明では、視線検出像か
ら角膜反射像95a又は眼底反射像95bの少なくとも
一方を用いて検出する。
Therefore, the amount of rotation and the amount of shift of the eyeball 90 of the photographer looking into the finder can be obtained from the displacement of the absolute positions of these two images with respect to the sensor pixel array and the relative displacement of the two images. Furthermore, it is possible to determine where the photographer is looking. In the present invention, detection is performed using at least one of the corneal reflection image 95a and the fundus reflection image 95b from the line-of-sight detection image.

【0022】次に図4には眼球中心が固定されるような
場合の回転と角膜反射95aと眼底反射95bの様子を
示し説明する。眼球中心が固定されるならば眼底反射9
5bの重心位置ix、角膜反射95aの重心位置pxの
み又は両方を含めた重心位置を検出すれば回転角は検出
できる。そして、図中、pxは角膜反射95aの重心位
置、ixは眼底反射95bの重心位置を示している。
Next, FIG. 4 shows the state of rotation and corneal reflection 95a and fundus reflection 95b when the center of the eyeball is fixed and described. If the center of the eyeball is fixed, the fundus reflex 9
The rotation angle can be detected by detecting the barycentric position ix of 5b, the barycentric position px of the corneal reflection 95a, or the barycentric position including both. In the figure, px indicates the center of gravity of the corneal reflection 95a, and ix indicates the center of gravity of the fundus reflection 95b.

【0023】また、図4に示す眼底反射は一般に眼底か
らの反射光が多い所謂「赤目状態」である。明るい状態
で虹採が絞られた場合又は反射光が受光系に戻らない場
合である上記赤目状態でない場合には眼底反射95bの
出力はさらに低下する。尚、ファインダ中央から見た場
合、図4(a)は回転角0(基準)で中央、図4(b)
は回転角負で左側、図4(c)は回転角正で右側を見て
いることになる。
The fundus reflection shown in FIG. 4 is a so-called "red-eye state" in which a large amount of light is reflected from the fundus. The output of the fundus reflex 95b is further reduced when the rainbow is narrowed in a bright state or when the reflected light does not return to the light receiving system and the red eye state is not achieved. When viewed from the center of the finder, FIG. 4A shows the center at a rotation angle of 0 (reference), and FIG.
Indicates a left side with a negative rotation angle and a right side with a positive rotation angle in FIG.

【0024】次に図5には眼球がシフトと角膜反射95
aと眼底反射95bの様子を示し説明する。眼底反射9
5bの重心位置ix、角膜反射95aの重心位置pxの
み又は両方を含めた重心位置を検出すればおおまかまシ
フト量は検出できる。
Next, in FIG. 5, the eyeball shift and the corneal reflection 95
The state of a and the fundus reflection 95b will be described below. Fundus reflex 9
The approximate shift amount can be detected by detecting the barycentric position ix of 5b, the barycentric position px of the corneal reflection 95a, or the barycentric position including both.

【0025】そして、図中、pxは角膜反射95aの重
心位置、ixは眼底反射95bの重心位置を示してい
る。また、先に示した図4と同様に、眼底反射は一般に
赤目状態であり、赤目状態でない場合には眼底反射95
bの出力は更に低下する。尚、ファインダ中央から見た
場合には、図5(a)はシフト0(基準)で中央、図5
(b)はシフト量負で左側、図5(c)はシフト量正で
右側を見ていることになる。一般に、1回のシャッタシ
ーケンス、即ち1stレリーズ付近から2ndレリーズ
までにおいては、眼のシフトは大きく変化することはな
く、相対的な動きと基準位置を検出することで撮影者が
見ようとする方向を知ることができる。また、基準位置
検出はシーケンス内で行うようにすると良い。
In the figure, px indicates the position of the center of gravity of the corneal reflection 95a, and ix indicates the position of the center of gravity of the fundus reflection 95b. Further, similar to FIG. 4 described above, the fundus reflex is generally in the red-eye state, and when it is not in the red-eye condition, the fundus reflex 95
The output of b is further reduced. When viewed from the center of the finder, FIG. 5A shows the center with shift 0 (reference).
In FIG. 5B, the shift amount is negative and the left side is seen. In FIG. 5C, the shift amount is positive and the right side is seen. Generally, in one shutter sequence, that is, from the vicinity of the 1st release to the 2nd release, the eye shift does not greatly change, and the relative movement and the reference position are detected to determine the direction in which the photographer intends to see. I can know. Further, the reference position detection may be performed within the sequence.

【0026】以下、前述したような原理に基づく本発明
の実施例について説明する。図1には本発明の第1の実
施例に係るカメラの視線検出装置の構成を示し説明す
る。図1に示されるように、投光部2はセンサ4に目の
赤目像、非赤目像を発生させる位置に光源を有し制御部
1と光学系5に接続され、I/F部3は制御部1とセン
サ4に接続され、センサ4は光学系5に更に接続され
る。
An embodiment of the present invention based on the above-mentioned principle will be described below. FIG. 1 shows the configuration of a visual axis detection device for a camera according to a first embodiment of the present invention, which will be described. As shown in FIG. 1, the light projecting unit 2 has a light source at a position where a red-eye image and a non-red-eye image of the eye are generated in the sensor 4, and is connected to the control unit 1 and the optical system 5. It is connected to the control unit 1 and the sensor 4, and the sensor 4 is further connected to the optical system 5.

【0027】このような構成において、投光部2は、制
御部1の信号に応じて赤目像を発生させる投光と赤目を
発生させない投光を時分割にて光学系5を介して眼対し
て行う。センサ4は、投光された光束の目からの反射光
を受光し検出された信号をI/F部3を介して制御部1
に送る。I/F部3は、センサ4の積分制御及び読み出
し等のシーケンス処理を行う。制御部1は、検出された
信号より時分割による目の動き判定、積分時間による信
頼性判定と視線方向を差分処理の瞳孔重心位置と角膜反
射位置より検出する。
In such a configuration, the light projecting section 2 time-divisionally projects the light projecting the red-eye image and the light projecting no red-eye according to the signal from the control section 1 through the optical system 5. Do it. The sensor 4 receives the reflected light from the eye of the projected light flux and detects the detected signal via the I / F unit 3 to the control unit 1.
Send to. The I / F unit 3 performs a sequence process such as integration control and reading of the sensor 4. The control unit 1 detects the eye movement determination by time division, the reliability determination based on the integration time, and the line-of-sight direction from the detected signal from the pupil barycentric position and the corneal reflection position of the difference processing.

【0028】以下、図6のフローチャートを参照して、
第1の実施例に係るカメラの視線検出装置による視線検
出のシーケンスを説明する。本シーケンでは、先ずイニ
シャライズを行う。即ち、フラグFp,Ft,Fkをそ
れぞれ“0”とする(ステップS1)。そして、赤目を
発生させる投光(投光0)を行い(ステップS2)、後
述するサブルーチン“信号検出”を実行する(ステップ
S3)。続いて、積分時間に関するフラグFt=0であ
るかを判定し(ステップS4)、Ft=0でない場合に
はステップS12へ移行する。
Hereinafter, with reference to the flowchart of FIG.
A visual line detection sequence by the visual line detection device for a camera according to the first embodiment will be described. In this sequence, first the initialization is performed. That is, the flags Fp, Ft, Fk are each set to "0" (step S1). Then, light emission for generating red eyes (light emission 0) is performed (step S2), and a subroutine "signal detection" described later is executed (step S3). Subsequently, it is determined whether or not the flag Ft = 0 regarding the integration time is set (step S4). If Ft = 0 is not established, the process proceeds to step S12.

【0029】このステップS4にて、Ft=0の場合に
は検出積分時間tsをt0に格納し(ステップS5)、
赤目を発生させない投光(投光1)を行い(ステップS
6)、後述するサブルーチン“信号検出”を実行する
(ステップS108)。
In step S4, when Ft = 0, the detected integration time ts is stored in t0 (step S5),
Light emission (light emission 1) that does not generate red eyes is performed (step S
6) The subroutine "signal detection" described later is executed (step S108).

【0030】そして、積分時間に関するフラグFt=0
の判定を行い(ステップS8)、Ft=0でない場合に
はステップS12へ移行する。そして、Ft=0の場合
には検出積分時間tsをt1に格納し(ステップS
9)、検出信号の信頼性判定及び視線方向を算出する信
号処理を行う(ステップS10)。
Then, a flag Ft = 0 relating to the integration time.
Is determined (step S8), and if Ft = 0 is not satisfied, the process proceeds to step S12. When Ft = 0, the detection integration time ts is stored in t1 (step S
9), signal processing for determining the reliability of the detection signal and calculating the line-of-sight direction is performed (step S10).

【0031】さらに、信頼性に関するフラグFk=0の
判定を行い(ステップS11)、Fk=0でない場合に
はステップS12へ移行し、総合の信頼性を判定するフ
ラグFpをFp=1に設定する。そして、上記ステップ
S11にてFk=0の場合には、本シーケンスを終了す
る(ステップS13)。
Further, it is judged whether the flag Fk = 0 regarding reliability (step S11). If Fk = 0 is not satisfied, the process proceeds to step S12, and the flag Fp for judging overall reliability is set to Fp = 1. . Then, when Fk = 0 in step S11, the present sequence is ended (step S13).

【0032】次に図7には上記サブルーチン“信号検
出”のシーケンスを示し説明する。サブルーチン“信号
検出”のシーケンスを開始すると、先ずイニシャライズ
を行う。即ち、積分に関するフラグFt=0とし、積分
のリセット、タイマのリセット、スタートを行う(ステ
ップS21)。続いて積分開始し(ステップS22)、
積分時間のリミッタ判定を行う(ステップS23)。
Next, the sequence of the subroutine "signal detection" will be described with reference to FIG. When the sequence of the subroutine "signal detection" is started, first, initialization is performed. That is, the flag Ft for integration is set to 0, and integration reset, timer reset, and start are performed (step S21). Then, integration is started (step S22),
A limiter determination of the integration time is performed (step S23).

【0033】このステップS23にて、t>Tmax
(Tmaxは積分のリミッタ時間で所定値)の場合には
ステップS29へ移行し、t>Tmaxでない場合には
センサ4のピークモニタレベルの判定を行う(ステップ
S24)。そして、ピーク判定しない場合にはステップ
S23へ戻る。
In this step S23, t> Tmax
If (Tmax is a predetermined value of the limiter time of integration), the process proceeds to step S29, and if t> Tmax, the peak monitor level of the sensor 4 is determined (step S24). If the peak determination is not made, the process returns to step S23.

【0034】ステップS24にて、ピーク判定した場合
には積分(積分時間ts)を終了し(ステップS2
5)、積分時間tsの判定を行う(ステップS26)。
そして、ts<Tminの場合にはステップS29へ移
行し、さらに、上記フラグFtを1に設定し(ステップ
S29)、本シーケンスを終了する(ステップS3
0)。
In step S24, when the peak is determined, the integration (integration time ts) is ended (step S2
5), the integration time ts is determined (step S26).
If ts <Tmin, the process proceeds to step S29, the flag Ft is set to 1 (step S29), and the present sequence ends (step S3).
0).

【0035】これに対して、ts<Tminでない場合
には信号の読み出し、処理(AGC、A/D等)を行い
(ステップS27)、こうして読み出した信号よりピー
ク値座標Pmaxを検出し(ステップS28)、本シー
ケンスを終了する(ステップS30)。
On the other hand, if ts <Tmin is not satisfied, signal reading and processing (AGC, A / D, etc.) are performed (step S27), and the peak value coordinate Pmax is detected from the signal thus read (step S28). ), And this sequence is completed (step S30).

【0036】次に図8には上記サブルーチン“信号処
理”のシーケンスを示し説明する。信号処理を開始する
と、先ず検出したデータD0,D1に所定の重み付けを
行いデータDを作成(D=a×D0−b×(t0/t
1)×D1;a,b所定の変数)する(ステップS3
1)。続いて、データDにて重心位置xdを検出し(ス
テップS32)、データD0よりMAX値位置(MAX
値が複数ある場合はMAXデータ群の重心位置)x0と
MAX値M0を検出し(ステップS33)、データD1
よりMAX値位置(MAX値が複数ある場合はMAXデ
ータ群の重心位置)x1とMAX値M1を検出する(ス
テップS34)。そして、x0,x1のズレ量の評価
(眼の動き量を評価)を行う(ステップS35)。
Next, the sequence of the above-mentioned subroutine "signal processing" is shown in FIG. 8 and will be described. When the signal processing is started, first, the detected data D0 and D1 are weighted in a predetermined manner to create data D (D = a * D0-b * (t0 / t
1) × D1; a, b predetermined variables) (step S3)
1). Subsequently, the center of gravity position xd is detected from the data D (step S32), and the MAX value position (MAX
When there are a plurality of values, the barycentric position of the MAX data group) x0 and the MAX value M0 are detected (step S33), and the data D1 is detected.
Then, the MAX value position (the barycentric position of the MAX data group when there are a plurality of MAX values) x1 and the MAX value M1 are detected (step S34). Then, the amount of deviation between x0 and x1 is evaluated (the amount of eye movement is evaluated) (step S35).

【0037】ここで、|x0−x1|<εでない場合に
はステップS42に移行する。そして、|x0−x1|
<εの場合にはデータD0より平均値Av0を求める
(ステップS36)。続いて、データD0のMAX値M
0と平均値Av0の差分を評価(kは所定値)し(ステ
ップS37)、M0−Av0>kでない場合にはステッ
プS42へ移行し、M0−Av0>kの場合にはデータ
D1より平均値Av1を求める(ステップS38)。
If | x0-x1 | <ε is not satisfied, the process proceeds to step S42. Then, | x0-x1 |
If <ε, the average value Av0 is obtained from the data D0 (step S36). Then, the MAX value M of the data D0
The difference between 0 and the average value Av0 is evaluated (k is a predetermined value) (step S37). If not M0-Av0> k, the process proceeds to step S42. If M0-Av0> k, the average value is calculated from the data D1. Av1 is calculated (step S38).

【0038】続いて、データD1のMAX値M1と平均
値Av1の差分を評価(kは所定値)し(ステップS3
9)、M1−Av1>kでない場合にはステップS42
へ移行し、M1−Av1>kの場合には検出信号Dより
瞳孔径dpを検出する(ステップS40)。こうして検
出された赤目の重心位置xdとプルキンエ像位置x0よ
り検出ブロックを決定し(ステップS41)、本シーケ
ンスを抜ける(ステップS43)。
Then, the difference between the MAX value M1 of the data D1 and the average value Av1 is evaluated (k is a predetermined value) (step S3).
9), if M1-Av1> k is not satisfied, step S42
When M1-Av1> k, the pupil diameter dp is detected from the detection signal D (step S40). A detection block is determined from the red eye center of gravity position xd and the Purkinje image position x0 thus detected (step S41), and the present sequence is exited (step S43).

【0039】上記ステップS42では、総合信頼性に関
するフラグFk=1に設定し、本シーケンスを抜ける
(ステップS43)。尚、上記ステップS35では検出
信号D0,D1での眼の動きの判定を行い、ステップS
37,S39ではまばたきの判定を行う。
In the above step S42, the flag Fk related to the total reliability is set to 1, and this sequence is exited (step S43). In the step S35, the eye movement is determined by the detection signals D0 and D1, and the step S35 is performed.
At 37 and S39, blinking is determined.

【0040】また、ファインダ光学系に内面反射等のノ
イズ信号源がある場合、予めファインダの接眼側を遮光
してそれぞれのLEDを点灯して検出したノイズ信号D
d0,Dd1を検出しておいて、Dd=a×Dd0−b
×Dd1;a,b所定の変数(積分時間は同じta:実
際の積分時間に対してtaで正規化処理する)とし、信
号Dに検出信号Dとノイズ信号Ddの差分を格納すると
よい。
Further, when the finder optical system has a noise signal source such as internal reflection, the noise signal D detected by previously shielding the eyepiece side of the finder and lighting each LED.
After detecting d0 and Dd1, Dd = a × Dd0-b
× Dd1; a, b It is preferable to store a difference between the detection signal D and the noise signal Dd in the signal D, using a predetermined variable (integral time is the same ta: normalization processing is performed with respect to actual integral time).

【0041】次に図9には本発明の第2の実施例に係る
カメラの視線検出装置の構成を示し説明する。尚、第2
の実施例では、1次元の視線検出にて1次元のマルチA
Fのフォーカスエリアの選択を実現している。
Next, FIG. 9 shows the structure of a visual axis detecting device for a camera according to a second embodiment of the present invention, and will be described. The second
In this embodiment, one-dimensional multi-A is detected by one-dimensional line-of-sight detection.
The selection of the F focus area is realized.

【0042】この図9に示されるように、眼に光束を投
光するLED回路13はファインダ・視線光学系16と
CPU11に接続され、眼からの反射光束を受光するラ
インセンサ15はファインダ・視線光学系16とI/F
回路14に接続され、I/F回路14はラインセンサ1
5とCPU11に接続される。CPU11は視線検出に
関するLED回路13とI/F回路14に接続されると
共にマルチAF回路12とレンズ駆動回路17に接続さ
れる。
As shown in FIG. 9, the LED circuit 13 that projects a light beam to the eye is connected to the finder / line-of-sight optical system 16 and the CPU 11, and the line sensor 15 that receives the reflected light beam from the eye is a finder / line-of-sight. Optical system 16 and I / F
The I / F circuit 14 is connected to the circuit 14 and the I / F circuit 14 is connected to the line sensor 1.
5 and the CPU 11. The CPU 11 is connected to the LED circuit 13 and the I / F circuit 14 related to the visual axis detection, and is also connected to the multi AF circuit 12 and the lens drive circuit 17.

【0043】このような構成において、LED回路13
はCPU11からの制御信号を受けて赤目(センサ位置
において、眼底からの反射光を発生する),非赤目を発
生させる位置に配置されたLEDを発光し、発光光束フ
ァインダ・視線光学系16を介して眼に送る。ラインセ
ンサ15は投光された光束の眼からの反射光束をファイ
ンダ・視線光学系16を介して受光し、検出信号をI/
F回路14に送る。I/F回路14はラインセンサの信
号を処理しCPU11にディジタル情報として送る。マ
ルチAF回路12は複数点の測距を行い測距情報をCP
U11に送る。レンズ駆動回路17はCPU11からの
制御信号に応じてレンズを駆動する。CPU11は視線
検出系(LED回路13,I/F回路14,ラインセン
サ15)の制御すると共に得られた信号より視線方向を
検出し、マルチAF回路12からの測距情報を選択しレ
ンズの駆動量を算出し、レンズ駆動回路17を制御す
る。
In such a configuration, the LED circuit 13
Receives a control signal from the CPU 11 and emits light from an LED arranged at a position to generate red-eye (generates reflected light from the fundus at the sensor position) and non-red-eye, and through a luminous flux finder / line-of-sight optical system 16. Send it to your eyes. The line sensor 15 receives the reflected light flux of the projected light flux from the eye through the finder / line-of-sight optical system 16 and outputs a detection signal as I / O.
Send to the F circuit 14. The I / F circuit 14 processes the signal from the line sensor and sends it to the CPU 11 as digital information. The multi-AF circuit 12 measures the distances at a plurality of points and sends the distance measurement information to the CP.
Send to U11. The lens driving circuit 17 drives the lens according to the control signal from the CPU 11. The CPU 11 controls the line-of-sight detection system (LED circuit 13, I / F circuit 14, line sensor 15), detects the line-of-sight direction from the obtained signal, selects the distance measurement information from the multi-AF circuit 12, and drives the lens. The amount is calculated and the lens drive circuit 17 is controlled.

【0044】ここで図10には上記ファインダ・視線光
学系の詳細な構成を示し説明する。図10(a)には光
学的配置を示す。検出センサには蓄積型ラインセンサを
用いて眼からの反射光を検出する。投光光源にはLED
0,LED1の2ケを用い、LED0は検出ラインセン
サ上に赤目像が発生するように配置し、LED1は検出
ラインセンサ上に赤目像が発生しないようにLED0の
投光光軸に対して例えば2〜5°の角度をもって投光す
るように配置する。上記LED0,LED1より投光さ
れた光はビームスプリッタを介して眼に投光され、眼か
らの反射光は再度ビームスプリッタを介して視線光学
系、ラインセンサに導かれる。
FIG. 10 shows the detailed structure of the finder / line-of-sight optical system. An optical arrangement is shown in FIG. An accumulating line sensor is used as a detection sensor to detect light reflected from the eye. LED for the light source
0 and LED1 are used, LED0 is arranged so that a red-eye image is generated on the detection line sensor, and LED1 is arranged with respect to the projection optical axis of LED0 so as not to generate a red-eye image on the detection line sensor. It is arranged so that the light is projected at an angle of 2 to 5 °. The light projected from the LEDs 0 and 1 is projected onto the eye through the beam splitter, and the reflected light from the eye is guided again to the line-of-sight optical system and the line sensor through the beam splitter.

【0045】図10(b),(c)はLED0,LED
1を投光した場合の眼の像の様子を示す。図10(b)
に示されるように、LED0からの投光でプルキンエ像
と赤目像が検出でき、図10(c)に示されるように、
LED1からの投光でプルキンエ像はあるが赤目像は検
出できない。これらLED0,LED1によってできる
プルキンエ像の位置はx軸方向には同じ位置にできるよ
うにLED0,LED1を配置する(検出センサ上にて
プルキンエ像の検出方向に対して直交する位置に光源を
配置)。
10 (b) and 10 (c) show LED0 and LED.
The appearance of the image of the eye when 1 is projected is shown. Figure 10 (b)
As shown in Fig. 10, the Purkinje image and the red-eye image can be detected by the light emitted from the LED0, and as shown in Fig. 10 (c),
There is a Purkinje image due to the light projected from the LED 1, but a red-eye image cannot be detected. The positions of the Purkinje image formed by these LEDs 0 and LED1 are arranged so that they can be located at the same position in the x-axis direction (the light source is arranged on the detection sensor at a position orthogonal to the detection direction of the Purkinje image). .

【0046】次に図11には図10(b),(c)のラ
インセンサ上の信号を示す。図11(c)の像は、図1
1(a)の信号と図11(b)の信号の差分処理を行っ
た状態を示し、赤目像のみが抽出されるのが判る。この
図11(c)に示される像より、赤目の重心(瞳孔の重
心)位置とMAX値(プルキンエ像位置)が検出され視
線方向が判定できる。
Next, FIG. 11 shows signals on the line sensor shown in FIGS. 10 (b) and 10 (c). The image in FIG. 11 (c) is shown in FIG.
It shows that the signal of FIG. 1 (a) and the signal of FIG. 11 (b) are subjected to the difference processing, and it can be seen that only the red-eye image is extracted. From the image shown in FIG. 11C, the position of the center of gravity of the red eye (the center of gravity of the pupil) and the MAX value (the position of the Purkinje image) are detected, and the line-of-sight direction can be determined.

【0047】以下、図12のフローチャートを参照し
て、第2の実施例に係るカメラの視線検出装置のシーケ
ンスを説明する。カメラシーケンスの開始すると、シー
ケンスのイニシャライズを行う。ここではフーカスエリ
アを中央に設定する(ステップS101)。続いて、1
stレリーズの判定を行い(ステップS102)、1s
tレリーズスイッチがオフの場合にはステップS108
へ移行し、1stレリーズスイッチがオンの場合には1
stレリーズに同期した視線検出を行う(図6乃至図8
参照)(ステップS103)。続いて、後述するサブル
ーチン“測距”を実行し、マルチAFの測距と測距情報
の選択を行う(ステップS104)。
The sequence of the visual axis detection device for a camera according to the second embodiment will be described below with reference to the flowchart of FIG. When the camera sequence starts, the sequence is initialized. Here, the focus area is set to the center (step S101). Then 1
The st release is determined (step S102), 1s
If the t-release switch is off, step S108
If the 1st release switch is on
The line-of-sight detection is performed in synchronization with the st release (FIGS. 6 to 8).
Reference) (step S103). Subsequently, a subroutine "distance measurement" described later is executed to perform distance measurement of multi-AF and selection of distance measurement information (step S104).

【0048】さらに、再度1stレリーズスイッチの判
定を行う(ステップS105)。そして、1stレリー
ズスイッチがオフの場合にはステップS108へ移行
し、1stレリーズスイッチがオンの場合には2ndレ
リーズの判定を行う(ステップS106)。そして、2
ndレリーズスイッチがオフの場合にはステップS10
5に戻り、2ndレリーズスイッチがONの場合には撮
影シーケンス(レンズ駆動,露出決定,露光)を行う
(ステップS107)。こうして本シーケンスを終了す
る(ステップS108)。
Further, the determination of the 1st release switch is performed again (step S105). If the 1st release switch is off, the process proceeds to step S108, and if the 1st release switch is on, the 2nd release is determined (step S106). And 2
If the nd release switch is off, step S10
Returning to step 5, when the 2nd release switch is ON, a photographing sequence (lens drive, exposure determination, exposure) is performed (step S107). In this way, this sequence ends (step S108).

【0049】ここで、図13のフローチャートを参照し
て、上記ステップS104にて実行されるサブルーチン
“測距”のシーケンスを説明する。測距を開始すると、
マルチ測距を行い(ステップS111)、総合信頼性に
関するフラグFpの評価を行い(ステップS112)、
Fp=0でない場合には視線データを用いない公知の評
価AFのアルゴリズムにてAFデータを設定する(ステ
ップS114)。そして、Fp=0の場合には視線方向
で決定された測距ブロックの情報にてAFデータを設定
する(ステップS113)。さらに、AFデータにてレ
ンズ駆動量を算出し(ステップS115)、本シーケン
スを抜ける(ステップS116)。
Here, the sequence of the subroutine "distance measurement" executed in step S104 will be described with reference to the flowchart of FIG. When you start ranging
Multi-distance measurement is performed (step S111), and the flag Fp related to total reliability is evaluated (step S112).
If Fp = 0 is not set, AF data is set by a known evaluation AF algorithm that does not use line-of-sight data (step S114). Then, when Fp = 0, the AF data is set by the information of the distance measurement block determined in the line-of-sight direction (step S113). Further, the lens drive amount is calculated from the AF data (step S115), and this sequence is exited (step S116).

【0050】ここで、図14にはラインセンサの構成を
示し説明する。この図14(a)はラインセンサのブロ
ック構成図を示しており、BSは光電変換素子で構成さ
れている。そして、DBSはBSを遮光して暗電流の補
正用の基本ブロックである。さらに、シフトレジスタは
KCPUからの制御信号にて各BSを駆動制御する。各
BSはKCPUの制御信号(T),(C)及びBS自体
が出力するモニタ信号(M)にて積分制御される。積分
制御はピーク値検出(どれかのBSが所定レベルに達し
たら積分を終了する信号を出力する)と時間制御を行
う。信号(M)はKCPUに記録され信号(T)として
次の積分開始までホールドされCは信号を保持する。さ
らに、眼の映像はシフトレジスタの信号に応じて暗電流
差分を消去し増幅後、CPU21のA/D回路に送られ
る。そして、積分時間制御は最も明るい状態(赤目発生
時)にて決定され、赤目非発生時の積分時間は赤目発生
時の積分時間で制御信号(T)で決定される。
Here, the structure of the line sensor is shown in FIG. 14 and will be described. FIG. 14A shows a block diagram of the line sensor, and BS is composed of a photoelectric conversion element. The DBS is a basic block for dark current correction by shielding the BS. Further, the shift register drives and controls each BS by a control signal from the KCPU. Each BS is integration-controlled by the control signals (T) and (C) of the KCPU and the monitor signal (M) output from the BS itself. The integration control performs peak value detection (when one of the BSs reaches a predetermined level, a signal for ending the integration is output) and time control. The signal (M) is recorded in the KCPU and held as the signal (T) until the next integration is started, and C holds the signal. Further, the image of the eye is sent to the A / D circuit of the CPU 21 after the dark current difference is erased and amplified according to the signal of the shift register. Then, the integration time control is determined in the brightest state (when red eye occurs), and the integration time when red eye does not occur is determined by the control signal (T) as the integration time when red eye occurs.

【0051】さらに、図14(b)はBSの内部回路を
示す図である。PDで光電変換され積分制御ようのゲー
トG02を介してコンデンサCに蓄積され、ゲートG0
1はPD,CのリセットをG02と共に行う。ゲートG
03は読み出し増幅を行い、ゲートG04はシフトレジ
スタの信号に応じて信号を読み出す。そして、ダイオー
ドD01はピーク値検出を行う。
Further, FIG. 14B is a diagram showing an internal circuit of the BS. It is photoelectrically converted by PD and is accumulated in the capacitor C through the gate G02 for integration control, and the gate G0
1 resets PD and C together with G02. Gate G
03 performs read amplification, and the gate G04 reads a signal according to the signal of the shift register. Then, the diode D01 detects the peak value.

【0052】以下、図15のフローチャートを参照して
積分時間制御のシーケンスを説明する。積分シーケンス
を開始すると、センサやタイマをリセットし(ステップ
S201)、投光LED0の判定を行う(ステップS2
02)。そして、LED0投光の場合には積分開始と同
時にタイマをスタートする(ステップS203)。
The integration time control sequence will be described below with reference to the flowchart of FIG. When the integration sequence is started, the sensor and the timer are reset (step S201), and the light emitting LED0 is determined (step S2).
02). Then, in the case of LED0 light projection, the timer is started at the same time when the integration is started (step S203).

【0053】続いて、タイマtの判定を行い(ステップ
S204)、t>td(tdは所定のリミット値)の場
合にはステップS208へ移行し、t>tdでない場合
には積分モニタ(ピーク値検出)信号の判定を行う(ス
テップS205)。
Subsequently, the timer t is determined (step S204). If t> td (td is a predetermined limit value), the process proceeds to step S208. If t> td is not satisfied, the integration monitor (peak value is determined). The detection) signal is determined (step S205).

【0054】そして、モニタ信号OFFの場合にはステ
ップS204へ戻り積分の継続を行う。モニタ信号ON
の場合には積分終了し(ステップS206)、積分時間
tcをCPUで記録し(ステップS207)、信号の読
み出しを行い(ステップS213)、リターンする(ス
テップS214)。
If the monitor signal is OFF, the process returns to step S204 to continue the integration. Monitor signal ON
In the case of, the integration is ended (step S206), the integration time tc is recorded by the CPU (step S207), the signal is read (step S213), and the process returns (step S214).

【0055】上記ステップS202において、LED0
が投光されない場合には、積分スタートと同時にタイマ
ースタートする(ステップS209)。そして、積分モ
ニタ(ピーク値検出:モニタ判定レベルはステップS2
07より高く設定する)信号の判定を行い(ステップS
210)、モニタ信号ONの場合にはステップS208
へ移行し、モニタ信号OFFの場合にはタイマtの判定
を行う(ステップS211)。さらに、t>tcでない
場合には(ステップS211)、ステップS210へ戻
り積分を継続する。
In step S202, LED0
If is not emitted, the timer is started at the same time as the integration is started (step S209). Then, the integration monitor (peak value detection: monitor determination level is step S2).
Signal is set higher than 07) (step S)
210), if the monitor signal is ON, step S208
When the monitor signal is OFF, the timer t is determined (step S211). If t> tc is not satisfied (step S211), the process returns to step S210 to continue the integration.

【0056】一方、ステップS211にて、t>tcの
場合には積分を終了し、ステップS213へ移行する
(ステップS211、212)。上記ステップS208
では、信号が信頼性が低い場合(積分時間が予定以上に
長い:眼が存在しない、積分終了が予定以上に短い:眼
以外の強い反射がある)であり信号をリセットしてステ
ップS213へ移行する(ステップS208)。
On the other hand, if t> tc in step S211, the integration is terminated and the process proceeds to step S213 (steps S211, 212). Step S208
Then, if the signal is low in reliability (the integration time is longer than expected: the eye does not exist, the integration end is shorter than expected: there is strong reflection other than the eye), the signal is reset, and the process proceeds to step S213. (Step S208).

【0057】尚、それぞれの積分の時間を判定して所定
時間内に積分時間が入っていない場合は信頼性が低いと
判定してデータを無効にしてもよい。次に本発明の第3
の実施例について説明する。
If the integration time is judged and the integration time is not within the predetermined time, it may be judged that the reliability is low and the data may be invalidated. Next, the third aspect of the present invention
An example will be described.

【0058】第3実施例に係るカメラの視線検出装置の
構成は第2施例と同様であり、第2施例のシーケンス内
に頼性が低い場合の所定回の繰り返し信号サンプリング
と表示によるキャリブレーションを追加したことに特徴
を有している。
The configuration of the visual axis detection device for a camera according to the third embodiment is the same as that of the second embodiment, and the calibration by the repeated signal sampling and display of a predetermined number of times when the reliability is low in the sequence of the second embodiment. It is characterized by the addition of options.

【0059】以下、図16乃至図18のフローチャート
を参照して、メインシーケンスについて説明する。カメ
ラシーケンスの開始すると、シーケンスのイニシャライ
ズを行う。ここではフォーカスエリアを中央に設定する
(ステップS301)。
The main sequence will be described below with reference to the flowcharts of FIGS. When the camera sequence starts, the sequence is initialized. Here, the focus area is set to the center (step S301).

【0060】続いて、1stレリーズの判定を行い(ス
テップS302)、1stレリーズスイッチがオフの場
合にはステップS315へ移行し、1stレリーズスイ
ッチがオンの場合には前述したサブルーチン“測距”を
実行し、マルチAFの測距と測距情報の選択を行う(ス
テップS303)。続いて、サブルーチン“視線検出”
を実行し、検出ブロックS0を記憶する(ステップS3
04)。
Then, the 1st release is determined (step S302), and if the 1st release switch is off, the process proceeds to step S315, and if the 1st release switch is on, the above-mentioned subroutine "distance measurement" is executed. Then, the distance measurement of the multi AF and the selection of the distance measurement information are performed (step S303). Then, the subroutine "line of sight detection"
Is executed and the detection block S0 is stored (step S3
04).

【0061】1st,2ndの割り込みがない限り、総
合信頼性に関するフラグFpが0(ステップS30
7)、又は所定回(M回)終了までは視線検出(検出ブ
ロックS0)を繰り返す(ステップS306〜S30
9)。
Unless there is a 1st or 2nd interrupt, the flag Fp relating to the overall reliability is 0 (step S30).
7) or until the predetermined number of times (M times) ends, the sight line detection (detection block S0) is repeated (steps S306 to S30).
9).

【0062】そして、ステップS307にて、Fp=0
の場合には後述するサブルーチン“視線検出(検出ブロ
ックS1)・補正”を実行する(ステップS310)。
即ち、図17のフローチャートに示されるように、サブ
ルーチン“視線検出・補正”のシーケンスでは、ファイ
ンダ内に初期化用の表示(図19参照)を行う(ステッ
プS321)。これは、フラッシングや音を組み合わせ
ると更に有効となる。続いて視線検出を行う。ここでは
検出ブロックはS1である(ステップS322)。そし
て、この視線にて検出したブロックS0をS1にて補正
して最終的な視線ブロックを決定し(ステップS32
3)、本シーケンスを抜ける(ステップS324)。
Then, in step S307, Fp = 0
In this case, the subroutine "visual axis detection (detection block S1) / correction" described later is executed (step S310).
That is, as shown in the flow chart of FIG. 17, in the subroutine “line-of-sight detection / correction” sequence, initialization display (see FIG. 19) is displayed in the finder (step S321). This becomes more effective when combined with flushing and sound. Subsequently, the line of sight is detected. Here, the detection block is S1 (step S322). Then, the block S0 detected with this line of sight is corrected in S1 to determine the final line of sight block (step S32).
3) Then, the present sequence is exited (step S324).

【0063】続いて、複数の測距情報より選択する(ス
テップS311)。即ち、図18のフローチャートに示
されるように、サブルーチン“測距判定”では、総合信
頼性に関するフラグFpの評価を行い(ステップS33
1)、Fp=0でない場合には視線データを用いない公
知の評価AFのアルゴリズムにてAFデータを設定し
(ステップS333)、Fp=0の場合には視線方向で
決定された測距ブロックの情報にてAFデータを設定す
る(ステップS332)。そして、AFデータにてレン
ズ駆動量に算出し(ステップS334)、本シーケンス
を抜ける(ステップS335)。
Then, a selection is made from a plurality of distance measurement information (step S311). That is, as shown in the flowchart of FIG. 18, in the subroutine "distance measurement determination", the flag Fp relating to the overall reliability is evaluated (step S33).
1) If Fp = 0 is not set, the AF data is set by a known evaluation AF algorithm that does not use the line-of-sight data (step S333), and if Fp = 0, the range-finding block determined in the line-of-sight direction is selected. The AF data is set by the information (step S332). Then, the lens drive amount is calculated from the AF data (step S334), and the present sequence is exited (step S335).

【0064】これ以降の処理は前述の第2の実施例と略
同様である為、ここでは説明を省略する(ステップS3
12〜S315)。尚、図19はファインダ内の初期位
置確認の表示の様子を示している。
Since the subsequent processing is substantially the same as that of the above-mentioned second embodiment, its explanation is omitted here (step S3).
12-S315). Note that FIG. 19 shows a display state for confirming the initial position in the finder.

【0065】以上、本発明の実施例について説明した
が、本発明はこれに限定されることなく種々の改良、変
更が可能であることは勿論である。例えば、視線検出方
式はエリアセンサを用いてもよい。また、信頼性判定を
まばたき、目の動きにて行っているが、カメラと顔の接
触(カメラファインダに眼を押し付けている)の判定や
眼鏡判定を組み合わせると更によい。
Although the embodiments of the present invention have been described above, it is needless to say that the present invention is not limited to these and various improvements and modifications can be made. For example, the line-of-sight detection method may use an area sensor. Further, although the reliability determination is performed by blinking and moving the eyes, it is more preferable to combine the determination of contact between the camera and the face (the eye is pressed against the camera finder) and the determination of glasses.

【0066】さらに、視線検出はAF,AE等のカメラ
のシーケンスと平行に行われてもよい。また、キャリブ
レーションを個人毎に行えばさらに検出精度は向上す
る。そして、AF方式においても、エリアセンサを用い
たパッシブタイプの2次元の広視野AFを用いてもよ
く、また、もっと数の少ない離散的なマルチAFを用い
てもよい。さらに、センサの積分制御に関しても図15
に示すように積分時間が同じになるようにハード的に制
御してもよい。
Further, the line-of-sight detection may be performed in parallel with the sequence of cameras such as AF and AE. Further, if the calibration is performed for each individual, the detection accuracy is further improved. Also in the AF method, a passive type two-dimensional wide-field AF using an area sensor may be used, or a smaller number of discrete multi-AFs may be used. Furthermore, regarding the integral control of the sensor, FIG.
As shown in, the hardware may be controlled so that the integration times are the same.

【0067】以上詳述したように、本発明によれば、本
発明は簡単な構成にて信頼性の高いカメラの視線検出装
置を提供できる。尚、本発明の上記実施態様によれば以
下のごとき構成が得られる。 (1)撮影者の目からの反射光束を受光し、信号を出力
する検出手段と、上記検出手段から見たとき眼底反射を
発生させる位置に置かれた第1投光手段と、上記検出手
段から見たとき眼底反射を発生させない位置に置かれた
第2投光手段と、上記第1,第2投光手段に応じて上記
検出手段からの信号によって撮影者の視線方向を検出
し、検出された信号の信頼性を判定する信号処理手段
と、を具備することを特徴とするカメラの視線検出装
置。 (2)上記(1)に記載の装置において、上記第1,第
2の投光手段は、それぞれ650nmよりも長い波長域
の光源手段を用いることを特徴とする。 (3)上記(1)に記載の装置において、上記第1,第
2の投光手段による光束と、上記反射光束の光路は、カ
メラの接眼光学系の光軸とその一部を共有することを特
徴とする。 (4)上記(1)に記載の装置において、上記第1投光
手段からの光束と、上記第2投光手段からの光束とは2
度乃至8度の角度差を有することを特徴とする。 (5)上記(1)に記載の装置において、上記信号処理
手段は第1投光手段による像信号と、第2投光手段によ
る像信号との差分処理に際して両者の照度補正すること
を特徴とする。 (6)上記(1)に記載の装置において、上記信号処理
手段は第1投光手段による角膜像と、第2投光手段によ
る角膜像との位置ずれにより信頼性判定することを特徴
とする。 (7)上記(1)に記載の装置において、上記信号処理
手段は上記検出手段の蓄積時間を以て信頼性を判定する
ことを特徴とする。 (8)上記(1)に記載の装置において、上記信号処理
手段は検出された像信号の最大値と平均値との差に応じ
て信頼性を判定することを特徴とする。 (9)上記(1)に記載の装置において、上記信号検出
手段は第1投光手段による像信号の最大値の位置と、第
1投光手段による像信号と、第2投光手段による像信号
との差分信号の重心を与える位置とにより視線方向を検
出することを特徴とする。 (10)上記(1)に記載の装置において、上記第1投
光手段と第2投光手段とは検出座標方向に対して同じ位
置にあることを特徴とする。 (11)撮影者の目からの反射光を検出する信号検出装
置と、上記信号検出装置から見て眼底反射を発生させる
第1投光装置と、上記信号検出装置から見て眼底反射を
発生させない第2投光装置と、視線検出の所定のタミン
グでファインダ内の所定位置に視線方向の表示を行う表
示装置と、上記表示装置が非点灯時に、上記第1,第2
の投光装置に応じて上記信号検出装置で検出された信号
と、上記表示装置の点灯時に、第1,第2の投光装置に
応じて上記信号検出装置で検出された信号とにより撮影
者の視線方向を検出し、検出された視線方向信号の信頼
性を判定することを特徴とするカメラの視線検出装置。
As described in detail above, according to the present invention, the present invention can provide a highly reliable visual axis detection device for a camera with a simple structure. According to the above embodiment of the present invention, the following configurations can be obtained. (1) Detection means for receiving a reflected light beam from the photographer's eyes and outputting a signal, a first light projecting means arranged at a position for generating fundus reflection when viewed from the detection means, and the detection means The second light projecting means placed at a position where the fundus reflection does not occur when viewed from above, and the line-of-sight direction of the photographer is detected by a signal from the detecting means in accordance with the first and second light projecting means, and detected. A line-of-sight detection device for a camera, comprising: a signal processing unit that determines the reliability of the received signal. (2) In the apparatus described in (1) above, the first and second light projecting means are light source means each having a wavelength region longer than 650 nm. (3) In the device described in (1), the light paths of the first and second light projecting means and the optical path of the reflected light beam share a part thereof with the optical axis of the eyepiece optical system of the camera. Is characterized by. (4) In the device described in (1), the luminous flux from the first light projecting unit and the luminous flux from the second light projecting unit are 2
It is characterized by having an angle difference of 8 to 8 degrees. (5) In the apparatus described in (1) above, the signal processing means corrects the illuminance of both when performing the difference processing between the image signal by the first light projecting means and the image signal by the second light projecting means. To do. (6) In the apparatus described in (1) above, the signal processing means is characterized in that the reliability is determined based on the positional deviation between the corneal image by the first light projecting means and the cornea image by the second light projecting means. . (7) In the device described in (1) above, the signal processing means determines reliability by using an accumulation time of the detection means. (8) In the apparatus described in (1) above, the signal processing means determines reliability according to a difference between the maximum value and the average value of the detected image signals. (9) In the apparatus described in (1) above, the signal detecting means includes a position of the maximum value of the image signal by the first light projecting means, an image signal by the first light projecting means, and an image by the second light projecting means. It is characterized in that the line-of-sight direction is detected by the position at which the center of gravity of the differential signal from the signal is given. (10) In the device described in (1) above, the first light projecting means and the second light projecting means are at the same position in the detection coordinate direction. (11) A signal detection device that detects reflected light from the photographer's eyes, a first light projecting device that causes fundus reflection when viewed from the signal detection device, and a fundus reflection that does not occur when viewed from the signal detection device A second light projecting device, a display device for displaying a line-of-sight direction at a predetermined position in the finder by a predetermined taming for line-of-sight detection, and the first and second display devices when the display device is not illuminated.
The photographer uses the signal detected by the signal detecting device according to the light projecting device and the signal detected by the signal detecting device according to the first and second light projecting devices when the display device is turned on. A visual line detection device for a camera, wherein the visual line direction of the camera is detected, and the reliability of the detected visual line direction signal is determined.

【0068】[0068]

【発明の効果】本発明によれば、時分割にて検出した視
線情報でプルキンエ像が所定以上ずれた場合には視線情
報を無視することで、簡単な構成にて信頼性の高い撮影
者の視線方向の検出を可能とするカメラの視線検出装置
を提供することができる。
According to the present invention, when the Purkinje image is deviated by a predetermined amount or more from the line-of-sight information detected by time division, the line-of-sight information is ignored, so that a highly reliable photographer can be provided with a simple structure. It is possible to provide a visual line detection device for a camera that can detect the visual line direction.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第1の実施例に係るカメラの視線検出
装置の構成を示す図である。
FIG. 1 is a diagram showing a configuration of a visual line detection device for a camera according to a first embodiment of the present invention.

【図2】略光軸より投光された光束の眼からの反射光の
受光出力を示す図である。
FIG. 2 is a diagram showing a light reception output of reflected light from an eye of a light beam projected from a substantially optical axis.

【図3】眼球の回転による検出像の変化の様子を示す図
である。
FIG. 3 is a diagram showing how a detected image changes due to rotation of an eyeball.

【図4】眼球中心が固定されるような場合の回転と角膜
反射95aと眼底反射95bの様子を示す図である。
FIG. 4 is a diagram showing rotation and corneal reflection 95a and fundus reflection 95b when the center of the eyeball is fixed.

【図5】眼球がシフトと角膜反射95aと眼底反射95
bの様子を示す図である。
FIG. 5: Eye shift and corneal reflex 95a and fundus reflex 95
It is a figure which shows the mode of b.

【図6】第1の実施例に係るカメラの視線検出装置によ
る視線検出のシーケンスを示すフローチャートである。
FIG. 6 is a flowchart showing a visual line detection sequence by the visual line detection device for a camera according to the first embodiment.

【図7】サブルーチン“信号検出”のシーケンスを示す
フローチャートである。
FIG. 7 is a flowchart showing a sequence of a subroutine “signal detection”.

【図8】サブルーチン“信号処理”のシーケンスを示す
フローチャートである。
FIG. 8 is a flowchart showing a sequence of a subroutine “signal processing”.

【図9】本発明の第2の実施例に係るカメラの視線検出
装置の構成を示す図である。
FIG. 9 is a diagram showing a configuration of a visual line detection device for a camera according to a second embodiment of the present invention.

【図10】ファインダ・視線光学系の詳細な構成を示す
図である。
FIG. 10 is a diagram showing a detailed configuration of a finder / line-of-sight optical system.

【図11】図10(b),(c)に対応したのラインセ
ンサ上の信号を示す図である。
FIG. 11 is a diagram showing signals on the line sensor corresponding to FIGS. 10B and 10C.

【図12】第2の実施例に係るカメラの視線検出装置の
シーケンス示すフローチャートである。
FIG. 12 is a flowchart showing a sequence of a visual line detection device for a camera according to a second embodiment.

【図13】サブルーチン“測距”のシーケンスを示すフ
ローチャートである。
FIG. 13 is a flowchart showing a sequence of a subroutine “distance measurement”.

【図14】ラインセンサの構成を示す図である。FIG. 14 is a diagram showing a configuration of a line sensor.

【図15】積分時間制御のシーケンスを説明するための
フローチャートである。
FIG. 15 is a flowchart for explaining a sequence of integration time control.

【図16】第3の実施例カメラの視線検出装置のシーケ
ンス示すフローチャートである。
FIG. 16 is a flowchart showing a sequence of the visual line detection device of the third embodiment camera.

【図17】サブルーチン“視線検出・補正”のシーケン
スを示すフローチャートである。
FIG. 17 is a flowchart showing a sequence of a subroutine “visual axis detection / correction”.

【図18】サブルーチン“測距判定”のシーケンスを示
すフローチャートである。
FIG. 18 is a flowchart showing a sequence of a subroutine “distance measurement determination”.

【図19】ファインダ内の初期位置確認の表示の様子を
示す図である。
FIG. 19 is a diagram showing a display state of confirmation of an initial position in the finder.

【符号の説明】[Explanation of symbols]

1…制御部、2…投光部、3…I/F部、4…センサ、
5…光学系。
1 ... Control unit, 2 ... Projection unit, 3 ... I / F unit, 4 ... Sensor,
5 ... Optical system.

フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 G03B 13/02 17/00 Q Continuation of front page (51) Int.Cl. 6 Identification number Office reference number FI technical display location G03B 13/02 17/00 Q

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 それぞれ所定の入射角を有した第1、第
2の光束を撮影者の眼球に投射する第1及び第2の投光
手段と、 上記第1及び第2の投光手段による眼球からの反射光を
結像した後に受光する光電変換手段と、を具備してな
り、 上記第1及び第2の投光手段に応じた上記光電変換手段
からの信号に基づいて撮影者の注視点を信頼性を評価し
つつ推定することを特徴とするカメラの視線検出装置。
1. A first and second light projecting means for projecting first and second light fluxes, each having a predetermined incident angle, onto an eyeball of a photographer; and the first and second light projecting means. A photoelectric conversion unit that receives reflected light from the eyeball and then receives the reflected light; and based on a signal from the photoelectric conversion unit corresponding to the first and second light projecting units, a photographer's note A line-of-sight detection device for a camera, which estimates a viewpoint while evaluating reliability.
【請求項2】 上記第1投光手段による光束は眼底反射
を発生させ、上記第2投光手段による光束は眼底反射を
発生させないことを特徴とする請求項1に記載のカメラ
の視線検出装置。
2. The line-of-sight detection device for a camera according to claim 1, wherein the luminous flux by the first light projecting means causes fundus reflection, and the luminous flux by the second light projecting means does not cause fundus reflection. .
【請求項3】 構図決定のための接眼光学系に含まれた
光路分割手段と、 第1の位置に置かれ、上記光路分割手段を介して撮影者
の眼球に所定波長の光を投射する第1の投光手段と、 第2の位置に置かれ、上記光路分割手段を介して撮影者
の眼球に所定波長の光を投射する第2の投光手段と、 上記第1,第2の投光手段による反射光を上記光路分割
手段を介して結像した後に受光する光電変換手段と、を
具備してなり、 上記光電変換手段からの出力のうち、上記第1光源手段
に対応する信号と、上記第2光源手段による信号とに基
づいて撮影者の注視点を信頼性を評価しつつ推定するこ
とを特徴とするカメラの視線検出装置。
3. An optical path splitting means included in an eyepiece optical system for determining a composition, and a first optical path splitting means which is placed at a first position and which projects light of a predetermined wavelength onto the eyeball of the photographer through the optical path splitting means. A first projecting means, a second projecting means which is placed at a second position and projects light of a predetermined wavelength onto the eyeball of the photographer through the optical path splitting means, and the first and second projecting means. Photoelectric conversion means for receiving the reflected light from the light means after forming an image through the optical path dividing means, and a signal corresponding to the first light source means in the output from the photoelectric conversion means. A line-of-sight detection device for a camera, which estimates a gazing point of a photographer while evaluating reliability based on a signal from the second light source means.
JP6109683A 1994-05-24 1994-05-24 Glance detecting device of camera Withdrawn JPH07313460A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6109683A JPH07313460A (en) 1994-05-24 1994-05-24 Glance detecting device of camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6109683A JPH07313460A (en) 1994-05-24 1994-05-24 Glance detecting device of camera

Publications (1)

Publication Number Publication Date
JPH07313460A true JPH07313460A (en) 1995-12-05

Family

ID=14516545

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6109683A Withdrawn JPH07313460A (en) 1994-05-24 1994-05-24 Glance detecting device of camera

Country Status (1)

Country Link
JP (1) JPH07313460A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002017677A (en) * 2000-07-07 2002-01-22 Hamamatsu Photonics Kk Convergence angle measurement instrument
JP2014532542A (en) * 2011-11-07 2014-12-08 アイフリューエンス,インコーポレイテッド. System and method for high resolution gaze detection

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002017677A (en) * 2000-07-07 2002-01-22 Hamamatsu Photonics Kk Convergence angle measurement instrument
JP2014532542A (en) * 2011-11-07 2014-12-08 アイフリューエンス,インコーポレイテッド. System and method for high resolution gaze detection

Similar Documents

Publication Publication Date Title
JPH06304142A (en) Device for detecting line of sight
JP3297481B2 (en) Eye gaze detection device
JPH0846836A (en) Line of sight detection method/device and image pickup device
JPH07313460A (en) Glance detecting device of camera
JP2004008323A (en) Optical device with visual axis function
JPH085897A (en) Finder device
JP3184634B2 (en) Optical device having line-of-sight detection device
US20230186520A1 (en) Gaze detection apparatus
US20220197111A1 (en) Gaze detection apparatus, gaze detection method, and non-transitory computer readable medium
JP3176147B2 (en) Eye gaze detection device
JP3352195B2 (en) Eye gaze detecting device, optical device, and eye gaze detecting method
JP3363492B2 (en) Eye gaze detection apparatus and eye gaze detection method
JP3344757B2 (en) Focus area setting device
JP3391892B2 (en) Eye gaze detecting device, optical device, and eye gaze detecting method
JP3296578B2 (en) camera
JPH05232372A (en) Camera provided with device for detecting line of sight
JPH0938038A (en) Sight line detection device and optical instrument therewith
JP2995878B2 (en) Optical device having line-of-sight detection device
JP3211427B2 (en) Eye gaze detection device
JP3219491B2 (en) Eye gaze detection device
JP3372646B2 (en) Optical device having line-of-sight detection device
JP3492324B2 (en) Optical device
JP2023006629A (en) Control device and control method
JP3624030B2 (en) Gaze detection device and optical device
JP3530648B2 (en) Eye gaze detecting device and optical device

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20010731