JPH0782539B2 - Pupil imager - Google Patents

Pupil imager

Info

Publication number
JPH0782539B2
JPH0782539B2 JP1181387A JP18138789A JPH0782539B2 JP H0782539 B2 JPH0782539 B2 JP H0782539B2 JP 1181387 A JP1181387 A JP 1181387A JP 18138789 A JP18138789 A JP 18138789A JP H0782539 B2 JPH0782539 B2 JP H0782539B2
Authority
JP
Japan
Prior art keywords
image
light source
light
photographing
pupil
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP1181387A
Other languages
Japanese (ja)
Other versions
JPH02138673A (en
Inventor
明 伴野
宗夫 飯田
Original Assignee
株式会社エイ・ティ・アール通信システム研究所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社エイ・ティ・アール通信システム研究所 filed Critical 株式会社エイ・ティ・アール通信システム研究所
Priority to JP1181387A priority Critical patent/JPH0782539B2/en
Publication of JPH02138673A publication Critical patent/JPH02138673A/en
Publication of JPH0782539B2 publication Critical patent/JPH0782539B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Eye Examination Apparatus (AREA)
  • Image Input (AREA)
  • Image Processing (AREA)
  • Position Input By Displaying (AREA)
  • Image Analysis (AREA)

Description

【発明の詳細な説明】 [産業上の利用分野] この発明は瞳孔画像撮影装置に関し、特に、眼球特徴点
である瞳孔を少ない光量の照明で安定に抽出するような
瞳孔画像撮影装置に関する。
Description: BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a pupil image capturing apparatus, and more particularly to a pupil image capturing apparatus capable of stably extracting a pupil, which is an eyeball feature point, with illumination with a small amount of light.

[従来の技術] 近年、コンピュータはその進歩により複雑かつ豊富な機
能を実現できるようになり、適用範囲が増々拡がりつつ
ある。一方、その利用者も専門家から非専門家に範囲を
拡げつつある。ここに、より複雑化するシステムをより
簡単に使用できるようにするヒューマンインタフェース
の技術が重要になる。人間同士のコミュニケーションで
は言葉だけでなく表情や仕草から相手の意思を推測する
ことによって円滑な対話が行なわれており、特に眼の動
きは意思疎通の重要な役割を果たしている。
[Prior Art] In recent years, computers have come to be able to realize complicated and abundant functions due to the progress thereof, and the range of application thereof is expanding more and more. On the other hand, its users are also expanding from specialists to non-professionals. Here, human interface technology that makes it easier to use more complex systems becomes important. In human-to-human communication, smooth dialogue is performed by inferring the other person's intention not only from words but also from facial expressions and gestures. In particular, eye movements play an important role in communication.

すなわち、視点の動きには人の意図が大きく反映される
と考えられる。コンピュータや通信システムインタフェ
ースでは利用者は何らかの表示装置に長い時間向かい合
うことになるため、表示装置の図面上の視点の動きを常
時検出できれば、利用者の意図を抽出する大きな手掛り
になると考えられる。端的には利用者がどこを見ている
のか、その先には、何に関心があるのか、迷いは何かな
どである。
That is, it is considered that the intention of the person is largely reflected in the movement of the viewpoint. Since a user faces a certain display device for a long time in a computer or a communication system interface, if the movement of the viewpoint on the drawing of the display device can be constantly detected, it is considered to be a great clue for extracting the user's intention. In short, what users are looking at, what they are interested in, and what hesitation is.

そこで、本願発明者らは、利用者の操作意図を汲取り、
柔軟な応答を返すインタフェース機能を実現すること、
さらに知的通信の分野において、受信者の視線の動きか
ら受信者の関心のある視対象を抽出し、送信側にフィー
ドバックすることにより、臨場感のある受手主体の画像
通信を実現することなどを狙いとして、視線の効率的な
検出方法の重要性を指摘してきた。
Therefore, the inventors of the present application collect the operation intention of the user,
To realize an interface function that returns a flexible response,
Furthermore, in the field of intelligent communication, by extracting the visual target of interest from the recipient from the movement of the recipient's line of sight and feeding it back to the sender, it is possible to realize a realistic image communication of the recipient. I have pointed out the importance of an efficient method of detecting the line of sight.

上述のような視線を検出する装置として、従来よりアイ
カメラが知られている。しかしながら、アイカメラは、
眼鏡を装着しなければならず、利用者が相対しているデ
ィスプレイの座標系で視点を求めるためには頭部を固定
する必要があるなどの制約があるため、視線をインタフ
ェースや画像通信に利用する目的には必ずしも向いてい
ない。すなわち、人に特別な物を装着させることなく、
非接触で視線を検出するためには、画像処理によって検
出する方法の方が有利である。
An eye camera has been conventionally known as a device for detecting the line of sight as described above. However, the eye camera
Since the user must wear eyeglasses, and the user's head must be fixed in order to obtain the viewpoint in the coordinate system of the display that the user is facing, the line of sight is used for the interface and image communication. It is not always suitable for the purpose. In other words, without making people wear special items,
In order to detect the line of sight without contact, the method of detecting by visual processing is more advantageous.

第23図は非接触視線検出装置の構造として考えられる一
例を示す図である。第23図を参照して、ディスプレイ1
の両側にはカメラ2,3と照明装置4,5とが設けられてい
る。このような非接触視線検出装置において、第1の課
題は照明装置4,5で照明された利用者の画像をカメラ2,3
により撮影し、撮影された画像から視線検出に必要な複
数の特徴点を抽出することにある。第2の課題は、それ
らの特徴点の空間位置を高速,高精度で計測することで
ある。第3の課題は、特徴点の位置から視線の方向およ
びディスプレイ上の注視点位置を求めることである。
FIG. 23 is a diagram showing an example conceivable as the structure of the non-contact visual line detection device. Referring to FIG. 23, display 1
Cameras 2 and 3 and lighting devices 4 and 5 are provided on both sides of. In such a non-contact line-of-sight detection device, the first problem is that the images of the user illuminated by the illumination devices 4 and 5 are captured by the cameras 2, 3
Is performed, and a plurality of feature points required for eye gaze detection are extracted from the captured image. The second problem is to measure the spatial positions of those feature points at high speed and with high accuracy. The third problem is to find the direction of the line of sight and the position of the point of gaze on the display from the positions of the feature points.

人物の動き、特に視線の動きは高速なため、これに追従
して動きを正確に検出するためには、まず明瞭な画像を
撮影し、簡単な画像処理で特徴点を抽出できるようにす
る必要がある。しかし、実際の室内では、利用者に対し
てディスプレイからの光の放射があり、さらに螢光灯な
ど外部照明の影響もあるので利用者の照明条件が変化す
る。したがって、常に安定な画像が得られるとは限らな
い。入力画像の質が悪ければ、雑音除去などに時間がか
かり、高速化が不可能である。
Since the movement of a person, especially the movement of the line of sight, is fast, it is necessary to capture a clear image first and to be able to extract the feature points by simple image processing in order to accurately detect the movement by following this movement. There is. However, in an actual room, the user emits light from the display, and the external lighting such as a fluorescent lamp influences the lighting condition of the user. Therefore, a stable image is not always obtained. If the quality of the input image is poor, it takes time to remove noise, etc., and speedup is impossible.

これを解決するための手段として、撮影対象である人物
に照明を当てる方法が考えられるが、この方法には以下
の問題点がある。すなわち、1つの問題は自然なインタ
フェース環境を得るのが困難である。すなわち、照明装
置としては、従来、白熱ランプ,キセノンランプ,ハロ
ゲンランプなどがよく知られているが、これらは波長域
が広く可視域を中心に分布するため、この光で利用者を
前方から照射する方法は、自然なインタフェースの点か
ら適さない。
As a means for solving this, a method of illuminating a person who is a photographing target can be considered, but this method has the following problems. That is, one problem is that it is difficult to obtain a natural interface environment. In other words, incandescent lamps, xenon lamps, halogen lamps, etc. have been well known as lighting devices, but since these have a wide wavelength range centered around the visible range, this light illuminates the user from the front. The method to do is not suitable in terms of a natural interface.

第2の問題点は装置の大型化および発熱化の問題であ
る。すなわち、インタフェースに使用する状況を考慮
し、従来の照明装置の照明条件を改善しようとすれば、
照明源の先にバンドパスフィルタや偏光板などの光学部
品を取付ける必要がある。たとえば、人に知覚されない
近赤外の照明を利用し、この反射光を捕える場合を考え
ると、可視光を遮断する必要がある。しかし、上述の従
来から知られた照明装置は発光の効率が悪く、発熱量が
大きいために周囲の温度が上昇してしまう。このため、
光源と光学素子を一体化するなどして小型にすることが
できず、したがって、照明装置は大型のものを使用せざ
るを得ない。
The second problem is that the device becomes large and heat is generated. In other words, considering the conditions used for the interface, and trying to improve the lighting conditions of conventional lighting devices,
It is necessary to install optical components such as bandpass filters and polarizing plates in front of the illumination source. For example, in the case of using near-infrared illumination that is not perceived by a person and capturing the reflected light, it is necessary to block visible light. However, the above-described conventionally known illuminating device has a low light emission efficiency and a large amount of heat generation, so that the ambient temperature rises. For this reason,
Since the light source and the optical element cannot be integrated into a small size, the illumination device must be a large one.

次に、照明は使用方法によっては、明瞭な画像が得ら
れ、特徴点抽出に効果があるが、反面、目的に合った使
用方法をとらなければ雑音源になり、逆効果となる。人
物または眼球の特徴点を抽出する場合を例にとって詳し
く説明する。
Next, although illumination produces a clear image depending on the method of use and is effective in extracting characteristic points, on the other hand, if it is not used in accordance with the purpose, it becomes a noise source and has the opposite effect. A case of extracting the feature points of a person or an eyeball will be described in detail as an example.

第24図は従来の照明装置と撮影装置を用いて人物の顔に
合った青色のマークを特徴点としてこれを抽出する実験
を行なった例を示す図であり、第25A図および第25B図は
第24図に示した実験によって顔の特徴点を抽出した例を
示す図である。
FIG. 24 is a diagram showing an example of an experiment in which a blue mark matching a person's face is extracted as a feature point using a conventional lighting device and a photographing device, and FIGS. 25A and 25B are shown. FIG. 25 is a diagram showing an example in which facial feature points are extracted by the experiment shown in FIG. 24.

人物の顔には第25A図に示すように、4箇所に青色のマ
ーカ6が貼られている。第24図に示した照明装置8から
撮影対象10に参照光9を照射し、その反射光をカメラ13
で捕えて撮影した画像から青色成分を抽出し、2値化処
理した結果が第25B図に示す画像である。第25B図から明
らかなように、青色マーク6の他に雑音成分7が捉えら
れており、問題のあることがわかる。この原因は以下の
ように考えられる。すなわち、撮影対象10に参照光9を
照射したとき、反射する光は大きく2種類の成分に分け
られる。一方は、撮影対象10の表面で拡散反射する光11
であり、反射する材質の光学的性質を反映している。し
たがって、視線検出などに必要な特徴点のうち、後述の
角膜反射像を除いて、顔の要素(口,まつ毛,眼もと,
目尻,鼻など)および瞳孔などの特徴点抽出において有
益な成分である。他方は、撮影対象10の表面で正反射す
る成分12であり、光源の光学的性質をそのまま反映して
いる。すなわち、撮影対象10の性質を反映していない成
分であるため雑音となりやすい。後者は撮影対象10のな
めらかな部分に多く含まれる。具体的には、撮影対象が
人物の場合、顔に付いた汗の部分,眼鏡の縁,眼鏡レン
ズ,人物の周囲にあるプラスチックやガラスなどの構造
物がこれに当たる。第25B図に示した例では、雑音7は
汗の箇所である。
As shown in FIG. 25A, blue markers 6 are attached to four points on the person's face. The reference light 9 is emitted from the illumination device 8 shown in FIG.
The image shown in FIG. 25B is the result of binarization by extracting the blue component from the image captured and captured in. As is clear from FIG. 25B, the noise component 7 is captured in addition to the blue mark 6, which shows that there is a problem. The cause of this is considered as follows. That is, when the object 10 to be photographed is irradiated with the reference light 9, the reflected light is roughly divided into two types of components. One is the light 11 which is diffusely reflected on the surface of the object to be photographed 10.
And reflects the optical properties of the reflective material. Therefore, among the feature points necessary for detecting the line of sight, elements of the face (mouth, eyelashes, eyes,
It is a useful component in extracting feature points such as the corners of the eyes and nose) and pupils. The other is the component 12 that is specularly reflected on the surface of the object 10 to be photographed, which directly reflects the optical properties of the light source. That is, since it is a component that does not reflect the nature of the object to be photographed 10, it is likely to become noise. The latter is often included in the smooth part of the subject 10. Specifically, when the object to be photographed is a person, the part of sweat attached to the face, the edge of the glasses, the spectacle lens, and structures such as plastic and glass around the person correspond to this. In the example shown in FIG. 25B, noise 7 is a place of sweat.

第25A図および第25B図に示した例では、顔に貼った青色
のマークを抽出する場合を述べたが、他の色のマークを
用い、この色成分を抽出する場合も同様である。また、
マークを用いることなく、自然画像から目,鼻,口,ま
つ毛などの各部分を抽出する場合でも、正反射成分12は
雑音となることが多い。さらにマークを用いないで人物
の顔の形状を検出する他の例として、モアレ法,光切断
法に代表されるように、予め制御された形状パターンを
撮影対象に照射し、この反射像から2値化像(反射パタ
ーン)を抽出し、この反射パターンの形を特徴として、
撮影対象の3次元形状を計測するいわゆるアクティブス
テレオビジョンがあるが、この方法においても、撮影対
象が正反射しやすい場合には、この正反射によって作ら
れる像が雑音となり、撮影対象の特徴である反射パター
ンの抽出に支障のあることが多い。
In the example shown in FIGS. 25A and 25B, the case of extracting the blue mark attached to the face has been described, but the same applies to the case of using this mark of another color and extracting this color component. Also,
Even when parts such as eyes, nose, mouth, and eyelashes are extracted from a natural image without using marks, the specular reflection component 12 often becomes noise. Further, as another example of detecting the shape of a person's face without using a mark, a pre-controlled shape pattern is irradiated on the object to be photographed, as represented by the moire method and the light section method, and 2 Extracting a binarized image (reflection pattern) and featuring the shape of this reflection pattern,
There is so-called active stereo vision that measures the three-dimensional shape of the object to be photographed. Even in this method, when the object to be photographed is easily specularly reflected, the image created by this regular reflection becomes noise, which is a characteristic of the object to be photographed. There are often problems in extracting the reflection pattern.

次に、従来の照明装置の配置と瞳孔特徴点抽出効率に関
する問題点について説明する。利用者には何も装着せず
に利用者の視線を非接触で検出するには、後述するよう
に複数の特徴点を画像処理により抽出する必要がある。
瞳孔は虹彩の開口部である。瞳孔は大きさが適当で、瞼
の影響を受けにくく、視線への変換にも便利であるた
め、適当な抽出法があれば、適用性の広い特徴点といえ
る。しかし、瞳孔は一般に黒く観察されるため、虹彩が
黒褐色の場合、これを区別して瞳孔だけを抽出する必要
がある。
Next, problems with the arrangement of the conventional illumination device and the extraction efficiency of the pupil feature points will be described. In order to detect the user's line of sight in a contactless manner without wearing anything on the user, it is necessary to extract a plurality of feature points by image processing as described later.
The pupil is the opening of the iris. The size of the pupil is appropriate, it is not easily affected by the eyelids, and it is convenient for conversion to the line of sight. Therefore, it can be said that it has a wide applicability if there is an appropriate extraction method. However, since the pupil is generally observed to be black, when the iris is blackish brown, it is necessary to distinguish this and extract only the pupil.

瞳孔の抽出はアイカメラなどでも例があり、いくつかの
方法が知られており、たとえばUSP4,102,564、USP4,14
5,122、USP3,689,135、USP4,075,657、USP4,755,045、U
SP4,303,394、USP4,651,145、USP4,702,575などに記載
されている。ある種のアイカメラでは、眼鏡に光源を組
込んで眼球に光を照射し、この反射光を撮影し、瞳孔と
虹彩の反射光の強度を測定する方法を用いている。アイ
カメラのように装置を頭に装着して使用する場合は、照
明装置と撮影装置の距離が近く、かつ頭部の動きに連動
するため、照明装置は眼球だけを照明すればよく、また
撮影装置は眼球だけを撮影すればよい。つまり、雑音の
影響を受けにくく、したがって瞳孔と虹彩の反射光の強
度差のみでも瞳孔の抽出が可能である。
There are some examples of eye extraction in eye cameras, and several methods are known. For example, USP4,102,564, USP4,14
5,122, USP3,689,135, USP4,075,657, USP4,755,045, U
It is described in SP4,303,394, USP4,651,145, USP4,702,575 and the like. Some types of eye cameras use a method in which a light source is incorporated in eyeglasses, light is emitted to the eyeball, the reflected light is photographed, and the intensities of the reflected light of the pupil and the iris are measured. When the device is worn on the head like an eye camera, the lighting device is close to the shooting device and is linked to the movement of the head, so the lighting device only needs to illuminate the eyeballs. The device need only image the eyeball. That is, the influence of noise is small, and therefore the pupil can be extracted only by the intensity difference between the reflected light of the pupil and the reflected light of the iris.

しかし、インタフェースの利用を考えた視線検出では、
上述のように非接触である必要から、撮影範囲は眼球部
分だけではなく、頭の動きを許容する広い範囲が望まれ
る。たとえば、顔全体を撮影した画像から、瞳孔を抽出
する必要がある。このような場合、前述の方法では、瞳
孔部分は背景雑音から分離することは困難である。
However, in gaze detection considering the use of the interface,
Since it is necessary to be non-contact as described above, it is desired that the photographing range is not limited to the eyeball portion but a wide range that allows the movement of the head. For example, it is necessary to extract the pupil from an image of the entire face. In such a case, it is difficult to separate the pupil part from the background noise by the above method.

第26図は瞳孔の他の抽出法として、瞳孔から光を入射
し、網膜で反射する光を捉える方法を示す図である。第
26図を参照して、カメラ20の撮影レンズ21の光軸22上に
ハーフミラー23が設けられ、このハーフミラー23を用い
て光軸を合わせるように従来の照明装置24が配置され
る。なお、1つの光源を用いた照明装置で瞳孔内の反射
強度分布が均一であるように、つまり、強度分布の偏り
が少ないような瞳孔画像を得るためには、このようなハ
ーフミラー23を用いるのは不可欠である。
FIG. 26 is a diagram showing another method of extracting the pupil, in which light is incident from the pupil and light reflected by the retina is captured. First
Referring to FIG. 26, a half mirror 23 is provided on the optical axis 22 of the taking lens 21 of the camera 20, and a conventional lighting device 24 is arranged so that the optical axis is aligned using the half mirror 23. It is to be noted that such an half mirror 23 is used in order to obtain a pupil image in which the distribution of the reflection intensity in the pupil is uniform in the illumination device using one light source, that is, in which the intensity distribution is less biased. Is essential.

照明装置24の前方には可視遮断フィルタ25が配置され、
この可視遮断フィルタ25によって照明装置24からの光の
うち可視波長成分が遮断され、ハーフミラー23でレンズ
21の光軸22に一致され、人物26に照射される。この光は
人物26の瞳孔から入り、網膜で反射し、再びハーフミラ
ー23を通過してカメラ20によって捉えられる。したがっ
て、瞳孔が虹彩に対して明るく撮影される。
A visible cutoff filter 25 is arranged in front of the lighting device 24,
The visible cutoff filter 25 cuts off the visible wavelength component of the light from the illumination device 24, and the half mirror 23 forms a lens.
It is aligned with the optical axis 22 of 21 and is illuminated on the person 26. This light enters from the pupil of the person 26, is reflected by the retina, passes through the half mirror 23 again, and is captured by the camera 20. Therefore, the pupil is photographed brightly with respect to the iris.

[発明が解決しようとする課題] しかしながら、第26図に示した方法では、以下のような
問題がある。すなわち、ハーフミラー23を用いているた
め装置が大型になる。撮影範囲が眼球周辺でなく、たと
えば顔全体というように広がる場合、この方法でも同様
に雑音の影響が大きくなり、安定な瞳孔抽出が困難とな
る。雑音の影響を少なくするためには、照明を強くする
ことも考えられるが、可視遮断フィルタ25によって光量
が落ち、ハーフミラー23でさらに1/2に減少されて照射
され、反射光がハーフミラー23でさらに1/2に減少する
ため、照明装置24の光がカメラ20で捉えられる間の損失
が大きく、効率が悪い。照明を強くすれば、消費電力が
大きくなり、発熱量も大きくなってしまう。この影響を
少なくするためには、各部品を離して実装する工夫も必
要であり、装置がさらに大型化する。また、照明を強く
することは利用者の眼に生理的負担を与えてしまい望ま
しくない。したがって、この方法も視線検出用カメラを
ディスプレイの横に取付けてインタフェースへ利用する
ような目的には適さない。
[Problems to be Solved by the Invention] However, the method shown in FIG. 26 has the following problems. That is, since the half mirror 23 is used, the device becomes large. When the photographing range is widened not around the eyes but around the entire face, for example, the influence of noise also increases in this method, and stable pupil extraction becomes difficult. In order to reduce the influence of noise, it is conceivable to increase the illumination, but the light amount is reduced by the visible cutoff filter 25, the half mirror 23 further reduces the light amount to 1/2, and the reflected light is reflected by the half mirror 23. Since the light of the lighting device 24 is captured by the camera 20, the loss is large and the efficiency is low. If the lighting is strengthened, power consumption increases and heat generation also increases. In order to reduce this effect, it is necessary to devise a method in which each component is mounted separately, which further increases the size of the device. In addition, increasing the intensity of light imposes a physiological burden on the eyes of the user, which is not desirable. Therefore, this method is also not suitable for the purpose of attaching the sight line detecting camera to the side of the display and using it as an interface.

角膜反射像は眼球に光を照射したとき、角膜の凸面で正
反射した光が作る虚像であり、視線の動きにほぼ比例し
て眼球と同じ方向に動くため、視線検出に有効な特徴点
である。抽出の問題点は、背景雑音からの分離である。
The corneal reflection image is a virtual image created by the light regularly reflected by the convex surface of the cornea when the eyeball is irradiated with light, and since it moves in the same direction as the eyeball in almost proportion to the movement of the line of sight, it is an effective feature point for detecting the line of sight. is there. The problem with extraction is the separation from background noise.

第27図は角膜反射像をカメラで撮影する装置の一例を示
す図である。第27図を参照して、参照光源31からの光が
利用者30の目に照射されると、視線検出に必要な角膜反
射像がカメラ32によって撮影される。しかし、利用者30
の目には参照光源31からの光だけでなく、利用者が相対
しているディスプレイ33の表示面からの光や螢光灯など
の外部照明34からの光も光源となり、これらの光が角膜
で反射して虚像を作る。したがって、カメラで捉えた画
像において、眼球の中には、いくつもの角膜反射像が発
生し、それが雑音となるため、参照光源31からの光によ
る角膜反射像の抽出を困難にする。
FIG. 27 is a diagram showing an example of an apparatus for photographing a corneal reflection image with a camera. Referring to FIG. 27, when the light from the reference light source 31 is applied to the eyes of the user 30, the corneal reflection image necessary for detecting the line of sight is captured by the camera 32. But user 30
Not only the light from the reference light source 31 but also the light from the display surface of the display 33 facing the user and the light from the external illumination 34 such as a fluorescent lamp are sources of light to the eyes of the cornea. To create a virtual image. Therefore, in the image captured by the camera, a number of corneal reflection images are generated in the eyeball and become noise, which makes it difficult to extract the corneal reflection image by the light from the reference light source 31.

人物や眼球など、動きのある対象を撮影する場合、ぶれ
のない画像を得るためには、撮影時間は短い方がよい。
このために、最近では電子シャッタ付カメラが実用化さ
れている。撮影時間が短いこのようなカメラでは、強い
照明が必要とされる。しかし、インタフェースにおい
て、人物の照明に従来の照明装置を用いることを考える
と、熱や強い光で長い時間照射されるため、眼球や生体
に与える影響が問題となる。
When shooting a moving object such as a person or an eyeball, the shooting time is preferably short in order to obtain an image without blurring.
For this reason, recently, a camera with an electronic shutter has been put into practical use. Strong illumination is required for such cameras with short shooting times. However, considering that a conventional lighting device is used to illuminate a person in the interface, heat and strong light irradiate the interface for a long period of time, so that the influence on the eyeball and the living body becomes a problem.

一方、特徴点の空間位置の計測については、ステレオ画
像計測法が知られているが、従来特徴点の抽出が上述の
ごとく困難であったため、インタフェースへの使用をふ
まえて顔や眼球の特徴点の空間位置をリアルタイムで計
測した検討例はない。
On the other hand, for measuring the spatial position of feature points, a stereo image measurement method is known, but it has been difficult to extract feature points in the past as described above. There is no study example of real-time measurement of the spatial position of.

画像処理による視線検出について、従来、いくつかの方
法が提案されている。しかし、いずれも特徴点の効率的
な抽出が困難なこと、空間位置の高速な検出が困難なこ
となどの理由から、視線検出に多くの条件を設けてお
り、適用範囲が限定される場合が多い。構成としては、
1台の白黒カメラを用いる方式が多い。その一例につい
て以下に説明する。
Conventionally, several methods have been proposed for visual axis detection by image processing. However, because of the fact that it is difficult to extract feature points efficiently, and it is difficult to detect spatial position at high speed, many conditions are set for eye gaze detection, and the applicable range may be limited. Many. As a configuration,
Many systems use one black and white camera. An example thereof will be described below.

第28図は撮影された画像上で、白眼の中の黒眼の位置を
検出し、視線に変換する方法を説明するための図であ
る。第28図を参照して、人物の顔がカメラ41によって撮
影され、撮影された顔画像から眼の部分42が抽出され、
目の中の黒眼43と白眼44の領域が分離される。次に、白
眼44の領域の長さaと、白眼44の端から黒眼43の中心ま
での長さxが求められる。視線の方向は近似的にx/aに
比例するとして求められる。白眼44,黒眼43の領域の抽
出処理は高速化が難しいため、リアルタイム検出は実現
されていない。この方法では、顔の位置と方向を何らか
の方法で求めない限り、自由度は眼球の回転運動だけに
制限される。さらに、眼球の回転運動についても、目の
大きさは表情によって変化するため、高い検出精度は得
られない。特に、上下の眼の動きについては、黒眼43の
領域が瞼の影響で変化するため、検出が困難である。
FIG. 28 is a diagram for explaining a method of detecting the position of the black eye in the white eye and converting it into the line of sight on the captured image. Referring to FIG. 28, the face of a person is photographed by the camera 41, the eye portion 42 is extracted from the photographed face image,
The areas of the black eye 43 and the white eye 44 in the eye are separated. Next, the length a of the region of the white eye 44 and the length x from the end of the white eye 44 to the center of the black eye 43 are obtained. The direction of the line of sight can be calculated as approximately proportional to x / a. Real-time detection has not been realized because it is difficult to speed up the extraction processing of the regions of the white eye 44 and the black eye 43. In this method, the degree of freedom is limited to the rotational movement of the eyeball unless the position and direction of the face are obtained by some method. Further, with respect to the rotational movement of the eyeball, the size of the eye changes depending on the facial expression, so high detection accuracy cannot be obtained. In particular, it is difficult to detect the movement of the upper and lower eyes because the area of the black eye 43 changes due to the effect of the eyelids.

第29図は瞳孔と角膜反射像を特徴点として用い、1台の
カメラで検出する方法を説明するための図である。第7
図を参照して、参照光源51の位置はカメラ50の座標系に
対して既知とする。参照光源51からの参照光によって生
じる角膜反射像53の空間位置および瞳孔54の空間位置は
眼球52の回転中心の位置と、眼球の上下,左右の回転角
α,βによりそれぞれ独立に決まる。したがって、角膜
反射像の位置と、瞳孔54の位置と、眼球52の構造パラメ
ータである眼球の半径aと、角膜の曲率半径cと、眼球
中心と角膜曲率中心との間の距離bとがわかれば、眼球
52の回転中心と眼球52の回転角が決まり、したがって視
線が求められる。角膜反射像53と瞳孔54の位置は、カメ
ラ50から眼球52までの距離がほぼ一定とする条件を設け
れば、1枚の投影画像から求めることができる。このよ
うにして、眼球52の左右の回転角αおよび上下の回転角
βに対して視線を求めることができるが、上述の制約条
件から顔がz軸方向に動くと精度が悪くなるという欠点
がある。
FIG. 29 is a diagram for explaining a method of detecting with one camera using the pupil and the corneal reflection image as feature points. 7th
Referring to the figure, the position of reference light source 51 is known with respect to the coordinate system of camera 50. The spatial position of the corneal reflection image 53 and the spatial position of the pupil 54 generated by the reference light from the reference light source 51 are independently determined by the position of the center of rotation of the eyeball 52 and the vertical and horizontal rotation angles α, β of the eyeball. Therefore, the position of the corneal reflex image, the position of the pupil 54, the radius a of the eyeball which is a structural parameter of the eyeball 52, the radius of curvature c of the cornea, and the distance b between the center of the eyeball and the center of corneal curvature are determined. Eyeball
The rotation center of 52 and the rotation angle of the eyeball 52 are determined, and therefore the line of sight is obtained. The positions of the corneal reflection image 53 and the pupil 54 can be obtained from one projection image if the condition that the distance from the camera 50 to the eyeball 52 is substantially constant is provided. In this way, the line of sight can be obtained for the left and right rotation angles α and the upper and lower rotation angles β of the eyeball 52, but there is a drawback that the accuracy deteriorates when the face moves in the z-axis direction due to the above constraint condition. is there.

また、上述の第28図および第29図に示した例はカメラが
1台であるため、注視点を求める難しさもある。上述の
いずれかの方法をインタフェースに利用する場合、ディ
スプレイのどこを見ているかを知る必要があり、したが
ってディスプレイ座標系で注視点を求める必要がある。
ディスプレイ座標系で利用者がどこを見ているかを知る
ためには、ディスプレイ表示面の予め定められた点を利
用者に見てもらい、そのデータをもとに較正する必要が
ある。しかし、カメラが1台の場合、この較正パラメー
タが多くなるため、較正の方法が複雑になり、精度が悪
くなってしまう。
Further, in the examples shown in FIGS. 28 and 29 described above, since there is only one camera, it is difficult to find the gazing point. When using any of the above methods for the interface, it is necessary to know where to look on the display and therefore to find the point of gaze in the display coordinate system.
In order to know where the user is looking in the display coordinate system, it is necessary to let the user see a predetermined point on the display surface of the display and calibrate based on the data. However, when there is only one camera, the number of calibration parameters increases, which complicates the calibration method and deteriorates the accuracy.

それゆえに、この発明の主たる目的は、瞳孔を明るく撮
影したり、暗く撮影したりして瞳孔を効率よく抽出でき
るような瞳孔画像撮影装置を提供することである。
Therefore, a main object of the present invention is to provide a pupil image photographing device capable of efficiently extracting the pupil by photographing the pupil brightly or darkly.

[課題を解決するための手段] 請求項1に係る発明は、瞳孔画像を撮影するための瞳孔
画像撮影装置であって、撮影レンズの有効径の外側に設
けられ、眼の方向を照射する第1の光源と、第1の光源
の反射光を撮影レンズを介して結像し、第1の画像信号
を出力する第1の撮影手段と、撮影レンズの光軸付近に
設けられ、眼の方向を照射する第2の光源と、第2の光
源の反射光を撮影レンズを介して結像し、第2の画像信
号を出力する第2の撮影手段と、第1および第2の撮影
手段出力の画像信号の差分信号を第3の画像信号として
出力する処理手段とを備え、第2の光源はその光源と撮
影対象である眼球を結ぶ線分と、撮影レンズの中心と眼
球を結ぶ線分とのなす角をθth2としたとき、θth2≦5
゜の角度となるように設置され、第1の光源はその光源
と撮影対象である眼球を結ぶ線分と、撮影レンズの中心
と眼球を結ぶ線分とのなす角をθth1としたとき、θth1
≧θth2+1゜の角度となるように設置され、第1およ
び第2の撮影手段は、第1および第2の光源からの反射
光に基づく画像を交互に間欠的に撮影するように構成さ
れる。
[Means for Solving the Problem] The invention according to claim 1 is a pupil image photographing device for photographing a pupil image, which is provided outside an effective diameter of a photographing lens and irradiates the direction of the eye. No. 1 light source and a first photographing means for forming an image of reflected light of the first light source through a photographing lens and outputting a first image signal, and an eye direction provided in the vicinity of the optical axis of the photographing lens. A second light source for irradiating the second light source, and a second photographing means for forming an image of reflected light of the second light source through a photographing lens and outputting a second image signal; and outputs of the first and second photographing means. And a processing means for outputting a differential signal of the image signal as a third image signal, and the second light source is a line segment connecting the light source and the eyeball to be photographed, and a line segment connecting the center of the photographing lens to the eyeball. If the angle between and is θth2, θth2 ≤ 5
The first light source is installed at an angle of ° and the angle between the line segment connecting the light source and the eye to be photographed and the line segment connecting the center of the photographing lens to the eye is θth1.
The first and second photographing means are arranged so as to form an angle of ≧ θth2 + 1 °, and are configured to alternately and intermittently photograph images based on the reflected light from the first and second light sources.

請求項2に係る発明は、瞳孔画像を撮影するための瞳孔
画像撮影装置であって、撮影レンズの有効径の外側に設
けられ、眼の方向を照射する第1の光源と、第1の光源
の反射光を撮影レンズを介して結像し、第1の映像信号
を出力する第1の撮影手段と、撮影レンズの光軸付近に
設けられ、眼の方向を照射する第2の光源と、第2の光
源の反射光を撮影レンズを介して結像し、第2の画像信
号を出力する第2の撮影手段と、第1および第2の撮影
手段出力の画像信号の差分信号を第3の画像信号として
出力する処理手段を備え、さらに撮影レンズに入射され
た第1の光源からの反射光に基づく画像と第2の光源か
らの反射光に基づく画像とをそれぞれ分離して、第1お
よび第2の撮影手段に個別的に与えるためのプリズム光
学系を含み、第1および第2の光学系は、それぞれの発
光波長がプリズム光学系で分離可能な程度に異なる発光
ダイオードによって構成したものである。
The invention according to claim 2 is a pupil image photographing device for photographing a pupil image, the first light source being provided outside an effective diameter of a photographing lens, and illuminating the direction of the eye; A first photographing means for forming an image of the reflected light of the image through a photographing lens and outputting a first video signal; and a second light source which is provided near the optical axis of the photographing lens and illuminates the direction of the eye. A second photographing means for forming an image of reflected light of the second light source through a photographing lens and outputting a second image signal, and a difference signal between the image signals output from the first and second photographing means for the third Of the first light source incident on the photographing lens and the image based on the second reflected light from the second light source are separated to separate the first image signal from the first light source. And a prism optical system for individually providing to the second photographing means, Preliminary second optical system, which is constituted by a respective different emission wavelengths to the extent possible separation prism optical system emitting diode.

[作用] 請求項1に係る発明では、撮影レンズの有効径の外側に
設けられた第1の光源から撮影レンズの中心に対してθ
th1≧θth2+1゜の角度で眼の方向を照射するととも
に、撮影レンズの光軸付近に設けられた第2の光源から
撮影レンズの中心に対してθth2≦5゜の角度で眼の方
向を照射し、撮影レンズを介して第1および第2の光源
の反射光を第1および第2の撮影手段によって間欠的に
結像し、それぞれから出力される画像信号の差分を求め
て出力する。
[Operation] In the invention according to claim 1, from the first light source provided outside the effective diameter of the taking lens with respect to the center of the taking lens, θ
The eye direction is illuminated at an angle of th1 ≧ θth2 + 1 °, and the eye direction is illuminated at an angle of θth2 ≦ 5 ° with respect to the center of the taking lens from a second light source provided near the optical axis of the taking lens. The reflected light from the first and second light sources is intermittently imaged by the first and second photographing means via the photographing lens, and the difference between the image signals output from each of them is obtained and output.

請求項2に係る発明では、撮影レンズの有効径の外側に
設けられた第1の光源から眼の方向を照射するととも
に、撮影レンズの光軸付近に設けられた第2の光源から
眼の方向を照射し、第1および第2の光源からの反射光
に基づく画像をプリズム光学系によって分離して第1お
よび第2の撮影手段に個別的に与え、第1および第2の
撮影手段から出力される画像信号の差分を求めて出力す
る。
In the invention according to claim 2, while irradiating the direction of the eye from the first light source provided outside the effective diameter of the taking lens, the direction of the eye from the second light source provided near the optical axis of the taking lens. And the images based on the reflected light from the first and second light sources are separated by the prism optical system and individually given to the first and second photographing means, and output from the first and second photographing means. The difference between the image signals to be processed is calculated and output.

[発明の実施例] 第1図はこの発明の概念を説明するための図であり、第
2図は視線検出に必要な特徴点の種類とその性質を示す
図である。
[Embodiment of the Invention] FIG. 1 is a diagram for explaining the concept of the present invention, and FIG. 2 is a diagram showing the types and characteristics of feature points necessary for line-of-sight detection.

まず、第1図および第2図を参照して、この発明の概念
について説明する。カメラ60によって顔画像が撮影さ
れ、カメラ60の出力である画像信号から頭部を反映する
特徴点と眼の特徴点とが抽出される。頭部を反映する特
徴点は、第2図に示すように、目尻,目頭,唇などがそ
れぞれ色の差によって検出が可能である。目の特徴点は
角膜反射像と黒眼と瞳孔であり、角膜反射像は角膜の凸
面で正反射した光が作る虚像であり、視線の動きにほぼ
比例して眼球と同じ方向に動くという性質がある。黒眼
は虹彩と強膜の反射強度差により観測され、参照光を用
いなくとも室内の照明で抽出できるという性質がある。
瞳孔は虹彩とこの開口部における網膜からの反射光の強
度差により観測され、瞼の影響を受けにくいという性質
がある。
First, the concept of the present invention will be described with reference to FIGS. 1 and 2. A face image is captured by the camera 60, and a feature point reflecting the head and a feature point of the eye are extracted from the image signal output from the camera 60. As shown in FIG. 2, the feature points that reflect the head can be detected by the difference in color between the outer corners of the eyes, inner corners of the eyes, lips, and the like. The characteristic points of the eye are the corneal reflex image, the black eye, and the pupil, and the corneal reflex image is a virtual image created by the light regularly reflected by the convex surface of the cornea, and moves in the same direction as the eyeball in proportion to the movement of the line of sight. There is. The black eye is observed due to the difference in reflection intensity between the iris and the sclera, and it has the property that it can be extracted by indoor lighting without using reference light.
The pupil is observed by the intensity difference of the reflected light from the retina at the iris and this opening, and has the property that it is not easily affected by the eyelids.

抽出された頭部を反映する特徴点から頭部の位置と方向
が検出され、その結果は眼球中心位置に変換される。一
方、抽出された眼の特徴点から瞳孔または黒眼の中心が
検出され、その結果と変換された眼球中心位置とに応答
して、視線の方向が検出される。
The position and direction of the head are detected from the extracted feature points that reflect the head, and the result is converted into the eyeball center position. On the other hand, the center of the pupil or the black eye is detected from the extracted eye feature points, and the direction of the line of sight is detected in response to the result and the converted eyeball center position.

さらに、頭部のモデル化が行なわれる。このモデル化
は、顔上の皮膚の動きの少ない少なくとも3つの顔の特
徴点によって行なわれ、各顔の特徴点の位置から頭部の
位置と方向が検出される。
In addition, the head is modeled. This modeling is performed by at least three feature points of the face with little skin movement on the face, and the position and direction of the head are detected from the positions of the feature points of each face.

また、頭部のモデル化は、顔上の少なくとも4つ以上の
顔の特徴点の位置から頭部骨格に対して動きの少ない少
なくとも3つの仮想特徴点が求められ、その仮想特徴点
の位置から頭部の位置と方向が検出される。
Further, in modeling the head, at least three virtual feature points with little movement with respect to the skeleton of the head are obtained from the positions of at least four face feature points on the face, and from the positions of the virtual feature points. The position and orientation of the head are detected.

さらに、眼鏡のフレーム枠の周囲の少なくとも3箇所に
特徴抽出が容易なマーク物体が設けられ、その眼鏡を装
着することにより、頭部がマーク物体でモデル化され、
マーク物体の位置から頭部の位置と方向が検出される。
Further, a mark object whose feature extraction is easy is provided in at least three places around the frame of the eyeglass, and by wearing the eyeglass, the head is modeled with the mark object,
The position and direction of the head are detected from the position of the marked object.

第3図はこの発明の画像撮影装置の一実施例を示す図で
あり、第4図は第3図に示した撮影レンズの前方から見
た図であり、第5図は側面から見た図である。
FIG. 3 is a view showing an embodiment of the image taking apparatus of the present invention, FIG. 4 is a view seen from the front of the taking lens shown in FIG. 3, and FIG. 5 is a side view. Is.

第3図を参照して、カメラユニット60の前方には照明装
置61とレンズ65が配置される。照明装置61は第4図に示
すように、レンズの周囲に配置される発光ダイオード66
を含む。発光ダイオード66の前方には直線偏光板63が配
置され、レンズ65の前方には可視遮断フィルタ68が配置
される。直線偏光板63は発光ダイオード66の光を偏光化
し、可視遮断フィルタ68は螢光灯などの外部照明から出
る可視光を遮断する。さらに、レンズ65の光軸から離れ
た位置に照明装置62が配置される。この照明装置62は発
光ダイオード64とその前方に設けられる直線偏光板67を
含む。
Referring to FIG. 3, a lighting device 61 and a lens 65 are arranged in front of the camera unit 60. As shown in FIG. 4, the lighting device 61 includes a light emitting diode 66 arranged around the lens.
including. A linear polarizing plate 63 is arranged in front of the light emitting diode 66, and a visible cutoff filter 68 is arranged in front of the lens 65. The linear polarizing plate 63 polarizes the light of the light emitting diode 66, and the visible cutoff filter 68 blocks visible light emitted from external lighting such as a fluorescent lamp. Further, the illumination device 62 is arranged at a position away from the optical axis of the lens 65. The lighting device 62 includes a light emitting diode 64 and a linear polarization plate 67 provided in front of the light emitting diode 64.

カメラユニット60は、3個のプリスム607,608および609
を含み、プリズム607と608との間には波長分離面610が
形成されていて、プリズム608と609との間にはハーフミ
ラー611が配置されている。さらに、プリズム607の光出
射面に対向して偏光板615とCCD撮像素子612が配置さ
れ、プリズム608の光の出射面にはCCD撮像素子614が配
置され、プリズム609の光の出射面には偏光板616とCCD
撮像素子613が配置される。偏光板615および616は照明
装置61,62の前方に設けられている直線偏光板63,67に対
して偏光面が直交している。CCD撮像素子613および614
の出力は差分画像演算手段617に与えられて角膜反射像
が抽出される。CCD撮像素子612および613の出力は差分
演算手段618に与えられて瞳孔が抽出される。
The camera unit 60 includes three prisms 607, 608 and 609.
A wavelength separation surface 610 is formed between the prisms 607 and 608, and a half mirror 611 is arranged between the prisms 608 and 609. Further, a polarizing plate 615 and a CCD image pickup device 612 are arranged facing the light emission face of the prism 607, a CCD image pickup device 614 is arranged on the light emission face of the prism 608, and a light emission face of the prism 609 is arranged. Polarizer 616 and CCD
The image sensor 613 is arranged. Polarizing planes of the polarizing plates 615 and 616 are orthogonal to the linear polarizing plates 63 and 67 provided in front of the illumination devices 61 and 62. CCD image sensors 613 and 614
Is output to the difference image calculation means 617, and the corneal reflection image is extracted. The outputs of the CCD image pickup devices 612 and 613 are given to the difference calculation means 618 to extract the pupil.

第6図はこの発明の一実施例に用いられる光学部品の光
学的性質を示す特性図である。第3図に示した照明装置
61,62に用いられる発光ダイオード64,66は人の眼に知覚
されない近赤外のものが用いられる。この実施例では、
発光ダイオード64は波長λ1が850nmであり、発光ダイ
オード66は波長λ2が950nmのものが用いられる。これ
らの発光ダイオード64,66の波長特性は第6図に示す
,であり、レンズ65の前方に設けられる可視遮断フ
ィルタ68の特性は第6図のであり、CCD612,613および
614の感応特性は第6図に示すのようになる。第6図
から明らかなように、発光ダイオード64,66は波長の半
値幅が狭いため、中心波長が100nm程度離れたものを用
いれば、それぞれの発光ダイオード64,66から発光され
る2つの光は干渉しない。また、この波長では、日の眼
にはほとんど知覚されない。もし、人の眼に知覚される
ようであれば、発光波長をさらに長波長側に移しても
い。また、シリコンのCCD撮像素子612,613,614は、第6
図に示すように、この波長域で十分な感応特性がある。
FIG. 6 is a characteristic diagram showing the optical property of the optical component used in one embodiment of the present invention. Illumination device shown in FIG.
The light emitting diodes 64 and 66 used for 61 and 62 are near infrared rays which are not perceived by the human eye. In this example,
The light emitting diode 64 has a wavelength λ1 of 850 nm, and the light emitting diode 66 has a wavelength λ2 of 950 nm. The wavelength characteristics of these light emitting diodes 64 and 66 are shown in FIG. 6, and the characteristics of the visible cutoff filter 68 provided in front of the lens 65 are shown in FIG.
The sensitive characteristic of 614 is as shown in FIG. As is clear from FIG. 6, since the light-emitting diodes 64 and 66 have narrow half-widths of wavelengths, two lights emitted from the respective light-emitting diodes 64 and 66 can be obtained by using those whose central wavelengths are separated by about 100 nm. Do not interfere. Also, at this wavelength, it is hardly perceived by the eyes of the day. If it is perceived by the human eye, the emission wavelength may be shifted to the longer wavelength side. The silicon CCD image pickup devices 612, 613, 614 are
As shown in the figure, there is a sufficient sensitivity characteristic in this wavelength range.

第7図は発光ダイオードと偏光板を一体化して照明装置
とした例を示す外観斜視図である。第7図を参照して、
基板71には発光ダイオード72が実装され、基板71にはス
ペーサ73を介して一定の距離を隔てて光学素子取付用の
フレーム74が取付けられている。このフレーム74には、
偏光板や可視遮断・近赤外透過フィルタなどの光学素子
75が取付けられている。さらに、基板71と光学素子75に
はカメラレンズ用の孔が形成されていて、これらの2つ
の孔を連結するために筒76が設けられる。
FIG. 7 is an external perspective view showing an example of a lighting device in which a light emitting diode and a polarizing plate are integrated. Referring to FIG. 7,
A light emitting diode 72 is mounted on the substrate 71, and a frame 74 for mounting an optical element is attached to the substrate 71 via a spacer 73 at a constant distance. In this frame 74,
Optical elements such as polarizing plates and visible blocking / near infrared transmission filters
75 is installed. Further, a hole for a camera lens is formed in the substrate 71 and the optical element 75, and a cylinder 76 is provided to connect these two holes.

上述のごとく、第7図に示した例では、光学素子75の周
囲をフレーム74で覆うことにより機械的強度を増し、光
学素子75の歪などを防止できる。この構造を光学素子75
の屈折率の異方性があり、波長によって特性が変化する
場合には特に重要である。すなわち、曲げなどの歪が加
わると、所定の参照光が得られない場合があるからであ
る。また、筒76は発光ダイオード72から照射された参照
光が直接レンズに入射するのを防止する。すなわち、こ
の筒76によって参照光と反射光とが分離される。
As described above, in the example shown in FIG. 7, by covering the periphery of the optical element 75 with the frame 74, the mechanical strength can be increased and distortion of the optical element 75 can be prevented. This structure is an optical element 75
Has anisotropy in the refractive index, and is particularly important when the characteristics change depending on the wavelength. That is, when strain such as bending is applied, a predetermined reference light may not be obtained. Further, the cylinder 76 prevents the reference light emitted from the light emitting diode 72 from directly entering the lens. That is, the tube 76 separates the reference light and the reflected light.

次に、第3図を参照して、この発明の一実施例の動作に
ついて説明する。照明装置61,62の発光ダイオード64,66
でそれぞれ発光された光は偏光板67,63によってそれぞ
れ偏光され、人物に照射され、その反射光は可視遮断フ
ィルタ68からレンズ65を介してプリズム607に入射され
る。ここで、波長λ2(950mm)の光は波長分離膜610に
よって分離され、偏光板615を介してCCD撮像素子612に
入射され、像を結像する。仮に、照明装置62による照明
の偏光を横方向とすると、偏光板615の偏光方向を90゜
ずらして縦方向とすることにより、CCD撮像素子612の感
光面には正反射成分が遮断された像、すなわち拡散反射
成分の像が結像される。正反射は撮影対象のなめらかな
面で起きるため、正反射成分は光源の光学的性質を強く
保っている。
Next, the operation of the embodiment of the present invention will be described with reference to FIG. Light emitting diodes 64, 66 of lighting devices 61, 62
The lights respectively emitted by (1) and (2) are polarized by the polarizing plates 67 and 63, and are irradiated to a person, and the reflected light is incident on the prism 607 from the visible cutoff filter 68 via the lens 65. Here, the light of wavelength λ2 (950 mm) is separated by the wavelength separation film 610 and is incident on the CCD image pickup device 612 via the polarizing plate 615 to form an image. If the polarized light of the illumination by the illuminating device 62 is in the horizontal direction, the polarization direction of the polarizing plate 615 is shifted by 90 ° to the vertical direction, so that the image in which the specular reflection component is blocked on the photosensitive surface of the CCD image sensor 612 is cut off. That is, an image of the diffuse reflection component is formed. Since specular reflection occurs on the smooth surface of the subject, the specular component strongly maintains the optical properties of the light source.

一方、拡散反射成分は、撮影対象の吸収・反射特性によ
って変調を受けており、顔の特徴点や瞳孔,黒眼などの
抽出には、雑音を抑えかつS/Nを改善する点から拡散反
射像を用いるのが好ましい。一方、波長λ1の反射光は
可視遮断フィルタ68,レンズ65およびプリズム607を通過
し、プリズム608と609との界面に設けられたハーフミラ
ー611で分割される。分割された一方の光は偏光板616を
介してCCD撮像素子613に入射されて像を結像し、他方の
光はそのままCCD撮像素子614に入射され、像を結像す
る。したがって、CCD撮像素子614の出力像には、正反射
成分と拡散反射成分との両方の成分が含まれ、CCD撮像
素子613の出力像には、拡散反射成分だけが含まれる。
なお、偏光板615,616を通過した光は強度が1/2になるた
め、ハーフミラー611では分割比を1対2にし、CCD撮像
素子613と614の像の強度がほぼ同程度になるようにして
いる。
On the other hand, the diffuse reflection component is modulated by the absorption / reflection characteristics of the object to be photographed, and for the extraction of facial feature points, pupils, black eyes, etc., diffuse reflection component is used to suppress noise and improve S / N. It is preferred to use images. On the other hand, the reflected light of the wavelength λ1 passes through the visible cutoff filter 68, the lens 65 and the prism 607, and is split by the half mirror 611 provided at the interface between the prisms 608 and 609. One of the split lights is incident on the CCD image sensor 613 through the polarizing plate 616 to form an image, and the other light is directly incident on the CCD image sensor 614 to form an image. Therefore, the output image of the CCD image sensor 614 includes both specular reflection components and diffuse reflection components, and the output image of the CCD image sensor 613 includes only diffuse reflection components.
Since the intensity of light passing through the polarizing plates 615 and 616 is halved, the split ratio of the half mirror 611 is set to 1: 2 so that the image intensities of the CCD image pickup devices 613 and 614 are almost the same. There is.

第8A図はこの発明の一実施例により撮影した拡散反射像
を示す図であり、第8B図は特徴点抽出の効果を示す図で
ある。この発明の一実施例では、人の顔に貼った青色マ
ークを特徴点として、これを抽出する実験を行ない、こ
の発明の原理を確認した。従来の撮影方法と比較する実
験の都合上、光源として発光ダイオードではなく、白色
光源(ハロゲンライト)を用い、偏光化して照射した。
カメラは通常の3板式のカラーカメラを用い、結像光軸
上に、照明に使用した偏光板と偏光方向が直交する偏光
板を挿入して撮影した。カメラが捉えた反射光から上述
の方法により、拡散反射成分を抽出した例が第8A図であ
る。この画素から青色成分を抽出し、2値化した画像が
第8B図である。この第8B図と前述の従来例である第25B
図とを比較すると、雑音が少なく、特徴点として青色マ
ーク77が効率良く抽出されている様子がわかる。
FIG. 8A is a diagram showing a diffuse reflection image photographed by an embodiment of the present invention, and FIG. 8B is a diagram showing an effect of feature point extraction. In one embodiment of the present invention, the blue mark attached to the face of a person was used as a feature point, and an experiment was conducted to extract this, and the principle of the present invention was confirmed. For the convenience of the experiment comparing with the conventional photographing method, a white light source (halogen light) was used as the light source instead of the light emitting diode, and the light was polarized and irradiated.
An ordinary three-plate color camera was used as a camera, and a polarizing plate whose polarization direction was orthogonal to that of the polarizing plate used for illumination was inserted on the image forming optical axis for photographing. FIG. 8A shows an example in which the diffuse reflection component is extracted from the reflected light captured by the camera by the above method. FIG. 8B is an image in which the blue component is extracted from this pixel and binarized. This FIG. 8B and the above-mentioned conventional example, 25B.
Comparing with the figure, it can be seen that the noise is small and the blue mark 77 is efficiently extracted as a feature point.

次に、角膜反射像の抽出について説明する。角膜反射像
は前述の角膜の表面で参照光源の光が正反射して作る虚
像である。したがって、この場合は正反射像は求める信
号となる。角膜反射像の抽出は第3図においてCCD撮像
素子613と614との像の差分を差分演算手段617によって
抽出することによって行なわれる。角膜反射像の抽出に
おいて、従来問題であったことは、前述のごとく外部表
面やディスプレイの光が角膜で反射して像を作り、参照
光源の像に重なることであった。しかしながら、この発
明の一実施例では、発光ダイオード64の光が偏光化され
ているため、これと直交する偏光板616によって発光ダ
イオード64からの光の反射像による角膜反射像が遮断さ
れ、拡散反射像が残る。したがって、上述のごとく差分
演算手段617により角膜反射像が背景から抽出される。
Next, extraction of the corneal reflection image will be described. The corneal reflection image is a virtual image created by specularly reflecting the light of the reference light source on the surface of the cornea. Therefore, in this case, the specular reflection image becomes a desired signal. The corneal reflection image is extracted by extracting the difference between the images of the CCD image pickup devices 613 and 614 in FIG. 3 by the difference calculating means 617. In the extraction of the corneal reflection image, the conventional problem has been that the light from the external surface or the display is reflected by the cornea to form an image and overlaps with the image of the reference light source as described above. However, in the embodiment of the present invention, since the light of the light emitting diode 64 is polarized, the corneal reflection image due to the reflection image of the light from the light emitting diode 64 is blocked by the polarizing plate 616 orthogonal thereto, and diffuse reflection is performed. The statue remains. Therefore, as described above, the difference calculation means 617 extracts the corneal reflection image from the background.

しかし、外部照明は、一般に偏光していないため、CCD
撮像素子613と614とでは同様な画像が撮影され、差分を
とると消えてしまう。このようにして、差分演算手段61
7から得られる差分画像は雑音が少ないため、S/Nの高い
角膜反射像の抽出が可能である。
However, external lighting is generally unpolarized, so the CCD
Similar images are taken by the image pickup devices 613 and 614 and disappear when the difference is taken. In this way, the difference calculation means 61
Since the difference image obtained from 7 has little noise, it is possible to extract a corneal reflection image with high S / N.

第9A図〜第9C図は角膜反射像の抽出例を示す図である。
この第9A図〜第9C図に示した例は、上述の原理を確認す
るため、第3図と同様の撮影系を用いて角膜反射像を抽
出する実験を行なった結果を示したものであり、第9A図
はCCD撮像素子614から得られた画像であり、正反射成分
と拡散反射成分とを含んでいる。第9B図はCCD撮像素子6
13から得られた画像であって、拡散反射成分のみを含ん
でいる。また、差分演算手段617から出力された差分画
像は、第9C図に示すように、背景の中から角膜反射像が
明瞭に抽出されている様子がわかる。
9A to 9C are diagrams showing an example of extracting a corneal reflection image.
The examples shown in FIGS. 9A to 9C show the results of an experiment for extracting a corneal reflection image using the same imaging system as in FIG. 3 in order to confirm the above-mentioned principle. , FIG. 9A is an image obtained from the CCD image pickup device 614 and includes a specular reflection component and a diffuse reflection component. Fig. 9B shows CCD image sensor 6
The image obtained from 13 contains only diffuse reflection components. In the difference image output from the difference calculation means 617, it can be seen that the corneal reflection image is clearly extracted from the background as shown in FIG. 9C.

次に、瞳孔の抽出について説明する。第3図に示すよう
に、第1の照明装置61は第4図に示すように、レンズ65
の光軸を囲むように配置された発光ダイオード66を含
む。この照明装置61からの照明による反射像、すなわち
CCD撮像素子612から出力される像では、瞳孔は背景に対
して明るく撮影される。背景に対する瞳孔強調化は、こ
れだけでは十分とはいえないが、適用範囲を限定すれば
瞳孔の抽出が可能である。一方、第2の照明装置62はレ
ンズ65の光軸から離れて配置されていて、この照明装置
62の照明による反射像、すなわちCCD撮像素子613または
614から得られた像は、瞳孔が暗く撮影される。したが
って、CCD撮像素子612から得られる画像とCCD撮像素子6
13から得られる画像の差分処理またはCCD撮像素子612か
ら得られる画像とCCD撮像素子614から得られる画像との
差分処理により、瞳孔は背景から一層強調され、抽出が
容易になる。なお、第2の照明装置62は、上述のごとく
設置条件が厳しくないため、螢光灯などの外部照明で代
用してもよい。ただし、この場合照明の反射光がCCD撮
像素子613または614に到達することが必要であり、した
がって外部照明は近赤外の成分を持つものとするか、あ
るいはレンズ可視遮断フィルタ68を除く必要がある。
Next, the extraction of the pupil will be described. As shown in FIG. 3, the first lighting device 61 has a lens 65 as shown in FIG.
The light emitting diode 66 is arranged so as to surround the optical axis of. The reflection image by the illumination from this illumination device 61, that is,
In the image output from the CCD image sensor 612, the pupil is photographed brightly against the background. Although it cannot be said that the pupil enhancement for the background is sufficient by itself, it is possible to extract the pupil by limiting the application range. On the other hand, the second lighting device 62 is arranged away from the optical axis of the lens 65, and
62 reflected image by illumination, that is, CCD image sensor 613 or
The image obtained from 614 has a dark pupil. Therefore, the image obtained from the CCD image sensor 612 and the CCD image sensor 6
By the difference processing of the image obtained from 13 or the difference processing between the image obtained from the CCD image pickup element 612 and the image obtained from the CCD image pickup element 614, the pupil is further emphasized from the background, and extraction is facilitated. The second lighting device 62 may be replaced by external lighting such as a fluorescent lamp because the installation conditions are not so strict as described above. However, in this case, it is necessary for the reflected light of the illumination to reach the CCD image pickup device 613 or 614, and therefore external illumination must have a near-infrared component or the lens visible cutoff filter 68 must be removed. is there.

第10図,第11A図ないし第11C図および第12図は瞳孔が明
るく撮影される光源の配置を説明するための図である。
FIG. 10, FIG. 11A to FIG. 11C, and FIG. 12 are views for explaining the arrangement of the light sources for photographing the pupil brightly.

次に、光源の位置と瞳孔の明るさとの関係について、第
10図を参照して詳細に説明する。眼球80は半径の異なる
透明球が中心を隔てて重なった複合球としてモデル化で
きる。撮影レンズ86の光軸にあるこのような眼球80に対
して光を照射し、その反射光を捉える場合を考える。眼
球80の虹彩81の開口部が瞳孔85である。光源87から照射
された光は角膜84で屈折し、眼球80内に入り、瞳孔85を
通過し、網膜に対応する拡散反射面82に到達する。一部
の光は網膜細胞に吸収されるが、残りの光はここで拡散
反射される。反射光のうち、再び瞳孔85を通過できる光
が概ね光源の方向に戻る。したがって、この方向に撮影
レンズ86があり、反射光を捉えることができれば、撮影
画像において瞳孔85の部分は明るく輝いた像になる。
Next, regarding the relationship between the position of the light source and the brightness of the pupil,
This will be described in detail with reference to FIG. The eye 80 can be modeled as a composite sphere in which transparent spheres having different radii overlap each other with a center therebetween. Consider a case where light is emitted to such an eyeball 80 on the optical axis of the taking lens 86 and the reflected light is captured. The opening of the iris 81 of the eye 80 is the pupil 85. The light emitted from the light source 87 is refracted by the cornea 84, enters the eyeball 80, passes through the pupil 85, and reaches the diffuse reflection surface 82 corresponding to the retina. Some light is absorbed by the retinal cells, while the rest is diffusely reflected here. Of the reflected light, the light that can pass through the pupil 85 again returns to the direction of the light source. Therefore, if there is the taking lens 86 in this direction and the reflected light can be captured, the portion of the pupil 85 becomes a bright and bright image in the taken image.

しかし、撮影レンズ86が光源87から離れると、反射光を
十分に捉えることができなくなり、瞳孔85の部分におい
て明るく輝く領域は特異な形になる。第10図に示すよう
に、光源87が撮影レンズ86の光軸近くにあれば、第11B
図に示すように、瞳孔85内で明るく輝く領域が広くな
る。しかし、光源88のように撮影レンズ86から離れる
と、第11A図に示すように、明るく輝く領域が大きく偏
る。このように明るさが不均一な瞳孔像では2値化し、
重心を求める処理をしても瞳孔85の中心を正確に求める
ことができず、視線検出の誤差が大きくなる。したがっ
て、視線検出の精度を上げる観点からは、瞳孔85が均一
な明るさで撮影されることは特に望ましい。
However, when the taking lens 86 is separated from the light source 87, the reflected light cannot be sufficiently captured, and the bright and bright area in the pupil 85 portion has a peculiar shape. If the light source 87 is near the optical axis of the taking lens 86 as shown in FIG.
As shown in the figure, a bright and bright area in the pupil 85 is widened. However, when the light source 88 is separated from the taking lens 86, the bright and bright areas are largely biased, as shown in FIG. 11A. In this way, the pupil image with uneven brightness is binarized,
Even if the process of obtaining the center of gravity cannot be performed, the center of the pupil 85 cannot be accurately obtained, and the error in the line-of-sight detection increases. Therefore, from the viewpoint of improving the accuracy of line-of-sight detection, it is particularly desirable that the pupil 85 be photographed with uniform brightness.

そこで、この発明の一実施例では、瞳孔85内の全域を均
一に明るく撮影するために、光源87を撮影レンズ86の光
軸の近くに配置するとともに、光軸の周囲に配置するこ
とが望ましいとしている。第11C図は第4図に示した照
明装置61を用いて撮影した瞳孔像を模式的に示したもの
である。第4図に示した発光ダイオード66は第11B図,
第11A図に示すように瞳孔85の特定部分を明るく撮影す
るために作用するが、光軸の周囲に配置された発光ダイ
オード66による作用の和として撮影される瞳孔像は全体
が均一に明るくなる。なお、レンズ光軸の近傍に光源87
を配置する構成は、発光ダイオード66のような小型で効
率の良い光源を使用して初めて可能となる。
Therefore, in one embodiment of the present invention, in order to uniformly and brightly photograph the entire area of the pupil 85, it is desirable to dispose the light source 87 near the optical axis of the photographing lens 86 and around the optical axis. I am trying. FIG. 11C schematically shows a pupil image photographed by using the illumination device 61 shown in FIG. The light emitting diode 66 shown in FIG.
As shown in FIG. 11A, it acts to brightly image a specific portion of the pupil 85, but the entire pupil image is photographed as the sum of the actions of the light emitting diodes 66 arranged around the optical axis. . Note that the light source 87 is located near the lens optical axis.
The arrangement can be realized only when a small and efficient light source such as the light emitting diode 66 is used.

次に、第12図を参照して、瞳孔を均一に明るく撮影する
条件について説明する。撮影条件として影響する主なパ
ラメータは以下のとおりである。
Next, with reference to FIG. 12, the conditions for uniformly brightening the pupil will be described. The main parameters that influence the shooting conditions are as follows.

レンズ中心位置を基準としたときの眼球の位置d,g
および眼球の回転角ξ 光源の位置 上述のパラメータの中で、のパラメータは視線検出法
を使用する環境条件によって定まる。インタフェースの
環境では、眼球の位置dは50cm〜200cm程度であり、眼
球の位置gは±30cm程度であり、回転角ξは±20゜程度
である。このような条件の中で、第11A図,第11B図に示
すように瞳孔の少なくとも一部を明るく撮影するための
光源の配置条件を実験により求めると、この条件は各光
源と撮影対象を結ぶ線分l1やl1′とレンズ中心と眼球を
結ぶ線分l2やl2′とのなす角θでほぼ決まり、θの値は
θth1(5゜)以下であった。
Eyeball position d, g relative to the lens center position
And the angle of rotation of the eyeball ξ The position of the light source Among the above parameters, the parameter of is determined by the environmental conditions using the eye gaze detection method. In the interface environment, the eyeball position d is about 50 cm to 200 cm, the eyeball position g is about ± 30 cm, and the rotation angle ξ is about ± 20 °. Under such a condition, as shown in FIGS. 11A and 11B, when an arrangement condition of light sources for brightly photographing at least a part of the pupil is obtained by an experiment, this condition connects each light source and an object to be photographed. The angle θ formed by the line segments l 1 and l 1 ′ and the line segments l 2 and l 2 ′ connecting the center of the lens and the eyeball was almost determined, and the value of θ was less than θth1 (5 °).

また、瞳孔が明るく撮影される部分が全く現われないよ
うな角度についてはθth2(6゜)以上であった。つま
り、5゜前後を境として、瞳孔は明るく撮影されるかあ
るいは暗く撮影されるかに分かれる。このθth1,θth2
の値は環境条件により設定される。したがって、瞳孔を
明るく撮影するための照明装置61ではレンズ光軸を取囲
む各光源をθth1以下にすればよい。光源の数は多いほ
どよいが、3個以上が望ましい。
The angle at which the brightly photographed part of the pupil did not appear was θth2 (6 °) or more. In other words, the pupil is divided into bright and dark images with about 5 ° as a boundary. This θth1, θth2
The value of is set according to environmental conditions. Therefore, in the illumination device 61 for brightly photographing the pupil, each light source surrounding the lens optical axis may be set to θth1 or less. The larger the number of light sources, the better, but it is preferable that the number of light sources is three or more.

上述の条件により、瞳孔を明るく撮影した画像と、瞳孔
を暗く撮影した画像の差分画像により、瞳孔部分が背景
に対して強調される。
Under the above conditions, the pupil portion is emphasized with respect to the background by the difference image between the image in which the pupil is photographed brightly and the image in which the pupil is photographed darkly.

第13A図〜第13C図は第3図に示した装置を用いて撮影し
た画像の一例を示す図であり、特に、第13A図はCCD撮影
素子612によって撮影された画像であり、第13B図はCCD
撮像素子614で撮影された画像である。差分画像を2値
化すると、第13C図に示すように、瞳孔部分が高いS/Nで
抽出されることがわかる。
13A to 13C are diagrams showing an example of an image taken by using the apparatus shown in FIG. 3, and particularly, FIG. 13A is an image taken by the CCD image pickup device 612, and FIG. 13B. Is CCD
It is an image captured by the image sensor 614. When the difference image is binarized, it can be seen that the pupil part is extracted with a high S / N as shown in FIG. 13C.

この発明の一実施例では、眼球の網膜で反射する光を瞳
孔から取出すことにより、瞳孔を明るく撮影するが、こ
の技術を特徴点抽出に利用することもできる。すなわ
ち、顔にマークを貼り、このマークを抽出することによ
り、顔の位置や方向を検出する方式において、このマー
クに透明球を使用する方法である。
In one embodiment of the present invention, the light reflected by the retina of the eyeball is extracted from the pupil to photograph the pupil brightly, but this technique can also be used for feature point extraction. That is, this is a method of using a transparent sphere for the mark in a method of detecting the position and direction of the face by attaching a mark to the face and extracting the mark.

第14図はこの発明の一実施例の装置に適用されるマーク
物体の一例を示す図である。第14図を参照して、ガラス
玉90の上に白ペンキなどの塗料が塗布されて拡散反射層
91が形成され、さらにその上に黒ペンキなどの塗料が塗
布されて光吸収層92が形成される。光はガラス玉90の開
口部から入射し、開口雨部の曲率で屈折し、拡散面に到
達する。入射光は拡散面で結像こそしないが、開口部の
曲率がレンズとして作用するために、第14図に示すよう
に入射光が集光される。拡散面で反射した光は、開口部
を通過する際、曲率がレンズとして作用するため、概ね
入射した光の方向に反射する。
FIG. 14 is a diagram showing an example of a mark object applied to the apparatus of one embodiment of the present invention. Referring to FIG. 14, a paint such as white paint is applied on the glass ball 90 to form a diffuse reflection layer.
91 is formed, and a paint such as black paint is further applied thereon to form the light absorption layer 92. The light enters through the opening of the glass ball 90, is refracted by the curvature of the rain opening, and reaches the diffusion surface. Although the incident light does not form an image on the diffusion surface, the curvature of the opening acts as a lens, so that the incident light is condensed as shown in FIG. When the light reflected by the diffusion surface passes through the opening, the curvature acts as a lens, so that the light is reflected generally in the direction of the incident light.

このように、反射光の方向が入射光の方向に近いため
に、たとえば第3図に示した実施例の撮影装置で反射光
を撮影すると、CCD撮像素子612で得られた画像は開口部
が周囲に対して明るく撮影される。また、撮影レンズ65
から離れたところに設けられた照明装置62による反射光
は眼球の場合と同様にして、カメラ60は捉えられないた
め、CCD撮像素子613および614の画像では開口部が暗く
なる。したがって、これら2種類の画像、すなわちCCD
撮像素子612の画像と、CCD撮像素子613または614の画像
との差分をとると、開口部が特徴点として強調され、抽
出される。このように、ガラス玉90の開口部は瞳孔を抽
出する条件と同様に抽出できる。なお、ガラス球90とし
ては、直径3ないし5mm程度のものを用意し、顔の中で
皮膚の動きの少ないところに貼るかあるいは眼鏡フレー
ムの枠に埋め込み、これを利用者が装着するようにして
もよい。
As described above, since the direction of reflected light is close to the direction of incident light, when the reflected light is photographed by the image pickup apparatus of the embodiment shown in FIG. 3, for example, the image obtained by the CCD image pickup element 612 has an aperture. The picture is taken brightly against the surroundings. In addition, shooting lens 65
Since the camera 60 cannot capture the reflected light from the illumination device 62 provided at a position away from, as in the case of the eyeball, the openings of the images of the CCD image pickup devices 613 and 614 are dark. Therefore, these two types of images, CCD
When the difference between the image of the image pickup device 612 and the image of the CCD image pickup device 613 or 614 is taken, the opening is emphasized as a feature point and extracted. In this way, the opening of the glass ball 90 can be extracted in the same manner as the condition for extracting the pupil. As the glass bulb 90, one having a diameter of about 3 to 5 mm is prepared, and it is attached to a part of the face where the skin does not move much or is embedded in a frame of an eyeglass frame so that the user can wear it. Good.

第15図はマーク物体の他の例を示す断面図である。第15
図を参照して、マーク物体93は直径が2〜5mm程度の円
形であって、ガラスを加工して形成される。表面には波
長900nm以上で透過し、900nm以下で反射する膜94が形成
され、裏面は拡散反射面95となっている。したがって、
900nm以上の光が裏面で拡散反射されてカメラによって
捉えられる。900nm以下の光はマーク物体93の表面で反
射するが、反射方向が撮影レンズと異なる場合、撮影さ
れない。また、この光は正反射光であるため、偏光板を
用いれば遮断できる。前述の第3図に示したCCD撮像素
子612で得られた画像ではマーク部分が明るくなる。ま
た、CCD撮像素子613で得られた画像では、マーク部分が
暗くなる。したがって、これらの差分をとることによ
り、マーク部分が瞳孔と一緒に抽出される。
FIG. 15 is a sectional view showing another example of the marked object. 15th
Referring to the drawing, the mark object 93 has a circular shape with a diameter of about 2 to 5 mm and is formed by processing glass. A film 94 that transmits at a wavelength of 900 nm or more and reflects at a wavelength of 900 nm or less is formed on the front surface, and the back surface is a diffuse reflection surface 95. Therefore,
Light of 900 nm or more is diffusely reflected on the back surface and captured by the camera. Light of 900 nm or less is reflected on the surface of the mark object 93, but if the reflection direction is different from that of the photographing lens, it is not photographed. Since this light is specularly reflected light, it can be blocked by using a polarizing plate. In the image obtained by the CCD image pickup device 612 shown in FIG. 3, the mark portion becomes bright. Further, in the image obtained by the CCD image pickup device 613, the mark portion becomes dark. Therefore, the mark portion is extracted together with the pupil by taking these differences.

第16図はこの発明を電子シャッタ式撮影装置に適用した
実施例を示す図であり、たとえば第3図において、CCD
撮像素子614を省略したカメラに電子シャッタ機能をつ
けたものに相当する。すなわち、撮像素子105は第3図
のCCD撮像素子612に相当し、撮像素子105がCCD撮像素子
613に相当する。第16図を参照して、電子シャッタ式カ
メラ101はレンズ102と、電子シャッタ103と、波長に応
じて画像を分離する光学装置104と、波長λの画像を
撮影する撮像素子105と、波長λの画像を撮影する撮
像素子106とを含む。撮像素子105の出力はメモリ107に
与えられ、撮像素子106の撮像出力はメモリ108に与えら
れる。メモリ107,108はそれぞれ撮像出力を記憶する。
画像処理装置109は、メモリ107,108に記憶されたそれぞ
れの画像出力を処理し、たとえば差分を出力する。電子
シャッタ103と撮像素子105,106はたとえばマイクロコン
ピュータからなるコントローラ110によって制御され
る。照明装置111は波長λの光を照射する照明装置113
と波長λの光を照射する照明装置115とから構成さ
れ、それぞれはコントローラ110の制御により、駆動回
路112,114によって駆動される。
FIG. 16 is a diagram showing an embodiment in which the present invention is applied to an electronic shutter type photographing apparatus. For example, in FIG.
This corresponds to a camera in which the image sensor 614 is omitted and which has an electronic shutter function. That is, the image sensor 105 corresponds to the CCD image sensor 612 in FIG. 3, and the image sensor 105 is the CCD image sensor.
Equivalent to 613. Referring to FIG. 16, an electronic shutter camera 101 includes a lens 102, an electronic shutter 103, an optical device 104 for separating an image according to a wavelength, an image sensor 105 for capturing an image of wavelength λ 1 , and a wavelength The image pickup device 106 for picking up an image of λ 2 is included. The output of the image sensor 105 is given to the memory 107, and the image output of the image sensor 106 is given to the memory 108. The memories 107 and 108 store image pickup outputs, respectively.
The image processing device 109 processes the respective image outputs stored in the memories 107 and 108 and outputs, for example, a difference. The electronic shutter 103 and the image pickup devices 105 and 106 are controlled by a controller 110 including, for example, a microcomputer. The illuminating device 111 is an illuminating device 113 that emits light of wavelength λ 1.
And an illuminating device 115 that emits light of wavelength λ 2 , each of which is driven by drive circuits 112 and 114 under the control of the controller 110.

第17図および第18図は第16図に示した撮像装置および照
明装置の駆動タイミングを示す図である。前述の第16図
に示した電子シャッタ式カメラ101は、動きのある対象
をぶれを少なくして撮影できる。その原理は電子シャッ
タ103を短時間開いて撮像素子105,106を露光し、第17図
(b)に示すたとえば1msecの短い時間116の間に画像信
号が撮像素子105,106に一時蓄積される。その後、第17
図(a)に示すタイミング117の間に撮像素子105,106の
出力である画像信号がメモリ107,108に転送され、転送
が終わったタイミングで再び電子シャッタ103が開か
れ、撮像素子105,106が露光され、この動作が繰返され
る。
FIG. 17 and FIG. 18 are diagrams showing drive timings of the image pickup device and the illumination device shown in FIG. The electronic shutter camera 101 shown in FIG. 16 described above can shoot a moving object with less blurring. The principle is that the electronic shutter 103 is opened for a short time to expose the image pickup devices 105 and 106, and the image signal is temporarily stored in the image pickup devices 105 and 106 during a short time 116 of, for example, 1 msec shown in FIG. 17 (b). Then the 17th
The image signals output from the image pickup devices 105 and 106 are transferred to the memories 107 and 108 during the timing 117 shown in FIG. 7A, the electronic shutter 103 is opened again at the timing when the transfer is completed, the image pickup devices 105 and 106 are exposed, and this operation is performed. Is repeated.

上述の第16図に示した電子シャッタ式カメラ101では、
撮像素子105,106として感度の高いものを使用する必要
があるが、シャッタ速度が速くなるに従って多くの光量
を必要とする。このような装置において、照明装置111
を使用することによって、以下の利点が得られる。
In the electronic shutter type camera 101 shown in FIG. 16 described above,
It is necessary to use high-sensitivity image pickup elements 105 and 106, but a larger amount of light is required as the shutter speed increases. In such a device, the lighting device 111
By using, the following advantages are obtained.

すなわち、発光ダイオードは高速にオン,オフできるば
かりでなく、間欠駆動条件では連続駆動に比べて大きな
電流を通電でき、したがって大きな光量を得ることがで
きる。これにより、撮像素子105,106の露光時間に、十
分な光を照射できる。このように、発光ダイオードを用
いた照明装置111は電子シャッタカメラ101に必要な短時
間に強い照明を必要とする条件に合致する。
That is, not only can the light emitting diode be turned on and off at high speed, but under an intermittent driving condition, a larger current can be passed than in continuous driving, and thus a large amount of light can be obtained. As a result, sufficient light can be emitted during the exposure time of the image pickup devices 105 and 106. As described above, the illumination device 111 using the light emitting diode meets the condition that the electronic shutter camera 101 needs strong illumination in a short time.

撮像素子105,106の一画面露光時間は33msec〜0.5msec程
度の幅が設定される。ここで、たとえば最小露光時間で
ある1msecまたは0.5msecにおいて、毎秒30枚の画像を撮
影する場合を例にとると、照射時間は連続照射に比べて
1/1000以下になる。この場合、連続通電では50mA程度し
か流せない発光ダイオードであっても、間欠駆動によっ
て数Aの電流を通電することができる。したがって、露
光に必要な照明は確保できる。
A width of about 33 msec to 0.5 msec is set for one screen exposure time of the image pickup devices 105 and 106. Here, for example, when taking 30 images per second at the minimum exposure time of 1 msec or 0.5 msec, the irradiation time is longer than that of continuous irradiation.
It becomes 1/1000 or less. In this case, even a light emitting diode that can only supply about 50 mA in continuous energization can energize a current of several A by intermittent driving. Therefore, the illumination required for exposure can be secured.

この発明による撮影装置では、外部照明は雑音となるた
め遮断するのが好ましい。露光時間を短くする効果とし
ては、照明装置の光量に対して、外部照明の光量が相対
的に少なくなる点が挙げられる。これにより、外部照明
による反射成分が相対的に少なくなり、雑音成分が少な
くなってS/Nが改善する。また、必要な照明時間にのみ
必要な光量の照明を行なうため、無駄な電力が少なくな
り、発熱も少なくなる。
In the image pickup apparatus according to the present invention, it is preferable to shut off the external illumination because it causes noise. The effect of shortening the exposure time is that the light quantity of external illumination is relatively small with respect to the light quantity of the lighting device. As a result, the reflection component due to external illumination is relatively small, the noise component is small, and the S / N is improved. Also, since the necessary amount of light is illuminated only during the required illumination time, wasteful power is reduced and heat generation is reduced.

次に、間欠駆動の他の例として、外部照明による反射成
分を除去する他の方法について説明する。
Next, as another example of intermittent driving, another method of removing the reflection component due to external illumination will be described.

第18図は照明装置を駆動するタイミング図である。この
例では、画像の撮影は時分割で2枚1組によって行なわ
れ、1画面の撮影時間はたとえば33msecであって、A1,A
2で示されている。A1の撮影時は照明装置がオンされ、A
2の撮影時は照明装置がオフにされる。A1,A2の画像は共
に外部照明による反射光が重畳されている。外部照明の
条件がA1,A2の撮影時で変化しなければ、A1の画像からA
2の画像を減算することにより、照明装置をオンしたと
きの画像を抽出できる。
FIG. 18 is a timing diagram for driving the lighting device. In this example, the images are taken in a time-division manner by a set of two images, and the image taking time for one screen is, for example, 33 msec.
Shown in 2. When shooting A1, the lighting system is turned on and A
The illumination device is turned off when shooting 2. Reflected light from external illumination is superimposed on both images A1 and A2. If the external lighting conditions do not change during A1 and A2 shooting, from the A1 image to A
By subtracting the two images, the image when the lighting device is turned on can be extracted.

次に、この発明の応用例として、撮影対象の特徴点をリ
アルタイム、たとえば30画面/秒で抽出する画像処理装
置について説明する。人の動きをリアルタイムで検出し
ようとする場合、上述のように一方で顔や身体にマーク
を貼ったり、参照光を当てるなど、特徴点が抽出しやす
くなる撮影方法を選択する必要があるが、これだけでは
不十分であり、画像処理装置の高速化が不可欠である。
この発明では、2種類の画像の差分処理により、上述の
特徴点を簡単に抽出できる。
Next, as an application example of the present invention, an image processing apparatus for extracting the feature points of the photographing target in real time, for example, 30 screens / second will be described. When trying to detect human movements in real time, it is necessary to select a shooting method that makes it easy to extract feature points, such as putting a mark on the face or body or applying reference light, as described above. This alone is not enough, and it is essential to speed up the image processing apparatus.
In the present invention, the above-mentioned feature points can be easily extracted by the difference processing of two types of images.

第19A図はこの発明による画像撮影装置を用いて、特徴
点をリアルタイムで検出する画像処理装置の全体の構成
を示す概略ブロック図であり、第19B図は第19A図に示し
た画像処理装置の具体的なブロック図である。
FIG. 19A is a schematic block diagram showing an overall configuration of an image processing apparatus for detecting feature points in real time by using the image capturing apparatus according to the present invention, and FIG. 19B is a schematic block diagram of the image processing apparatus shown in FIG. 19A. It is a concrete block diagram.

第19A図を参照して、近赤外カメラ121,122によって撮影
された各カメラのCCD1〜CCD3の画像信号はそれぞれ画像
処理装置123,124に与えられて画像処理されてホストコ
ンピュータ125に与えられる。画像処理装置123,124はそ
れぞれ第19B図に示すように構成されている。すなわ
ち、画像処理装置123は入力信号からパイプライン処理
のためのタイミング信号を作るモジュール130を基本と
し、このモジュール130に接続される他の入力モジュー
ル131,132および各種パイプラインプロセッサモジュー
ル133,134,135および136が並列動作する。近赤外カメラ
121はCCD撮像素子612,613および614を含み、それぞれの
画像信号はモジュール130,131および132に個別的に与え
られる。
Referring to FIG. 19A, the image signals of CCD1 to CCD3 of each camera photographed by near infrared cameras 121 and 122 are applied to image processing devices 123 and 124, respectively, subjected to image processing and applied to host computer 125. The image processing devices 123 and 124 are each configured as shown in FIG. 19B. That is, the image processing apparatus 123 is basically based on the module 130 that generates a timing signal for pipeline processing from an input signal, and other input modules 131, 132 and various pipeline processor modules 133, 134, 135 and 136 connected to this module 130 operate in parallel. To do. Near infrared camera
121 includes CCD image sensors 612, 613 and 614, and the respective image signals are individually applied to the modules 130, 131 and 132.

モジュール130,131および132はCCD撮像素子612,613およ
び614のそれぞれの出力信号に同期して画像信号をA/D変
換して画素データとし、この画素データはビデオバスを
介して順次パイプラインプロセッサモジュール133,134,
135および136に与えられる。パイプラインプロセッサモ
ジュール133,134,135および136はそれぞれ複数の入力を
有していて、たとえば2種類の差分画像処理の場合、パ
イプラインプロセッサモジュール133は(CCD614の画像
−CCD613の画像)なる処理および2値化の処理を行な
い、パイプラインプロセッサ134は(CCD612の画像−CCD
613の画像)なる処理および2値化の処理を行ない、パ
イプラインプロセッサ135はパイプラインプロセッサ133
および134で処理された画像信号をパッキングし、パイ
プラインプロセッサ136は抽出された特徴点の重心を計
算する。
Modules 130, 131 and 132 are pixel data by A / D converting the image signals in synchronization with the respective output signals of the CCD image pickup devices 612, 613 and 614, and the pixel data are sequentially pipeline processor modules 133, 134, via a video bus.
Given to 135 and 136. Each of the pipeline processor modules 133, 134, 135 and 136 has a plurality of inputs. For example, in the case of two types of differential image processing, the pipeline processor module 133 performs the following processing (image of CCD614-image of CCD613) and binarization. The pipeline processor 134 (image of CCD612-CCD
613 image) and binarization processing are performed, and the pipeline processor 135
The image signals processed in and are packed, and the pipeline processor 136 calculates the center of gravity of the extracted feature points.

計算された重心座標はリピータ138を介してホストコン
ピュータ125に伝送され、視線が検出される。このよう
にして、1枚の画像が取込まれる間に、A/D変換された
画素データが複数のパイプラインプロセッサモジュール
133〜136を介して演算される。1枚の画像処理時間は最
後の画素が取込まれるまでの時間33msecにパイプライン
処理の遅れ時間を加えたものになる。また、入力モジュ
ール130,131および132は最後の画像プロセッサに送った
後は、すぐ次の画像取込みに入ることができる。したが
って、この発明の目的のように、簡単な四則演算で済む
画像処理(画像間の差分処理)の場合、33枚/秒、遅れ
時間33msec+αでリアルタイム処理が可能となる。
The calculated barycentric coordinates are transmitted to the host computer 125 via the repeater 138, and the line of sight is detected. In this way, while one image is being captured, the A / D converted pixel data can be converted into multiple pipeline processor modules.
Calculated through 133-136. The image processing time for one image is 33 msec, which is the time until the last pixel is captured, plus the delay time for pipeline processing. Also, the input modules 130, 131 and 132 can be ready for the next image capture after sending to the last image processor. Therefore, as in the case of the object of the present invention, in the case of image processing (difference processing between images) which can be performed by simple four arithmetic operations, real-time processing can be performed with 33 sheets / second and a delay time of 33 msec + α.

次に、視線検出以外の応用例として、形状パターンを参
照光として撮影対象に照射し、照射したパターンに対応
する反射パターンの変化から撮影対象の3次元形状を求
めるアクティブステレオビジョンへの適用について説明
する。
Next, as an application example other than line-of-sight detection, an application to active stereo vision, in which a shape pattern is irradiated as a reference light to a shooting target and a three-dimensional shape of the shooting target is obtained from a change in a reflection pattern corresponding to the irradiated pattern, will be described. To do.

第20図,第21図および第22図はアクティブなステレオ画
像計測法にこの発明を応用した例を示す図である。第20
図を参照して、発光ダイオードの光源を用いた照明装置
141からレンズ系142,形状パターン143および偏光板144
を介して参照光が撮影対象145に照射される。撮影対象
はたとえば人物の顔である。形状パターン143には第21
図に示すようなパターンの模様145が形成されており、
光源141からの参照光はレンズ系142によって形状パター
ン143の模様146を撮影対象145に結合させる。撮影対象1
45からの反射光は撮影レンズ151,偏光板152を通過して
撮像素子153に結像される。なお、偏光板152の偏光面
は、偏光板144の偏光面に対して90゜回転しているもの
とする。
20, 21, and 22 are diagrams showing an example in which the present invention is applied to an active stereo image measuring method. 20th
Referring to the drawing, a lighting device using a light source of a light emitting diode
141 to lens system 142, shape pattern 143 and polarizing plate 144
The reference light is applied to the imaging target 145 via. The shooting target is, for example, the face of a person. 21st to shape pattern 143
A pattern 145 having a pattern as shown in the figure is formed,
The reference light from the light source 141 couples the pattern 146 of the shape pattern 143 to the object 145 to be photographed by the lens system 142. Target 1
The reflected light from 45 passes through the taking lens 151 and the polarizing plate 152 and is imaged on the image sensor 153. The polarization plane of the polarizing plate 152 is assumed to be rotated by 90 ° with respect to the polarization plane of the polarizing plate 144.

第22図は撮影対象145に投影されたパターンが撮像素子1
53によって撮影された画像である。一般に、撮影対象14
5には部分的になめらかな面があり、参照光はここで正
反射するため、偏光を用いない従来の方式では、第29図
に示す投影画像の中には、投影パターンを妨害するよう
な正反射像が現われる。しかし、参照光を偏光化して照
射し、反射光から正反射成分を遮断して撮影するこの方
式では、正反射像による雑音成分が少ないので、第28図
に示すように、撮影対象の形状の特徴情報を反映した形
状パターン像を効率的に抽出できる。
In FIG. 22, the pattern projected on the object 145 is the image sensor 1.
It is an image taken by 53. Generally, 14
5 has a partially smooth surface, and the reference light is specularly reflected here, so in the conventional method that does not use polarized light, the projection image shown in FIG. 29 may interfere with the projection pattern. A specular reflection image appears. However, in this method, in which the reference light is polarized and irradiated, and the specular reflection component is blocked from the reflected light to shoot, the noise component due to the specular reflection image is small, so as shown in FIG. A shape pattern image reflecting the characteristic information can be efficiently extracted.

[発明の効果] 以上のように、この発明によれば、瞳孔を強調して撮影
することができる。このことは、照明を弱くしてもノイ
ズに強いことを意味している。強い照明は生理的影響を
与えて望ましくないが、この発明によれば、弱い照明で
も安定して瞳孔を抽出できるため、視線検出などを行な
う際、人に優しい装置を提供できる。つまり、長時間使
用しても疲れない装置の実現が可能となる。
[Effects of the Invention] As described above, according to the present invention, the pupil can be emphasized for photographing. This means that even if the lighting is weakened, it is resistant to noise. Although strong illumination has a physiological effect and is not desirable, according to the present invention, a pupil can be stably extracted even with weak illumination. Therefore, a human-friendly device can be provided when detecting a line of sight. That is, it is possible to realize a device that does not get tired even if it is used for a long time.

【図面の簡単な説明】[Brief description of drawings]

第1図はこの発明の概念を説明するための図である。 第2図は視線検出に必要な特徴点の種類とその性質を示
す図である。 第3図はこの発明の画像撮影装置の一実施例を示す図で
ある。 第4図は第3図に示した撮影レンズを前方から見た図で
ある。 第5図は同じく側面から見た図である。 第6図はこの発明の一実施例に用いられる光学部品の光
学的性質を示す特性図である。 第7図は発光ダイオードと偏光板とを一体化して照明装
置とした例を示す外観斜視図である。 第8A図はこの発明の一実施例により撮影した拡散反射像
を示す図であり、第8B図は特徴点抽出の効果を示す図で
ある。 第9A図〜第9C図は角膜反射像の抽出例を示す図である。 第10図,第11A図ないし第11C図および第12図は瞳孔が明
るく撮影される光源の配置を説明するための図である。 第13A図〜第13C図は第3図に示した装置を用いて撮影し
た画像の一例を示す図である。 第14図はこの発明の一実施例の装置に適用されるマーク
物体の一例を示す図である。 第15図はマーク物体の他の例を示す断面図である。 第16図はこの発明を電子シャッタ式撮影装置に適用した
実施例を示す図である。 第17図および第18図は第16図に示した撮影装置および照
明装置の駆動タイミングを示す図である。 第19A図はこの発明による画像撮影装置を用いて特徴点
をリアルタイムで検出する画像処理装置の全体の構成を
示す概略ブロック図であり、第19B図は第19A図に示した
画像処理装置の具体的なブロック図である。 第20図,第21図および第22図はアクティブなステレオ画
像計測法にこの発明を応用した例を示す図である。 第23図は従来の非接触視線検出装置の一例を示す図であ
る。 第24図は従来の照明装置と撮影装置とを用いて人物の顔
に合った青色のマークを特徴点として抽出する実験を行
なった例を示す図である。 第25A図および第25B図は第24図に示した実験によって顔
の特徴点を抽出した例を示す図である。 第26図は瞳孔の他の抽出法として、瞳孔から光を入射
し、網膜で反射する光を捉える方法を示す図である。 第27図は角膜反射像をカメラで撮影する装置の一例を示
す図である。 第28図は撮影された画像上で、白眼の中の黒眼の位置を
検出し、視線に変換する方法を説明するための図であ
る。 第29図は瞳孔と角膜反射像とを特徴点として用い、1台
のカメラで抽出する方法を説明するための図である。 図において、60はカメラユニット、61,62,111,113,115
は照明装置、64,66,72は発光ダイオード、63,67,615,61
6は偏光板、65,86はレンズ、68は可視遮断フィルタ、75
は光学素子、87は光源、105,106は撮像素子、107,108は
メモリ、109,123,124は画像処理装置、110はコントロー
ラ、112,114は駆動回路、121,122は近赤外カメラ、125
はホストコンピュータ、130,131,132はモジュール、15
3,154,155,156はパイプラインプロセッサモジュール、6
07,608,609はプリズム、610は波長分離膜、611はハーフ
ミラー、612,613,614はCCD撮像素子、617,618は差分画
像演算手段を示す。
FIG. 1 is a diagram for explaining the concept of the present invention. FIG. 2 is a diagram showing types and characteristics of feature points necessary for line-of-sight detection. FIG. 3 is a diagram showing an embodiment of the image capturing apparatus of the present invention. FIG. 4 is a front view of the taking lens shown in FIG. FIG. 5 is a view seen from the same side. FIG. 6 is a characteristic diagram showing the optical property of the optical component used in one embodiment of the present invention. FIG. 7 is an external perspective view showing an example of a lighting device in which a light emitting diode and a polarizing plate are integrated. FIG. 8A is a diagram showing a diffuse reflection image photographed by an embodiment of the present invention, and FIG. 8B is a diagram showing an effect of feature point extraction. 9A to 9C are diagrams showing an example of extracting a corneal reflection image. FIG. 10, FIG. 11A to FIG. 11C, and FIG. 12 are views for explaining the arrangement of the light sources for photographing the pupil brightly. FIGS. 13A to 13C are diagrams showing an example of an image taken by using the apparatus shown in FIG. FIG. 14 is a diagram showing an example of a mark object applied to the apparatus of one embodiment of the present invention. FIG. 15 is a sectional view showing another example of the marked object. FIG. 16 is a diagram showing an embodiment in which the present invention is applied to an electronic shutter type photographing apparatus. FIG. 17 and FIG. 18 are diagrams showing drive timings of the photographing device and the illumination device shown in FIG. FIG. 19A is a schematic block diagram showing the overall configuration of an image processing apparatus for detecting feature points in real time using the image capturing apparatus according to the present invention, and FIG. 19B is a specific example of the image processing apparatus shown in FIG. 19A. It is a typical block diagram. 20, 21, and 22 are diagrams showing an example in which the present invention is applied to an active stereo image measuring method. FIG. 23 is a diagram showing an example of a conventional non-contact visual line detection device. FIG. 24 is a diagram showing an example in which an experiment for extracting a blue mark matching a person's face as a feature point was performed using a conventional lighting device and a photographing device. 25A and 25B are diagrams showing an example in which the feature points of the face are extracted by the experiment shown in FIG. FIG. 26 is a diagram showing another method of extracting the pupil, in which light is incident from the pupil and light reflected by the retina is captured. FIG. 27 is a diagram showing an example of an apparatus for photographing a corneal reflection image with a camera. FIG. 28 is a diagram for explaining a method of detecting the position of the black eye in the white eye and converting it into the line of sight on the captured image. FIG. 29 is a diagram for explaining a method of extracting with one camera using a pupil and a corneal reflection image as feature points. In the figure, 60 is a camera unit, 61, 62, 111, 113, 115
Is a lighting device, 64, 66, 72 are light emitting diodes, 63, 67, 615, 61
6 is a polarizing plate, 65 and 86 are lenses, 68 is a visible cutoff filter, and 75
Is an optical element, 87 is a light source, 105 and 106 are image pickup elements, 107 and 108 are memories, 109, 123 and 124 are image processing devices, 110 is a controller, 112 and 114 are drive circuits, 121 and 122 are near-infrared cameras, and 125.
Is a host computer, 130, 131, 132 are modules, 15
3,154,155,156 are pipeline processor modules, 6
07, 608 and 609 are prisms, 610 is a wavelength separation film, 611 is a half mirror, 612, 613 and 614 are CCD image pickup devices, and 617 and 618 are difference image calculation means.

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 A61B 3/10 B (56)参考文献 特開 昭62−149252(JP,A) 特開 昭60−197063(JP,A) 特開 昭58−114667(JP,A) 特開 昭61−268226(JP,A)─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 6 Identification number Internal reference number FI Technical display area A61B 3/10 B (56) References JP 62-149252 (JP, A) JP 60 -197063 (JP, A) JP-A-58-114667 (JP, A) JP-A-61-268226 (JP, A)

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】瞳孔画像を撮影するための瞳孔画像撮影装
置であって、 撮影レンズの有効径の外側に設けられ、眼の方向を照射
する第1の光源、 前記第1の光源の反射光を、前記撮影レンズを介して結
像し、第1の画像信号を出力する第1の撮影手段、 前記撮影レンズの光軸付近に設けられ、眼の方向を照射
する第2の光源、 前記第2の光源の反射光を、前記撮影レンズを介して結
像し、第2の画像信号を出力する第2の撮影手段、およ
び 前記第1および第2の撮影手段出力の画像信号の差分信
号を第3の画像信号として出力する処理手段を備え、 前記第2の光源は、該光源と撮影対象である眼球を結ぶ
線分と、前記撮影レンズの中心と前記眼球を結ぶ線分と
のなす角をθth2としたとき、θth2≦5゜の角度となる
ように設置され、 前記第1の光源は、該光源と撮影対象である眼球を結ぶ
線分と、前記撮影レンズの中心と前記眼球を結ぶ線分と
のなす角をθth1としたとき、θth1≧θth2+1゜の角
度となるように設置され、 前記第1および第2の撮影手段は、前記第1および第2
の光源からの反射光に基づく画像を交互に間欠的に撮影
することを特徴とする、瞳孔画像撮影装置。
1. A pupil image photographing device for photographing a pupil image, the first light source being provided outside an effective diameter of a photographing lens and illuminating the direction of an eye, and reflected light of the first light source. A first photographing means for forming an image through the photographing lens and outputting a first image signal; a second light source which is provided near the optical axis of the photographing lens and illuminates an eye direction; A second image capturing unit that forms an image of reflected light of the second light source through the image capturing lens and outputs a second image signal, and a differential signal of the image signals output from the first and second image capturing units. The second light source includes a processing unit that outputs as a third image signal, and the second light source forms an angle between a line segment that connects the light source and an eyeball that is an imaging target, and a line segment that connects the center of the imaging lens and the eyeball. Is set to θth2, θth2 ≦ 5 ° is installed. The light source is installed so that an angle formed by a line segment connecting the light source and the eyeball to be photographed and a line segment connecting the center of the photographing lens and the eyeball is θth1 ≧ θth2 + 1 °. The first and second photographing means are configured to operate the first and second photographing means.
2. A pupil image photographing device, characterized by alternately and intermittently photographing images based on reflected light from the light source.
【請求項2】瞳孔画像を撮影するための瞳孔画像撮影装
置であって、 撮影レンズの有効径の外側に設けられ、眼の方向を照射
する第1の光源、 前記第1の光源の反射光を、前記撮影レンズを介して結
像し、第1の映像信号を出力する第1の撮影手段、 前記撮影レンズの光軸付近に設けられ、眼の方向を照射
する第2の光源、 前記第2の光源の反射光を、前記撮影レンズを介して結
像し、第2の画像信号を出力する第2の撮影手段、およ
び 前記第1および第2の撮影手段出力の画像信号の差分信
号を第3の画像信号として出力する処理手段を備え、 さらに、前記撮影レンズに入射された前記第1の光源か
らの反射光に基づく画像と、前記第2の光源からの反射
光に基づく画像とをそれぞれ分離して、前記第1および
第2の撮影手段に個別的に与えるためのプリズム光学系
を含み、 前記第1および第2の光学系は、それぞれの発光波長が
前記プリズム光学系で分離可能な程度に異なる発光ダイ
オードによって構成されることを特徴とする、瞳孔画像
撮影装置。
2. A pupil image photographing device for photographing a pupil image, the first light source being provided outside an effective diameter of a photographing lens and irradiating the direction of an eye, and reflected light from the first light source. A first photographing means for forming an image through the photographing lens and outputting a first video signal; a second light source provided near the optical axis of the photographing lens for illuminating the direction of the eye; A second image capturing unit that forms an image of reflected light of the second light source through the image capturing lens and outputs a second image signal, and a differential signal of the image signals output from the first and second image capturing units. A processing unit for outputting as a third image signal is further provided, and an image based on the reflected light from the first light source and an image based on the reflected light from the second light source is incident on the taking lens. Separated from each other and individually for the first and second photographing means. A pupil image including a prism optical system for giving light, wherein the first and second optical systems are configured by light emitting diodes whose emission wavelengths are different from each other so as to be separable by the prism optical system. Imaging device.
JP1181387A 1988-07-14 1989-07-13 Pupil imager Expired - Fee Related JPH0782539B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1181387A JPH0782539B2 (en) 1988-07-14 1989-07-13 Pupil imager

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
JP17589988 1988-07-14
JP63-175899 1988-07-14
JP63-193898 1988-08-03
JP63-193899 1988-08-03
JP19389888 1988-08-03
JP19389988 1988-08-03
JP1181387A JPH0782539B2 (en) 1988-07-14 1989-07-13 Pupil imager

Publications (2)

Publication Number Publication Date
JPH02138673A JPH02138673A (en) 1990-05-28
JPH0782539B2 true JPH0782539B2 (en) 1995-09-06

Family

ID=27474669

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1181387A Expired - Fee Related JPH0782539B2 (en) 1988-07-14 1989-07-13 Pupil imager

Country Status (1)

Country Link
JP (1) JPH0782539B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100847792B1 (en) * 2007-04-02 2008-07-23 후지쯔 가부시끼가이샤 Camera, light source control method, and a storage medium recording computer program
JP4799550B2 (en) * 2004-05-10 2011-10-26 アバゴ・テクノロジーズ・ジェネラル・アイピー(シンガポール)プライベート・リミテッド Pupil detection method and system

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06138379A (en) * 1992-09-14 1994-05-20 Nikon Corp Camera provided with device for detecting line of sight
JPH1091325A (en) * 1996-09-13 1998-04-10 Toshiba Corp Gaze detection system
JP4501037B2 (en) * 1998-02-17 2010-07-14 ソニー株式会社 COMMUNICATION CONTROL SYSTEM, COMMUNICATION DEVICE, AND COMMUNICATION METHOD
EP1190302B1 (en) * 1999-05-12 2003-06-25 Microsoft Corporation Splitting and mixing streaming-data frames
US7007096B1 (en) 1999-05-12 2006-02-28 Microsoft Corporation Efficient splitting and mixing of streaming-data frames for processing through multiple processing modules
JP2002334335A (en) * 2001-03-09 2002-11-22 Toshiba Corp Face image recognition device and passage controller
JP4898026B2 (en) * 2001-06-29 2012-03-14 本田技研工業株式会社 Face / Gaze Recognition Device Using Stereo Camera
KR20030034535A (en) * 2001-10-26 2003-05-09 이문기 Pointing apparatus using camera and the method of computing pointer position
US7202793B2 (en) 2002-10-11 2007-04-10 Attention Technologies, Inc. Apparatus and method of monitoring a subject and providing feedback thereto
JP4297876B2 (en) 2003-03-28 2009-07-15 富士通株式会社 Imaging apparatus, light source control method, and computer program
JP4500992B2 (en) * 2004-01-14 2010-07-14 国立大学法人静岡大学 3D viewpoint measuring device
JP4765008B2 (en) * 2004-03-16 2011-09-07 国立大学法人静岡大学 A method to detect head direction using pupil and nostril
JP4568836B2 (en) * 2004-06-08 2010-10-27 国立大学法人静岡大学 Real-time pupil position detection system
JP4654434B2 (en) * 2004-11-24 2011-03-23 国立大学法人佐賀大学 Gaze direction identification system
US7430365B2 (en) * 2005-03-31 2008-09-30 Avago Technologies Ecbu (Singapore) Pte Ltd. Safe eye detection
US8358337B2 (en) 2005-08-23 2013-01-22 National University Corporation Shizuoka University Pupil detection device and pupil detection method
JP4528980B2 (en) * 2005-08-23 2010-08-25 国立大学法人静岡大学 Pupil detection device and pupil detection method
JP2008125619A (en) * 2006-11-17 2008-06-05 National Univ Corp Shizuoka Univ Pupil detection apparatus and pupil detection method
JP2008132160A (en) * 2006-11-28 2008-06-12 National Univ Corp Shizuoka Univ Pupil detecting device and pupil detecting method
FR2952517B1 (en) * 2009-11-13 2012-07-20 Essilor Int METHOD AND DEVICE FOR AUTOMATIC MEASUREMENT OF AT LEAST ONE CHARACTERISTIC OF REFRACTION OF BOTH EYES OF AN INDIVIDUAL
JP6041538B2 (en) * 2012-06-01 2016-12-07 キヤノン株式会社 Ophthalmic equipment
JP6056323B2 (en) 2012-09-24 2017-01-11 富士通株式会社 Gaze detection device, computer program for gaze detection
JP2016106668A (en) * 2014-12-02 2016-06-20 ソニー株式会社 Information processing apparatus, information processing method and program
WO2021084653A1 (en) * 2019-10-30 2021-05-06 アイマトリックスホールディングス株式会社 Eye contact detection device
WO2021251146A1 (en) * 2020-06-09 2021-12-16 国立大学法人静岡大学 Pupil detection device

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58114667A (en) * 1981-12-28 1983-07-08 Ricoh Co Ltd Picture scanner
JPS60197063A (en) * 1984-03-21 1985-10-05 Canon Inc Led array and its sectional lighting method
JPH066111B2 (en) * 1985-05-23 1994-01-26 浜松ホトニクス株式会社 Pupil illuminator
JPS62149252A (en) * 1985-12-23 1987-07-03 Fuji Xerox Co Ltd Picture input equipment

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4799550B2 (en) * 2004-05-10 2011-10-26 アバゴ・テクノロジーズ・ジェネラル・アイピー(シンガポール)プライベート・リミテッド Pupil detection method and system
KR100847792B1 (en) * 2007-04-02 2008-07-23 후지쯔 가부시끼가이샤 Camera, light source control method, and a storage medium recording computer program

Also Published As

Publication number Publication date
JPH02138673A (en) 1990-05-28

Similar Documents

Publication Publication Date Title
JPH0782539B2 (en) Pupil imager
EP0596868B1 (en) Eye tracking method using an image pickup apparatus
JP6498606B2 (en) Wearable gaze measurement device and method of use
US8077914B1 (en) Optical tracking apparatus using six degrees of freedom
CN103458770B (en) Optical measuring device and method for capturing at least one parameter of at least one eyes that illumination characteristic can be adjusted
WO2016184107A1 (en) Wearable apparatus for sight line focus positioning and method for sight line focus positioning
EP3371781B1 (en) Systems and methods for generating and using three-dimensional images
US20190369418A1 (en) Systems and methods for obtaining eyewear information
CN102855626A (en) Methods and devices for light source direction calibration and human information three-dimensional collection
JP3450801B2 (en) Pupil position detecting device and method, viewpoint position detecting device and method, and stereoscopic image display system
WO2018154272A1 (en) Systems and methods for obtaining information about the face and eyes of a subject
US20220179207A1 (en) Holographic Eye Imaging Device
JPH02224637A (en) System for detecting glance
EP3905943A1 (en) System and method for eye tracking
JP6555707B2 (en) Pupil detection device, pupil detection method, and pupil detection program
EP4158447A1 (en) Systems and methods for providing mixed-reality experiences under low light conditions
JP3342810B2 (en) Iris image acquisition device
JP4260715B2 (en) Gaze measurement method and gaze measurement apparatus
JP2648198B2 (en) Gaze direction detection method
JP2018028728A (en) Ophthalmic portion image processing device
JP2002017677A (en) Convergence angle measurement instrument

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees