JP2917953B2 - View point position detection device - Google Patents

View point position detection device

Info

Publication number
JP2917953B2
JP2917953B2 JP9022504A JP2250497A JP2917953B2 JP 2917953 B2 JP2917953 B2 JP 2917953B2 JP 9022504 A JP9022504 A JP 9022504A JP 2250497 A JP2250497 A JP 2250497A JP 2917953 B2 JP2917953 B2 JP 2917953B2
Authority
JP
Japan
Prior art keywords
image
light
illuminating
unit
pupil
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP9022504A
Other languages
Japanese (ja)
Other versions
JPH10221016A (en
Inventor
浩 今井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
Nippon Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Electric Co Ltd filed Critical Nippon Electric Co Ltd
Priority to JP9022504A priority Critical patent/JP2917953B2/en
Publication of JPH10221016A publication Critical patent/JPH10221016A/en
Application granted granted Critical
Publication of JP2917953B2 publication Critical patent/JP2917953B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Eye Examination Apparatus (AREA)
  • Image Input (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Automatic Focus Adjustment (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、観察者の視点位置
を常時検出してその検出した視点位置に応じて観察者に
常に正しい立体画像を呈示する立体表示装置等に用いる
視点位置検出装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a viewpoint position detecting device used in a stereoscopic display device or the like which constantly detects a viewpoint position of an observer and always presents a correct stereoscopic image to the observer in accordance with the detected viewpoint position. .

【0002】[0002]

【従来の技術】近年、立体表示への要望が高まってお
り、様々な立体表示装置の研究が行われている。最近で
は特にレンチキュラスクリーンを用いて、両眼視差を有
する画像をそれぞれ左右の目に空間的に分離して呈示す
ることで立体視を実現する立体表示装置が注目されてい
る。この装置は特別なメガネを装着する必要がないとい
う利点を有している。ただし、この装置では立体視が可
能な領域が人間の両眼間隔程度に制限されてしまうとい
う問題があり、観察者は常に頭を固定して観察するとい
う不自然な体勢をとらなければならなかった。
2. Description of the Related Art In recent years, demands for stereoscopic display have been increasing, and various stereoscopic display devices have been studied. In recent years, attention has been paid to a stereoscopic display device that realizes stereoscopic vision by presenting an image having binocular parallax spatially separated from the left and right eyes using a lenticular screen. This device has the advantage that no special glasses need to be worn. However, this device has a problem that the area where stereoscopic vision is possible is limited to about the distance between human eyes, and the observer must take an unnatural posture of always keeping his head fixed for observation. Was.

【0003】このような問題点を解決するために観察者
の視点位置を常時検出して、その検出された視点位置に
応じて観察者に常に正しい立体画像を呈示する視点追従
型立体表示装置が知られている(例えば特開平1−10
7247号公報、特開平5−7123号公報など)。従
来の視点追従型立体表示装置では、視点位置を検出する
ために磁気センサや、反射鏡等を観察者に装着させる必
要があり、このことが観察者に違和感を与え、特別なメ
ガネを装着する必要がないというレンチキュラスクリー
ンを用いた立体表示装置の利点を低減してしまう原因と
なる。また、不特定多数の観察者が使用する場合、装着
型の視点検知装置を使用すると衛生上の問題も生じる。
In order to solve such a problem, a viewpoint-following type stereoscopic display device which constantly detects the observer's viewpoint position and always presents a correct stereoscopic image to the observer in accordance with the detected viewpoint position has been proposed. Known (see, for example,
7247, JP-A-5-7123, etc.). In the conventional viewpoint-following type stereoscopic display device, it is necessary to attach a magnetic sensor, a reflecting mirror, and the like to the observer to detect the viewpoint position, which gives the observer a sense of incongruity and wears special glasses. This may reduce the advantage of the three-dimensional display device using a lenticular screen that is unnecessary. In addition, when used by a large number of unspecified observers, the use of a wearable viewpoint detection device causes a problem in hygiene.

【0004】そこで、例えば、特開平4−105432
号公報や特公平7−82539号公報には、観察者の撮
像画像から瞳孔のみを抽出して、観察者の瞳孔位置を非
接触で検出することが記載されている。これらの瞳孔検
出装置では、人間の瞳孔の反射特性を利用して瞳孔検出
を行っている。人間の瞳孔は、撮像装置と光軸を同軸と
する赤外光照明装置で照明すると瞳孔の反射率が顔面の
他の部分の反射率より大きくなるという性質があり、撮
像装置と光軸を非同軸とする赤外光照明装置で照明する
と瞳孔の反射率が顔面の他の部分の反射率より小さくな
るという性質がある。そこで、これら配置の異なる照明
装置を用いて得られたそれぞれの画像の対応画素を比較
すると、瞳孔部分の差が顔面部分の差より大きくなり、
人間の瞳孔部分だけを抽出することが可能となる。
Accordingly, for example, Japanese Patent Laid-Open No. 4-105432 discloses
Japanese Patent Publication No. 7-82539 and JP-B-7-82539 describe that only the pupil is extracted from the captured image of the observer and the pupil position of the observer is detected in a non-contact manner. In these pupil detection devices, pupil detection is performed using the reflection characteristics of the human pupil. The human pupil has a property that, when illuminated by an infrared light illuminating device having the optical axis coaxial with the imaging device, the reflectance of the pupil becomes larger than the reflectance of other portions of the face, and the optical axis of the pupil is not aligned with the optical axis. When illuminated by a coaxial infrared light illuminator, there is a property that the reflectance of the pupil becomes smaller than the reflectance of other parts of the face. Therefore, when comparing the corresponding pixels of the respective images obtained using these different illumination devices, the difference in the pupil portion is larger than the difference in the face portion,
Only the human pupil can be extracted.

【0005】図13は従来の瞳孔検出装置について説明
するための図である。
FIG. 13 is a diagram for explaining a conventional pupil detection device.

【0006】従来の瞳孔検出装置は、図13に示すよう
に、撮像装置104と、それぞれ観察者120の顔面を
照明する第1の赤外光照明装置101および第2の赤外
光照明装置102とを有する。第1の赤外光照明装置1
01は、その光軸が撮像装置104と同軸上に配置さ
れ、第2の赤外光照明装置102は、その光軸が撮像装
置104と非同軸に配置される。
As shown in FIG. 13, a conventional pupil detecting device includes an image pickup device 104, a first infrared light illuminating device 101 and a second infrared light illuminating device 102 for illuminating the face of an observer 120, respectively. And First infrared light illumination device 1
01 has its optical axis arranged coaxially with the imaging device 104, and the second infrared light illuminating device 102 has its optical axis arranged non-coaxially with the imaging device 104.

【0007】この瞳孔検出装置では、第1の赤外光検出
装置101を用いて得られた画像I 1 と、第2の赤外光
検出装置102を用いて得られた画像I2 との差分すな
わちI1 −I2 を画像差分計算部111で計算し、その
後、瞳孔抽出部112で適当な2値化処理を行い、観察
者120の瞳孔位置を検出している。このように、従来
の検出装置装置では、それぞれの赤外光照明装置10
1,102を用いて得られたの画像の対応画素の比較演
算に差分演算を用いている。
In this pupil detection device, the first infrared light detection
Image I obtained using device 101 1 And the second infrared light
Image I obtained using the detection device 102Two Difference with
Wachi I1 -ITwo Is calculated by the image difference calculation unit 111, and the
After that, the pupil extraction unit 112 performs appropriate binarization processing, and performs observation.
The pupil position of the person 120 is detected. Thus, conventional
In the detection device of the above, each infrared light illumination device 10
Comparison of the corresponding pixels of the image obtained using
The difference operation is used for the calculation.

【0008】[0008]

【発明が解決しようとする課題】しかしながら、従来の
瞳孔検出装置では、第1の赤外光照明装置を用いて得ら
れた画像と第2の赤外光照明装置を用いて得られた画像
との差分画像には、それぞれの照明装置の照明特性の差
がノイズ成分として存在する。そのため、高精度に瞳孔
を検出するには瞳孔成分とノイズ成分との信号対雑音比
を考慮して2値化する必要がある。瞳孔の反射特性には
個人差があり、また観察者が眼鏡等を使用した場合に瞳
孔の反射光強度が低下し、信号対雑音比が低下してしま
う。このように信号対雑音比に変動があると、瞳孔部分
を2値化処理によって抽出する場合に2値化閾値を一意
に決めにくく、安定な瞳孔検出が困難であった。
However, in the conventional pupil detecting device, an image obtained by using the first infrared light illuminating device and an image obtained by using the second infrared light illuminating device are different from each other. In the difference image, there is a difference in the illumination characteristics of each illumination device as a noise component. Therefore, in order to detect a pupil with high accuracy, it is necessary to perform binarization in consideration of a signal-to-noise ratio between a pupil component and a noise component. There are individual differences in the reflection characteristics of the pupil, and when the observer uses spectacles or the like, the reflected light intensity of the pupil decreases, and the signal-to-noise ratio decreases. When the signal-to-noise ratio fluctuates as described above, it is difficult to uniquely determine the binarization threshold when extracting the pupil portion by the binarization process, and it is difficult to perform stable pupil detection.

【0009】この従来の瞳孔検出装置の問題点につい
て、図14および図15を参照して説明する。
The problem of the conventional pupil detection device will be described with reference to FIGS.

【0010】図14は、図13に示した瞳孔検出装置の
撮像装置で得られた画像を示す図であり、(a)は撮像
装置と光軸を同軸とする照明装置で得られた観察者の画
像、(b)は撮像装置と光軸を非同軸とする照明装置で
得られた観察者の画像である。また図15(a)〜
(f)はそれぞれ図10(a)、(b)における線分A
B間の画像の輝度分布を示す。
FIG. 14 is a diagram showing an image obtained by the image pickup device of the pupil detection device shown in FIG. 13. FIG. 14A shows an observer obtained by an illumination device having an optical axis coaxial with the image pickup device. (B) is an image of the observer obtained by the illumination device having the optical axis non-coaxial with the imaging device. In addition, FIG.
(F) is a line segment A in FIGS. 10 (a) and (b), respectively.
5 shows a luminance distribution of an image between B and B.

【0011】図15(a)に示すように、光軸が撮像装
置と同軸の照明装置を用いて得られた画像I1 では、瞳
孔部分120aに相当する成分である瞳孔成分121a
の輝度が顔部分120bに相当する成分の輝度より高く
なる。一方、図15(b)に示すように、光軸が撮像装
置と非同軸の照明装置を用いて得られた画像I2 では、
瞳孔成分121bの輝度が顔部分120bに相当する成
分の輝度より低くなる。そのため、これらの画像I1
2 の差分I1 −I2 をとると、図15(c)に示すよ
うに瞳孔成分121cが強調され、適当な2値化処理に
より瞳孔を抽出できる。
[0011] As shown in FIG. 15 (a), the image I 1 the optical axis is obtained by using the illumination device of the imaging apparatus and the coaxial pupil component 121a is a component corresponding to the pupil portion 120a
Is higher than the luminance of the component corresponding to the face portion 120b. On the other hand, as shown in FIG. 15B, in the image I 2 obtained using the illumination device whose optical axis is non-coaxial with the imaging device,
The luminance of the pupil component 121b is lower than the luminance of the component corresponding to the face portion 120b. Therefore, these images I 1 ,
Taking the difference I 1 -I 2 of I 2, the pupil component 121c as shown in FIG. 15 (c) is emphasized, it can be extracted pupil by an appropriate binarization.

【0012】この差分画像にはそれぞれの照明装置の照
明特性の差がノイズ成分122として存在する。高精度
に瞳孔を検出するには、瞳孔成分121cとノイズ成分
122との信号対雑音比を考慮して2値化する必要があ
る。この場合、2値化の閾値Th1は図15(c)に示
すように設定すればよい。
In the difference image, a difference in illumination characteristics between the respective illumination devices exists as a noise component 122. In order to detect the pupil with high accuracy, it is necessary to binarize the pupil in consideration of the signal-to-noise ratio between the pupil component 121c and the noise component 122. In this case, the threshold value Th1 for binarization may be set as shown in FIG.

【0013】しかし、瞳孔の反射特性の個人差や、眼鏡
の使用などにより瞳孔の反射光の強度が低下し、図15
(d)に示すように瞳孔成分121dのピーク値が小さ
くなる場合がある。このとき、図15(e)に示す、光
軸が撮像装置と非同軸の照明装置を用いて得られた画像
I2 との差分I1 −I2 をとると、図15(f)に示す
ように、瞳孔成分121fの輝度が低くなる。その結
果、瞳孔成分121fとノイズ成分122との信号対雑
音比が小さくなり、閾値Th2を決定するのが困難にな
る。
However, the intensity of the reflected light from the pupil decreases due to individual differences in the reflection characteristics of the pupil and the use of eyeglasses.
As shown in (d), the peak value of the pupil component 121d may decrease. At this time, the difference I 1 −I 2 between the image I 2 and the image I 2 obtained using the non-coaxial illumination device shown in FIG. 15E is obtained as shown in FIG. 15F. Then, the luminance of the pupil component 121f decreases. As a result, the signal-to-noise ratio between the pupil component 121f and the noise component 122 becomes small, and it becomes difficult to determine the threshold value Th2.

【0014】例えば、光軸が撮像装置と非同軸な照明装
置を用いて得られた画像において、瞳孔成分の輝度が5
0(任意単位;以下同様)、顔部分に相当する成分の輝
度が40であり、光軸が撮像装置と非同軸な照明装置を
用いて得られた画像において、瞳孔成分の輝度が0、顔
部分に相当する成分の輝度が30であった場合、差分画
像における瞳孔成分の輝度は50、ノイズ成分の輝度は
10となる。このときの信号対雑音比は5になるが、観
察者が眼鏡等を使用して瞳孔成分の輝度が50から10
に低下した場合、信号対雑音比は1となり、2値化によ
る瞳孔抽出が不安定になる。このように、瞳孔抽出が不
安定になると、観察者の顔面と瞳孔の識別が困難にな
り、正確な瞳孔の検出ができなくなる。
For example, in an image obtained using an illumination device whose optical axis is not coaxial with the imaging device, the luminance of the pupil component is 5%.
0 (arbitrary unit; the same applies hereinafter), the luminance of the component corresponding to the face portion is 40, and the luminance of the pupil component is 0 and the luminance of the face When the luminance of the component corresponding to the part is 30, the luminance of the pupil component in the difference image is 50, and the luminance of the noise component is 10 in the difference image. Although the signal-to-noise ratio at this time is 5, the luminance of the pupil component is reduced from 50 to 10
, The signal-to-noise ratio becomes 1, and pupil extraction by binarization becomes unstable. As described above, when the pupil extraction becomes unstable, it becomes difficult to discriminate the pupil from the face of the observer, and it becomes impossible to detect the pupil accurately.

【0015】そこで本発明は、瞳孔画像信号の信号対雑
音比の変動を抑えて観察者の瞳孔を安定に抽出し、視点
位置を正確に検出する視点位置検出装置を提供すること
を目的とする。
SUMMARY OF THE INVENTION It is an object of the present invention to provide a viewpoint position detecting apparatus which stably extracts an observer's pupil by suppressing a change in a signal-to-noise ratio of a pupil image signal and accurately detects a viewpoint position. .

【0016】[0016]

【課題を解決するための手段】本発明の視点位置検出装
置は、被検出者の顔面を撮像する撮像手段と、前記被検
出者の顔面を照明するための、光軸が前記撮像手段の光
軸と実質的に同軸にある第1の照明手段、および光軸が
前記撮像手段の光軸と非同軸にある第2の照明手段と、
前記被検出者が前記第1の照明手段で照明された状態で
前記撮像手段により撮像された画像である第1の画像
と、前記被検出者が前記第2の照明手段で照明された状
態で前記撮像手段により撮像された画像である第2の画
像との対応画素の輝度を、それぞれの画素ごとに加算す
る加算手段と、前記第1の画像と前記第2の画像との対
応画素の輝度を、それぞれの画素ごとに減算する減算手
段と、前記加算手段および前記減算手段で得られた演算
結果同士を、それぞれの画素ごとに除算する除算手段
と、前記除算手段での除算結果に基づいて、前記被検出
者の瞳孔に対応する部分を抽出する抽出手段とを有す
る。
According to the present invention, there is provided a viewpoint position detecting apparatus, comprising: an image pickup means for picking up an image of a face of a person to be detected; and an optical axis for illuminating the face of the person to be detected. First illumination means substantially coaxial with the axis, and second illumination means wherein the optical axis is non-coaxial with the optical axis of the imaging means;
A first image, which is an image captured by the imaging unit in a state where the subject is illuminated by the first illumination unit, and a first image in which the subject is illuminated by the second illumination unit Adding means for adding, for each pixel, the luminance of a pixel corresponding to a second image which is an image captured by the image capturing means; and luminance of a pixel corresponding to the first image and the second image. Is subtracted for each pixel, and the calculation results obtained by the addition means and the subtraction means are divided by each pixel.Based on the result of the division by the division means, Extracting means for extracting a portion corresponding to the pupil of the subject.

【0017】また本発明の視点位置検出装置は、被検出
者の顔面を撮像する撮像手段と、前記被検出者の顔面を
照明するための、光軸が前記撮像手段の光軸と実質的に
同軸にある第1の照明手段、および光軸が前記撮像手段
の光軸と非同軸にある第2の照明手段と、前記被検出者
が前記第1の照明手段で照明された状態で前記撮像手段
により撮像された画像である第1の画像と、前記被検出
者が前記第2の照明手段で照明された状態で前記撮像手
段により撮像された画像である第2の画像との対応画素
の輝度を、それぞれの画素ごとに加算する加算手段と、
前記第1の画像と前記加算手段で得られた演算結果との
対応画素の輝度を、それぞれの画素ごとに除算する除算
手段と、前記除算手段での除算結果に基づいて、前記被
検出者の瞳孔に対応する部分を抽出する抽出手段とを有
する。
Further, the viewpoint position detecting device of the present invention has an image pickup means for picking up an image of the face of the person to be detected, and an optical axis for illuminating the face of the person to be detected is substantially equal to the optical axis of the image pickup means A first illuminating means coaxial with the second illuminating means, the optical axis of which is non-coaxial with the optical axis of the imaging means, and the image pickup in a state where the subject is illuminated by the first illuminating means Of a pixel corresponding to a first image that is an image captured by the means and a second image that is an image captured by the imaging means in a state where the subject is illuminated by the second illumination means. Adding means for adding the luminance for each pixel;
A dividing unit that divides the luminance of a pixel corresponding to the first image and the operation result obtained by the adding unit for each pixel; and, based on a result of the division by the dividing unit, Extracting means for extracting a portion corresponding to the pupil.

【0018】上記のとおり構成された本発明では、撮像
手段と同軸にある第1の照明手段で照明された被検出者
の顔面の画像である第1の画像と、撮像手段と非同軸に
ある第2の照明手段で照明された被検出者の顔面の画像
である第2の画像とを用いる。そして、これら2種類の
画像に対し、対応画素の輝度について各画素ごとに、加
算処理および減算処理を行い、これらの演算結果の比を
求める。または、2種類の画像についての加算処理を行
い、その結果と第1の画像との比を求める。このよう
に、減算演算以外に、加算演算および除算演算を用い、
その結果から被検出者の瞳孔を抽出することで、被検出
者の瞳孔反射輝度が変動する場合においても、瞳孔画像
の信号対雑音比の変動が抑えられる。その結果、被検出
者の瞳孔は安定的に抽出され、正確な視点位置の検出が
可能となる。
In the present invention configured as described above, the first image which is an image of the face of the subject illuminated by the first illumination means which is coaxial with the imaging means, and which is non-coaxial with the imaging means. A second image, which is an image of the face of the subject illuminated by the second illumination means, is used. Then, an addition process and a subtraction process are performed on the two types of images for the brightness of the corresponding pixels for each pixel, and the ratio of the calculation results is obtained. Alternatively, an addition process is performed on two types of images, and a ratio between the result and the first image is obtained. Thus, in addition to the subtraction operation, the addition operation and the division operation are used,
By extracting the pupil of the subject from the result, the variation of the signal-to-noise ratio of the pupil image can be suppressed even when the pupil reflection luminance of the subject changes. As a result, the pupil of the subject is stably extracted, and accurate detection of the viewpoint position becomes possible.

【0019】上記の2種類の画像を得るためには、各照
明手段がそれぞれ異なる波長の光を照射するものとする
とともに、撮像手段に、これらの波長を分離する分光手
段および分離した光に対応する2つの撮像素子を用いた
り、または、各照明手段を、ともに同一波長の光を照射
するものとして一定の周期で交互に発光させ、撮像手段
が各照明手段の発光タイミングに同期して2種類の画像
を撮像するように構成してもよい。
In order to obtain the above two types of images, it is assumed that each of the illuminating means irradiates light of a different wavelength, and the imaging means is provided with a spectral means for separating these wavelengths and a light corresponding to the separated light. Using two image sensors, or illuminating each illuminating means alternately at a fixed cycle assuming that both irradiate light of the same wavelength. May be configured to capture the above image.

【0020】また、上記の各演算および瞳孔に対応する
部分の抽出については、アナログ回路で実施することも
できる。
The above calculations and the extraction of the portion corresponding to the pupil can be performed by an analog circuit.

【0021】[0021]

【発明の実施の形態】次に、本発明の実施形態について
図面を参照して説明する。
Next, embodiments of the present invention will be described with reference to the drawings.

【0022】(第1の実施形態)図1は、本発明の視点
位置検出装置の第1の実施形態の構成図である。
(First Embodiment) FIG. 1 is a block diagram of a first embodiment of a viewpoint position detecting device according to the present invention.

【0023】図1に示すように、本実施形態の視点位置
検出装置は、波長がλ1の赤外光を照射する第1の照明
装置1と、波長がλ2の赤外光を照射する第2の照明装
置2と、第1の照明装置1および第2の照明装置2で照
明された観察者20(被検出者)の顔面を撮像する撮像
装置4と、撮像装置4で撮像された画像に、観察者20
の瞳孔位置を検出するための所定の処理を施す画像処理
装置10とを有する。本実施形態では、第1の照明装置
1の光源として、波長が850nmの発光ダイオードを
用い、第2の照明装置2の光源として、波長が940n
mの発光ダイオードを用いた。
As shown in FIG. 1, the viewpoint position detecting device of the present embodiment includes a first illuminating device 1 for irradiating infrared light having a wavelength of λ1 and a second illuminating device 1 for irradiating infrared light having a wavelength of λ2. Illumination device 2, an imaging device 4 that captures the face of an observer 20 (a person to be detected) illuminated by the first illumination device 1 and the second illumination device 2, and an image captured by the imaging device 4. , Observer 20
And an image processing device 10 for performing a predetermined process for detecting the pupil position of the image. In the present embodiment, a light emitting diode having a wavelength of 850 nm is used as a light source of the first lighting device 1, and a light source of a wavelength of 940 n is used as a light source of the second lighting device 2.
m light emitting diodes were used.

【0024】第1の照明装置1および第2の照明装置2
は、いずれも観察者20の顔面を照明するものである。
第1の照明装置1から照射される赤外光は、ハーフミラ
ー3で反射された後、観察者20の顔面を照明する。こ
こで、ハーフミラー3で反射された赤外光は、その光軸
が撮像装置4の光学系の光軸と同軸とされ、第1の照明
装置1は、撮像装置4と同軸上で観察者20の顔面を照
明する。また、第2の照明装置2は、その光軸が撮像装
置4の光学系の光軸と非同軸となる位置に配置される。
First lighting device 1 and second lighting device 2
Are for illuminating the face of the observer 20.
The infrared light emitted from the first illumination device 1 illuminates the face of the observer 20 after being reflected by the half mirror 3. Here, the infrared light reflected by the half mirror 3 has its optical axis coaxial with the optical axis of the optical system of the imaging device 4, and the first lighting device 1 Illuminate 20 faces. The second illumination device 2 is arranged at a position where its optical axis is non-coaxial with the optical axis of the optical system of the imaging device 4.

【0025】画像処理装置10は、第1の照明装置1を
用いて得られた画像I1 を蓄積する第1の画像メモリ1
1と、第2の照明装置2を用いて得られた画像I2 を蓄
積する第2の画像メモリ12と、両画像I1 ,I2 の対
応画素の輝度を各画素ごとに加算する加算演算部13
と、両画像I1 ,I2 の対応画素の輝度を各画素ごとに
減算する減算演算部14と、加算演算部13および減算
演算部14での算出結果同士を各画素ごとに除算する除
算演算部15と、除算演算部15での除算結果に基づい
て観察者20の瞳孔に対応する部分を抽出する瞳孔抽出
部16と、その瞳孔に対応する部分の重心位置を求める
瞳孔位置検出部17とから構成される。ここでは、第1
の画像メモリ11および第2の画像メモリ12は、解像
度が512×512画素であるものを用いた。
The image processing device 10 stores a first image memory 1 for storing an image I 1 obtained by using the first lighting device 1.
1, a second image memory 12 for storing the image I 2 obtained by using the second illumination device 2, addition operation the brightness of a corresponding pixel of the two images I 1, I 2 is added for each pixel Part 13
And a subtraction operation unit 14 for subtracting the luminance of the corresponding pixel of both images I 1 and I 2 for each pixel, and a division operation for dividing the calculation results of the addition operation unit 13 and the subtraction operation unit 14 for each pixel A pupil extraction unit 16 that extracts a portion corresponding to the pupil of the observer 20 based on the division result obtained by the division operation unit 15; and a pupil position detection unit 17 that obtains the center of gravity of the portion corresponding to the pupil. Consists of Here, the first
The image memory 11 and the second image memory 12 having a resolution of 512 × 512 pixels were used.

【0026】撮像装置4は、赤外光を感知するものであ
る。以下に、この撮像装置4について図2を参照して説
明する。
The image pickup device 4 senses infrared light. Hereinafter, the imaging device 4 will be described with reference to FIG.

【0027】撮像装置4は、入射光を2つの波長λ1,
λ2に分ける分光手段であるダイクロイックプリズム
5、第1の撮像素子6、第2の撮像素子7およびレンズ
8から構成され、波長λ1、λ2の2種類の波長の赤外
線画像を分離して撮像することができる。第1の撮像素
子6および第2の撮像素子7としては、それぞれ固体撮
像素子が用いられており、互いに同時刻の画像を撮像で
きるように同期をとって駆動される。さらに、撮像装置
4の内部には可視光を遮断するフィルタ9が挿入されて
おり、室内灯など可視光を照射する外部照明装置の影響
を受けないようにしてある。
The imaging device 4 converts the incident light into two wavelengths λ1,
It is composed of a dichroic prism 5, a first imaging device 6, a second imaging device 7, and a lens 8, which are spectral means for dividing into λ2, and separates and captures infrared images of two wavelengths of λ1 and λ2. Can be. A solid-state image sensor is used as each of the first image sensor 6 and the second image sensor 7, and they are driven synchronously so that images at the same time can be captured. Further, a filter 9 for blocking visible light is inserted in the image pickup device 4 so as not to be affected by an external lighting device such as an indoor light that emits visible light.

【0028】本実施形態では、撮像装置4はNTSC規
格に準じたものとし、水平周波数が15.75kHz、
垂直周波数が60Hzである。また、ダイクロイックプ
リズム5としては、分離波長が900nmのものを用
い、フィルタ9は、遮断波長が800nmのものを用い
た。なお、ダイクロイックプリズム5の代りに、ダイク
ロイックミラーと通常のミラーとを組み合せて使用して
もよい。
In the present embodiment, the image pickup device 4 conforms to the NTSC standard, has a horizontal frequency of 15.75 kHz,
The vertical frequency is 60 Hz. The dichroic prism 5 has a separation wavelength of 900 nm, and the filter 9 has a cutoff wavelength of 800 nm. Note that, instead of the dichroic prism 5, a dichroic mirror and a normal mirror may be used in combination.

【0029】観察者20は、それぞれ波長の異なる赤外
光を照射する第1の照明装置1および第2の照明装置2
によって照明され、撮像装置4内のダイクロイックプリ
ズム5によって観察者20の画像が第1の撮像素子6と
第2の撮像素子7とに分離されて撮像される。第1の照
明装置1の波長λ1の赤外光は第1の撮像素子6に到達
し、第2の照明装置2の波長λ2の赤外光は第2の撮像
素子7に到達する。第1の照明装置1は、撮像装置4と
同軸上で観察者20を照明するので、第1の撮像素子6
では観察者20の瞳孔が明るく撮像される。一方、第2
の照明装置2は撮像装置4と非同軸に配置されているの
で、第2の撮像素子7では観察者20の瞳孔が暗く撮像
される。第1の撮像素子6で撮像された画像すなわち第
1の照明装置1を用いて得られた画像I1 は、画像処理
装置4内の第1の画像メモリ11に蓄積される。第2の
撮像素子7で撮像された画像すなわち第2の照明装置2
を用いて得られた画像I2 は、画像処理装置4内の第2
の画像メモリ12に蓄積される。
The observer 20 has a first illuminating device 1 and a second illuminating device 2 for irradiating infrared light having different wavelengths.
The image of the observer 20 is separated and imaged by the dichroic prism 5 in the imaging device 4 into the first imaging device 6 and the second imaging device 7. The infrared light of the wavelength λ1 of the first lighting device 1 reaches the first image sensor 6, and the infrared light of the wavelength λ2 of the second lighting device 2 reaches the second image sensor 7. Since the first illumination device 1 illuminates the observer 20 coaxially with the imaging device 4, the first imaging device 6
In, the pupil of the observer 20 is imaged brightly. On the other hand, the second
Since the illumination device 2 is arranged non-coaxially with the imaging device 4, the second imaging device 7 images the pupil of the observer 20 darkly. The image captured by the first image sensor 6, that is, the image I 1 obtained using the first lighting device 1, is stored in the first image memory 11 in the image processing device 4. The image captured by the second image sensor 7, that is, the second illumination device 2
Is obtained by using the second image in the image processing device 4.
Is stored in the image memory 12.

【0030】次いで、これらの画像メモリ11,12の
対応画素ごとの輝度の和および差を、それぞれ加算演算
部13および減算演算部14で求め、それぞれの演算結
果の比を除算演算部15で求める。その後、瞳孔抽出部
16により2値化を行い、観察者20の瞳孔位置を求め
る。求められた瞳孔位置は2箇所となるので、瞳孔位置
検出部17で画像重心演算を行い、この求められた位
置、すなわち、2つの瞳孔の中心位置を求め、この位置
を観察者20の視点位置として出力する。これらの各種
演算および2値化処理は、電子計算機により実現され
る。また、視点位置検出は、撮像装置4の各フィールド
ごと、すなわち毎秒60回行われる。視点位置検出の分
解能は、1mmである。
Next, the sum and difference of the luminance of the corresponding pixels of the image memories 11 and 12 are obtained by the addition operation unit 13 and the subtraction operation unit 14, respectively, and the ratio of the operation results is obtained by the division operation unit 15. . After that, binarization is performed by the pupil extraction unit 16 to obtain the pupil position of the observer 20. Since the obtained pupil positions are two, the pupil position detecting unit 17 calculates the center of gravity of the image, obtains the obtained position, that is, the center position of the two pupils, and determines this position as the viewpoint position of the observer 20. Output as These various operations and binarization processing are realized by an electronic computer. The viewpoint position detection is performed for each field of the imaging device 4, that is, 60 times per second. The resolution of the viewpoint position detection is 1 mm.

【0031】次に、本実施形態の視点位置検出装置によ
る検出原理について、図3および図4を参照しつつ説明
する。
Next, the principle of detection by the viewpoint position detecting device of the present embodiment will be described with reference to FIGS.

【0032】図3は、図2に示した撮像装置で得られた
画像を示す図であり、(a)は第1の撮像素子で撮像さ
れた観察者の画像、(b)は第2の撮像素子で撮像され
た観察者の画像である。また、図4(a)〜(f)は、
それぞれ図3(a)、(b)における線分AB間の画像
の輝度分布を示す。
FIGS. 3A and 3B are diagrams showing images obtained by the image pickup device shown in FIG. 2, wherein FIG. 3A shows an image of the observer picked up by the first image pickup device, and FIG. It is an image of the observer captured by the imaging device. 4 (a) to 4 (f)
3A and 3B respectively show a luminance distribution of an image between line segments AB in FIGS.

【0033】図4(a)に示すように、第1の照明装置
1を用いて得られた画像I1 では、瞳孔部分20aに対
応する成分である瞳孔成分21aの輝度が、顔部分20
bに対応する成分の輝度より高くなる。一方、図4
(b)に示すように、第2の照明装置2を用いて得られ
た画像I2 では、瞳孔成分21bの輝度が顔部分20b
に対応する成分の輝度より低くなる。
As shown in FIG. 4A, in the image I 1 obtained by using the first illuminating device 1, the luminance of the pupil component 21a, which is the component corresponding to the pupil portion 20a, is reduced.
It becomes higher than the luminance of the component corresponding to b. On the other hand, FIG.
As shown in (b), in the image I 2 obtained using the second illumination device 2, the luminance of the pupil component 21b is lower than that of the face portion 20b.
Is lower than the luminance of the component corresponding to.

【0034】ここで、加算演算部13、減算演算部14
および除算演算部15を用いて、各画素(x,y)ごと
に、以下の(1)式に示す関数I(x,y)に基づく演
算を行う。 I(x,y)=(I1(x,y)−I2(x,y))/(I1(x,y)+I2(x,y)) (1) (1)式において、I1 (x,y)は、第1の撮像素子
6で撮像された画像の輝度分布を示し、I2 (x,y)
は、第2の撮像素子7で撮像された画像の輝度分布を示
す。また、関数I(x,y)は、−1≦I(x,y)≦
1の間の値をとる関数であり、I1 (x,y)=I2
(x,y)において0の値をとる(但し、I 1 (x,
y)=I2 (x,y)≠0)とともに、I1 (x,y)
>I2 (x,y)においては0<I(x,y)≦1の値
をとり、I1 (x,y)<I2 (x,y)において−1
≦I(x,y)<0の値をとる。
Here, the addition operation unit 13 and the subtraction operation unit 14
And using the division operation unit 15 for each pixel (x, y)
The performance based on the function I (x, y) shown in the following equation (1)
Perform the calculation. I (x, y) = (I1(x, y) -ITwo(x, y)) / (I1(x, y) + ITwo(x, y)) (1) In equation (1), I1 (X, y) is the first image sensor
6 shows the luminance distribution of the image taken inTwo (X, y)
Indicates the luminance distribution of the image captured by the second image sensor 7.
You. The function I (x, y) is expressed as -1 ≦ I (x, y) ≦
A function that takes on a value between 1 and1 (X, y) = ITwo 
(X, y) takes a value of 0 (however, I 1 (X,
y) = ITwo (X, y) ≠ 0) and I1 (X, y)
> ITwo In (x, y), 0 <I (x, y) ≦ 1
And I1 (X, y) <ITwo -1 at (x, y)
≤I (x, y) <0.

【0035】図4(a)および図4(b)に示した画像
輝度分布に対して上記の演算を行うと、図4(c)に示
すように、顔部分20bに相当する成分の輝度の違いが
ノイズ成分22となって、0(ゼロ)付近に現れる。通
常、図4(b)における瞳孔成分21bの輝度は十分に
小さいので、図4(c)における瞳孔成分21cは1に
近い値をとる。したがって、ノイズ成分22に対して十
分にマージンのある値で閾値Th1を設定して2値化処
理を行えば、瞳孔成分21cだけを抽出できる。
When the above calculation is performed on the image luminance distributions shown in FIGS. 4A and 4B, the luminance of the component corresponding to the face portion 20b is obtained as shown in FIG. 4C. The difference becomes the noise component 22 and appears near 0 (zero). Normally, the brightness of the pupil component 21b in FIG. 4B is sufficiently small, so that the pupil component 21c in FIG. Therefore, if the threshold value Th1 is set to a value having a sufficient margin for the noise component 22 and the binarization process is performed, only the pupil component 21c can be extracted.

【0036】ここで、観察者20が眼鏡等を使用してお
り、図4(d)に示すように、瞳孔成分21dの輝度が
低下する場合においても、図4(e)における瞳孔成分
21eの輝度が十分に小さければ、上記の演算を行うこ
とで、図4(f)示すように、瞳孔成分21fの輝度は
1に近い値をとる。したがって、瞳孔成分21fを抽出
するための2値化処理は、上記と同じ閾値Th1で行え
ばよく、観察者20の瞳孔反射強度が減少しても、瞳孔
成分21fを安定して抽出することができる。
Here, even if the observer 20 uses glasses or the like and the luminance of the pupil component 21d decreases as shown in FIG. 4D, the pupil component 21e in FIG. If the luminance is sufficiently small, the above calculation is performed so that the luminance of the pupil component 21f takes a value close to 1 as shown in FIG. Therefore, the binarization processing for extracting the pupil component 21f may be performed at the same threshold Th1 as described above, and even if the pupil reflection intensity of the observer 20 decreases, the pupil component 21f can be stably extracted. it can.

【0037】以上説明した視点位置検出装置を用い、こ
の視点位置検出装置から2m離れた観察者20の顔面を
撮影したところ、各画像I1 ,I2 上の瞳孔成分(座標
(x P ,yP ))、および顔成分(座標(xF ,y
F ))の輝度がI1 (xP ,yP)=50(任意単位;
以下同様)、I2 (xP ,YP )=0、I1 (xF ,y
F)=40、I2 (xF ,yF )=30であった。この
とき、瞳孔成分および顔成分の輝度比較演算結果は、I
(xP ,yP )=1.00、I(xF ,yF )=0.1
4であり、信号対雑音比は7となる。したがって、2値
化処理の閾値Th1を0.5として、完全に瞳孔のみを
抽出できた。
Using the viewpoint position detecting device described above,
Face of the observer 20 at a distance of 2 m from the viewpoint position detection device
I took each image I1 , ITwo Upper pupil component (coordinates
(X P , YP )) And face components (coordinates (xF , Y
F )) Is I1 (XP , YP) = 50 (arbitrary unit;
Hereinafter the same), ITwo (XP , YP ) = 0, I1 (XF , Y
F) = 40, ITwo (XF , YF ) = 30. this
At this time, the result of the luminance comparison operation of the pupil component and the face component is I
(XP , YP ) = 1.00, I (xF , YF ) = 0.1
4 and the signal-to-noise ratio is 7. Therefore, binary
Assuming that the threshold value Th1 of the conversion process is 0.5, only the pupil is completely
I was able to extract.

【0038】ここで、観察者20が眼鏡を用いると、瞳
孔成分の輝度は、50から10へと低下し、各輝度は、
1 (xP ,yP )=10、I2 (xP ,yP )=0、
1(xF ,yF )=40、I2 (xF ,yF )=30
となった。この場合の各成分の輝度比較演算結果は、I
(xP ,yP )=1.00、I(xF ,yF )=0.1
4となり、眼鏡を用いない場合と変わらず、信号対雑音
比も7のままであった。信号対雑音比に変動がないの
で、この場合にも眼鏡を用いない場合と同様に閾値Th
1=0.5として2値化処理を行ったところ、完全に瞳
孔のみを抽出できた。
Here, when the observer 20 uses glasses, the luminance of the pupil component decreases from 50 to 10, and each luminance becomes
I 1 (x P , y P ) = 10, I 2 (x P , y P ) = 0,
I 1 (x F , y F ) = 40, I 2 (x F , y F ) = 30
It became. In this case, the result of the luminance comparison operation of each component is I
(X P, y P) = 1.00, I (x F, y F) = 0.1
The signal-to-noise ratio remained at 7, which was the same as when no glasses were used. Since there is no change in the signal-to-noise ratio, the threshold value Th is also used in this case as in the case where no glasses are used
When the binarization process was performed with 1 = 0.5, only the pupil could be completely extracted.

【0039】上述のように、本発明による視点位置検出
装置では、瞳孔成分の輝度すなわち瞳孔反射光強度に変
動があっても信号対雑音比は変動せず、安定な瞳孔抽出
を行うことが可能となり、正確な視点位置検知を行うこ
とができた。
As described above, in the viewpoint position detecting device according to the present invention, even if the luminance of the pupil component, that is, the pupil reflected light intensity fluctuates, the signal-to-noise ratio does not fluctuate, and stable pupil extraction can be performed. Thus, accurate viewpoint position detection could be performed.

【0040】本実施形態では、第1の照明装置1の光軸
を、ハーフミラー3を利用して撮像装置4の光軸と一致
させた例を示したが、観察者20の瞳孔を明るく撮像で
きる配置であれば両光軸は正確に一致していなくてもよ
い。また、第2の照明装置2は、赤外光を照射するもの
の代りに、室内灯など、可視光を照射する照明を用いて
もよい。この場合には、撮像装置4内にはフィルタ9は
挿入しない。また、ダイクロイックプリズム5は、可視
光と赤外光とに分離するものにする。さらに、撮像装置
4に用いられる撮像素子としては、固体撮像素子に限ら
ず、撮像管などの各種撮像素子を用いることができる。
In this embodiment, an example has been shown in which the optical axis of the first illumination device 1 is made coincident with the optical axis of the imaging device 4 using the half mirror 3, but the pupil of the observer 20 is imaged brightly. If possible, the two optical axes do not have to coincide exactly. Further, the second lighting device 2 may use lighting that radiates visible light, such as an indoor light, instead of the device that radiates infrared light. In this case, the filter 9 is not inserted into the imaging device 4. The dichroic prism 5 separates visible light and infrared light. Further, the imaging device used in the imaging device 4 is not limited to a solid-state imaging device, and various imaging devices such as an imaging tube can be used.

【0041】(第2の実施形態)図5は、本発明の視点
位置検出装置の第2の実施形態の構成図である。
(Second Embodiment) FIG. 5 is a block diagram of a second embodiment of the viewpoint position detecting device of the present invention.

【0042】本実施形態の視点位置検出装置は、画像処
理装置30の構成が第1の実施形態と異なる。すなわ
ち、第1の画像メモリ31および第2の画像メモリ32
に蓄積された画像I1 ,I2 に対する演算部が、加算演
算部34および除算演算部35のみで構成されており、
除算演算部35では、第1のメモリ31に蓄積された画
像I1 と加算演算部34での演算結果との対応画素の輝
度の比を各画素ごとに求める。瞳孔抽出部36および瞳
孔位置検出部37については、第1の実施形態と同様で
ある。
The viewpoint position detecting device of the present embodiment is different from the first embodiment in the configuration of the image processing device 30. That is, the first image memory 31 and the second image memory 32
The operation unit for the images I 1 and I 2 stored in the memory is composed of only the addition operation unit 34 and the division operation unit 35,
The division operation unit 35 obtains, for each pixel, the luminance ratio of the corresponding pixel between the image I 1 stored in the first memory 31 and the operation result of the addition operation unit 34. The pupil extraction unit 36 and the pupil position detection unit 37 are the same as in the first embodiment.

【0043】なお、画像処理装置30を除く部分の構成
は第1の実施形態と同様であるので、図1と同じ符号を
付し、それらの説明は省略する。
Since the structure of the parts other than the image processing apparatus 30 is the same as that of the first embodiment, the same reference numerals as those in FIG. 1 are used and the description thereof is omitted.

【0044】本実施形態では、加算演算部34および除
算演算部35により、(2)式に示す演算結果を出力す
ることができる。 I(x,y)=I1(x,y)/(I1(x,y)+I2(x,y)) (2) この場合、関数I(x,y)はI1 (x,y)=I2
(x,y)において0.5の値をとる(但し、I1
(x,y)=I2 (x,y)≠0)とともに、I1
(x,y)>I2 (x,y)においては0.5<I
(x,y)≦1の値をとり、I1(x,y)<I2
(x,y)において0≦I(x,y)<0.5の値をと
る。
In the present embodiment, the addition operation unit 34 and the division operation unit 35 can output the operation result shown in equation (2). I (x, y) = I 1 (x, y) / (I 1 (x, y) + I 2 (x, y)) (2) In this case, the function I (x, y) is I 1 (x, y) y) = I 2
(X, y) takes a value of 0.5 (however, I 1
(X, y) = I 2 (x, y) ≠ 0) and I 1
When (x, y)> I 2 (x, y), 0.5 <I
Taking a value of (x, y) ≦ 1, I 1 (x, y) <I 2
(X, y) takes a value of 0 ≦ I (x, y) <0.5.

【0045】(2) 式は、第1の実施形態における
(1)式で出力される値の範囲を−1≦I(x,y)≦
1から0≦I(x,y)≦1へと線形に変換させたもの
であり、視点位置の検出の原理および効果は第1の実施
形態と同様である。
Equation (2) indicates that the range of values output by equation (1) in the first embodiment is -1 ≦ I (x, y) ≦
It is linearly converted from 1 to 0 ≦ I (x, y) ≦ 1, and the principle and effect of detecting the viewpoint position are the same as in the first embodiment.

【0046】(第3の実施形態)図6は、本発明の視点
位置検出装置の第3の実施形態の構成図である。また、
図7は、図6に示した視点位置検出装置の撮像装置の構
成図である。
(Third Embodiment) FIG. 6 is a block diagram of a third embodiment of a viewpoint position detecting device according to the present invention. Also,
FIG. 7 is a configuration diagram of an imaging device of the viewpoint position detection device shown in FIG.

【0047】本実施形態の視点位置検出装置は、第1の
照明装置41および第2の照明装置42に、それぞれ同
一の波長の赤外光を照射するものを用いている。ここで
は、各照明装置41,42の光源として、波長が850
nmの発光ダイオードを用いている。これら第1の照明
装置41および第2の照明装置42の配置は、第1の実
施形態と同様である。
The viewpoint position detecting device according to the present embodiment irradiates the first illuminating device 41 and the second illuminating device 42 with infrared light having the same wavelength. Here, the light source of each of the lighting devices 41 and 42 has a wavelength of 850.
nm light emitting diode is used. The arrangement of the first lighting device 41 and the second lighting device 42 is the same as in the first embodiment.

【0048】また、撮像装置44は、図7に示すよう
に、1つの撮像素子46と、レンズ48と、可視光を遮
断するフィルタ49とで構成され、撮像素子46からは
映像輝度信号Siiが出力される。撮像素子46から出力
された映像輝度信号Siiは、画像処理装置10に入力さ
れる。フィルタ49としては、遮断波長が800nmの
ものを用いている。上記のように、第1の照明装置41
および第2の照明装置42は同じ波長の赤外光を照射す
BR>るものであるので、本実施形態では、撮像装置44
内に分光手段を備える必要はない。また、撮像素子46
についても1つだけでよいので、撮像装置44の構成
が、第1の実施形態と比較して簡単なものとなる。
[0048] The imaging device 44, as shown in FIG. 7, one of the imaging element 46, a lens 48, is composed of a filter 49 for blocking visible light, image brightness signal S ii is from the image pickup device 46 Is output. The video luminance signal Sii output from the image sensor 46 is input to the image processing device 10. As the filter 49, a filter having a cutoff wavelength of 800 nm is used. As described above, the first lighting device 41
And the second illumination device 42 emits infrared light having the same wavelength.
Therefore, in the present embodiment, the imaging device 44
It is not necessary to provide a spectroscopic means inside. Further, the image sensor 46
Since only one is required, the configuration of the imaging device 44 is simpler than that of the first embodiment.

【0049】画像処理装置10は、第1の実施形態で用
いたものと同様であるので、図1と同じ符号を付し、そ
の詳細な説明は省略する。
Since the image processing apparatus 10 is the same as that used in the first embodiment, the same reference numerals as those in FIG. 1 are used, and the detailed description is omitted.

【0050】さらに、本実施形態では同期信号発生装置
51および照明制御装置52が設けられている。第1の
照明装置41および第2の赤外光照明装置42は、同期
信号発生装置51からの同期信号Ssyにより撮像装置4
4のフィールド周期と同期して交互に発光する。同期信
号発生装置51で発生される同期信号SsyはNTSC規
格に準じ、水平周波数が15.75kHz、垂直周波数
が60Hzである。照明制御装置52は同期信号Ssy
うち垂直同期信号を分離し、各フィールドごとに図8に
示すような発光パタンで各照明装置41,42を発光さ
せる働きをする。本実施形態では、奇数フィールド時に
第1の照明装置41が発光し、偶数フィールド時に第2
の照明装置42が発光する。
Further, in this embodiment, a synchronization signal generator 51 and an illumination controller 52 are provided. The first illumination device 41 and the second infrared light illumination device 42 use the synchronization signal Ssy from the synchronization signal generation device 51 to operate the imaging device 4.
Light is emitted alternately in synchronization with the field period of No. 4. The synchronization signal Ssy generated by the synchronization signal generator 51 has a horizontal frequency of 15.75 kHz and a vertical frequency of 60 Hz according to the NTSC standard. The lighting control apparatus 52 separates a vertical synchronizing signal of the synchronizing signal S sy, and serves to emit the illumination devices 41, 42 in the light emitting pattern shown in FIG. 8 for each field. In the present embodiment, the first lighting device 41 emits light during the odd field, and the second lighting device 41 emits the light during the even field.
Lighting device 42 emits light.

【0051】画像処理装置10において、第1の画像メ
モリ11は映像輝度信号Siiの奇数フィールドのみでサ
ンプリングを行い、第2の画像メモリ12は映像輝度信
号S iiの偶数フィールドのみでサンプリングを行うよう
に設定されている。したがって、図8に示すように、第
1の照明装置41で照明したときの画像は第1の画像メ
モリ11に蓄積され、第2の照明装置42で照明したと
きの画像は第2の画像メモリ12に蓄積される。
In the image processing apparatus 10, the first image
The memory 11 is a video luminance signal SiiOnly in odd fields
Sampling, and the second image memory 12 stores the image luminance signal.
No. S iiSample only on even fields of
Is set to Therefore, as shown in FIG.
The image when illuminated by the first illumination device 41 is the first image
It is stored in the moat 11 and illuminated by the second lighting device 42
The current image is stored in the second image memory 12.

【0052】これらの画像メモリ11,12の対応画素
ごとの輝度の和および差を、それぞれ加算演算部13お
よび減算演算部14で求め、それぞれの演算結果の比を
除算演算部15を用いて求める。その後、瞳孔抽出部1
6により2値化を行い、瞳孔位置検出部17で画像重心
演算を行うことで視点位置を検出する。本実施形態で
は、上述のように第1の画像メモリ11および第2の画
像メモリ12への画像の蓄積には2フィールド分の時
間、すなわち1フレーム分の時間が必要となるので、視
点位置の検出は毎秒30回行われる。また、視点位置の
検出の分解能は、1mmである。
The sum and difference of the luminances of the corresponding pixels of the image memories 11 and 12 are obtained by the addition operation unit 13 and the subtraction operation unit 14, respectively, and the ratio of the operation results is obtained by using the division operation unit 15. . Then, the pupil extraction unit 1
Then, the pupil position detector 17 calculates the center of gravity of the image, thereby detecting the viewpoint position. In the present embodiment, as described above, the storage of the image in the first image memory 11 and the second image memory 12 requires the time for two fields, that is, the time for one frame. Detection is performed 30 times per second. The resolution of detection of the viewpoint position is 1 mm.

【0053】瞳孔抽出の原理は第1の実施形態と同様で
あり、除算演算部15により、(1)式に基づく結果が
出力される。
The principle of pupil extraction is the same as in the first embodiment, and the division operation unit 15 outputs a result based on equation (1).

【0054】本実施形態の視点位置検出装置を用い、こ
の視点位置検出装置から2m離れた観察者の顔面を撮影
したところ、各画像上の瞳孔成分(座標(xP ,y
P ))、および顔成分(座標(xF ,yF ))における
各輝度がI1 (xP ,yP )=50(任意単位;以下同
様)、I2 (xP ,yP )=0、I1 (xF ,yF )=
40、I2 (XF ,YF )=30であった。このとき、
瞳孔成分および顔成分の輝度比較演算結果は、I(x
P ,yP )=1.00、I(xF ,yF )=0.14で
あり、信号対雑音比は7となる。したがって、2値化処
理の閾値を0.5として、完全に瞳孔のみを抽出でき
た。
Using the viewpoint position detecting device of this embodiment, the face of the observer at a distance of 2 m from the viewpoint position detecting device is photographed, and the pupil components (coordinates (x P , y
P)), and the face component (coordinates (x F, y F)) each brightness at that I 1 (x P, y P ) = 50 ( arbitrary units; hereinafter the same), I 2 (x P, y P) = 0, I 1 (x F , y F ) =
40, I 2 (X F , Y F ) = 30. At this time,
The result of the luminance comparison operation of the pupil component and the face component is I (x
P, y P) = 1.00, I (x F, a y F) = 0.14, the signal-to-noise ratio is 7. Therefore, the threshold value of the binarization process was set to 0.5, and only the pupil could be completely extracted.

【0055】ここで、観察者が眼鏡を用いると、瞳孔成
分の輝度は50から10と低下し、各輝度はI1 (x
P ,yP )=10、I2 (xP ,yP )=0、I1 (x
F ,y F )=40、I2 (xF ,yF )=30となっ
た。この場合の各成分の輝度比較演算結果は、I(x
P ,yP )=1.00、I(xF ,yF )=0.14
と、眼鏡を用いない場合と変わらず、信号対雑音比も7
のままであった。信号対雑音比に変動がないので、この
場合にも眼鏡を用いない場合と同様に閾値を0.5とし
て2値化処理を行ったところ、完全に瞳孔のみを抽出で
きた。
Here, if the observer uses glasses, the pupil formation
The brightness of the minute decreases from 50 to 10 and each brightness is I1 (X
P , YP ) = 10, ITwo (XP , YP ) = 0, I1 (X
F , Y F ) = 40, ITwo (XF , YF ) = 30
Was. In this case, the result of the luminance comparison operation of each component is I (x
P , YP ) = 1.00, I (xF , YF ) = 0.14
And the signal-to-noise ratio is 7
It was still. Since there is no change in the signal-to-noise ratio,
In this case, the threshold is set to 0.5 as in the case where no glasses are used.
Binarization was performed, and only the pupil was completely extracted.
Came.

【0056】(第4の実施形態)図9は、本発明の視点
位置検出装置の第4の実施形態の構成図である。
(Fourth Embodiment) FIG. 9 is a configuration diagram of a viewpoint position detecting apparatus according to a fourth embodiment of the present invention.

【0057】本実施形態の視点位置検出装置は、画像処
理装置30の構成が第3の実施形態と異なっている。す
なわち、本実施形態では、第2の実施形態で用いたもの
と同様の画像処理装置30を用いており、第1の画像メ
モリ31および第2の画像メモリ32に蓄積された画像
に対する演算部が、加算演算部34と除算演算部35で
構成されている。したがって、この画像処理装置では、
加算演算部34および除算演算部35により、第2の実
施形態と同様に、(2)式に示す演算結果が出力され
る。
The viewpoint position detecting device of the present embodiment is different from the third embodiment in the configuration of the image processing device 30. That is, in the present embodiment, the same image processing apparatus 30 as that used in the second embodiment is used, and the arithmetic unit for the images stored in the first image memory 31 and the second image memory 32 is used. , An addition operation unit 34 and a division operation unit 35. Therefore, in this image processing apparatus,
The addition unit 34 and the division unit 35 output the calculation result shown in Expression (2), as in the second embodiment.

【0058】画像処理装置を除く構成は第3の実施形態
と同様であるので、図6と同じ符号を付し、その説明は
省略する。
Since the configuration except for the image processing apparatus is the same as that of the third embodiment, the same reference numerals as those in FIG. 6 are used and the description thereof is omitted.

【0059】視点位置の検出の原理および効果は第3の
実施形態と同様であるので、その説明は省略する。
The principle and effect of detection of the viewpoint position are the same as in the third embodiment, and a description thereof will be omitted.

【0060】(第5の実施形態)図10は、本発明の視
点位置検出装置の第5の実施形態の構成図である。
(Fifth Embodiment) FIG. 10 is a block diagram of a fifth embodiment of the viewpoint position detecting device of the present invention.

【0061】本実施形態の視点位置検出装置は、第1の
照明装置1、第2の照明装置2、ハーフミラー3および
撮像装置4については第1の実施形態と同様であるが、
撮像装置4から出力される画像に対する処理をアナログ
回路によって実施するもので、図1に示した第1の画像
メモリ11、第2の画像メモリ12、加算演算部13、
減算演算部14、除算演算部15および瞳孔抽出部16
を、加算回路63、減算回路64、除算回路65および
コンパレータ66に置き換えたものである。なお、瞳孔
位置検出部68は、上述した各実施形態と同様に画像重
心演算を行うもので、この演算は電子計算機によって実
現している。
The viewpoint position detecting device of the present embodiment is similar to the first embodiment with respect to the first illuminating device 1, the second illuminating device 2, the half mirror 3, and the imaging device 4.
The processing on the image output from the imaging device 4 is performed by an analog circuit, and the first image memory 11, the second image memory 12, the addition operation unit 13, and the like shown in FIG.
Subtraction operation unit 14, division operation unit 15, and pupil extraction unit 16
Is replaced by an addition circuit 63, a subtraction circuit 64, a division circuit 65, and a comparator 66. Note that the pupil position detection unit 68 performs an image gravity center calculation in the same manner as in each of the above-described embodiments, and this calculation is realized by an electronic computer.

【0062】加算回路63は、撮像装置4から得られた
2種類の画像I1 ,I2 の映像輝度信号Siiの和をとる
ものである。減算回路64は、撮像装置4から得られた
2種類の画像I1 ,I2 の映像輝度信号の差をとるもの
である。除算回路65は、加算回路63および減算回路
64の出力信号同士を除算するものである。そしてコン
パレータ66は、除算回路65の出力信号に対して2値
化処理を行う回路である。このように、加算演算、減算
演算および2値化処理をアナログ回路で行うので、第1
の実施形態と比較して、電子計算機によるデジタル処理
量を低減でき、また、画像メモリを多数使用しなくても
よい。
The addition circuit 63 calculates the sum of the video luminance signals S ii of the two types of images I 1 and I 2 obtained from the imaging device 4. The subtraction circuit 64 calculates the difference between the video luminance signals of the two types of images I 1 and I 2 obtained from the imaging device 4. The division circuit 65 divides output signals of the addition circuit 63 and the subtraction circuit 64 from each other. The comparator 66 is a circuit that performs a binarization process on an output signal of the division circuit 65. As described above, since the addition operation, the subtraction operation, and the binarization process are performed by the analog circuit, the first
As compared with the embodiment, the amount of digital processing by the computer can be reduced, and a large number of image memories need not be used.

【0063】さらに、本実施形態でも、第3の実施形態
と同様の同期信号発生装置69を有し、この同期信号発
生装置69による同期タイミングで、撮像装置4内の2
つの撮像素子6,7(図2参照)は同期をとって駆動さ
れる。撮像装置4から出力される、それぞれの撮像素子
6,7で得られた同時刻の映像輝度信号が、加算回路6
3および減算回路64においてそれぞれ処理され、加算
回路63および減算回路64それぞれの出力を結果を除
算回路65で処理することで、第1の実施形態で説明し
た(1)式に基づく演算を行う。
Further, the present embodiment also has a synchronizing signal generator 69 similar to that of the third embodiment.
The two image sensors 6, 7 (see FIG. 2) are driven in synchronization. Image luminance signals at the same time, which are output from the imaging device 4 and obtained by the respective imaging devices 6 and 7, are added to the addition circuit 6.
3 and the subtraction circuit 64, and the outputs of the addition circuit 63 and the subtraction circuit 64 are processed by the division circuit 65, thereby performing the operation based on the equation (1) described in the first embodiment.

【0064】除算回路65の出力は、コンパレータ66
で2値化処理された後、同期信号発生装置69からの同
期信号Ssyと同期して画像メモリ67に蓄積され、瞳孔
位置検出部68で画像重心演算を行うことで瞳孔位置を
検出する。
The output of the division circuit 65 is
Are stored in the image memory 67 in synchronization with the synchronizing signal Ssy from the synchronizing signal generator 69, and the pupil position is detected by the pupil position detecting unit 68 performing image gravity center calculation.

【0065】瞳孔抽出の原理は第1の実施形態と同様で
あり、除算回路65より、式(1)に基づく結果が出力
される。
The principle of pupil extraction is the same as in the first embodiment, and the division circuit 65 outputs a result based on equation (1).

【0066】本実施形態の視点位置検出装置を用い、こ
の視点位置検出装置から2m離れた観察者20の顔面を
撮影したところ、各画像上の瞳孔成分(座標(xP ,y
P ))、および顔成分(座標(xF ,yF ))における
各輝度がI1 (xP ,yP )=50(任意単位;以下同
様)、I2 (xP ,yP )=0、I1 (xF ,yF )=
40、I2 (XF ,YF )=30であった。このとき、
瞳孔成分および顔成分の輝度比較演算結果は、I(x
P ,yP )=1.00、I(xF ,yF )=0.14で
あり、信号対雑音比は7となる。したがって、2値化処
理の閾値を0.5として、完全に瞳孔のみを抽出でき
た。
When the face of the observer 20 at a distance of 2 m from the viewpoint position detecting device is photographed using the viewpoint position detecting device of the present embodiment, the pupil components (coordinates (x P , y
P)), and the face component (coordinates (x F, y F)) each brightness at that I 1 (x P, y P ) = 50 ( arbitrary units; hereinafter the same), I 2 (x P, y P) = 0, I 1 (x F , y F ) =
40, I 2 (X F , Y F ) = 30. At this time,
The result of the luminance comparison operation of the pupil component and the face component is I (x
P, y P) = 1.00, I (x F, a y F) = 0.14, the signal-to-noise ratio is 7. Therefore, the threshold value of the binarization process was set to 0.5, and only the pupil could be completely extracted.

【0067】ここで、観察者20が眼鏡を用いると、瞳
孔成分の輝度は50から10と低下し、各輝度はI1
(xP ,yP )=10、I2 (xP ,yP )=0、I1
(xF,yF )=40、I2 (xF ,yF )=30とな
った。この場合の各成分の輝度比較演算結果は、I(x
P ,yP )=1.00、I(xF ,yF )=0.14
と、眼鏡を用いない場合と変わらず、信号対雑音比も7
のままであった。信号対雑音比に変動がないので、この
場合にも眼鏡を用いない場合と同様に閾値を0.5とし
て2値化処理を行ったところ、完全に瞳孔のみを抽出で
きた。
Here, when the observer 20 uses glasses, the luminance of the pupil component decreases from 50 to 10, and each luminance becomes I 1
(X P, y P) = 10, I 2 (x P, y P) = 0, I 1
(X F, y F) = 40, I 2 (x F, y F) became = 30. In this case, the result of the luminance comparison operation of each component is I (x
P , y P ) = 1.00, I (x F , y F ) = 0.14
And the signal-to-noise ratio is 7
It was still. Since there was no change in the signal-to-noise ratio, the binarization process was performed with the threshold value set to 0.5 in the same manner as in the case where no glasses were used, and only the pupil could be completely extracted.

【0068】(第6の実施形態)図11は、本発明の視
点位置検出装置の第6の実施形態の構成図である。
(Sixth Embodiment) FIG. 11 is a block diagram of a viewpoint position detecting apparatus according to a sixth embodiment of the present invention.

【0069】本実施形態の視点位置検出装置は、第5の
実施形態で説明した減算回路64(図10参照)を省
き、撮像装置4の、第1の照明装置1を用いて得られる
画像I 1 の映像輝度信号Siiを直接、除算回路65に入
力するように変更したものである。したがって、本実施
形態では、加算回路63および除算回路65により、第
2の実施形態と同様に、(2)式に示す演算結果を出力
することができる。その他の構成については第5の実施
形態と同様であるので、図10と同一の符号を付し、そ
れらの説明は省略する。
The viewpoint position detecting device according to the present embodiment has a fifth
The subtraction circuit 64 (see FIG. 10) described in the embodiment is omitted.
Obtained by using the first lighting device 1 of the imaging device 4
Image I 1 Image luminance signal SiiDirectly into the division circuit 65.
It has been modified to work. Therefore, this implementation
In the embodiment, the adding circuit 63 and the dividing circuit 65
As in the case of the second embodiment, the calculation result shown in the equation (2) is output.
can do. Fifth implementation for other configurations
Since it is the same as the embodiment, the same reference numerals as those in FIG.
Their description is omitted.

【0070】視点位置の検出の原理および効果は第5の
実施形態と同様であるで、その説明は省略する。
The principle and effect of detecting the viewpoint position are the same as in the fifth embodiment, and a description thereof will be omitted.

【0071】(立体表示装置への適用例)本発明の視点
位置検出装置は、視点追従型立体表示装置へ適用するこ
とができる。
(Example of Application to Stereoscopic Display Device) The viewpoint position detecting device of the present invention can be applied to a viewpoint-following type stereoscopic display device.

【0072】図12は、本発明の視点位置検出装置を用
いた視点追従型立体表示装置の全体構成を示す図であ
る。この視点追従型立体表示装置は、両眼視差を有する
画像を液晶プロジェクタ81からレンチキュラスクリー
ン82に投影し、両眼視差を有する画像をそれぞれ左右
の目に空間的に分離して呈示することで立体視を実現す
るものである。
FIG. 12 is a diagram showing the overall configuration of a viewpoint following type stereoscopic display device using the viewpoint position detecting device of the present invention. This viewpoint-following type stereoscopic display device projects an image having binocular parallax from a liquid crystal projector 81 onto a lenticular screen 82, and spatially separates and presents images having binocular parallax to the left and right eyes. It realizes the visual.

【0073】レンチキュラスクリーン82には視点位置
検出装置80が取り付けられており、この視点位置検出
装置80で観察者20の視点位置を検出する。視点位置
検出装置80としては、上述の第1の実施形態〜第6の
実施形態で説明した、本発明の視点位置検出装置のいず
れかが用いられる。視点位置検出装置80には光学系制
御部83が接続されており、観察者20の視点位置に応
じて液晶プロジェクタ81内の視点追従光学系機構部8
4が制御される。なお、視点位置検出装置80により人
間の瞳孔は2つ抽出されるが、視点追従型立体表示装置
へ適用する場合は2つの瞳孔の中点を視点位置とする。
The lenticular screen 82 is provided with a viewpoint position detecting device 80, and the viewpoint position detecting device 80 detects the viewpoint position of the observer 20. As the viewpoint position detecting device 80, any of the viewpoint position detecting devices of the present invention described in the first to sixth embodiments is used. An optical system control unit 83 is connected to the viewpoint position detecting device 80, and the viewpoint following optical system mechanism unit 8 in the liquid crystal projector 81 according to the viewpoint position of the observer 20.
4 is controlled. Although two human pupils are extracted by the viewpoint position detecting device 80, when applied to a viewpoint-following stereoscopic display device, the midpoint of the two pupils is set as the viewpoint position.

【0074】以上のように、本発明による視点位置検出
装置80を視点追従型立体表示装置へ適用したところ、
視点位置を非接触で正確に検出することが可能となり、
観察者20の負担の少ない立体表示装置を提供すること
ができた。
As described above, when the viewpoint position detecting device 80 according to the present invention is applied to a viewpoint-following three-dimensional display device,
It is possible to accurately detect the viewpoint position without contact,
A three-dimensional display device with a small burden on the observer 20 could be provided.

【0075】[0075]

【発明の効果】以上説明したように本発明は、第1の照
明手段で照明された被検出者の顔面の画像である第1の
画像と、第2の照明手段で照明された被検出者の顔面の
画像である第2の画像とを用い、これら2種類の画像に
対し、対応画素の輝度について、加算結果と減算結果と
の比、あるいは加算結果と第1の画像との比を各画素ご
とに求めることで、被検出者の瞳孔反射輝度が変動する
場合においても、被検出者の瞳孔を安定的に抽出でき、
正確な視点位置を検出することができる。
As described above, according to the present invention, the first image, which is the image of the face of the subject illuminated by the first illuminating means, and the subject illuminated by the second illuminating means, Using the second image, which is an image of the face of, the ratio of the addition result to the subtraction result, or the ratio of the addition result to the first image, for the luminance of the corresponding pixel is determined for each of these two types of images. By obtaining for each pixel, even when the pupil reflection luminance of the subject fluctuates, the pupil of the subject can be stably extracted,
An accurate viewpoint position can be detected.

【0076】特に、各照明手段を、ともに同一波長の光
を照射するものとし、互いに一定の周期で交互に発光さ
せることで、撮像手段の構成を簡単にすることができ
る。
In particular, it is possible to simplify the structure of the image pickup means by irradiating light of the same wavelength to each of the illuminating means and alternately emitting light at a constant period.

【0077】また、本発明の視点位置検出装置を視点追
従型立体表示装置に適用すれば、視点位置を非接触で正
確に検出することができるので、立体表示装置の観察者
の負担を軽減させることができる。
Further, if the viewpoint position detecting device of the present invention is applied to a viewpoint-following type stereoscopic display device, the viewpoint position can be accurately detected in a non-contact manner, so that the burden on the observer of the stereoscopic display device is reduced. be able to.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の視点位置検出装置の第1の実施形態の
構成図である。
FIG. 1 is a configuration diagram of a first embodiment of a viewpoint position detection device of the present invention.

【図2】図1に示した視点位置検出装置の撮像装置の構
成図である。
FIG. 2 is a configuration diagram of an imaging device of the viewpoint position detection device shown in FIG.

【図3】図2に示した撮像装置で撮像された画像を示す
図である。
FIG. 3 is a diagram illustrating an image captured by the imaging device illustrated in FIG. 2;

【図4】図3に示した画像における線分AB間の画像の
輝度分布を示すグラフである。
FIG. 4 is a graph showing a luminance distribution of an image between line segments AB in the image shown in FIG. 3;

【図5】本発明の視点位置検出装置の第2の実施形態の
構成図である。
FIG. 5 is a configuration diagram of a second embodiment of the viewpoint position detecting device of the present invention.

【図6】本発明の視点位置検出装置の第3の実施形態の
構成図である。
FIG. 6 is a configuration diagram of a third embodiment of a viewpoint position detecting device of the present invention.

【図7】図6に示した視点位置検出装置の撮像装置の構
成図である。
7 is a configuration diagram of an imaging device of the viewpoint position detection device shown in FIG.

【図8】図6に示した視点検出装置における、同期信号
に対する照明装置および画像メモリの動作のタイミング
チャートである。
8 is a timing chart of the operation of the illumination device and the image memory with respect to a synchronization signal in the viewpoint detection device shown in FIG.

【図9】本発明の視点位置検出装置の第4の実施形態の
構成図である。
FIG. 9 is a configuration diagram of a fourth embodiment of the viewpoint position detection device of the present invention.

【図10】本発明の視点位置検出装置の第5の実施形態
の構成図である。
FIG. 10 is a configuration diagram of a fifth embodiment of a viewpoint position detecting device of the present invention.

【図11】本発明の視点位置検出装置の第6の実施形態
の構成図である。
FIG. 11 is a configuration diagram of a sixth embodiment of the viewpoint position detecting device of the present invention.

【図12】本発明の視点位置検出装置を適用した視点追
従型立体表示装置の全体構成を示す図である。
FIG. 12 is a diagram showing an overall configuration of a viewpoint tracking type stereoscopic display device to which the viewpoint position detection device of the present invention is applied.

【図13】従来の瞳孔検出装置の構成図である。FIG. 13 is a configuration diagram of a conventional pupil detection device.

【図14】図13に示した瞳孔検出装置の撮像装置で撮
像された画像を示す図である。
FIG. 14 is a diagram illustrating an image captured by an imaging device of the pupil detection device illustrated in FIG. 13;

【図15】図14に示した画像における線分AB間の画
像の分布輝度を示すグラフである。
FIG. 15 is a graph showing distribution luminance of an image between line segments AB in the image shown in FIG. 14;

【符号の説明】[Explanation of symbols]

1,41 第1の照明装置 2,42 第2の照明装置 3 ハーフミラー 4,44 撮像装置 5 ダイクロイックプリズム 6 第1の撮像素子 7 第2の撮像素子 8,48 レンズ 9,49 フィルタ 10,30 画像処理装置 11,31 第1の画像メモリ 12,32 第2の画像メモリ 13,34 加算演算部 14 減算演算部 15,35 除算演算部 16,36 瞳孔抽出部 17,37,68 瞳孔位置検出部 20 観察者 20a 瞳孔部分 20b 顔部分 46 撮像素子 51,69 同期信号発生装置 52 照明制御装置 63 加算回路 64 減算回路 65 除算回路 66 コンパレータ 67 画像メモリ 80 視点位置検出装置 81 液晶プロジェクタ 82 レンチキュラスクリーン 83 光学系制御部 84 視点追従光学系機構部 1,41 First illumination device 2,42 Second illumination device 3 Half mirror 4,44 Imaging device 5 Dichroic prism 6 First imaging device 7 Second imaging device 8,48 Lens 9,49 Filter 10,30 Image processing device 11, 31 First image memory 12, 32 Second image memory 13, 34 Addition operation unit 14 Subtraction operation unit 15, 35 Division operation unit 16, 36 Pupil extraction unit 17, 37, 68 Pupil position detection unit Reference Signs List 20 observer 20a pupil part 20b face part 46 image sensor 51, 69 synchronization signal generator 52 illumination controller 63 addition circuit 64 subtraction circuit 65 division circuit 66 comparator 67 image memory 80 viewpoint position detection device 81 liquid crystal projector 82 lenticular screen 83 optical System control unit 84 Viewpoint tracking optical system mechanism

フロントページの続き (51)Int.Cl.6 識別記号 FI G06T 1/00 G06F 15/62 380 7/60 15/64 L 15/70 350Z (56)参考文献 特開 平8−328170(JP,A) 特開 平8−313843(JP,A) 特開 平7−311364(JP,A) 特開 平7−13105(JP,A) 特開 平9−230286(JP,A) 特開 平9−54376(JP,A) 特開 平8−322068(JP,A) 特開 平2−138673(JP,A) (58)調査した分野(Int.Cl.6,DB名) G01B 11/00 Continuation of the front page (51) Int.Cl. 6 Identification symbol FI G06T 1/00 G06F 15/62 380 7/60 15/64 L 15/70 350Z (56) References JP-A-8-328170 (JP, A JP-A-8-313843 (JP, A) JP-A-7-311364 (JP, A) JP-A-7-13105 (JP, A) JP-A-9-230286 (JP, A) 54376 (JP, A) JP-A-8-322068 (JP, A) JP-A-2-138673 (JP, A) (58) Fields investigated (Int. Cl. 6 , DB name) G01B 11/00

Claims (8)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 被検出者の顔面を撮像する撮像手段と、 前記被検出者の顔面を照明するための、光軸が前記撮像
手段の光軸と実質的に同軸にある第1の照明手段、およ
び光軸が前記撮像手段の光軸と非同軸にある第2の照明
手段と、 前記被検出者が前記第1の照明手段で照明された状態で
前記撮像手段により撮像された画像である第1の画像
と、前記被検出者が前記第2の照明手段で照明された状
態で前記撮像手段により撮像された画像である第2の画
像との対応画素の輝度を、それぞれの画素ごとに加算す
る加算手段と、 前記第1の画像と前記第2の画像との対応画素の輝度
を、それぞれの画素ごとに減算する減算手段と、 前記加算手段および前記減算手段で得られた演算結果同
士を、それぞれの画素ごとに除算する除算手段と、 前記除算手段での除算結果に基づいて、前記被検出者の
瞳孔に対応する部分を抽出する抽出手段とを有する視点
位置検出装置。
1. An image pickup means for picking up an image of a face of a person to be detected, and a first illuminating means for illuminating the face of the person to be detected, the optical axis of which is substantially coaxial with the optical axis of the image pickup means. A second illumination unit whose optical axis is non-coaxial with the optical axis of the imaging unit; and an image captured by the imaging unit in a state where the subject is illuminated by the first illumination unit. The luminance of a pixel corresponding to a first image and a second image that is an image captured by the imaging unit in a state where the subject is illuminated by the second illumination unit is set for each pixel. Addition means for adding; subtraction means for subtracting, for each pixel, the luminance of a corresponding pixel between the first image and the second image; and calculation results obtained by the addition means and the subtraction means Dividing means for each pixel, Based on the division results in means, the viewpoint position detecting device having extraction means for extracting a portion corresponding to the pupil of the detected person.
【請求項2】 前記第1の照明手段および前記第2の照
明手段は、それぞれ異なる波長の光を照射するものであ
り、 前記撮像手段は、入射光を前記第1の照明手段からの光
と前記第2の照明手段からの光とに分離する分光手段
と、前記分光手段によって分離された光のうち、前記第
1の照明手段からの光が到達する第1の撮像素子と、前
記第2の照明手段からの光が到達する第2の撮像素子と
を有し、前記第1の撮像素子で撮像された画像を前記第
1の画像とし、前記第2の撮像素子で撮像された画像を
前記第2の画像とする請求項1に記載の視点位置検出装
置。
2. The first illuminating means and the second illuminating means irradiate light of different wavelengths, and the imaging means illuminates incident light with light from the first illuminating means. A spectroscopic unit that separates the light from the second illuminating unit into light, a first imaging element to which the light from the first illuminating unit reaches among the light separated by the spectroscopic unit, A second image pickup element to which light from the illumination means reaches, an image picked up by the first image pickup element being the first image, and an image picked up by the second image pickup element The viewpoint position detecting device according to claim 1, wherein the second image is used.
【請求項3】 前記第1の照明手段および前記第2の照
明手段は、ともに同一の波長の光を照射するとともに一
定の周期で交互に発光され、前記第1の照明手段が発光
したときに前記撮像手段で撮像された画像を前記第1の
画像とし、前記第2の照明手段が発光したときに前記撮
像手段で撮像された画像を前記第2の画像とする請求項
1に記載の視点位置検出装置。
3. The first illuminating means and the second illuminating means both emit light of the same wavelength and are alternately illuminated at a constant cycle, and when the first illuminating means emits light. 2. The viewpoint according to claim 1, wherein an image captured by the imaging unit is the first image, and an image captured by the imaging unit when the second illumination unit emits light is the second image. 3. Position detection device.
【請求項4】 前記加算手段、前記減算手段、前記除算
手段および前記抽出手段は、それぞれアナログ回路で構
成される請求項1、2または3に記載の視点位置検出装
置。
4. The viewpoint position detecting device according to claim 1, wherein said adding means, said subtracting means, said dividing means and said extracting means are each constituted by an analog circuit.
【請求項5】 被検出者の顔面を撮像する撮像手段と、 前記被検出者の顔面を照明するための、光軸が前記撮像
手段の光軸と実質的に同軸にある第1の照明手段、およ
び光軸が前記撮像手段の光軸と非同軸にある第2の照明
手段と、 前記被検出者が前記第1の照明手段で照明された状態で
前記撮像手段により撮像された画像である第1の画像
と、前記被検出者が前記第2の照明手段で照明された状
態で前記撮像手段により撮像された画像である第2の画
像との対応画素の輝度を、それぞれの画素ごとに加算す
る加算手段と、 前記第1の画像と前記加算手段で得られた演算結果との
対応画素の輝度を、それぞれの画素ごとに除算する除算
手段と、 前記除算手段での除算結果に基づいて、前記被検出者の
瞳孔に対応する部分を抽出する抽出手段とを有する視点
位置検出装置。
5. An image pickup means for picking up an image of the face of a person to be detected, and a first illuminating means for illuminating the face of the person to be detected, the optical axis of which is substantially coaxial with the optical axis of the image pickup means. A second illumination unit whose optical axis is non-coaxial with the optical axis of the imaging unit; and an image captured by the imaging unit in a state where the subject is illuminated by the first illumination unit. The luminance of a pixel corresponding to a first image and a second image that is an image captured by the imaging unit in a state where the subject is illuminated by the second illumination unit is set for each pixel. Adding means for adding, dividing means for dividing the brightness of the pixel corresponding to the first image and the calculation result obtained by the adding means for each pixel, and a dividing result based on the dividing result by the dividing means. Extracting means for extracting a portion corresponding to a pupil of the subject Viewpoint position detecting device having a.
【請求項6】 前記第1の照明手段および前記第2の照
明手段は、それぞれ異なる波長の光を照射するものであ
り、 前記撮像手段は、入射光を前記第1の照明手段からの光
と前記第2の照明手段からの光とに分離する分光手段
と、前記分光手段によって分離された光のうち、前記第
1の照明手段からの光が到達する第1の撮像素子と、前
記第2の照明手段からの光が到達する第2の撮像素子と
を有し、前記第1の撮像素子で撮像された画像を前記第
1の画像とし、前記第2の撮像素子で撮像された画像を
前記第2の画像とする請求項5に記載の視点位置検出装
置。
6. The first illuminating means and the second illuminating means irradiate light of different wavelengths, and the imaging means illuminates incident light with light from the first illuminating means. A spectroscopic unit that separates the light from the second illuminating unit into light, a first imaging element to which the light from the first illuminating unit reaches among the light separated by the spectroscopic unit, A second image pickup element to which light from the illumination means reaches, an image picked up by the first image pickup element being the first image, and an image picked up by the second image pickup element The viewpoint position detecting apparatus according to claim 5, wherein the second image is used as the second image.
【請求項7】 前記第1の照明手段および前記第2の照
明手段は、ともに同一波長の光を照射するとともに一定
の周期で交互に発光され、前記第1の照明手段が発光し
たときに前記撮像手段で撮像された画像を前記第1の画
像とし、前記第2の照明手段が発光したときに前記撮像
手段で撮像された画像を前記第2の画像とする請求項5
に記載の視点位置検出装置。
7. The first illuminating means and the second illuminating means both emit light of the same wavelength and emit light alternately at a constant period, and when the first illuminating means emits light, 6. The image captured by the imaging unit is the first image, and the image captured by the imaging unit when the second illumination unit emits light is the second image.
3. A viewpoint position detecting device according to claim 1.
【請求項8】 前記加算手段、前記除算手段および前記
抽出手段は、それぞれアナログ回路で構成される請求項
5、6または7に記載の視点位置検出装置。
8. The viewpoint position detecting device according to claim 5, wherein said adding means, said dividing means and said extracting means are each constituted by an analog circuit.
JP9022504A 1997-02-05 1997-02-05 View point position detection device Expired - Lifetime JP2917953B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP9022504A JP2917953B2 (en) 1997-02-05 1997-02-05 View point position detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP9022504A JP2917953B2 (en) 1997-02-05 1997-02-05 View point position detection device

Publications (2)

Publication Number Publication Date
JPH10221016A JPH10221016A (en) 1998-08-21
JP2917953B2 true JP2917953B2 (en) 1999-07-12

Family

ID=12084586

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9022504A Expired - Lifetime JP2917953B2 (en) 1997-02-05 1997-02-05 View point position detection device

Country Status (1)

Country Link
JP (1) JP2917953B2 (en)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001242417A (en) * 2000-02-28 2001-09-07 Mixed Reality Systems Laboratory Inc Pupil position detector and image display device using the same
JP3450801B2 (en) * 2000-05-31 2003-09-29 キヤノン株式会社 Pupil position detecting device and method, viewpoint position detecting device and method, and stereoscopic image display system
US7206435B2 (en) * 2002-03-26 2007-04-17 Honda Giken Kogyo Kabushiki Kaisha Real-time eye detection and tracking under various light conditions
US7280678B2 (en) * 2003-02-28 2007-10-09 Avago Technologies General Ip Pte Ltd Apparatus and method for detecting pupils
KR100580630B1 (en) * 2003-11-19 2006-05-16 삼성전자주식회사 Apparatus and method for discriminating person using infrared rays
US7347549B2 (en) * 2003-12-10 2008-03-25 Bausch & Lomb Incorporated Rapid switching slit scan image capture system
US7091471B2 (en) * 2004-03-15 2006-08-15 Agilent Technologies, Inc. Using eye detection for providing control and power management of electronic devices
US7720264B2 (en) * 2004-05-10 2010-05-18 Avago Technologies General Ip (Singapore) Pte. Ltd. Method and system for pupil detection for security applications
US7430365B2 (en) * 2005-03-31 2008-09-30 Avago Technologies Ecbu (Singapore) Pte Ltd. Safe eye detection
JP4528980B2 (en) * 2005-08-23 2010-08-25 国立大学法人静岡大学 Pupil detection device and pupil detection method
US8358337B2 (en) 2005-08-23 2013-01-22 National University Corporation Shizuoka University Pupil detection device and pupil detection method
JP2009512009A (en) * 2005-10-10 2009-03-19 トビイ テクノロジー アーベー Eye tracker with wide working distance
JP4613315B2 (en) * 2005-10-21 2011-01-19 国立大学法人静岡大学 Pupil detection method and apparatus using two types of light sources
JP2008181468A (en) * 2006-02-13 2008-08-07 Smart Wireless Kk Infrared face authentication apparatus, and portable terminal and security apparatus including the same
JP4528976B2 (en) * 2006-03-31 2010-08-25 国立大学法人静岡大学 Pupil detection apparatus and method
JP2008125619A (en) * 2006-11-17 2008-06-05 National Univ Corp Shizuoka Univ Pupil detection apparatus and pupil detection method
JP2008132160A (en) * 2006-11-28 2008-06-12 National Univ Corp Shizuoka Univ Pupil detecting device and pupil detecting method
JP5018653B2 (en) * 2008-06-04 2012-09-05 株式会社豊田中央研究所 Image identification device
US9612656B2 (en) 2012-11-27 2017-04-04 Facebook, Inc. Systems and methods of eye tracking control on mobile device
KR102203318B1 (en) * 2013-06-06 2021-01-15 헵타곤 마이크로 옵틱스 피티이. 리미티드 Sensor system with active illumination

Also Published As

Publication number Publication date
JPH10221016A (en) 1998-08-21

Similar Documents

Publication Publication Date Title
JP2917953B2 (en) View point position detection device
JP5145555B2 (en) Pupil detection method
US20080177185A1 (en) Skin Area Detection Imaging Device
US20020181733A1 (en) Method for increasing the signal-to-noise ratio in IR-based eye gaze trackers
EP3075304B1 (en) Line-of-sight detection assistance device and line-of-sight detection assistance method
EP1465415A1 (en) Close region image extraction device and close region image extraction method
US20160206204A1 (en) Organ Imaging Device
US11243607B2 (en) Method and system for glint/reflection identification
EP3011894B1 (en) Eye gaze detection apparatus and eye gaze detection method
US11516460B2 (en) Devices, systems, and methods for image frame capturing and detecting frozen image frames
WO2018164104A1 (en) Eye image processing device
JP2001340300A (en) Pupil detecting device and method, fixation point detecting device and method, and three-dimensional image display system
CN111948798A (en) Endoscope system and method for detecting contact of tip of endoscope with tissue
JP5301815B2 (en) Blink measurement device
CN110658625B (en) Holographic eye imaging apparatus
JP4528980B2 (en) Pupil detection device and pupil detection method
US10288879B1 (en) Method and system for glint/reflection identification
US11144755B2 (en) Support glint for remote eye tracking
JP5825588B2 (en) Blink measurement device and blink measurement method
JP2016051317A (en) Visual line detection device
JP2012139562A (en) Blinking measuring instrument
WO2021251146A1 (en) Pupil detection device
EP3801196B1 (en) Method and system for glint/reflection identification
JPH1172697A (en) Method and device for detecting observer&#39;s point position
JP2018028728A (en) Ophthalmic portion image processing device

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080423

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090423

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100423

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110423

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120423

Year of fee payment: 13

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120423

Year of fee payment: 13

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130423

Year of fee payment: 14

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130423

Year of fee payment: 14

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130423

Year of fee payment: 14

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130423

Year of fee payment: 14

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140423

Year of fee payment: 15

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term