JP3351386B2 - Observer observation position detection method and apparatus - Google Patents

Observer observation position detection method and apparatus

Info

Publication number
JP3351386B2
JP3351386B2 JP13516699A JP13516699A JP3351386B2 JP 3351386 B2 JP3351386 B2 JP 3351386B2 JP 13516699 A JP13516699 A JP 13516699A JP 13516699 A JP13516699 A JP 13516699A JP 3351386 B2 JP3351386 B2 JP 3351386B2
Authority
JP
Japan
Prior art keywords
image
observer
pupil
face
observation position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP13516699A
Other languages
Japanese (ja)
Other versions
JP2000321022A (en
Inventor
浩 今井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP13516699A priority Critical patent/JP3351386B2/en
Publication of JP2000321022A publication Critical patent/JP2000321022A/en
Application granted granted Critical
Publication of JP3351386B2 publication Critical patent/JP3351386B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、観察者の観察位置
検出方法およびその装置にかかり、特に、観察者の観察
位置を常時検出してその検出した観察位置に応じて観察
者に常に正しい立体画像を呈示する立体表示装置等に用
いられる観察位置検出方法およびその装置に関する。
お、本明細書において、「観察者の観察位置」とは「観
察者自身の位置」という意味である。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method and an apparatus for detecting an observer's observation position. The present invention relates to an observation position detection method used for a stereoscopic display device for presenting an image and the like, and an apparatus therefor. What
In this specification, the “observation position of the observer” is “viewing position”.
The position of the observer himself.

【0002】[0002]

【従来の技術】近年、立体表示への要望が高まってお
り、様々な立体表示装置の研究が行われている、特に最
近では、レンチキュラスクリーンを用いて、両眼視差を
有する画像をそれぞれ左右の目に空間的に分離して呈示
することで立体視を実現する立体表示装置が注目されて
いる。この装置は特別なメガネを装着する必要がないと
いう利点を有している。ただし、この装置では立体視が
可能な領域が人間の両眼間隔程度に制限されてしまうと
いう問題があり、観察者は常に頭を固定して観察すると
いう不自然な体勢をとらざるを得ないという不都合かあ
った。
2. Description of the Related Art In recent years, there has been an increasing demand for stereoscopic display, and various types of stereoscopic display devices have been studied. In particular, recently, an image having binocular parallax has been produced using a lenticular screen. 2. Description of the Related Art A stereoscopic display device that realizes stereoscopic vision by spatially separating and presenting eyes has attracted attention. This device has the advantage that no special glasses need to be worn. However, this device has a problem that the region in which stereoscopic vision is possible is limited to about the distance between human eyes, and the observer has to take an unnatural posture of always keeping his head fixed for observation. There was an inconvenience.

【0003】このような問題点を解決するため、観察者
の観察位置を常時検出して、その検出された観察位置に
応じて観察者に常に正しい立体画像を呈示する視点追従
型の立体表示装置が知られている(例えば、特開平1−
107247号公報、特開平6−217348号公報な
ど)。
In order to solve such a problem, a viewpoint-following type stereoscopic display device which constantly detects an observer's observation position and always presents a correct stereoscopic image to the observer according to the detected observation position. Are known (for example, see
107247, JP-A-6-217348, etc.).

【0004】この従来技術における視点追従型立体表示
装置では、観察者の観察位置を検出するために磁気セン
サ等を当該観察者に常時装着させる必要があり、このこ
とが観察者に違和感を与え、特別なメガネを装着する必
要がないというレンチキュラスクリーンを用いた立体表
示装置の利点を半減してしまう原因となっている。
In the viewpoint-following three-dimensional display device according to the prior art, it is necessary to always attach a magnetic sensor or the like to the observer in order to detect the observer's observation position, which gives the observer an uncomfortable feeling. This is a factor that halves the advantage of a stereoscopic display device using a lenticular screen that does not require wearing special glasses.

【0005】また、不特定多数の観察者が使用する場
合、装着型の観察位置検出装置を使用すると衛生上の問
題も生じる。このため、観察者の観察位置を非接触で検
出できる装置および方法が望まれる。
In addition, when used by an unspecified number of observers, the use of a wearable observation position detecting device causes a problem in hygiene. Therefore, an apparatus and a method that can detect the observation position of the observer in a non-contact manner are desired.

【0006】ここで、非接触で観察者の観察位置を検出
する方法としては、観察者の顔面をTVカメラ等で撮像
して、その撮像画像から観察者の瞳孔のみを抽出し、そ
の瞳孔位置から観察位置を検出する方法が考えられる。
この観察者の撮像画像から瞳孔のみを抽出するには、例
えば、特開平6−270711号公報のような覚醒状態
検知装置が利用できる。この装置では、人間の瞳孔の反
射特性を利用して瞳孔抽出を行っている。人間の瞳孔
は、赤外域において顔面の他の部分より反射率が高いた
め、撮像装置と光軸を同軸とする赤外光照明装置で照明
すると明るく撮像される性質がある。
Here, as a method of detecting the observer's observation position in a non-contact manner, the observer's face is imaged with a TV camera or the like, and only the observer's pupil is extracted from the captured image, and the pupil position is extracted. A method of detecting the observation position from the image can be considered.
In order to extract only the pupil from the captured image of the observer, for example, an awake state detecting device as disclosed in Japanese Patent Application Laid-Open No. 6-270711 can be used. In this apparatus, pupil extraction is performed using the reflection characteristics of the human pupil. Since the human pupil has a higher reflectance in the infrared region than other parts of the face, the human pupil tends to be brightly imaged when illuminated by an infrared light illuminating device having an optical axis coaxial with the imaging device.

【0007】図14は上述した特開平6−270711
号公報における覚醒状態検知装置の瞳孔抽出手段を抜粋
した図である。この瞳孔検出装置では、カメラ901
と、被検出者900を照明する光源903を備えてい
る。光源903はその光軸がカメラ901の光軸と同軸
になるように配置されている。
FIG. 14 shows the above-mentioned JP-A-6-270711.
FIG. 2 is a diagram in which the pupil extracting means of the awake state detecting device in the Japanese Patent Publication is extracted. In this pupil detection device, the camera 901
And a light source 903 for illuminating the subject 900. The light source 903 is arranged so that its optical axis is coaxial with the optical axis of the camera 901.

【0008】光源903は全体制御部908からの計測
開始信号に応答した光源発光制御部907からの発光指
令信号により点灯する。この時、カメラ901で撮像さ
れた画像信号はA/D変換器904でデジタル画像に変
換され、画像メモリ905にて保持される。その後、画
像メモリ905に蓄積された被検出者900の画像を瞳
孔抽出部906で計算することで、被検出者900の瞳
孔を抽出している。瞳孔抽出部906では、画像メモリ
905に蓄積された画像のうち、閾値Th1〜Th2の
間の特定の輝度を持つ画素が瞳孔反射光であるとして二
値化処理を行い瞳孔抽出処理を行っている。また、二値
化処理画像に対してラベリング処理を行いノイズ成分か
ら瞳孔部分を特定している。
The light source 903 is turned on by a light emission command signal from a light source light emission control unit 907 in response to a measurement start signal from the overall control unit 908. At this time, the image signal captured by the camera 901 is converted into a digital image by the A / D converter 904 and stored in the image memory 905. After that, the pupil of the subject 900 is extracted by calculating the image of the subject 900 stored in the image memory 905 by the pupil extracting unit 906. The pupil extraction unit 906 performs a pupil extraction process by performing a binarization process assuming that a pixel having a specific luminance between the thresholds Th1 and Th2 in the image stored in the image memory 905 is pupil reflected light. . In addition, a labeling process is performed on the binarized image to specify a pupil portion from a noise component.

【0009】[0009]

【発明が解決しようとする課題】しかしながら、従来の
覚醒状態検知装置で用いられている瞳孔抽出手段を利用
して広い領域で移動する観察者の観察位置を検出する場
合、赤外線光源の空間的な照度分布が不均一であった
り、観察者と赤外線光源の距離が変動したりすると、観
察者顔面の赤外線照度が変化するため、特定の固定した
閾値で二値化処理を行うと瞳孔部分のみを二値化抽出す
ることができないという不都合があった。又、従来の覚
醒状態検知装置では、瞳孔部分以外のノイズ成分から瞳
孔部分を特定するために、ラベリング処理のような複雑
な画像処理を常に必要としていた。
However, when the observation position of an observer moving in a wide area is detected by using the pupil extraction means used in the conventional arousal state detection device, the spatial position of the infrared light source is limited. If the illuminance distribution is uneven or the distance between the observer and the infrared light source fluctuates, the infrared illuminance on the observer's face changes. There is a disadvantage that binarization extraction cannot be performed. Further, in the conventional awake state detecting device, complicated image processing such as labeling processing is always required to specify a pupil portion from a noise component other than the pupil portion.

【0010】[0010]

【発明の目的】本発明は、かかる従来例の有する不都合
を改善し、特に、移動する観察者の観察位置を、観察者
の顔面照度の分布が不均一であったり或いは観察者と赤
外線光源の距離が変動した場合であっても、非接触で且
つ正確に検出し得る観察者の観察位置検出方法およびそ
の装置を提供することを、その目的とする。
SUMMARY OF THE INVENTION The object of the present invention is to improve the disadvantages of the prior art. In particular, the present invention is intended to determine the position of a moving observer when the distribution of the face illuminance of the observer is not uniform or when the observer and the infrared light source It is an object of the present invention to provide a method and an apparatus for detecting an observer's observation position that can be accurately detected in a non-contact manner even when the distance fluctuates.

【0011】[0011]

【課題を解決するための手段】上記目的を達成するた
め、請求項1記載の発明では、観察者の顔面を所定の照
明手段で照明しつつ当該観察者の顔面を撮像手段にて撮
像する顔面撮像工程と、この顔面撮像工程で撮像された
顔面の画像情報を一時的に画像メモリに記憶すると共に
この記憶された画像情報から所定の画像処理によって観
察者の観察位置を算定する観察位置算定工程とを備えた
観察者の観察位置検出方法において、前述した観察位置
算定工程を、画像メモリに記憶された顔面画像の瞳孔部
分の画像情報を強調する演算を行う第1の情報処理工程
と、この第1の情報処理工程で演算され瞳孔部分が強調
された画像情報を所定の二値化閾値で二値化する第2の
情報処理工程と、この二値化された画像情報から観察者
の観察位置を検出する第3の情報処理工程とを備えた構
成とする。
In order to achieve the above object, according to the first aspect of the present invention, a face for imaging an observer's face by an imaging means while illuminating the face of the observer with a predetermined illumination means. An imaging step, and an observation position calculation step of temporarily storing image information of the face imaged in the face imaging step in an image memory and calculating an observation position of an observer from the stored image information by predetermined image processing. A first information processing step of performing an operation of emphasizing image information of a pupil portion of a face image stored in an image memory in the above-described observation position calculation step; A second information processing step of binarizing the image information calculated in the first information processing step and emphasizing the pupil portion with a predetermined binarization threshold, and observing an observer from the binarized image information Detect position A structure in which a third information processing step.

【0012】そして、前述した第1の情報処理工程と第
2の情報処理工程との間に、当該第1の情報処理工程に
よって瞳孔部分が強調された顔面画像情報に基づいて所
定の二値化閾値をリアルタイムで決定する二値化閾値演
算工程を設ける、という構成を採っている。
[0012] Then, between the first information processing step and the second information processing step, predetermined binarization is performed based on the face image information in which the pupil portion has been enhanced by the first information processing step. A configuration is provided in which a binarization threshold value calculation step for determining a threshold value in real time is provided.

【0013】このため、この請求項1記載の発明では、
特に第1の情報処理工程によって瞳孔部分が強調された
顔面画像の情報を得ることができるので、第2の情報処
理工程においての二値化閾値の決定が容易となり、第3
の情報処理工程においては観察者の観察位置の決定を迅
速に且つ高精度に成し得ることが可能となり、更に、二
値化用の閾値を、撮像された顔面画像の情報に基づいて
リアルタイムで決定するようにしたことから、顔面の照
度が少なくても撮像された顔面画像の照度に応じて適度
の二値化閾値をリアルタイムで設定することができ、か
かり点において観察者が移動して顔面照度が変化して
も、これに十分対応して瞳孔部分が強調された画像情報
を得ることができるという利点がある。
Therefore, according to the first aspect of the present invention,
In particular, since it is possible to obtain information on the face image in which the pupil portion has been emphasized by the first information processing step, it is easy to determine the binarization threshold value in the second information processing step,
In the information processing step, the observation position of the observer can be determined quickly and with high accuracy. Further, the threshold value for binarization can be set in real time based on the information of the captured face image. Since the determination is made, even if the illuminance of the face is small, an appropriate binarization threshold can be set in real time according to the illuminance of the captured face image, and the observer moves at the point where the Even if the illuminance changes, there is an advantage that image information in which the pupil portion is enhanced can be obtained sufficiently in response to the change.

【0014】請求項2記載の発明では、観察者の顔面を
所定の照明手段で照明しつつ当該観察者の顔面を撮像手
段にて撮像する顔面撮像工程と、この顔面撮像工程で撮
像された顔面の画像情報を一時的に画像メモリに記憶す
ると共にこの記憶された画像情報から所定の画像処理に
よって前記観察者の観察位置を算定する観察位置算定工
程とを備えた観察者の観察位置検出方法において、前述
した観察位置算定工程を、画像メモリに記憶された顔面
画像の瞳孔部分の画像情報を強調する演算を行う第1の
情報処理工程と、この第1の情報処理工程で演算され前
記瞳孔部分が強調された顔面画像を所定の二値化閾値で
二値化する第2の情報処理工程と、この二値化された画
像情報から観察者の観察位置を検出する第3の情報処理
工程とを備えた構成とする。
According to the second aspect of the present invention, the face of the observer is illuminated by the predetermined illuminating means while the face of the observer is imaged by the imaging means, and the face is imaged by the face imaging step. An observation position calculating step of temporarily storing the image information of the observer in an image memory and calculating the observation position of the observer by predetermined image processing from the stored image information. A first information processing step of performing the above-described observation position calculating step by performing an operation of enhancing image information of a pupil portion of a face image stored in an image memory; and a pupil portion calculated by the first information processing step. A second information processing step of binarizing the face image in which is emphasized with a predetermined binarization threshold, and a third information processing step of detecting an observer's observation position from the binarized image information. Structure with To.

【0015】そして、前述した第1の情報処理工程と第
2の情報処理工程との間に、当該観察者の観察位置が変
化しても顔面画像の内の瞳孔部分の信号レベルが常に一
定となるように前述した照明手段を駆動制御する光源光
量制御工程を設ける、という構成を採っている。
[0015] Between the first information processing step and the second information processing step, the signal level of the pupil portion in the face image is always constant even if the observation position of the observer changes. A light source light amount control step of driving and controlling the above-described illumination means is provided so as to make the lighting unit light.

【0016】このため、この請求項2記載の発明では、
特に第1の情報処理工程によって瞳孔部分が強調された
画像情報を得ることができるので、第2の情報処理工程
においての二値化閾値の決定が容易となり、第3の情報
処理工程においては観察者の観察位置の決定を迅速に且
つ高精度に成し得ることが可能となり、更に、観察者が
移動して顔面照度が変化した場合には直ちに光源光量制
御工程が機能し、照明手段が駆動制御されて当該観察者
の顔面照度は移動前の状態に設定される。このため、二
値化用の閾値の演算が不要となり、その分、観察位置の
決定に際しての演算処理時間を短縮することができ、構
成を単純化することができるという利点がある。
Therefore, according to the second aspect of the present invention,
In particular, image information in which the pupil portion is emphasized can be obtained by the first information processing step, so that it is easy to determine the binarization threshold value in the second information processing step, and to observe It is possible to quickly and accurately determine the observer's observation position, and furthermore, when the observer moves and the face illuminance changes, the light source light amount control step immediately functions and the illumination means is driven. Under the control, the face illuminance of the observer is set to the state before the movement. For this reason, there is no need to calculate the threshold value for binarization, and accordingly, there is an advantage that the calculation processing time for determining the observation position can be shortened and the configuration can be simplified.

【0017】請求項3記載の発明では、前述した請求項
1又は2に記載の観察者の観察位置検出方法において、
第1の情報処理工程における顔面画像の瞳孔部分を強調
する演算を、画像微分処理により行う、という構成を採
っている。
According to a third aspect of the present invention, in the method for detecting an observer's observation position according to the first or second aspect,
In the first information processing step, the operation of enhancing the pupil portion of the face image is performed by image differentiation processing.

【0018】このため、この請求項3記載の発明では、
前述した請求項1又は2に記載の発明と同等に機能する
ほか、更に、顔面画像の瞳孔部分が画像微分処理によっ
て鮮明に強調されることとなり、かかる点において二値
化用の閾値の特定およびこれに基づいた二値化演算を極
めて正確に成し得ることとなる。
Therefore, in the invention according to claim 3,
In addition to functioning equivalently to the above-described claim 1 or 2, the pupil portion of the face image is sharply enhanced by the image differentiation process. The binarization operation based on this can be performed extremely accurately.

【0019】請求項4記載の発明では、前述した請求項
1記載の観察者の観察位置検出方法において、二値化閾
値演算工程における二値化閾値を、予め顔面画像の瞳孔
部分を強調する演算を施した顔面画像の画像標準偏差を
計算した後に当該画像標準偏差に基づいて決定する、と
いう構成を採っている。
According to a fourth aspect of the present invention, in the method for detecting an observer's observation position according to the first aspect, the binarization threshold value in the binarization threshold value calculation step is calculated in advance by emphasizing a pupil portion of the face image. , The image standard deviation of the face image subjected to the calculation is calculated, and then the image standard deviation is determined based on the image standard deviation.

【0020】このため、この請求項4記載の発明では、
前述した請求項1記載の発明と同等の機能を有するほ
か、更に、瞳孔部分に対する適正な二値化閾値を確実に
設定することができ、かかる点において二値化された情
報の信頼度を高めることができる。
Therefore, in the invention according to claim 4,
In addition to having the same function as the first aspect of the present invention, an appropriate binarization threshold value for the pupil portion can be reliably set, and in such a point, the reliability of the binarized information is increased. be able to.

【0021】請求項5記載の発明では、前述した請求項
2に記載の観察者の観察位置検出方法において、光源光
量制御工程における制御基準たる照明手段の光源光量
を、予め顔面画像の瞳孔部分を強調する演算を施した画
像の画像標準偏差を計算した後に当該画像標準偏差に基
づいて決定する、という構成を採っている。
According to a fifth aspect of the present invention, in the method of detecting an observer's observation position according to the second aspect, the light source light amount of the illuminating means, which is a control reference in the light source light amount control step, is determined in advance by using the pupil portion of the face image. The image standard deviation of the image on which the emphasis calculation has been performed is calculated, and then the image standard deviation is determined based on the image standard deviation.

【0022】このため、この請求項5記載の発明では、
前述した請求項2記載の発明と同等に機能するほか、更
に照明手段の光量の制御量をリアルタイムでより適正に
特定することができりという利点がある。
Therefore, in the invention according to claim 5,
In addition to functioning equivalently to the above-described invention, there is an advantage that the control amount of the light amount of the illumination means can be more appropriately specified in real time.

【0023】請求項6乃至7記載の各発明では、前述し
た請求項1乃至5の何れか1つに記載の観察者の観察位
置検出方法において、第1乃至第3の各情報処理工程を
備えた一方の情報処理工程に、他の系統からなる一連の
情報処理工程を併設する。
According to each of the sixth and seventh aspects of the present invention, the method for detecting an observer's observation position according to any one of the first to fifth aspects includes first to third information processing steps. One of the information processing steps is provided with a series of information processing steps of another system.

【0024】そして、この他の系統からなる一連の情報
処理工程を、前述した画像メモリに記憶された顔面情報
から前記観察者の顔面に予め付されるマーカの有無を判
定するマーカ判定工程と、このマーカ判定工程でマーカ
有りと判定された場合に前記一方の情報処理工程に優先
して作動し前記画像メモリ内のマーカ画像を所定の閾値
に基づいて二値化するマーカ画像二値化工程と、このマ
ーカ画像二値化工程で得られるマーカ画像の二値化情報
に基づいて前記観察者の重心位置を特定すると共にこの
重心位置に基づいて前記観察者の観察位置を算定する観
察位置算定工程とにより構成する、という手法をその共
通の構成として採用している。
Then, a series of information processing steps of the other systems is performed by a marker determining step of determining the presence or absence of a marker previously attached to the face of the observer from the face information stored in the image memory. A marker image binarization step of operating in preference to the one information processing step and binarizing a marker image in the image memory based on a predetermined threshold value when it is determined that a marker is present in the marker determination step; An observation position calculating step of specifying the position of the center of gravity of the observer based on the binarized information of the marker image obtained in the marker image binarizing step, and calculating the observation position of the observer based on the center of gravity position And a method of constructing the common configuration.

【0025】このため、この請求項6乃至7記載の各発
明では、前述した請求項1乃至5の何れか1つに記載の
発明と同等に機能するほか、更に、眼鏡等を掛けた観察
者であっても、その移動中および移動後の観察位置をリ
アルタイムで確実に捕捉し特定することができるという
利点がある。
For this reason, each of the inventions according to claims 6 and 7 functions in the same manner as the invention according to any one of claims 1 to 5 described above, and further includes an observer wearing glasses or the like. However, there is an advantage that the observation position during and after the movement can be reliably captured and specified in real time.

【0026】ここで、前述したマーカ画像二値化工程に
おける前記所定の閾値を、反射マーカの反射輝度より小
さく且つ観察者の瞳孔反射光の輝度より大きい領域にあ
る所定の閾値を用いるように構成してもよい。
Here, the predetermined threshold value in the above-described marker image binarization step is configured to use a predetermined threshold value which is smaller than the reflection luminance of the reflection marker and larger than the luminance of the pupil reflection light of the observer. May be.

【0027】請求項8乃至10記載の各発明では、観察
者の顔面を撮像する撮像手段と、この撮像手段側に配置
され前記観察者の顔面を照明する照明手段と、前記撮像
手段で撮像された観察者の顔面の画像情報に基づいて当
該観察者の観察位置を算定する画像処理手段とを備えた
観察者の観察位置検出装置において、画像処理手段を、
前述した撮像手段によって得られた観察者の顔面の画像
情報を蓄積する画像メモリと、この画像メモリに蓄積さ
れる画像情報の内の観察者の瞳孔部分を強調する所定の
演算を施こす瞳孔画像強調部と、この瞳孔画像強調部か
らの出力される瞳孔画像データを所定の二値化閾値に基
づいて二値化処理する二値化処理部と、この二値化処理
部の演算結果に基づいて観察者の観察位置を算定する観
察位置算定部とを含む構成とする。
In each of the inventions described in claims 8 to 10, the image pickup means for picking up the face of the observer, the lighting means arranged on the image pickup means side for illuminating the face of the observer, and the image picked up by the image pickup means An image processing means for calculating the observation position of the observer based on the image information of the face of the observer, wherein the image processing means comprises:
An image memory for storing image information of the observer's face obtained by the above-mentioned imaging means, and a pupil image to be subjected to a predetermined calculation for enhancing the pupil portion of the observer in the image information stored in the image memory An emphasis unit, a binarization processing unit that binarizes pupil image data output from the pupil image emphasis unit based on a predetermined binarization threshold, and a binarization processing unit based on a calculation result of the binarization processing unit. And an observation position calculation unit for calculating the observation position of the observer.

【0028】そして、前述した二値化処理部に、前述し
た瞳孔画像強調部から出力される画像情報に基づいて瞳
孔画像用の二値化閾値をリアルタイムで決定し二値化処
理部に送り込む二値化閾値設定部を併設する、という構
成を共通の基本構成として採用している。
Then, a binarization threshold for a pupil image is determined in real time on the basis of the image information output from the pupil image enhancement unit and sent to the binarization processing unit. A configuration in which a binarization threshold setting unit is provided is adopted as a common basic configuration.

【0029】このため、この請求項8乃至10記載の各
発明では、特に瞳孔画像強調部の作用によって瞳孔部分
が強調された顔面画像情報を得ることができるので、二
値化処理部における瞳孔部分の情報の二値化を高精度に
且つ確実に実行することができ、更に、二値化用の閾値
を、撮像された顔面の画像情報に基づいてリアルタイム
で決定するようにしたことから、顔面の照度が少なくて
も撮像された顔面画像情報に応じて適度の二値化閾値を
リアルタイムで設定することができ、かかる点において
観察者が移動して顔面照度が変化しても、これに十分対
応して瞳孔部分が強調された顔面の画像情報を得ること
ができ、このため、観察位置算定部では観察者の観察位
置を迅速に且つ正確に算定することができ、当該位置情
報を外部に向けて出力することができる。
Therefore, in each of the inventions according to the eighth to tenth aspects, it is possible to obtain face image information in which the pupil portion is enhanced by the action of the pupil image enhancing portion, and thus the pupil portion in the binarization processing portion is obtained. Since the binarization of the information can be executed with high accuracy and certainty, and the threshold for binarization is determined in real time based on the image information of the imaged face, Even if the illuminance is low, an appropriate binarization threshold can be set in real time in accordance with the imaged face image information. Correspondingly, image information of the face in which the pupil portion is emphasized can be obtained. Therefore, the observation position calculation unit can quickly and accurately calculate the observation position of the observer, and externally outputs the position information. Towards It is possible to force.

【0030】ここで、前述した照明手段を、その光軸が
撮像手段の光軸と実質的に同軸となるように配設すると
よい。又、前述した二値化閾値設定部を、予め前述した
瞳孔画像強調手段から出力される画像情報の画像標準偏
差を計算しこれに基づいて光源照度を算出する光源照度
算出回路と、この光源照度算出回路から算定される画像
標準偏差に基づいて二値化用の閾値を設定する二値化用
閾値設定回路とにより構成してもよい。
Here, it is preferable to dispose the above-mentioned illumination means so that its optical axis is substantially coaxial with the optical axis of the imaging means. A light source illuminance calculating circuit for calculating an image standard deviation of image information output from the pupil image enhancing means in advance and calculating a light source illuminance based on the standard deviation; It may be constituted by a binarization threshold setting circuit that sets a binarization threshold based on the image standard deviation calculated by the calculation circuit.

【0031】請求項11乃至13記載の各発明では、観
察者の顔面を撮像する撮像手段と、この撮像手段側に配
置され当該観察者の顔面を照明する照明手段と、撮像手
段で撮像された観察者の顔面画像情報に基づいて当該観
察者の観察位置を算定する画像処理手段とを備えた観察
者の観察位置検出装置において、画像処理手段を、前述
した撮像手段によって得られた観察者の顔面の画像情報
を蓄積する画像メモリと、この画像メモリに蓄積された
画像情報における観察者の瞳孔部分を強調する所定の演
算を施こす瞳孔画像強調部と、この瞳孔画像強調部から
出力される瞳孔画像データを所定の閾値に基づいて二値
化する二値化処理部と、この二値化処理部の演算結果に
基づいて前記観察者の観察位置を算定する観察位置算定
部とを含む構成とする。
In each of the inventions described in claims 11 to 13, the imaging means for imaging the face of the observer, the illumination means arranged on the imaging means side for illuminating the face of the observer, and the image taken by the imaging means An image processing means for calculating the observation position of the observer based on the face image information of the observer. An image memory for storing image information of the face, a pupil image enhancing unit for performing a predetermined operation for enhancing a pupil of an observer in the image information stored in the image memory, and an output from the pupil image enhancing unit A configuration including: a binarization processing unit that binarizes pupil image data based on a predetermined threshold; and an observation position calculation unit that calculates an observation position of the observer based on a calculation result of the binarization processing unit. When That.

【0032】そして、前述した照明手段に、観察者の観
察位置が変化しても瞳孔画像強調部から出力される画像
情報の出力レベルが常時一定となるように前述した照明
手段の出力を可変制御する光源光量制御部を併設する。
更に、この光源光量制御部の動作を規制する光源光量設
定部を、前述した画像処理手段に設ける、という構成を
共通の基本構成として採用している。
The output of the illumination means is variably controlled so that the output level of the image information output from the pupil image enhancement section is always constant even if the observation position of the observer changes. A light source light quantity control unit to be used is also provided.
Further, a configuration in which a light source light quantity setting unit that regulates the operation of the light source light quantity control unit is provided in the above-described image processing unit is adopted as a common basic configuration.

【0033】このため、この請求項11乃至13記載の
各発明では、前述した8乃至10記載の各発明に場合と
同様に、瞳孔画像強調部の作用によって瞳孔部分が強調
された顔面の画像情報を得ることができるので、二値化
処理部における瞳孔部分の情報の二値化を高精度に且つ
確実に実行することができ、更に、観察者が移動して顔
面照度が変化した場合には、直ちに光源光量制御部が機
能して照明手段の出力を駆動制御し当該観察者の顔面照
度を移動前の状態に設定する。このため、二値化用の閾
値として固定した値を使用することが出来、そのため二
値化用の閾値の演算が不要となり、その分、観察位置の
決定に際しての演算処理システムの演算処理時間を短縮
することができ、構成を単純化することができるという
利点がある。
Therefore, in each of the eleventh to thirteenth aspects, the face image information in which the pupil portion is enhanced by the operation of the pupil image enhancement part is the same as in each of the eighth to tenth aspects. Can be obtained, the binarization of the information of the pupil part in the binarization processing unit can be executed with high accuracy and certainty. Further, when the observer moves and the face illuminance changes, Immediately, the light source light quantity control section functions to drive and control the output of the illuminating means to set the face illuminance of the observer to the state before the movement. For this reason, a fixed value can be used as the threshold value for binarization, so that the calculation of the threshold value for binarization becomes unnecessary, and the calculation processing time of the calculation processing system when determining the observation position is accordingly reduced. There is an advantage that it can be shortened and the configuration can be simplified.

【0034】ここで、前述した光源光量制御部を、瞳孔
画像強調部から出力される画像情報に基づいて前述した
照明手段の光源照度を算出する光源照度算出回路と、こ
の光源照度算出回路から出力される光源照度情報に基づ
いて所定の演算を行い前述した瞳孔画像強調部から出力
される画像情報の出力レベルが常時一定となるように前
述した照明手段の光源光量をリアルタイムで可変設定す
る光源光量設定回路とにより構成するとよい。
Here, the above-mentioned light source light amount control unit is provided with a light source illuminance calculation circuit for calculating the light source illuminance of the illuminating means based on image information output from the pupil image enhancement unit, and an output from the light source illuminance calculation circuit. A predetermined calculation based on the light source illuminance information to be performed, and a light source light amount that variably sets the light source light amount of the above-described illumination means in real time so that the output level of the image information output from the pupil image enhancing unit is always constant. It is preferable to use a setting circuit.

【0035】このようにすると、照明手段の出力を観察
者の移動に合わせて迅速に且つ円滑に可変設定すること
ができ、観察者の移動に際してもその瞳孔部分の二値化
情報をより確実に得ることができる。
In this way, the output of the illumination means can be quickly and smoothly variably set in accordance with the movement of the observer, and even when the observer moves, the binarized information of the pupil portion can be more reliably obtained. Obtainable.

【0036】又、前述した光源照度算出回路を、前述し
た瞳孔画像強調部から出力される画像情報の画像標準偏
差を計算すると共にこれに基づいて前述した照明手段の
光源照度を算出する光源照度算出機能を備えた構成とし
てもよい。
The above-described light source illuminance calculation circuit calculates the image standard deviation of the image information output from the pupil image enhancing section and calculates the light source illuminance of the illumination means based on the calculated standard deviation. A configuration having a function may be adopted.

【0037】請求項14記載の発明では、前述した請求
項8,9,10,11,12又は13に記載の観察者の
観察位置検出装置において、瞳孔画像強調部が、前述し
た画像メモリに蓄積された画像を微分処理する画像微分
処理機能を備えている、という構成を共通の基本構成と
して採用している。
According to a fourteenth aspect of the present invention, in the observer observation position detecting apparatus according to the eighth, ninth, tenth, eleventh, twelfth, or thirteenth aspect, the pupil image enhancing section is stored in the image memory. A configuration having an image differentiation processing function of differentiating the selected image is adopted as a common basic configuration.

【0038】このため、この請求項14記載の発明で
は、前述した請求項8,9,10,11,12又は13
に記載の発明と同等の機能を有するほか、更に、顔面画
像の瞳孔部分が画像微分処理によってより鮮明に強調さ
れることとなり、かかる点において二値化用の閾値の特
定およびこれに基づいた二値化演算を極めて正確に且つ
迅速に成し得ることとなる。
Therefore, according to the invention of claim 14, in the above-mentioned claim 8, 9, 10, 11, 12 or 13
In addition to having the same function as the invention described in the above, furthermore, the pupil portion of the face image is more clearly emphasized by the image differentiation processing, and in this regard, the threshold value for binarization is specified and the threshold value based on this is determined. The valuation operation can be performed very accurately and quickly.

【0039】請求項15乃至16記載の各発明では、前
述した請求項8,9,10,11,12,13又は14
に記載の観察者の観察位置検出装置において、観察者の
顔面に予め反射マーカを装着すると共に、前述した画像
メモリに、当該画像メモリに記憶された顔面画像情報か
ら反射マーカの有無を判定する反射マーカ判定部を併設
する。
According to each of the inventions described in claims 15 and 16, the above-described claim 8, 9, 10, 11, 12, 13, or 14 is provided.
In the observer's observation position detecting device described in (1), a reflection marker is attached to the face of the observer in advance, and the presence or absence of the reflection marker is determined in the image memory based on the face image information stored in the image memory. A marker judgment unit is also provided.

【0040】又、この反射マーカ判定部の出力段に、当
該反射マーカ判定部にて反射マーカ有と判定された場合
に前記瞳孔画像強調部に優先して作動し前記画像メモリ
内のマーカ画像を二値化するマーカ画像二値化手段を設
けると共に、このマーカ画像二値化手段の演算結果から
前述した顔面の画像情報の重心位置を演算しこれを観察
者の観察位置と特定するマーカ位置算定機能を、前述し
た観察位置算定部が備えている、という構成を共通の基
本構成として採用している。
In the output stage of the reflection marker determination unit, when the reflection marker determination unit determines that there is a reflection marker, the reflection marker determination unit operates in preference to the pupil image enhancement unit and stores the marker image in the image memory. A marker image binarizing means for binarizing is provided, and a center of gravity of the image information of the face is calculated from the calculation result of the marker image binarizing means, and a marker position calculation for specifying this as an observation position of an observer is provided. The configuration in which the function is provided in the above-described observation position calculation unit is adopted as a common basic configuration.

【0041】このため、この請求項15乃至16記載の
各発明では、前述した請求項8,9,10,11,1
2,13又は14に記載の発明と同等の機能を有するほ
か、更に、眼鏡等を掛けた観察者であっても、当該眼鏡
等からの反射光があってもその移動中および移動後の反
射マーカを確実に捕捉することができ、このため、観察
位置をリアルタイムで確実に捕捉し特定することができ
るという利点がある。
Therefore, in each of the inventions according to claims 15 and 16, the above-mentioned claims 8, 9, 10, 11, 1
In addition to having the same functions as those of the invention described in 2, 13, or 14, furthermore, even if the observer is wearing glasses or the like, even if there is reflected light from the glasses or the like, reflection during and after movement There is an advantage that the marker can be reliably captured, and thus the observation position can be reliably captured and specified in real time.

【0042】ここで、前述した反射マーカの反射輝度を
予め観察者の瞳孔反射光の反射輝度よりも大きく設定す
ると共に、前述した反射マーカ判定手段における二値化
用閾値を、前述した反射マーカの反射輝度より小さく且
つ瞳孔反射光の輝度より大きい所定の閾値としてもよ
い。
Here, the reflection luminance of the above-mentioned reflection marker is set in advance to be larger than the reflection luminance of the pupil reflection light of the observer, and the threshold for binarization in the above-mentioned reflection marker determination means is set to the above-mentioned reflection marker. The predetermined threshold value may be smaller than the reflection luminance and larger than the luminance of the pupil reflection light.

【0043】このように、上記各請求項にあっては、観
察者顔面の赤外線画像のうち瞳孔部分を強調し、強調し
た前記観察者顔面の赤外線画像の標準偏差から瞳孔抽出
の二値化閾値(又は照明手段の光量)をリアルタイムで
可変制御することで、観察者の瞳孔情報を安定して抽出
し、これによって非接触で正確な観察位置検出を行うこ
とができる。
Thus, in each of the above-mentioned claims, the pupil portion is enhanced in the infrared image of the observer face, and the binarization threshold value for pupil extraction is determined from the standard deviation of the enhanced infrared image of the observer face. By variably controlling (or the amount of light of the illumination means) in real time, pupil information of the observer can be stably extracted, thereby enabling accurate non-contact observation position detection.

【0044】[0044]

【発明の実施の形態】(第1の実施形態)以下、本発明
の第1の実施例形態を、図1乃至図9に基づいて説明す
る。まず、本実施形態における観察位置検出装置は、図
1に示すように観察者100の顔面を撮像する撮像シス
テム1と、この撮像システム1で撮像された顔面情報を
画像処理して当該観察者の観察位置を算定する画像処理
手段としての画像処理システム11とから構成されてい
る。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS (First Embodiment) A first embodiment of the present invention will be described below with reference to FIGS. First, an observation position detection device according to the present embodiment includes an imaging system 1 that images the face of an observer 100 as illustrated in FIG. 1, and performs face processing on the face information imaged by the imaging system 1 to perform image processing on the observer 100. And an image processing system 11 as image processing means for calculating an observation position.

【0045】撮像システム1は、撮像手段としてのCC
Dカメラ2と、観察者100の顔面101を照明する照
明手段としての赤外線照明手段3とを備えている。ここ
で、赤外線照明手段3は、照明用赤外線を出力する赤外
線出力光源3Aと、この赤外線出力源3Aから出力され
る照明用赤外線の照明方向を前述したCCDカメラ2へ
の入射光軸と実質的に同一線上に設定するハーフミラー
2Bとにより構成されている。即ち、CCDカメラ2の
光軸と赤外線出力源3Aの光軸とは、図1に示すように
それぞれが互いに同軸となるようハーフミラー2Bを用
いて合成されている。
The imaging system 1 has a CC as an imaging means.
It comprises a D camera 2 and an infrared illuminating means 3 as an illuminating means for illuminating the face 101 of the observer 100. Here, the infrared illuminating means 3 includes an infrared output light source 3A for outputting an infrared ray for illumination, and an illumination direction of the infrared ray for illumination output from the infrared output source 3A substantially corresponding to the optical axis incident on the CCD camera 2 described above. And a half mirror 2B set on the same line. That is, the optical axis of the CCD camera 2 and the optical axis of the infrared output source 3A are combined using the half mirror 2B so as to be coaxial with each other as shown in FIG.

【0046】そして、この撮像システム1を用いて観察
者100の顔面101を撮像すると、人間の網膜が他の
顔面部分より赤外光を強く反射する特性を有しているた
め、観察者100の瞳孔101Aが特に明るい状態の顔
面画像が得られる。
When the face 101 of the observer 100 is imaged using the imaging system 1, the human retina has a characteristic of reflecting infrared light more strongly than other face parts. A face image with a particularly bright pupil 101A is obtained.

【0047】赤外線照明手段3の光源である赤外線出力
光源3Aは、本実施形態では、波長850〔nm〕の発
光ダイオードが用いられている。また、撮像手段として
のCCDカメラ2には波長760〔nm〕以下の光を遮
断する波長フィルタが内蔵されており、これによって、
当該CCDカメラ2が、作動中に室内灯など可視光の外
部照明の影響を受けないようになってある。
In this embodiment, a light emitting diode having a wavelength of 850 [nm] is used as the infrared output light source 3A, which is the light source of the infrared illuminating means 3. In addition, the CCD camera 2 as an imaging unit has a built-in wavelength filter that blocks light having a wavelength of 760 [nm] or less.
The CCD camera 2 is not affected by external light such as a room light during operation.

【0048】CCDカメラ2は、NTSC規格のモノク
ロ・アナログ映像信号を出力するものが使用されてい
る。このCCDカメラ2は、その横方向(水平方向)が
周波数15.75〔kHz〕で駆動され、又縦方向(垂
直方向)が周波数60〔Hz〕で駆動されるようになっ
ている。これにより、観察者100の顔面101は、赤
外線照明手段3の照明下で、CCDカメラ2により、各
フィールド毎に、即ち毎秒60回撮像される。
The CCD camera 2 outputs a monochrome analog video signal of the NTSC standard. The CCD camera 2 is driven at a frequency of 15.75 [kHz] in the horizontal direction (horizontal direction) and at a frequency of 60 [Hz] in the vertical direction (vertical direction). Thereby, the face 101 of the observer 100 is imaged by the CCD camera 2 for each field, that is, 60 times per second under the illumination of the infrared illuminating means 3.

【0049】一方、画像処理手段としての画像処理シス
テム11は、前述した撮像システム1によって得られた
観察者100の顔面画像情報を蓄積する画像メモリ12
と、この画像メモリ12に蓄積される画像情報の内の観
察者の瞳孔部分101aを強調する所定の演算を施こす
瞳孔画像強調部13と、この瞳孔画像強調部13から出
力される瞳孔画像データを所定の二値化閾値に基づいて
二値化処理する二値化処理部14と、この二値化処理部
14の演算結果に基づいて観察者の観察位置を算定する
観察位置算定部15とにより、構成されている。この
内、二値化処理部14の入力段には、前述した瞳孔画像
強調部13から出力される画像情報に基づいて瞳孔画像
用の二値化閾値をリアルタイムで決定し当該二値化処理
部14に送り込む二値化閾値設定部16が併設されてい
る。
On the other hand, an image processing system 11 as an image processing means is provided with an image memory 12 for storing face image information of the observer 100 obtained by the above-described imaging system 1.
A pupil image enhancing unit 13 for performing a predetermined operation for enhancing the pupil portion 101a of the observer in the image information stored in the image memory 12, and pupil image data output from the pupil image enhancing unit 13 A binarization processing unit 14 for performing a binarization process based on a predetermined binarization threshold, an observation position calculation unit 15 for calculating an observer's observation position based on a calculation result of the binarization processing unit 14, Is configured. The input stage of the binarization processing unit 14 determines a binarization threshold for the pupil image in real time based on the image information output from the pupil image enhancement unit 13 described above. A binarization threshold setting unit 16 for sending the data to 14 is also provided.

【0050】この二値化閾値設定部16は、本実施形態
では、予め前述した瞳孔画像強調手段13から出力され
る画像情報の画像標準偏差を計算しこれに基づいて光源
照度を算出する光源照度算出回路16Aと、この光源照
度算出回路16Aから算定される画像標準偏差に基づい
て二値化用の閾値を設定する二値化用閾値設定回路16
Bとにより、構成されている。
In this embodiment, the binarization threshold setting unit 16 calculates the image standard deviation of the image information output from the pupil image enhancing means 13 in advance and calculates the light source illuminance based on the standard deviation. A calculation circuit 16A and a binarization threshold setting circuit 16 for setting a binarization threshold based on the image standard deviation calculated from the light source illuminance calculation circuit 16A
B.

【0051】ここで、前述した画像メモリ12では、C
CDカメラ2で撮像された観察者100の顔面画像10
1が、各フィールド毎に、解像度640×240画素,
8ビット(256階調)のモノクロデジタル画像とし
て、蓄積されるようになっている。又、CCDカメラ2
による観察者100の撮像距離は2〔m〕とし、画像メ
モリ12に蓄積されたフィールド画像の1画素の大きさ
は、観察者100の顔面101上において水平方向1
〔mm〕,垂直方向2〔mm〕に相当するように、レン
ズ倍率が調整されている。
Here, in the above-mentioned image memory 12, C
Facial image 10 of observer 100 captured by CD camera 2
1 has a resolution of 640 × 240 pixels for each field,
It is stored as an 8-bit (256 gradation) monochrome digital image. Also, CCD camera 2
Is 2 [m], and the size of one pixel of the field image stored in the image memory 12 is 1 on the face 101 of the observer 100 in the horizontal direction.
The lens magnification is adjusted to correspond to [mm] and 2 [mm] in the vertical direction.

【0052】又、瞳孔画像強調部13では、前述した画
像メモリ12に蓄積された観察者100の顔面画像に対
して画像微分演算が行われる(瞳孔画像強調部13の微
分処理機能の実行)。この画像微分演算によって、観察
者100の両眼の瞳孔部分101aが顔面101の他の
部分に対して特に強調される。その後、光源照度算出回
路16Aにおいて画像微分演算処理後の画像の標準偏差
が算出され、続いて、この標準偏差に基づいて二値化閾
値設定回路16Bにおいて二値化閾値が設定される。こ
の二値化閾値設定後、前述した二値化処理部14によ
り、観察者100の両眼の瞳孔部分101aのみが白色
画素として二値化抽出される。そして、この二値化処理
部14における二値化抽出された白色画素(瞳孔部分1
01a)から、観察位置算出部15において観察者10
0の観察位置が算定される。
In the pupil image enhancing section 13, an image differentiation operation is performed on the face image of the observer 100 stored in the image memory 12 described above (execution of the differentiation processing function of the pupil image enhancing section 13). By this image differentiation operation, the pupil portions 101a of both eyes of the observer 100 are particularly emphasized with respect to other portions of the face 101. After that, the light source illuminance calculation circuit 16A calculates the standard deviation of the image after the image differentiation operation processing, and subsequently sets the binarization threshold in the binarization threshold setting circuit 16B based on the standard deviation. After setting the binarization threshold, the above-described binarization processing unit 14 binarizes and extracts only the pupil portions 101a of both eyes of the observer 100 as white pixels. Then, the binarized and extracted white pixels (pupil part 1) in the binarization processing unit 14
01a), the observation position calculation unit 15 sets the observer 10
An observation position of 0 is calculated.

【0053】ここで、画像処理システム11における全
ての処理は所定の電子計算機により例えば1/60秒以
内に行われ、CCDカメラ2の垂直同期信号と同期し
て、観察者100の観察位置が、画像処理システム11
から毎秒60回出力される。
Here, all processing in the image processing system 11 is performed by, for example, 1/60 second by a predetermined computer, and the observation position of the observer 100 is synchronized with the vertical synchronization signal of the CCD camera 2. Image processing system 11
Is output 60 times per second.

【0054】次に、上記第1実施形態の各構成部分の動
作原理を、その動作手順に従って更に詳述する。図2
に、上記撮像システム1で撮像される画像の例を示す。
ここで、図2(a)は図1におけるCCDカメラ2によ
って得られた観察者100の画像を示し、図2(b)は
図2(a)における線分AB間の画像の水平輝度分布を
示す。この図2(b)に示すように、瞳孔部分101a
は顔面部分101より明るく撮像される(顔面撮像工
程)。
Next, the operation principle of each component of the first embodiment will be described in further detail according to the operation procedure. FIG.
FIG. 1 shows an example of an image captured by the imaging system 1.
Here, FIG. 2A shows an image of the observer 100 obtained by the CCD camera 2 in FIG. 1, and FIG. 2B shows a horizontal luminance distribution of an image between line segments AB in FIG. Show. As shown in FIG. 2B, the pupil portion 101a
Is imaged brighter than the face portion 101 (face image capturing step).

【0055】図3に、上記画像処理システムにおける瞳
孔画像強調部13の動作例を示す。この顔面撮像工程で
CCDカメラ101により得られる顔面画像は、画像メ
モリ12に画像I(x,y)として順次記録され、その
後、この画像メモリ12に記憶される顔面の画像情報に
基づいて観察者の観察位置を算定する工程(観察位置算
定工程)が実行される。ここで、x,yは撮像画像の水
平,垂直それぞれの座標位置を表わす。図3(a)は画
像メモリ12に記録された観察者の画像の水平輝度分布
であり、前述した図2(b)で示したものに相当する。
FIG. 3 shows an operation example of the pupil image enhancing section 13 in the image processing system. The face image obtained by the CCD camera 101 in this face imaging step is sequentially recorded in the image memory 12 as an image I (x, y), and thereafter, based on the image information of the face stored in the image memory 12, the observer Is calculated (observation position calculation step). Here, x and y represent the horizontal and vertical coordinate positions of the captured image. FIG. 3A shows the horizontal luminance distribution of the image of the observer recorded in the image memory 12 and corresponds to the one shown in FIG.

【0056】瞳孔画像強調部13では、前述した画像メ
モリ12に記録された画像I(x,y)に対して画像微
分演算が行われる。この画像微分演算は、観察者の画像
中における瞳孔部分101aを特に強調する演算の一例
である(第1の情報処理工程)。
The pupil image enhancing section 13 performs an image differentiation operation on the image I (x, y) recorded in the image memory 12 described above. This image differentiation operation is an example of an operation that particularly emphasizes the pupil portion 101a in the image of the observer (first information processing step).

【0057】この画像微分演算は、図3(a)に示すよ
うに、瞳孔径Dに相当する画素数dxだけ離れた画素同
志の差分による2次微分処理、 2×I(x,y)−I(x+dx, y) −I(x−d
x, y) を求めることで行う。この画像微分演算を行うことで、
図3(b)に示すように、顔面部分101に対して瞳孔
部分101aのみを強調することができる。
This image differentiation operation is, as shown in FIG. 3 (a), a second differentiation process based on a difference between pixels separated by the number of pixels dx corresponding to the pupil diameter D, 2 × I (x, y) − I (x + dx, y) −I (x−d
x, y). By performing this image differentiation operation,
As shown in FIG. 3B, only the pupil portion 101a can be emphasized with respect to the face portion 101.

【0058】図4(a)(b)に、前述した光源照度算
出部16Aにおける標準偏差の算出範囲を示す。この光
源照度算出部16Aでは、微分演算処理後の画像の標準
偏差σを算出することで観察者顔面101の赤外線照明
の照度を計測する。標準偏差σの算出範囲は、図4
(a)に示す観察者の両眼の瞳孔部分101aを含む垂
直方向60〔mm〕×水平方向150〔mm〕の領域
(算出範囲S)であり、画像メモリ12における30画
素×150画素(4500画素)の領域に相当する。
FIGS. 4A and 4B show the calculation range of the standard deviation in the light source illuminance calculation unit 16A described above. The light source illuminance calculation unit 16A measures the illuminance of the infrared illumination of the observer's face 101 by calculating the standard deviation σ of the image after the differential operation processing. The calculation range of the standard deviation σ is shown in FIG.
(A) is an area (calculation range S) of 60 [mm] × 150 [mm] in the vertical direction including the pupil portions 101a of both eyes of the observer, and is 30 pixels × 150 pixels (4500) in the image memory 12. Pixel).

【0059】標準偏差σの算出範囲Sは、図4(b)に
示すように、時系列画像における直前のフィールド(1
/60秒前)および前々フィールド(2/60秒前)の
観察位置F11と、これらから算出された移動ベクトル
V15に基づいて常時更新される。
The calculation range S of the standard deviation σ is, as shown in FIG. 4B, the immediately preceding field (1
/ 60 seconds ago) and the observation position F11 of the field just before (2/60 seconds ago) and the movement vector V15 calculated from them are constantly updated.

【0060】図5(a)(b)は、微分演算処理後画像
のヒストグラムを示した図である。この内、図5(a)
では、瞳孔成分201aの分布は正側と負側に絶対値の
大きい値として分布し、瞳孔以外の成分202の分布は
0を中心として標準偏差σの3倍程度まで分布する。こ
のため、二値化閾値設定部16において二値化閾値を、
例えば、標準偏差の4倍に設定することで正側の瞳孔成
分201aと瞳孔以外の成分202を分離できる。
FIGS. 5A and 5B are diagrams showing histograms of the image after the differential operation processing. Among them, FIG.
Then, the distribution of the pupil component 201a is distributed as a value having a large absolute value on the positive side and the negative side, and the distribution of the component 202 other than the pupil is distributed about three times the standard deviation σ around 0. For this reason, the binarization threshold setting unit 16 sets the binarization threshold to:
For example, by setting to four times the standard deviation, the pupil component 201a on the positive side and the component 202 other than the pupil can be separated.

【0061】また、図5(b)に示すように、赤外線照
明の照度が小さい場合においても、瞳孔以外の成分20
2の分布は0を中心として標準偏差σの3倍程度まで分
布し、二値化閾値を標準偏差の4倍に設定すれば瞳孔画
像のみを抽出でき、赤外線照明の照度変動に対応でき
る。
As shown in FIG. 5B, even when the illuminance of the infrared illumination is small, the components other than the pupil 20
The distribution of 2 is distributed about three times the standard deviation σ with 0 as the center. If the binarization threshold is set to four times the standard deviation, only the pupil image can be extracted, and it is possible to cope with the illuminance fluctuation of the infrared illumination.

【0062】なお、標準偏差σ算出時には瞳孔部分20
1aの輝度も含まれるが、両眼の瞳孔部分201aの面
積は、人間の平均瞳孔径(5〔mm〕)で計算すると約
39〔mm2〕(20画素)であり、算出範囲(450
0画素)の1/225に過ぎないため、算出された標準
偏差σは、瞳孔以外の成分のみの標準偏差σと同等と見
なすことができる。
When calculating the standard deviation σ, the pupil portion 20
Although the luminance of 1a is also included, the area of the pupil portion 201a of both eyes is about 39 [mm 2 ] (20 pixels) when calculated using the average pupil diameter (5 [mm]) of a human, and the calculation range (450
Since it is only 1/225 of (0 pixel), the calculated standard deviation σ can be considered to be equivalent to the standard deviation σ of only components other than the pupil.

【0063】標準偏差σ算出後、二値化閾値設定部16
Bにおいて標準偏差σの4倍の値、即ち4σを、二値化
閾値として設定する(二値化閾値設定工程)。このよう
に、二値化閾値設定工程における二値化用の閾値は、顔
面画像の瞳孔部分を強調する演算を施した顔面画像の画
像標準偏差を計算し、この算定された画像標準偏差に基
づいて決定される。
After calculating the standard deviation σ, the binarization threshold setting unit 16
In B, a value four times the standard deviation σ, that is, 4σ, is set as a binarization threshold (a binarization threshold setting step). As described above, the threshold value for binarization in the binarization threshold value setting step calculates the image standard deviation of the face image subjected to the operation of enhancing the pupil portion of the face image, and based on the calculated image standard deviation. Is determined.

【0064】図6(a)(b)は、前述した二値化処理
部14の動作を説明するための線図である。この二値化
処理部14では、前述した瞳孔画像強調部13にて演算
処理された微分演算処理後画像に対し、画像二値化処理
を行う(第2の情報処理工程)。
FIGS. 6A and 6B are diagrams for explaining the operation of the above-described binarization processing section 14. FIG. The binarization processing unit 14 performs an image binarization process on the differentially-calculated image processed by the pupil image enhancement unit 13 (second information processing step).

【0065】この二値化処理部14における二値化閾値
は、予め特定された値を使用してもよいが、本実施形態
では二値化閾値設定部16において時系列画像毎に設定
された標準偏差σの4倍の値を用いる。
The binarization threshold in the binarization processing unit 14 may be a value specified in advance, but in this embodiment, the binarization threshold setting unit 16 sets the binarization threshold for each time-series image. A value four times the standard deviation σ is used.

【0066】ここで、赤外線照明の照度が高い場合は図
6(a)に示すように、閾値Th(=4σ)は高く設定
され、赤外線照明の照度が低い場合は図6(b)に示す
ように、閾値Th(=4σ)は低く設定される。そのた
め、赤外線照明の照度に変動が生じても、これに充分対
応して常に瞳孔部分101aのみを瞳孔抽出像(抽出さ
れた瞳孔部分)105として得ることができる。
Here, when the illuminance of the infrared illumination is high, the threshold value Th (= 4σ) is set high as shown in FIG. 6A, and when the illuminance of the infrared illumination is low, it is shown in FIG. 6B. As described above, the threshold value Th (= 4σ) is set low. Therefore, even if the illuminance of the infrared illumination fluctuates, the pupil portion 101a alone can always be obtained as the pupil extraction image (extracted pupil portion) 105 sufficiently in response to the fluctuation.

【0067】図7は、前述した観察位置算出部15の動
作を説明するための図である。この図7において、観察
者の観察位置を検出するには、例えば、観察者画像10
7における両眼の瞳孔部分101aの中点に相当する位
置を算出すればよい。本実施形態においては、瞳孔抽出
画像107において抽出された瞳孔抽出像105の水平
最小座標112と水平最大座標113の中点を計算する
ことで観察位置107aを算出した(第3の情報処理工
程)。
FIG. 7 is a diagram for explaining the operation of the observation position calculation unit 15 described above. In FIG. 7, in order to detect the observation position of the observer, for example, an observer image 10
7, a position corresponding to the midpoint of the pupil portion 101a of both eyes may be calculated. In the present embodiment, the observation position 107a is calculated by calculating the midpoint between the horizontal minimum coordinate 112 and the horizontal maximum coordinate 113 of the pupil extraction image 105 extracted in the pupil extraction image 107 (third information processing step). .

【0068】そして、かかる内容を備えた各システム
1,11を作動させて、観察者100の顔面101を撮
影し、観察者の観察位置を検出した。
Then, by operating each of the systems 1 and 11 having the above contents, the face 101 of the observer 100 was photographed, and the observer's observation position was detected.

【0069】図8に示す図表中、(a),(b)は、赤
外線照明の照度がそれぞれ60〔mW/m2〕、20
〔mW/m2〕の場合に撮影した観察者の顔面画像の輝
度分布を示す図である。ここで、図8内の(a),
(b)に示す画像には、瞳孔部分101aと顔面部分1
01とがそれぞれ撮像されている。そして、この図8内
の(a),(b)に示した画像I(x,y)に対し、瞳
孔部分101aの直径に相当する5画素だけ離れた画素
同志の差分をとる2次微分演算、 2×I(x, y)−I(x+5, y)−I(x−5,
y) を行なった。
In the chart shown in FIG. 8, (a) and (b) show that the illuminance of the infrared illumination is 60 [mW / m 2 ] and 20 [mW / m 2 ], respectively.
It is a figure which shows the brightness distribution of the observer's face image image | photographed in the case of [mW / m < 2 >]. Here, (a) in FIG.
The image shown in (b) includes a pupil portion 101a and a face portion 1
01 and 01 are respectively imaged. Then, for the image I (x, y) shown in (a) and (b) in FIG. 8, a second differential operation is performed to obtain a difference between pixels separated by 5 pixels corresponding to the diameter of the pupil portion 101a. , 2 × I (x, y) -I (x + 5, y) -I (x-5,
y) was performed.

【0070】画像微分演算後の結果を図8内の(c),
(d)に示す。この画像微分演算によって、瞳孔部分1
01aを強調することが可能となった。ここで、図8内
の(c),(d)の画像における標準偏差σはそれぞれ
「8」,「3」であり、標準偏差σの4倍である「3
2」,「12」を閾値Thとして図8内の(c),
(d)の画像にそれぞれ二値化処理を行うと、当該図8
内の(e),(f)に示すように、赤外線照明の照度に
係わらず常に図8(a),(b)における瞳孔部分10
1aのみを瞳孔抽出像105として二値化抽出すること
ができた。
The results after the image differentiation operation are shown in FIG.
(D). By this image differentiation operation, the pupil portion 1
01a can be emphasized. Here, the standard deviations σ in the images (c) and (d) in FIG. 8 are “8” and “3”, respectively, and “3” which is four times the standard deviation σ
(C), (c) in FIG.
When the binarization processing is performed on each of the images shown in FIG.
(E) and (f), the pupil portion 10 in FIGS. 8 (a) and (b) is always irrespective of the illuminance of the infrared illumination.
Only 1a was binarized and extracted as the pupil extraction image 105.

【0071】図9は、上記実施形態において観察者10
0の観察位置を検出した結果を示す説明図である。本実
施形態では瞳孔抽出像105の水平最小座標112と水
平最大座標113がそれぞれ毎秒60回検出され、これ
らの中点から安定して観察位置107aを毎秒60回検
出できた。
FIG. 9 shows the observer 10 in the above embodiment.
FIG. 9 is an explanatory diagram showing a result of detecting an observation position of 0. In the present embodiment, the horizontal minimum coordinate 112 and the horizontal maximum coordinate 113 of the pupil extraction image 105 are respectively detected 60 times per second, and the observation position 107a can be stably detected 60 times per second from these middle points.

【0072】次に、上記実施形態における観察位置検出
装置を視点追従型立体表示装置について実施した場合の
一例を、図10に基づいて説明する。
Next, an example in which the observation position detecting device in the above embodiment is applied to a viewpoint tracking type stereoscopic display device will be described with reference to FIG.

【0073】この図10に示す視点追従型立体表示装置
にあっては、観察者100はレンチキュラスクリーン5
05を通して立体画像を観察する。符号501は前述し
た図1における観察位置検出装置の装備箇所を示す。こ
の観察位置検出装置501は、観察者100の瞳孔が瞼
で遮られるのを防止するため、下方20度(水平を基
準)より観察者の顔面を撮像する。この観察位置検出装
置501には、光学系制御部506が接続されており、
この光学系制御部506によって観察者100の観察位
置に応じて液晶プロジェクタ504内の視点追従型光学
系機構部503が制御される。
In the viewpoint-following three-dimensional display device shown in FIG.
A stereoscopic image is observed through 05. Reference numeral 501 indicates the mounting location of the observation position detection device in FIG. 1 described above. The observation position detection device 501 images the face of the observer from 20 degrees below (with reference to the horizontal) in order to prevent the pupil of the observer 100 from being blocked by the eyelids. An optical system control unit 506 is connected to the observation position detection device 501.
The optical system control unit 506 controls the viewpoint following optical system mechanism unit 503 in the liquid crystal projector 504 according to the observation position of the observer 100.

【0074】そして、上述した観察位置検出装置を視点
追従型立体表示装置へ適用したところ、観察位置を非接
触で正確に検出することが可能となり、観察者の負担の
少ない立体表示装置を得ることができた。
When the above-described observation position detecting device is applied to a viewpoint-following type three-dimensional display device, the observation position can be accurately detected in a non-contact manner, and a three-dimensional display device with less burden on the observer can be obtained. Was completed.

【0075】(第2の実施形態)図11に、本発明の第
2の実施形態を示す。この第2の実施形態では、前述し
た第1の実施形態の場合と同様に、撮像システム1と、
この撮像システム1で得られる顔面画像情報を入力し所
定の信号処理を施して観察者の観察位置を検出する画像
処理システム21とを備えている。そして、この第2の
実施形態では、撮像システム1が備えている赤外線出力
光源3Aに、当該赤外線出力光源3Aの出力を制御する
光源光量制御部20を併設した点に特徴を備えている。
(Second Embodiment) FIG. 11 shows a second embodiment of the present invention. In the second embodiment, as in the case of the above-described first embodiment, the imaging system 1
An image processing system 21 is provided that inputs face image information obtained by the imaging system 1 and performs predetermined signal processing to detect an observation position of an observer. The second embodiment is characterized in that a light source light amount control unit 20 for controlling the output of the infrared output light source 3A is provided in addition to the infrared output light source 3A included in the imaging system 1.

【0076】更に、この第2の実施形態では、画像処理
システム21において、前述した第1の実施形態におけ
る二値化閾値設定部16に代えて光源光量設定部26を
装備すると共に、この光源光量設定部26からの出力情
報に基づいて前述した光源光量制御部20を駆動すると
いう構成を採用した点に特徴を備えている。
Further, in the second embodiment, the image processing system 21 is provided with a light source light quantity setting section 26 instead of the binarization threshold value setting section 16 in the first embodiment, and the light source light quantity The present embodiment is characterized in that a configuration in which the light source light amount control unit 20 described above is driven based on output information from the setting unit 26 is employed.

【0077】ここで、光源光量設定部26は、前述した
第1の実施形態における瞳孔画像強調部13から出力さ
れる瞳孔画像データに基づいて画像標準偏差の演算を行
い光源照度を算出する光源照度算出回路26A(第1の
実施形態における光源照度算出回路16Aと同等に機能
する)と、この光源照度算出回路26Aからの出力情報
に基づいて光源光量の制御量を設定する光源光量設定回
路26Bとにより構成されている。その他の構成は、図
11に示すように、前述した第1の実施形態(図1)と
同一となっている。
Here, the light source light amount setting unit 26 calculates the image standard deviation based on the pupil image data output from the pupil image enhancing unit 13 in the first embodiment to calculate the light source illuminance. A calculation circuit 26A (functioning equivalently to the light source illuminance calculation circuit 16A in the first embodiment); and a light source light amount setting circuit 26B for setting a control amount of the light source light amount based on output information from the light source illuminance calculation circuit 26A. It consists of. Other configurations are the same as those of the above-described first embodiment (FIG. 1), as shown in FIG.

【0078】次に、この第2の実施形態の動作について
説明する。まず、この第2の実施形態においても、CC
Dカメラ2によって得られる観察者100の画像は、前
述した第1の実施形態の場合と同様に、図2で示される
画像と同等のものが得られる。
Next, the operation of the second embodiment will be described. First, also in the second embodiment, CC
The image of the observer 100 obtained by the D camera 2 is the same as the image shown in FIG. 2 as in the case of the above-described first embodiment.

【0079】このCCDカメラ2により得られる画像
は、前述した第1実施形態の場合と同様に、画像メモリ
12に画像I(x,y)として記録される。ここで、
x,yは、撮像画像の水平,垂直それぞれの座標位置を
表わす。この画像メモリ12に記録された観察者100
の画像の水平輝度分布は前述した第1実施形態の場合と
同様である(図3参照)。
The image obtained by the CCD camera 2 is recorded in the image memory 12 as an image I (x, y), as in the case of the first embodiment. here,
x and y represent the horizontal and vertical coordinate positions of the captured image, respectively. The observer 100 recorded in the image memory 12
The horizontal luminance distribution of the image is similar to that of the first embodiment described above (see FIG. 3).

【0080】この画像メモリ12に記録された画像I
(x,y)に対し、瞳孔画像強調部112で画像微分演
算を行う。画像微分演算は図3(a)に示すように、瞳
孔径Dに相当する画素数dxだけ離れた画素同志の差分
による2次微分処理、 2×I(x, y)−I(x+dx,y)−I(x−d
x, y) を求めることで行う。この画像微分演算を行うことで図
3(b)に示すように、顔面部分100に対して瞳孔部
分101aのみを強調することができる。
The image I recorded in the image memory 12
The pupil image enhancement unit 112 performs an image differentiation operation on (x, y). The image differentiation operation is, as shown in FIG. 3A, a secondary differentiation process based on a difference between pixels separated by the number of pixels dx corresponding to the pupil diameter D, 2 × I (x, y) −I (x + dx, y). ) -I (xd
x, y). By performing this image differentiation operation, only the pupil portion 101a can be emphasized with respect to the face portion 100 as shown in FIG.

【0081】光源照度算出部26Aは、第1の実施形態
と同様に微分演算処理後画像の標準偏差σを算出するこ
とで観察者顔面の赤外線照明の照度を計測する。そし
て、光源光量設定回路26Bは、光源照度算出回路26
Aによって算出された標準偏差σの値に応じた制御信号
(所定の制御量情報)を光源光量制御部20に送り、赤
外線出力光源3Aから出力される光量を制御する(光源
光量制御工程)。
The light source illuminance calculation unit 26A measures the illuminance of the infrared illumination on the observer's face by calculating the standard deviation σ of the image after the differential operation as in the first embodiment. The light source light quantity setting circuit 26B includes a light source illuminance calculation circuit 26.
A control signal (predetermined control amount information) corresponding to the value of the standard deviation σ calculated by A is sent to the light source light amount control unit 20 to control the light amount output from the infrared output light source 3A (light source light amount control step).

【0082】この第2の実施形態では、観察者顔面にお
ける照度が60〔mW/m2〕であるとき、光源照度算
出回路26Aで算出される標準偏差σが「8」になるよ
うに調整してある。従って、光源照度算出回路26Aで
算出した標準偏差σが常に「8」になるように光源光量
を制御すれば、観察者顔面における照度を常時60〔m
W/m2〕に保つことができる。即ち、光源光量制御工
程における制御基準たる前述した照明手段(赤外線照明
手段)3の光源光量の制御量を、顔面画像の瞳孔部分1
01aを強調する演算を施した画像の標準偏差を計算す
ると共にこれに基づいて決定されるようになっている。
In the second embodiment, when the illuminance on the observer's face is 60 [mW / m 2 ], the standard deviation σ calculated by the light source illuminance calculation circuit 26A is adjusted to be “8”. It is. Therefore, if the light source light amount is controlled so that the standard deviation σ calculated by the light source illuminance calculation circuit 26A is always “8”, the illuminance on the observer's face is always 60 [m
W / m 2 ]. That is, the control amount of the light source light amount of the above-mentioned illuminating means (infrared illuminating means) 3 which is a control reference in the light source light amount controlling step is determined by the
The standard deviation of the image subjected to the operation for emphasizing 01a is calculated and determined based on this.

【0083】なお、観察者100がCCDカメラ2に接
近した場合でも、赤外線出力光源3Aの観察者100の
顔面101における照度は、常に60〔mW/m2〕に
保持される。かかる点において、観察者100がCCD
カメラ2に覗き込むなどした場合における安全性も確保
できる。上記光源光量制御部20による光源光量調節
後、二値化処理部14において、60〔mW/m2〕照
明下における標準偏差σ(=8)の4倍である「32」
を閾値として、二値化処理が行われる。
Even when the observer 100 approaches the CCD camera 2, the illuminance of the infrared output light source 3A on the face 101 of the observer 100 is always maintained at 60 [mW / m 2 ]. At this point, the observer 100 is
It is also possible to secure safety when the user looks into the camera 2 or the like. After adjusting the light source light amount by the light source light amount control unit 20, the binarization processing unit 14 sets "32" which is four times the standard deviation σ (= 8) under 60 [mW / m 2 ] illumination.
Is used as a threshold to perform a binarization process.

【0084】以上のような内容を備えた装置を作動させ
て観察者100の顔面101を撮影し、当該観察者10
0の観察位置を検出した。
By operating the apparatus having the above contents, the face 101 of the observer 100 is photographed.
0 observation positions were detected.

【0085】観察者の顔面を撮影した画像の輝度分布
は、第1の実施形態と同様に、図8の図表中、(1)と
同様な結果が得られ、瞳孔部分101aの直径に相当す
る5画素だけ離れた画素同志の差分をとる2次微分演
算、 2×I(x, y)−I(x+5, y)−I(x−5,
y) を行なうことで、図8内の(c)と同様の結果を得るこ
とができた。
As in the first embodiment, the luminance distribution of an image obtained by photographing the observer's face has the same result as (1) in the chart of FIG. 8, and corresponds to the diameter of the pupil portion 101a. A second derivative operation that calculates a difference between pixels separated by 5 pixels, 2 × I (x, y) −I (x + 5, y) −I (x−5,
By performing y), the same result as (c) in FIG. 8 could be obtained.

【0086】このように上記第2の実施形態にあって
は、観察者100の顔面101における照度が一定にな
るように常時制御しているため、図8内の(c)と同様
な輝度レベルを常に維持することができ、図8内の
(e)で示されるような瞳孔抽出像205を安定に得る
ことができた。そして、上記第2の実施形態にあって
は、前述した第1の実施形態と同様に、瞳孔抽出像の水
平最小座標と水平最大座標が毎秒60回検出され、これ
らの中点から、安定して観察位置107aを毎秒60回
検出することができた。
As described above, in the second embodiment, since the illuminance on the face 101 of the observer 100 is constantly controlled to be constant, the luminance level is the same as that shown in FIG. Can always be maintained, and a pupil extraction image 205 as shown in FIG. 8E can be stably obtained. In the second embodiment, the horizontal minimum coordinates and the horizontal maximum coordinates of the pupil extraction image are detected 60 times per second, as in the first embodiment described above. As a result, the observation position 107a could be detected 60 times per second.

【0087】このように、本実施形態にあっても前述し
た第1の実施形態とほぼ同等の作用効果を得ることがで
き、特に、光源照度算出回路26Aで算出した標準偏差
σが例えば常に「8」になるように光源光量を制御する
ようにしたので、観察者顔面における照度を例えば常時
60〔mW/m2〕に保つことができ、これがため、二
値化に際しての閾値を常に一定値に設定することがで
き、従って、閾値の演算が不要となり、その分、画像処
理システムの画像処理時間を短縮することが可能とな
る。
As described above, even in the present embodiment, it is possible to obtain substantially the same operation and effect as in the first embodiment described above. In particular, the standard deviation σ calculated by the light source illuminance calculation circuit 26A is, for example, always equal to “1”. 8 ", the illuminance on the observer's face can be constantly maintained at, for example, 60 [mW / m 2 ]. Therefore, the threshold value for binarization is always a constant value. Therefore, the calculation of the threshold value becomes unnecessary, and the image processing time of the image processing system can be shortened accordingly.

【0088】(第3の実施形態)次に、第3の実施形態
を図12に基づいて説明する。この第3の実施形態で
は、前述した第1の実施形態の場合と同様に、撮像シス
テム1と、この撮像システム1で得られる顔面画像情報
を入力し所定の信号処理を施して観察者の観察位置を検
出する画像処理システム31とを備えている。又、この
図12に示す第3の実施形態では、観察者100の顔面
101に予め顔面位置検出用の反射マーカを付し、これ
を前述した第1の実施形態における撮像システムと同等
の撮像システム1で検出し、これによって、観察者10
0の顔面位置を特定する手法を備えている。更に、反射
マーカが付されていない観察者100の場合であって
も、その顔面位置が、前述した第1実施形態にて開示し
た画像処理システム11と同等の機能を備えた画像処理
システム21によって演算され特定されるようになって
いる。
(Third Embodiment) Next, a third embodiment will be described with reference to FIG. In the third embodiment, as in the case of the first embodiment described above, the imaging system 1 and face image information obtained by the imaging system 1 are input and subjected to predetermined signal processing to observe the image by the observer. And an image processing system 31 for detecting a position. In the third embodiment shown in FIG. 12, a reflection marker for detecting a face position is attached to the face 101 of the observer 100 in advance, and this is used as an imaging system equivalent to the imaging system in the first embodiment. 1 so that the observer 10
A method is provided for identifying the 0 face position. Furthermore, even in the case of the observer 100 without the reflection marker, the face position is determined by the image processing system 21 having the same function as the image processing system 11 disclosed in the above-described first embodiment. It is calculated and specified.

【0089】以下、これを更に詳述する。反射マーカを
付すのは、観察者の装着物(眼鏡、イヤリング、ヘアピ
ン等)の反射光に起因するノイズ成分によって瞳孔抽出
による観察位置検出が困難である場合に、観察者が装着
するものである。
Hereinafter, this will be described in more detail. The reflection marker is attached by the observer when it is difficult to detect the observation position by pupil extraction due to a noise component caused by reflected light of the wearable object (glasses, earrings, hairpins, etc.) of the observer. .

【0090】ここで、反射マーカは、球状のガラス粒子
(ガラスビーズ)やコーナキューブ等による反射面を備
えたものが使用される。これらの反射マーカは、赤外線
照明手段3から発せられた赤外線を入射方向と逆向きに
反射する。そして、この種の反射マーカは、粘着テープ
や金具等により観察者の眉間位置(両眼の中点)や眼鏡
のフレームにおける両眼の中点位置に装着される。
Here, as the reflection marker, one having a reflection surface such as spherical glass particles (glass beads) or a corner cube is used. These reflection markers reflect infrared rays emitted from the infrared illuminating means 3 in a direction opposite to the incident direction. This type of reflective marker is attached to the observer's eyebrow position (middle point of both eyes) and the middle point of both eyes in the frame of the spectacles by using an adhesive tape or metal fittings.

【0091】又、この反射マーカとしては、例えば、1
〔cm〕×1〔cm〕の大きさのもの(又は直径が1
〔cm〕程度のもの)が使用されるが、その大きさにつ
いては、反射マーカからの反射像が、観察者の瞳孔反射
光や装着物における反射像より大きな像として常時明る
く撮像されるものであれば、とくに限定されるものでは
ない。
Further, as this reflection marker, for example, 1
[Cm] x 1 [cm] (or diameter 1
[Cm]), the size of which is such that the reflected image from the reflective marker is always brightly captured as an image larger than the reflected light from the observer's pupil reflected light or the wearing object. If there is, it is not particularly limited.

【0092】この反射マーカは、観察者100の顔面画
像と共に撮像システム1によって撮像される。その画像
情報は、画像処理システム31によって処理される。こ
の画像処理システム31は、前述した撮像システム1に
よって得られた観察者100の顔面画像情報を記憶する
画像メモリ22と、この画像メモリ22に記憶された顔
面画像情報から反射マーカの有無を判定しそのマーカ情
報を検出する反射マーカ判定部32Aと、この反射マー
カ判定部32Aで検出されたマーカ情報を二値化処理す
るマーカ画像二値化手段としての第1の二値化処理部3
2Bと、この第1の二値化処理部32Bで二値化された
マーカ情報に基づいて画像重心を演算しこれに基づいて
観察者100の観察位置を算定すると共に当該観察者1
00の位置情報として出力する観察位置算定部35とを
備えている。
The reflection marker is imaged by the imaging system 1 together with the face image of the observer 100. The image information is processed by the image processing system 31. The image processing system 31 determines the presence or absence of a reflection marker from the image memory 22 that stores the face image information of the observer 100 obtained by the above-described imaging system 1 and the face image information stored in the image memory 22. A reflection marker determination unit 32A that detects the marker information; and a first binarization processing unit 3 as a marker image binarization unit that binarizes the marker information detected by the reflection marker determination unit 32A.
2B and the center of gravity of the image is calculated based on the marker information binarized by the first binarization processing unit 32B, and the observation position of the observer 100 is calculated based on the image centroid.
And an observation position calculation unit 35 that outputs the position information as 00.

【0093】更に、この画像処理システム31は、前述
した画像メモリ22に記憶された顔面画像情報の内の観
察者の瞳孔部分101aを強調する所定の演算を施こす
瞳孔画像強調部23と、この瞳孔画像強調部23から出
力される瞳孔画像データを所定の二値化閾値に基づいて
二値化処理する第2の二値化処理部24と、この第2の
二値化処理部24の演算結果に基づいて観察者の観察位
置を算定する前述した観察位置算定部35とを備えてい
る。
Further, the image processing system 31 includes a pupil image emphasizing section 23 for performing a predetermined operation for emphasizing the pupil portion 101a of the observer in the face image information stored in the image memory 22 described above. A second binarization processing unit 24 that binarizes the pupil image data output from the pupil image enhancement unit 23 based on a predetermined binarization threshold, and an operation of the second binarization processing unit 24 The above-described observation position calculation unit 35 that calculates the observation position of the observer based on the result is provided.

【0094】ここで、この観察位置算定部35は、上述
したように、第1の二値化処理部32で二値化されたマ
ーカ情報に基づいて画像重心を演算し観察者100の観
察位置を算定する第1の観察位置算定機能と、第2の二
値化処理部24の演算結果に基づいて観察者の観察位置
を算定する第2の観察位置算定機能とを備えている。
Here, as described above, the observation position calculation unit 35 calculates the image center of gravity based on the marker information binarized by the first binarization processing unit 32, and calculates the observation position of the observer 100. And a second observation position calculation function for calculating the observation position of the observer based on the calculation result of the second binarization processing unit 24.

【0095】又、前述した画像強調部23は、前述した
反射マーカ判定部32Aから反射マーカ無しの情報eを
入力した場合に作動し、当該反射マーカ判定部32Aか
ら反射マーカ有りの情報fを入力した場合には作動しな
いように機能する。そして、前述した観察位置算定部3
5では、第1の観察位置算定機能が、第2の観察位置算
定機能に優先して作動するように構成されている。
The image emphasizing section 23 operates when the information e indicating that there is no reflective marker is input from the reflective marker determining section 32A, and the information f indicating that the reflective marker is present is input from the reflective marker determining section 32A. If it does, it will not work. Then, the above-described observation position calculation unit 3
In 5, the first observation position calculation function is configured to operate prior to the second observation position calculation function.

【0096】前述した第2の二値化処理部24の入力段
には、更に、前述した瞳孔画像強調部23から出力され
る画像情報に基づいて瞳孔画像用の二値化閾値をリアル
タイムで決定して当該第2の二値化処理部24に送り込
む二値化閾値設定部36が設けられている。
The input stage of the second binarization processing section 24 further determines a binarization threshold for the pupil image in real time based on the image information output from the pupil image enhancement section 23 described above. Then, a binarization threshold value setting unit 36 for sending the data to the second binarization processing unit 24 is provided.

【0097】この二値化閾値設定部36は、本第3の実
施形態では、予め前述した瞳孔画像強調手段23から出
力される画像情報の画像標準偏差を計算しこれに基づい
て光源照度を算出する照度算出機能を備えた光源照度算
出回路16Aと、この光源照度算出回路16Aから算定
される画像標準偏差に基づいて二値化用の閾値を設定す
る二値化用閾値設定回路16Bとにより構成されてい
る。即ち、この二値化閾値設定部36は、前述した第1
実施形態における二値化閾値設定部16と全く同一に構
成され同一の機能を有するようになっている。
In the third embodiment, the binarization threshold setting unit 36 calculates the image standard deviation of the image information output from the pupil image enhancing means 23 in advance and calculates the light source illuminance based on this. A light source illuminance calculation circuit 16A having an illuminance calculation function to perform the threshold value setting, and a binarization threshold setting circuit 16B for setting a binarization threshold based on the image standard deviation calculated from the light source illuminance calculation circuit 16A. Have been. That is, the binarization threshold value setting unit 36
It has exactly the same configuration and the same function as the binarization threshold setting unit 16 in the embodiment.

【0098】このため、前述した第1の実施形態の場合
と同様に、二値化用閾値設定回路16Bでは、前述した
顔面画像の照度が変化してもこれに対応して二値化用の
所定の閾値を設定することができ、かかる点において、
二値化に際しての演算処理を顔面画像の照度が変化して
も高精度に且つ円滑に成し得るという利点がある。
For this reason, as in the case of the above-described first embodiment, the binarization threshold value setting circuit 16B responds to the change in the illuminance of the above-described face image even if the illuminance of the face image changes. A predetermined threshold can be set, and in such a point,
There is an advantage that the arithmetic processing at the time of binarization can be performed accurately and smoothly even if the illuminance of the face image changes.

【0099】次に、この第3の実施形態の各構成部材及
び全体的動作について説明する。
Next, the components of the third embodiment and the overall operation will be described.

【0100】CCDカメラ101により得られた画像
は、画像メモリ22に画像I(x,y)として記録され
る。ここで、x,yは、撮像画像の水平,垂直それぞれ
の座標位置を表わす。この画像メモリ22に記録された
画像I(x,y)に対し、反射マーカ判定部32Aで
は、観察者100が反射マーカを装着しているか、否か
が判定される(マーカ判定工程)。
An image obtained by the CCD camera 101 is recorded in the image memory 22 as an image I (x, y). Here, x and y represent the horizontal and vertical coordinate positions of the captured image. For the image I (x, y) recorded in the image memory 22, the reflection marker determination unit 32A determines whether or not the observer 100 is wearing the reflection marker (marker determination step).

【0101】反射マーカは、前述したように、粘着テー
プや金具等により観察者の眉間位置(両眼の中点)や眼
鏡のフレームにおける両眼の中点位置に装着され、その
反射面は例えば1〔cm〕×1〔cm〕の大きさであ
り、このため、観察者の瞳孔反射光や装着物における反
射像よりも大きな像として常時明るく撮像される。
As described above, the reflection marker is attached to the observer's eyebrow position (middle point of both eyes) or the midpoint position of both eyes in the frame of the spectacles by using an adhesive tape or metal fittings, and the reflection surface is, for example, The size is 1 [cm] × 1 [cm], and therefore, it is always brightly picked up as an image larger than the pupil reflected light of the observer or a reflected image of the wearing object.

【0102】従って、画像メモリ22に蓄積された画像
に対し、二値化処理を行った後、画像重心演算を施すこ
とで、迅速に且つ確実に反射マーカの中心位置を観察位
置として検出される。
Therefore, the image stored in the image memory 22 is subjected to the binarization processing, and then the center of gravity of the image is calculated, whereby the center position of the reflection marker is quickly and reliably detected as the observation position. .

【0103】即ち、前述した反射マーカ判定部32A
は、撮像画像における観察者の瞳孔反射光の輝度より高
く且つ反射マーカの反射光輝度より低い閾値Th1に基
づいて、反射マーカの有無を判定する。反射マーカ判定
部32Aにおいて反射マーカが有りと判定された場合
は、第1の二値化処理部32Bにおいて画像メモリ22
に蓄積された画像に対して閾値Th1で二値化処理が行
われ(二値化処理工程)、その結果が観察位置算定部3
5に出力され、観察位置算定部35において二値化処理
後の画像に対して画像重心演算が施され、この画像重心
位置が観察位置として出力される(観察位置算出工
程)。
That is, the above-described reflection marker determination unit 32A
Determines the presence or absence of a reflective marker based on a threshold Th1 that is higher than the luminance of the pupil reflected light of the observer in the captured image and lower than the reflected light luminance of the reflective marker. If the reflection marker determination unit 32A determines that there is a reflection marker, the first binarization processing unit 32B executes the image memory 22
Is binarized with the threshold Th1 (binarization processing step), and the result is stored in the observation position calculation unit 3.
5, the observation position calculation unit 35 performs an image centroid operation on the image after the binarization processing, and outputs the image centroid position as an observation position (observation position calculation step).

【0104】一方、反射マーカ判定部32Aにおいて反
射マーカが無しと判定された場合、かかる情報を入力し
た瞳孔画像強調部23は直ちに作動を開始する。同時
に、光源照度算出回路16A及び二値化閾値設定回路1
6B、第2の二値化処理部24、観察位置算定部35が
作動し、前述した第1の実施形態と同様の動作を行う。
On the other hand, when the reflection marker determination section 32A determines that there is no reflection marker, the pupil image enhancement section 23 which has input such information immediately starts operating. At the same time, the light source illuminance calculation circuit 16A and the binarization threshold setting circuit 1
6B, the second binarization processing unit 24, and the observation position calculation unit 35 operate, and perform the same operations as in the first embodiment.

【0105】以上のように、この第3の実施形態にあっ
ても、前述した第1の実施形態の場合と同様に、瞳孔抽
出像の水平最小座標と水平最大座標が毎秒60回検出さ
れ、これらの中点から安定に観察位置を毎秒60回検出
できた。また、観察者が反射マーカを装着している場合
にあっては、反射マーカの有無を自動的に判定し、二値
化された反射マーカ画像から毎秒60回反射マーカの位
置を毎秒60回検出できた。
As described above, even in the third embodiment, the horizontal minimum coordinate and the horizontal maximum coordinate of the pupil extraction image are detected 60 times per second, as in the case of the first embodiment. The observation position was stably detected 60 times per second from these midpoints. When the observer wears the reflective marker, the presence or absence of the reflective marker is automatically determined, and the position of the reflective marker is detected 60 times per second from the binarized reflected marker image. did it.

【0106】そして、更に、本実施形態の観察位置検出
装置を視点追従型立体表示装置について実施した場合
も、前述した第1の実施形態と同様に観察位置を非接触
で正確に検出することが可能となり、観察者の負担の少
ない立体表示装置を提供することができた。
Further, also when the observation position detecting device of the present embodiment is applied to a viewpoint-following stereoscopic display device, the observation position can be accurately detected in a non-contact manner as in the first embodiment. This makes it possible to provide a three-dimensional display device with a small burden on the observer.

【0107】(第4の実施形態)図13に、本発明の第
4の実施形態を示す。この第4の実施形態では、前述し
た第3の実施形態の場合と同様に、撮像システム1と、
この撮像システム1で得られる顔面画像情報を入力し所
定の信号処理を施して観察者の観察位置を検出する画像
処理システム41とを備えている。そして、この第4の
実施形態では、撮像システム1が備えている赤外線出力
光源3Aに、当該赤外線出力光源3Aの出力を制御する
光源光量制御部20を併設した点に特徴を備えている。
(Fourth Embodiment) FIG. 13 shows a fourth embodiment of the present invention. In the fourth embodiment, as in the case of the above-described third embodiment, the imaging system 1
An image processing system 41 is provided which receives face image information obtained by the imaging system 1 and performs predetermined signal processing to detect an observation position of an observer. The fourth embodiment is characterized in that a light source light amount control unit 20 for controlling the output of the infrared output light source 3A is provided in addition to the infrared output light source 3A included in the imaging system 1.

【0108】更に、この第4の実施形態では、画像処理
システム41において、前述した第3の実施形態におけ
る二値化閾値設定部26に代えて光源光量設定部46を
装備すると共に、この光源光量設定部46からの出力情
報に基づいて前述した光源光量制御部20を駆動すると
いう構成を採用した点に特徴を備えている。
Further, in the fourth embodiment, the image processing system 41 is provided with a light source light quantity setting section 46 instead of the binarization threshold value setting section 26 in the third embodiment, and the light source light quantity setting section 46 is provided. The present embodiment is characterized in that a configuration in which the light source light amount control unit 20 described above is driven based on output information from the setting unit 46 is employed.

【0109】ここで、光源光量設定部46は、後述する
瞳孔画像強調部43から出力される瞳孔画像データに基
づいて画像標準偏差の演算を行い光源照度を算出する光
源照度算出回路26A(第1の実施形態における光源照
度算出回路16Aと同等に機能する)と、この光源照度
算出回路26Aからの出力情報に基づいて光源光量の制
御量を設定する光源光量設定回路26Bとにより構成さ
れている。
Here, the light source light quantity setting section 46 calculates an image standard deviation based on pupil image data output from a pupil image enhancing section 43 described later to calculate a light source illuminance. And a light source light quantity setting circuit 26B for setting a control amount of the light source light quantity based on output information from the light source illuminance calculation circuit 26A.

【0110】又、この第4の実施形態では、前述した第
3の実施形態(図12)の場合とは一部異なり、第2の
二値化処理部44が一定の閾値に基づいて二値化処理を
行うように構成され、更に、反射マーカ判定部32Aに
よる反射マーカ有無の判断とは無関係に、瞳孔画像強調
部43,光源照度算出回路26A,及び光源光量設定回
路26Bが稼働するようになっており、これにより、観
察者の顔面における照度を例えば常時60〔mW/
2〕になるように赤外線出力光源3Aの光量が制御さ
れるようになっている。その他の構成は、図13に示す
ように、前述した第3の実施形態(図12)と同一とな
っている。
Further, in the fourth embodiment, the second binarization processing unit 44 differs from the third embodiment (FIG. 12) in that the The pupil image enhancing unit 43, the light source illuminance calculation circuit 26A, and the light source light amount setting circuit 26B are operated independently of the determination of the presence or absence of the reflection marker by the reflection marker determination unit 32A. Thus, the illuminance on the observer's face is constantly set to, for example, 60 [mW /
m 2 ] is controlled. Other configurations are the same as those of the third embodiment (FIG. 12) as shown in FIG.

【0111】以下、これを詳述する。まず、撮像システ
ム1は前述した第3の実施形態における撮像システムが
そのまま使用されている。そして、この撮像システム1
によって撮像された画像情報は、画像処理システム41
によって処理される。
Hereinafter, this will be described in detail. First, as the imaging system 1, the imaging system in the third embodiment described above is used as it is. And this imaging system 1
Image information captured by the image processing system 41
Processed by

【0112】この画像処理システム41は、前述した撮
像システム1によって得られた観察者100の顔面画像
情報を記憶する画像メモリ22と、この画像メモリ22
に記憶された顔面画像情報から反射マーカの有無を判定
しそのマーカ情報を検出する反射マーカ判定部32A
と、この反射マーカ判定部32Aで検出されたマーカ情
報を二値化処理するマーカ画像二値化処理手段としての
第1の二値化処理部32Bと、この第1の二値化処理部
32Bで二値化されたマーカ情報に基づいて画像重心を
演算し観察者100の観察位置を算定すると共に観察者
100の位置情報として出力する観察位置算定部35と
を備えている。この反射マーカの検出およびその信号処
理については、前述した第3の実施形態に場合と同様に
構成されている。
The image processing system 41 includes an image memory 22 for storing face image information of the observer 100 obtained by the above-described imaging system 1, and an image memory 22 for storing the image information.
Marker determining unit 32A that determines the presence or absence of a reflective marker from the face image information stored in the memory and detects the marker information
A first binarization processing unit 32B as a marker image binarization processing unit for binarizing the marker information detected by the reflection marker determination unit 32A; and a first binarization processing unit 32B And an observation position calculation unit 35 which calculates the image center of gravity based on the binarized marker information to calculate the observation position of the observer 100 and outputs it as position information of the observer 100. The detection of the reflection marker and the signal processing thereof are configured in the same manner as in the third embodiment.

【0113】更に、この画像処理システム41は、前述
した画像メモリ22に記憶された顔面画像情報の内の観
察者の瞳孔部分101aを強調する所定の演算を施こす
瞳孔画像強調部43と、この瞳孔画像強調部43から出
力される瞳孔画像データを所定の二値化閾値に基づいて
二値化処理する第2の二値化処理部44と、この第2の
二値化処理部44の演算結果に基づいて観察者の観察位
置を算定する前述した観察位置算定部45とを備えてい
る。
Further, the image processing system 41 includes a pupil image emphasizing section 43 for performing a predetermined operation for emphasizing the pupil portion 101a of the observer in the face image information stored in the image memory 22 described above. A second binarization processing unit 44 that binarizes the pupil image data output from the pupil image enhancement unit 43 based on a predetermined binarization threshold, and an operation of the second binarization processing unit 44 The above-described observation position calculation unit 45 that calculates the observation position of the observer based on the result is provided.

【0114】ここで、この観察位置算定部45は、上述
したように第1の二値化処理部32Bで二値化されたマ
ーカ情報に基づいて画像重心を演算し観察者100の観
察位置を算定する第1の観察位置算定機能と、第2の二
値化処理部44の演算結果に基づいて観察者の観察位置
を算定する第2の観察位置算定機能とを備えている。そ
して、この観察位置算定部45では、第1の観察位置算
定機能が、第2の観察位置算定機能に優先して作動する
ように構成されている。
Here, the observation position calculation unit 45 calculates the center of gravity of the image based on the marker information binarized by the first binarization processing unit 32B as described above, and determines the observation position of the observer 100. It has a first observation position calculation function for calculating and a second observation position calculation function for calculating the observation position of the observer based on the calculation result of the second binarization processing unit 44. Then, the observation position calculation unit 45 is configured so that the first observation position calculation function operates prior to the second observation position calculation function.

【0115】更に、前述した瞳孔画像強調部43は、前
述した反射マーカ判定部32Aで判断される反射マーカ
の有無の判定結果に無関係に、所定のタイミングで作動
するように構成されている。
Further, the above-described pupil image enhancing section 43 is configured to operate at a predetermined timing regardless of the result of the determination of the presence or absence of a reflective marker determined by the reflective marker determining section 32A.

【0116】又、この第4に実施形態では、前述した第
2の実施形態の場合と同様に、観察者100の顔面10
1における照度がその位置に無関係に常に一定となるよ
うに設定制御されることから、第2の二値化処理部44
では二値化処理の閾値を所定の閾値に予め設定してお
き、これに基づいて二値化処理が実行されるようになっ
ている。即ち、この第4の実施形態では、前述した第1
および第3の実施形態で必要としていた二値化閾値設定
部26は備えていないことから、前述した第3の実施形
態に比較して演算速度の迅速化が図られている。
Further, in the fourth embodiment, the face 10 of the observer 100 is
1 is controlled so that the illuminance at 1 is always constant irrespective of its position.
In, the threshold value of the binarization process is set to a predetermined threshold value in advance, and the binarization process is executed based on the threshold value. That is, in the fourth embodiment, the first
Since the binarization threshold setting unit 26 required in the third embodiment is not provided, the calculation speed is increased as compared with the third embodiment.

【0117】その他の構成および作用効果は、前述した
第3の実施形態(図12)の場合とほぼ同一となってい
る。
The other structures, functions and effects are almost the same as those of the third embodiment (FIG. 12).

【0118】この第4に実施形態(図13)において
も、前述した第1の実施形態と同様に瞳孔抽出像の水平
最小座標と水平最大座標が毎秒60回検出され、これら
の中点から安定した状態で観察位置を毎秒60回検出で
きた。又、観察者が反射マーカを装着している場合に反
射マーカ装着を自動的に判定し、二値化された反射マー
カ画像から毎秒60回反射マーカの位置を毎秒60回検
出することができた。
In the fourth embodiment (FIG. 13) as well, the horizontal minimum coordinate and the horizontal maximum coordinate of the pupil extraction image are detected 60 times per second as in the first embodiment described above. In this state, the observation position could be detected 60 times per second. In addition, when the observer wears the reflective marker, the reflective marker is automatically determined to be mounted, and the position of the reflective marker can be detected 60 times per second from the binarized reflective marker image 60 times per second. .

【0119】以上の本実施形態による観察位置検出装置
を視点追従型立体表示装置に適用したところ、前述した
各実施形態の場合と同様に観察位置を非接触で正確に検
出することができ、観察者の負担の少ない立体表示装置
を得ることができた。
When the observation position detecting device according to the present embodiment is applied to a viewpoint-following three-dimensional display device, the observation position can be accurately detected in a non-contact manner as in the above-described embodiments. A three-dimensional display device with less burden on the user can be obtained.

【0120】以上、第1〜第4の実施形態において、照
明装置の位置は正確に同軸でなくても、観察者の瞳孔が
明るく撮像できれば光軸近傍の配置でもよい。又、眼鏡
など鏡面物体の反射光によるノイズを低減する目的で、
照明装置や撮像装置の光軸上に偏光板や1/4波長板な
どを挿入してもよい。
As described above, in the first to fourth embodiments, the position of the illuminating device may not be exactly coaxial, but may be arranged near the optical axis as long as the pupil of the observer can be imaged brightly. Also, for the purpose of reducing noise due to reflected light from specular objects such as glasses,
A polarizing plate, a quarter-wave plate, or the like may be inserted on the optical axis of the illumination device or the imaging device.

【0121】撮像システムとしては、NTSC規格のほ
か、PAL規格,SECAM規格などの各種規格のもの
を使用してもよく、またこれらより水平及び垂直周波数
の高いものを用いてもよい。画像メモリは各種解像度も
のを用いてもよい。
As the imaging system, in addition to the NTSC standard, various systems such as the PAL standard and the SECAM standard may be used, or a system having higher horizontal and vertical frequencies may be used. The image memory may have various resolutions.

【0122】瞳孔画像強調部13,23,43、二値化
閾値設定部16,36、光源光量設定部26,46、二
値化処理部14,24,32B,44、観察位置算出部
15,35,45および反射マーカ判定部32A等にお
ける演算処理は、電子計算機を使用する以外に、専用の
デジタル論理回路やオペアンプによるアナログ演算回路
を用いてもよい。
Pupil image enhancement sections 13, 23, 43, binarization threshold setting sections 16, 36, light source light quantity setting sections 26, 46, binarization processing sections 14, 24, 32B, 44, observation position calculation section 15, The arithmetic processing in the units 35 and 45 and the reflection marker determination unit 32A and the like may use a dedicated digital logic circuit or an analog arithmetic circuit using an operational amplifier other than using an electronic computer.

【0123】更に、瞳孔画像強調部13,23,43に
おける画像微分演算は、 2×I(x, y)−I(x, y+dx)−I(x, y−
dx)、 のような垂直方向に関するものを併せて行ってもよく、
又、水平,垂直両方向に関する画像微分演算、 4×I(x, y)−I(x+dx, y) −I(x−d
x, y)−I(x, y+dx)−I(x, y−dx)、 を用いてもよい。
Further, the image differential operation in the pupil image enhancement units 13, 23, 43 is given by 2 × I (x, y) −I (x, y + dx) −I (x, y−
dx), may also be performed in the vertical direction, such as
In addition, the image differential operation in both the horizontal and vertical directions, 4 × I (x, y) −I (x + dx, y) −I (x−d
(x, y) -I (x, y + dx) -I (x, y-dx).

【0124】又、この瞳孔画像強調部13,23,43
における画像微分演算は、 I(x−dx/2, y)−I(x+dx/2, y)、 I(x, y−dx/2)−I(x, y+dx/2) のような1次微分演算でもよい。この瞳孔画像強調部1
3,23,43における瞳孔強調部演算は、瞳孔形状の
テンプレートを用いたテンプレートマッチングを用いて
もよい。
The pupil image enhancing sections 13, 23, 43
The image differential operation in is a first order such as I (x-dx / 2, y) -I (x + dx / 2, y), I (x, y-dx / 2) -I (x, y + dx / 2) Differential operation may be used. This pupil image enhancement unit 1
The pupil enhancement unit calculations in 3, 23, and 43 may use template matching using a pupil-shaped template.

【0125】光源照度算出部16Aにおける光源照度算
出は、瞳孔画像強調部13,23,43における出力画
像の標準偏差を算出する以外に、前述した出力画像の輝
度の絶対値の総和を用いてもよい。画像微分演算を水平
方向にのみについて行った場合は、画像メモリ12,2
2をラインメモリとして、各走査線毎に瞳孔画像を抽出
してもよく、撮像装置(CCDセンサ)をラインセンサ
として、垂直方向にガルバノミラー等で走査する方法で
もよい。
The calculation of the light source illuminance in the light source illuminance calculation unit 16A can be performed by using the sum of the absolute values of the luminances of the output images described above, in addition to calculating the standard deviation of the output images in the pupil image enhancement units 13, 23, and 43. Good. When the image differentiation operation is performed only in the horizontal direction, the image memories 12 and 2
A pupil image may be extracted for each scanning line by using a line memory 2 as a line memory, or a method of scanning with a galvanomirror or the like in the vertical direction using an imaging device (CCD sensor) as a line sensor may be used.

【0126】[0126]

【発明の効果】以上のように本発明によると、観察者顔
面の赤外線画像のうち瞳孔部分を強調し、強調した当該
観察者顔面の赤外線画像の標準偏差から瞳孔抽出の二値
化閾値(又は照明手段の光量)を制御することで、広い
領域で移動する観察者に対して、赤外線光源の空間的な
照度分布の不均一や観察者と赤外線光源の距離が変動に
よる観察者顔面の照度の変化等があっても、当該観察者
の瞳孔部分のみを常時安定して抽出し所定の演算処理を
迅速に且つ高精度に行うことができ、これによって非接
触で且つ正確に観察者の観察位置をリアルタイムで検出
し出力することができるという従来にない優れた観察者
の観察位置検出方法およびその装置を提供する事が出来
る。更に、本発明によると、観察者の顔面に予め所定の
反射マーカを付した場合には、瞳孔部分以外のノイズ成
分が多い場合であっても、当該反射マーカの位置を検出
することによって簡易な画像処理で観察者の観察位置を
正確に検出することができる。
As described above, according to the present invention, the pupil portion is enhanced in the infrared image of the observer's face, and the binarization threshold value (or the pupil extraction threshold value) is extracted from the standard deviation of the enhanced infrared image of the observer's face. By controlling the amount of light of the illuminating means), the observer moving in a wide area has a non-uniform spatial illuminance distribution of the infrared light source and a change in the distance between the observer and the infrared light source. Even if there is a change or the like, only the pupil portion of the observer can be constantly and stably extracted, and the predetermined arithmetic processing can be performed quickly and with high accuracy. And a device for detecting an observation position of an observer, which is superior to the related art, that can detect and output an image in real time. Furthermore, according to the present invention, when a predetermined reflection marker is attached to the face of the observer in advance, even if there are many noise components other than the pupil portion, the position of the reflection marker is easily detected by detecting the position of the reflection marker. The observation position of the observer can be accurately detected by the image processing.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第1の実施形態を示すブロック図であ
る。
FIG. 1 is a block diagram showing a first embodiment of the present invention.

【図2】図1における撮像システムで撮像される画像を
示す図で、図2(a)は観察者の顔面画像を示す説明
図、図2(b)は図2(a)中のA−B線に沿った検出
情報を示す線図である。
2A and 2B are diagrams illustrating images captured by the imaging system in FIG. 1; FIG. 2A is an explanatory diagram illustrating a face image of an observer; FIG. 2B is a diagram illustrating A- in FIG. 2A; It is a diagram showing detection information along the B line.

【図3】図1中に開示した瞳孔画像強調部の動作原理を
示す説明図で、図3(a)は図2(b)の具体例を示す
線図、図3(b)は図3(a)を微分演算処理した場合
の例を示す線図である。
3A and 3B are explanatory diagrams showing the operation principle of a pupil image enhancing unit disclosed in FIG. 1, wherein FIG. 3A is a diagram showing a specific example of FIG. 2B, and FIG. It is a diagram showing an example in the case of performing differential operation processing of (a).

【図4】光源照度算出部における標準偏差の算出範囲を
示す図で、図4(a)は二つの瞳孔部分を含む範囲の例
を示す説明図、図4(b)は観察者が移動した場合であ
っても標準偏差の算出範囲は同一である旨を示す説明図
である。
4A and 4B are diagrams illustrating a calculation range of a standard deviation in a light source illuminance calculation unit. FIG. 4A is an explanatory diagram illustrating an example of a range including two pupil portions, and FIG. It is an explanatory view showing that the calculation range of the standard deviation is the same even in the case.

【図5】微分演算処理後画像のヒストグラムを示した図
で、図5(a)は照度が大きい場合のヒストグラムを示
す線図、図5(b)は照度が小さい場合のヒストグラム
を示す線図である。
5A and 5B are diagrams showing histograms of images after differential operation processing. FIG. 5A is a diagram showing a histogram when the illuminance is large, and FIG. 5B is a diagram showing a histogram when the illuminance is small. It is.

【図6】本発明の画像処理装置における二値化処理部の
二値化処理を説明するための図で、図6(a)は照度が
大きい場合の二値化処理を示す説明図、図6(b)は照
度が小さい場合の二値化処理を示す説明図である。
FIG. 6 is a diagram for explaining the binarization processing of the binarization processing unit in the image processing apparatus according to the present invention. FIG. 6A is an explanatory diagram showing the binarization process when the illuminance is large. FIG. 6B is an explanatory diagram showing a binarization process when the illuminance is small.

【図7】本発明の観察位置検出装置における観察位置算
出部の機能を説明するための説明図である。
FIG. 7 is an explanatory diagram for explaining a function of an observation position calculation unit in the observation position detection device of the present invention.

【図8】観察者の顔面を撮影した画像の画像処理の状況
を示す図表で、図中、(a)(c)(e)は照度が大き
い場合を示し、(b)(d)(f)は照度が小さい場合
を示す。
FIG. 8 is a chart showing the state of image processing of an image of the face of the observer, in which (a), (c) and (e) show cases where the illuminance is large, and (b) (d) (f) ) Shows the case where the illuminance is small.

【図9】本発明の観察位置検出装置を用いて観察者の観
察位置の変化を検出した結果を示す説明図である。
FIG. 9 is an explanatory diagram showing a result of detecting a change in an observation position of an observer using the observation position detection device of the present invention.

【図10】本発明の観察位置検出装置を用いた視点追従
型立体表示装置の全体構成を示す説明図である。
FIG. 10 is an explanatory diagram showing an overall configuration of a viewpoint tracking type stereoscopic display device using the observation position detection device of the present invention.

【図11】本発明の観察位置検出装置の第2の実施形態
を示すブロック図である。
FIG. 11 is a block diagram showing a second embodiment of the observation position detection device of the present invention.

【図12】本発明の観察位置検出装置の第3の実施形態
を示すブロック図である。
FIG. 12 is a block diagram showing a third embodiment of the observation position detection device of the present invention.

【図13】本発明の観察位置検出装置の第4の実施形態
を示すブロック図である。
FIG. 13 is a block diagram showing a fourth embodiment of the observation position detection device of the present invention.

【図14】従来例(覚醒状態検知装置)における瞳孔抽
出手段の例を示すブロック図である。
FIG. 14 is a block diagram showing an example of a pupil extracting means in a conventional example (awake state detecting device).

【符号の説明】[Explanation of symbols]

1 撮像システム 2 撮像手段としてのCCDカメラ 3 照明手段としての赤外線照明手段 3A 赤外線出力光源 11,21,31,41 画像処理手段としての画像処
理システム 12,22 画像メモリ 13,23 瞳孔画像強調部 14 二値化処理部 15,35,45 観察位置算定部 16 二値化閾値設定部 16A,26A 光源照度算出回路 16B 二値化閾値設定回路 20 光源光量制御部 24,44 第2の二値化処理部 26,46 光源光量設定部 26B 光源光量設定回路 32A 反射マーカ判定部 32B マーカ画像二値化手段としての第1の二値化処
理部 100 観察者 101 顔面 101A 瞳孔 101a 瞳孔部分 105,205 瞳孔抽出像 107a 111 観察位置 201a 瞳孔成分
Reference Signs List 1 imaging system 2 CCD camera as imaging means 3 infrared illuminating means as illuminating means 3A infrared output light source 11, 21, 31, 41 image processing system as image processing means 12, 22 image memory 13, 23 pupil image enhancing section 14 Binarization processing section 15, 35, 45 Observation position calculation section 16 Binarization threshold setting section 16A, 26A Light source illuminance calculation circuit 16B Binarization threshold setting circuit 20 Light source light quantity control section 24, 44 Second binarization processing Units 26, 46 Light source light amount setting unit 26B Light source light amount setting circuit 32A Reflection marker determination unit 32B First binarization processing unit as marker image binarization unit 100 Observer 101 Face 101A Pupil 101a Pupil portion 105, 205 Pupil extraction Image 107a 111 Observation position 201a Pupil component

───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 平8−297019(JP,A) 特開 平8−271221(JP,A) 特開 平6−21165(JP,A) 特開 平2−133885(JP,A) 特開 昭64−82181(JP,A) 特開 昭64−73330(JP,A) 特開2000−312671(JP,A) 特開 平7−13105(JP,A) 実開 昭63−31311(JP,U) (58)調査した分野(Int.Cl.7,DB名) G01B 11/00 - 11/30 G06T 7/00 ──────────────────────────────────────────────────続 き Continuation of the front page (56) References JP-A-8-297019 (JP, A) JP-A-8-271221 (JP, A) JP-A-6-21165 (JP, A) JP-A-2- 133885 (JP, A) JP-A-64-82181 (JP, A) JP-A-64-73330 (JP, A) JP-A-2000-312671 (JP, A) JP-A-7-13105 (JP, A) 63-31311 (JP, U) (58) Fields investigated (Int. Cl. 7 , DB name) G01B 11/00-11/30 G06T 7/00

Claims (16)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 観察者の顔面を所定の照明手段で照明し
つつ当該観察者の顔面を撮像手段にて撮像する顔面撮像
工程と、この顔面撮像工程で撮像された顔面の画像情報
を一時的に画像メモリに記憶すると共にこの記憶された
画像情報から所定の画像処理によって前記観察者自身の
位置を算定する観察位置算定工程とを備えた観察者の観
察位置検出方法において、 前記観察位置算定工程を、前記画像メモリに記憶された
画像情報の瞳孔部分の画像情報を強調する演算を行う第
1の情報処理工程と、この第1の情報処理工程で演算さ
れ前記瞳孔部分が強調された画像情報を所定の二値化閾
値で二値化する第2の情報処理工程と、この二値化され
た画像情報から前記観察者自身の位置を検出する第3の
情報処理工程とを備えた構成とすると共に、 前記第1の情報処理工程と第2の情報処理工程との間
に、前記第1の情報処理工程によって瞳孔部分が強調さ
れた前記画像情報に基づいて前記所定の二値化閾値をリ
アルタイムで決定する二値化閾値演算工程を設けたこと
を特徴とする観察者の観察位置検出方法。
1. A face imaging step of imaging an observer's face by an imaging means while illuminating a face of the observer with a predetermined illumination means, and temporarily storing image information of the face imaged in the face imaging step. The image information is stored in the image memory and the observer's own
In the viewer's viewing position detection method and a viewing position calculation step of calculating the position, the observation position calculation step, the performing emphasizing operation image information of the pupil portion of the image information stored in said image memory (1) an information processing step, a second information processing step of binarizing the image information calculated in the first information processing step and emphasizing the pupil portion with a predetermined binarization threshold, and A third information processing step of detecting the position of the observer from the obtained image information, and a third information processing step between the first information processing step and the second information processing step. 1. An observation position detection of an observer, wherein a binarization threshold value calculation step of determining the predetermined binarization threshold value in real time based on the image information in which a pupil portion is enhanced by the information processing step is provided. Method.
【請求項2】 観察者の顔面を所定の照明手段で照明し
つつ当該観察者の顔面を撮像手段にて撮像する顔面撮像
工程と、この顔面撮像工程で撮像された顔面の画像情報
を一時的に画像メモリに記憶すると共にこの記憶された
画像情報から所定の画像処理によって前記観察者自身の
位置を算定する観察位置算定工程とを備えた観察者の観
察位置検出方法において、 前記観察位置算定工程を、前記画像メモリに記憶された
顔面画像の瞳孔部分の画像情報を強調する演算を行う第
1の情報処理工程と、この第1の情報処理工程で瞳孔部
分が強調された画像情報を所定の二値化閾値で二値化す
る第2の情報処理工程と、この二値化された画像情報か
前記観察者自身の位置を検出する第3の情報処理工程
とを備えた構成とすると共に、 前記第1の情報処理工程と第2の情報処理工程との間
に、前記観察者自身の位置が変化しても前記顔面画像の
内の瞳孔部分の信号レベルが常に一定となるように前記
照明手段を駆動制御する光源光量制御工程を設けたこと
を特徴とする観察者の観察位置検出方法。
2. A face imaging step in which the face of the observer is imaged by an imaging means while the face of the observer is illuminated by a predetermined illumination means, and image information of the face imaged in the face imaging step is temporarily stored. The image information is stored in the image memory and the observer's own
In the viewer's viewing position detection method and a viewing position calculation step of calculating the position, the observation position calculation step, the performing emphasizing operation image information of the pupil portion of the stored facial image in the image memory A first information processing step, a second information processing step of binarizing the image information in which the pupil portion has been emphasized in the first information processing step with a predetermined binarization threshold value, and the binarized image A third information processing step of detecting the position of the observer himself from the information, and between the first information processing step and the second information processing step , An observation position detection method for an observer, wherein a light source light amount control step of driving and controlling the illumination means is provided so that a signal level of a pupil portion in the face image is always constant even if the position changes. .
【請求項3】 前記請求項1又は2に記載の観察者の観
察位置検出方法において、 前記第1の情報処理工程における顔面画像の瞳孔部分を
強調する演算を、画像微分処理により行うことを特徴と
した観察者の観察位置検出方法。
3. The observer's observation position detecting method according to claim 1, wherein the operation of enhancing the pupil portion of the face image in the first information processing step is performed by image differentiation processing. Observation position detection method of the observer.
【請求項4】 前記請求項1に記載の観察者の観察位置
検出方法において、 前記二値化閾値演算工程における二値化閾値を、前記顔
面画像の瞳孔部分を強調する演算を施した顔面画像の画
像標準偏差を計算し且つこの画像標準偏差に基づいて決
定することを特徴とした観察者の観察位置検出方法。
4. The face image in which the binarization threshold value in the binarization threshold value calculation step is calculated by emphasizing a pupil portion of the face image according to the observer's observation position detection method according to claim 1. A method for calculating an image standard deviation of the image and determining based on the image standard deviation.
【請求項5】 前記請求項2に記載の観察者の観察位置
検出方法において、 前記光源光量制御工程における制御基準たる前記照明手
段の光源光量を、前記顔面画像の瞳孔部分を強調する演
算を施した画像の画像標準偏差を計算し且つこれに基づ
いて決定することを特徴とした観察者の観察位置検出方
法。
5. The method for detecting an observer's observation position according to claim 2, wherein the light source light amount of the illuminating means, which is a control reference in the light source light amount control step, is calculated by emphasizing a pupil portion of the face image. A method for detecting an observation position of an observer, which calculates an image standard deviation of the obtained image and determines the image standard deviation based on the image standard deviation.
【請求項6】 前記請求項1,2,3,4又は5記載の
観察者の観察位置検出方法において、 前記第1乃至第3の各情報処理工程からなる一方の情報
処理工程に他の系統からなる一連の情報処理工程を併設
し、 この他の系統からなる一連の情報処理工程を、前記画像
メモリに記憶された顔面情報から前記観察者の顔面に予
め付される反射マーカの有無を判定するマーカ判定工程
と、このマーカ判定工程でマーカ有りと判定された場合
に前記一方の情報処理工程に優先して作動し前記画像メ
モリ内のマーカ画像を所定の閾値に基づいて二値化する
マーカ画像二値化工程と、このマーカ画像二値化工程で
得られるマーカ画像の二値化情報に基づいて前記観察者
の重心位置を特定すると共にこの重心位置に基づいて前
観察者自身の位置を算定する観察位置算定工程とによ
り構成したことを特徴とする観察者の観察位置検出方
法。
6. The method according to claim 1, wherein one of the first to third information processing steps includes another system. A series of information processing steps comprising: a series of information processing steps consisting of the other systems are determined based on the face information stored in the image memory to determine the presence or absence of a reflective marker attached to the face of the observer in advance. A marker judging step, and a marker which operates prior to the one of the information processing steps and binarizes a marker image in the image memory based on a predetermined threshold when it is judged that the marker is present in the marker judging step An image binarization step, and the center of gravity of the observer is specified based on the binarization information of the marker image obtained in the marker image binarization step, and the position of the observer itself is determined based on the center of gravity position. Calculate The observation position of the observer detection method is characterized in that is constituted by the observation position calculation step.
【請求項7】 前記請求項6に記載の観察者の観察位置
検出方法において、 前記マーカ画像二値化工程における前記所定の閾値を、
前記反射マーカの反射輝度より小さく且つ前記観察者の
瞳孔反射光の輝度より大きい領域にある所定の閾値を用
いることを特徴とする観察者の観察位置検出方法。
7. The method for detecting an observer's observation position according to claim 6, wherein the predetermined threshold value in the marker image binarization step is:
An observation position detection method for an observer, comprising using a predetermined threshold value in an area smaller than the reflection luminance of the reflection marker and larger than the luminance of the pupil reflected light of the observer.
【請求項8】 観察者の顔面を撮像する撮像手段と、こ
の撮像手段側に配置され前記観察者の顔面を照明する照
明手段と、前記撮像手段で撮像された観察者の顔面の画
像情報に基づいて当該観察者自身の位置を算定する画像
処理手段とを備えた観察者の観察位置検出装置におい
て、 前記画像処理手段を、前記撮像手段によって得られた前
記観察者の顔面の画像情報を蓄積する画像メモリと、こ
の画像メモリに蓄積される画像情報の内の前記観察者の
瞳孔部分を強調する所定の演算を施こす瞳孔画像強調部
と、この瞳孔画像強調部からの出力される瞳孔画像デー
タを所定の二値化閾値に基づいて二値化処理する二値化
処理部と、この二値化処理部の演算結果に基づいて前記
観察者自身の位置を算定する観察位置算定部とを含む構
成とすると共に、 前記二値化処理部に、前記瞳孔画像強調部から出力され
る画像情報にに基づいて瞳孔画像用の二値化閾値をリア
ルタイムで決定し前記二値化処理部に送り込む二値化閾
値設定部を併設したことを特徴とする観察者の観察位置
検出装置。
8. An image pickup means for picking up an image of the face of the observer, an illuminating means arranged on the image pickup means side for illuminating the face of the observer, and image information of the face of the observer picked up by the image pickup means. An image processing means for calculating the position of the observer based on the image processing means, wherein the image processing means stores image information of the face of the observer obtained by the imaging means. Memory, a pupil image enhancing unit for performing a predetermined operation for enhancing a pupil portion of the observer in the image information stored in the image memory, and a pupil image output from the pupil image enhancing unit A binarization processing unit that performs a binarization process on the data based on a predetermined binarization threshold, and based on a calculation result of the binarization processing unit,
A configuration including an observation position calculation unit that calculates the position of the observer itself, and the binarization processing unit includes a binarization unit for a pupil image based on image information output from the pupil image enhancement unit. An observation position detection device for an observer, further comprising a binarization threshold setting unit that determines a threshold in real time and sends the threshold to the binarization processing unit.
【請求項9】 前記請求項8に記載の観察位置検出装置
において、 前記照明手段を、その光軸が前記撮像手段の光軸と実質
的に同軸となるように配設したことを特徴とする観察者
の観察位置検出装置。
9. The observation position detecting device according to claim 8, wherein the illuminating means is disposed so that an optical axis thereof is substantially coaxial with an optical axis of the imaging means. Observation position detector for observer.
【請求項10】 前記請求項8又は9に記載の観察位置
検出装置において、 前記二値化閾値設定部を、前記瞳孔画像強調部から出力
される画像情報の画像標準偏差を計算しこれに基づいて
光源照度を算出する光源照度算出回路と、この光源照度
算出回路から算定される画像標準偏差に基づいて二値化
用の閾値を設定する二値化用閾値設定回路とにより構成
したことを特徴とする観察者の観察位置検出装置。
10. The observation position detection device according to claim 8, wherein the binarization threshold value setting unit calculates an image standard deviation of image information output from the pupil image enhancement unit, and based on the calculated standard deviation. A light source illuminance calculation circuit for calculating a light source illuminance, and a binarization threshold setting circuit for setting a binarization threshold based on an image standard deviation calculated from the light source illuminance calculation circuit. Observation position detection device for the observer.
【請求項11】 観察者の顔面を撮像する撮像手段と、
この撮像手段側に配置され前記観察者の顔面を照明する
照明手段と、前記撮像手段で撮像された観察者の顔面の
画像情報に基づいて当該観察者自身の位置を算定する画
像処理手段とを備えた観察者の観察位置検出装置におい
て、 前記画像処理手段を、前記撮像手段によって得られた前
記観察者の顔面の画像情報を蓄積する画像メモリと、こ
の画像メモリに蓄積された画像情報における前記観察者
の瞳孔部分を強調する所定の演算を施こす瞳孔画像強調
部と、この瞳孔画像強調部から出力される瞳孔画像デー
タを所定の閾値に基づいて二値化する二値化処理部と、
この二値化処理部の演算結果に基づいて前記観察者自身
の位置を算定する観察位置算定部とを含む構成とすると
共に、 前記照明手段に、前記観察者の観察位置が変化しても前
記瞳孔画像強調部から出力される画像情報の出力レベル
が常時一定となるように当該照明手段の出力を可変制御
する光源光量制御部を併設すると共に、 この光源光量制御部を駆動制御する光源光量設定部を、
前記画像処理手段に設けたことを特徴とする観察者の観
察位置検出装置。
11. An imaging means for imaging an observer's face,
Illuminating means arranged on the imaging means side for illuminating the face of the observer; and image processing means for calculating the position of the observer itself based on image information of the face of the observer captured by the imaging means. In the observer observation position detecting apparatus, the image processing means includes: an image memory for storing image information of the face of the observer obtained by the imaging means; and an image memory for storing the image information in the image memory. A pupil image enhancement unit that performs a predetermined operation to enhance the pupil portion of the observer, and a binarization processing unit that binarizes pupil image data output from the pupil image enhancement unit based on a predetermined threshold.
The observer himself based on the calculation result of this binarization processing unit
And an observation position calculation unit that calculates the position of the observer, and the illumination unit always has a constant output level of image information output from the pupil image enhancement unit even if the observation position of the observer changes. A light source light quantity control unit for variably controlling the output of the lighting means is provided so that the light source light quantity setting unit for driving and controlling the light source light quantity control unit is
An observation position detection device for an observer, which is provided in the image processing means.
【請求項12】 前記請求項11に記載の観察者の観察
位置検出装置において、 前記光源光量設定部を、前記瞳孔画像強調部から出力さ
れる画像情報に基づいて前記照明手段の光源照度を算出
する光源照度算出回路と、この光源照度算出回路から出
力される光源照度情報に基づいて所定の演算を行い前記
瞳孔画像強調部から出力される画像情報の出力レベルが
常時一定となるように前記照明手段の光源光量をリアル
タイムで可変設定する光源光量設定回路とにより構成し
たことを特徴とする観察者の観察位置検出装置。
12. The observer's observation position detecting device according to claim 11, wherein the light source light amount setting unit calculates a light source illuminance of the illumination unit based on image information output from the pupil image enhancing unit. A light source illuminance calculation circuit that performs a predetermined calculation based on the light source illuminance information output from the light source illuminance calculation circuit so that the output level of the image information output from the pupil image enhancement unit is always constant. A light source light quantity setting circuit for variably setting a light source light quantity of the means in real time.
【請求項13】 前記請求項12に記載の観察者の観察
位置検出装置において、 前記光源照度算出回路が、前記瞳孔画像強調部から出力
される画像情報の画像標準偏差を計算すると共にこれに
基づいて前記照明手段の光源照度を算出する光源照度算
出機能を備えていることを特徴とした観察者の観察位置
検出装置。
13. The observer's observation position detection apparatus according to claim 12, wherein the light source illuminance calculation circuit calculates and based on an image standard deviation of image information output from the pupil image enhancement unit. A light source illuminance calculation function for calculating a light source illuminance of the illumination means.
【請求項14】 前記請求項8,9,10,11,12
又は13に記載の観察者の観察位置検出装置において、 前記瞳孔画像強調部が、前記画像メモリに蓄積された画
像を微分処理する画像微分処理機能を備えていることを
特徴とした観察者の観察位置検出装置。
14. The method of claim 8, 9, 10, 11, or 12.
Or the observer's observation position detection device according to item 13, wherein the pupil image enhancement unit has an image differentiation processing function of differentiating an image stored in the image memory. Position detection device.
【請求項15】 前記請求項8,9,10,11,1
2,13又は14に記載の観察者の観察位置検出装置に
おいて、 前記観察者の顔面に予め反射マーカを装着すると共に、
前記画像メモリに、当該画像メモリに記憶された顔面画
像情報から反射マーカの有無を判定する反射マーカ判定
部を併設し、 この反射マーカ判定部の出力段に、当該反射マーカ判定
部にてマーカ有りと判定された場合に前記瞳孔画像強調
部に優先して作動し前記画像メモリ内のマーカ画像を二
値化するマーカ画像二値化手段を設け、 このマーカ画像二値化手段の演算結果から前記顔面画像
の重心位置を演算しこれを観察者自身の位置と特定する
マーカ位置算定機能を、前記観察位置算定部が備えたこ
とを特徴とする観察者の観察位置検出装置。
15. The method of claim 8, 9, 10, 11, 1.
The observation position detection device for an observer according to 2, 13, or 14, wherein a reflection marker is mounted on a face of the observer in advance,
The image memory further includes a reflection marker determination unit that determines the presence or absence of a reflection marker from the face image information stored in the image memory. A marker is provided at the output stage of the reflection marker determination unit by the reflection marker determination unit. When it is determined that the marker image binarizing means is operated prior to the pupil image enhancing section and binarizes the marker image in the image memory, the marker image binarizing means calculates An observation position detection device for an observer, wherein the observation position calculation unit has a marker position calculation function of calculating a center of gravity position of a face image and specifying the calculated position as an observer's own position .
【請求項16】 前記請求項15に記載の観察者の観察
位置検出装置において、 前記反射マーカの反射輝度を予め前記観察者の瞳孔反射
光の反射輝度よりも大きく設定すると共に、前記反射マ
ーカ判定部における二値化用閾値を、前記反射マーカの
反射輝度より小さく且つ前記瞳孔反射光の輝度より大き
い所定の閾値としたことを特徴とする観察者の観察位置
検出装置。
16. The observer's observation position detecting device according to claim 15, wherein the reflection luminance of the reflection marker is set to be larger than the reflection luminance of the pupil reflection light of the observer in advance, and the reflection marker determination is performed. An observation position detection apparatus for an observer, wherein a threshold for binarization in the unit is a predetermined threshold that is smaller than the reflection luminance of the reflection marker and larger than the luminance of the pupil reflection light.
JP13516699A 1999-05-17 1999-05-17 Observer observation position detection method and apparatus Expired - Lifetime JP3351386B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP13516699A JP3351386B2 (en) 1999-05-17 1999-05-17 Observer observation position detection method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP13516699A JP3351386B2 (en) 1999-05-17 1999-05-17 Observer observation position detection method and apparatus

Publications (2)

Publication Number Publication Date
JP2000321022A JP2000321022A (en) 2000-11-24
JP3351386B2 true JP3351386B2 (en) 2002-11-25

Family

ID=15145383

Family Applications (1)

Application Number Title Priority Date Filing Date
JP13516699A Expired - Lifetime JP3351386B2 (en) 1999-05-17 1999-05-17 Observer observation position detection method and apparatus

Country Status (1)

Country Link
JP (1) JP3351386B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5012690B2 (en) * 2008-06-24 2012-08-29 トヨタ自動車株式会社 Facial cover and facial part identification method

Also Published As

Publication number Publication date
JP2000321022A (en) 2000-11-24

Similar Documents

Publication Publication Date Title
JP3565707B2 (en) Observer tracking autostereoscopic display device, image tracking system, and image tracking method
US12073647B2 (en) Detecting device, detecting method, and recording medium
CN109633907B (en) Method for automatically adjusting brightness of monocular AR (augmented reality) glasses and storage medium
US8884984B2 (en) Fusing virtual content into real content
KR20120057033A (en) Gaze tracking system and method for controlling internet protocol tv at a distance
US20140176591A1 (en) Low-latency fusing of color image data
US20120154277A1 (en) Optimized focal area for augmented reality displays
US20150317956A1 (en) Head mounted display utilizing compressed imagery in the visual periphery
EP3011894B1 (en) Eye gaze detection apparatus and eye gaze detection method
JPH08313843A (en) Wide visual field and high resolution video presentation device in line of sight followup system
JPH1124603A (en) Information display device and information collecting device
JP2917953B2 (en) View point position detection device
JPH0782539B2 (en) Pupil imager
JP3450801B2 (en) Pupil position detecting device and method, viewpoint position detecting device and method, and stereoscopic image display system
Sueishi et al. Lumipen 2: Dynamic projection mapping with mirror-based robust high-speed tracking against illumination changes
JP3465336B2 (en) Face image capturing device
US20180246566A1 (en) Eye tracking
JPH1196366A (en) Method and device for synthesizing facial image of person wearing head mount display
JP6856017B2 (en) Corneal reflex position detection device, line-of-sight detection device and corneal reflex position detection method
US7652824B2 (en) System and/or method for combining images
JP3351386B2 (en) Observer observation position detection method and apparatus
CN111522431A (en) Classifying glints using an eye tracking system
JP2017173455A (en) Information processing device, information processing method, and program
Ebisawa Realtime 3D position detection of human pupil
US11996023B2 (en) Viewer synchronized illumination sensing

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20020820

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080920

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080920

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090920

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090920

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100920

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110920

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120920

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130920

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130920

Year of fee payment: 11

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130920

Year of fee payment: 11

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term