JP2000278716A - Device and method for detecting view point position and stereoscopic picture display system - Google Patents

Device and method for detecting view point position and stereoscopic picture display system

Info

Publication number
JP2000278716A
JP2000278716A JP11082455A JP8245599A JP2000278716A JP 2000278716 A JP2000278716 A JP 2000278716A JP 11082455 A JP11082455 A JP 11082455A JP 8245599 A JP8245599 A JP 8245599A JP 2000278716 A JP2000278716 A JP 2000278716A
Authority
JP
Japan
Prior art keywords
template
viewpoint position
detecting
detection
visible image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP11082455A
Other languages
Japanese (ja)
Other versions
JP3428920B2 (en
Inventor
Masahiro Suzuki
雅博 鈴木
Hiroyuki Yamamoto
裕之 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MR SYSTEM KENKYUSHO KK
MR System Kenkyusho KK
Original Assignee
MR SYSTEM KENKYUSHO KK
MR System Kenkyusho KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MR SYSTEM KENKYUSHO KK, MR System Kenkyusho KK filed Critical MR SYSTEM KENKYUSHO KK
Priority to JP08245599A priority Critical patent/JP3428920B2/en
Priority to US09/395,365 priority patent/US6757422B1/en
Publication of JP2000278716A publication Critical patent/JP2000278716A/en
Priority to US10/238,593 priority patent/US20030012425A1/en
Application granted granted Critical
Publication of JP3428920B2 publication Critical patent/JP3428920B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To obtain a device and a method for detecting a view point position with high accuracy and excellent tracking performance in a short time while suppressing an apprehension of the effect onto a human body with a simple configuration and to obtain a stereoscopic picture display system using this method. SOLUTION: A visual point position detector consisting of a photographing section 1 and a view point position detection section 2 has a visual picture photographing section 11 and an infrared ray picture photographing section 12, first a pupil position detection processing section 24 detects a pupil position from an infrared ray picture and a template generating section 23 generates a template for a visual picture by using the result of detection of a pupil position obtained from the infrared ray picture. Then a pattern matching discrimination section 22 applies pattern matching processing to a visual picture. The infrared ray emission time to acquire the infrared ray picture is minimized and using the pupil position from the infrared ray picture through the generated template relieves the processing load. Moreover, a picture display section 3 that is a stereoscopic picture display device is connected to the view point position detector to receive visual point position information so as to configure the stereoscopic picture display system where an available range of a stereoscopic vision by a viewer is wide.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明が属する技術分野】本発明は被測定者の視点位置
を検出する視点検出装置及び視点検出方法に関し、特に
高速処理と高検出精度とを両立した視点検出装置及び視
点検出方法に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a viewpoint detection apparatus and a viewpoint detection method for detecting a viewpoint position of a person to be measured, and more particularly to a viewpoint detection apparatus and a viewpoint detection method that achieve both high-speed processing and high detection accuracy. .

【0002】[0002]

【従来の技術】従来、裸眼による立体視が可能ないわゆ
る立体画像表示装置がある。立体画像表示装置には種々
の方式があるが、例えば特開平09−311294号公
報には、リアクロスレンチキュラ方式のものが開示され
ている。図11はリアクロスレンチキュラ方式の立体画
像表示装置の例を示す要部斜視図である。図中、6は画
像表示用のディスプレイデバイスであり、例えば液晶素
子(LCD)で構成する。図は、偏光板、カラーフィル
ター、電極、ブラックマトリクス、反射防止膜などは省
略してある。
2. Description of the Related Art Conventionally, there is a so-called stereoscopic image display device capable of stereoscopic viewing with the naked eye. There are various types of stereoscopic image display devices. For example, JP-A-09-31294 discloses a rear cross lenticular type. FIG. 11 is a perspective view of an essential part showing an example of a rear cross lenticular type stereoscopic image display device. In the figure, reference numeral 6 denotes a display device for displaying images, which is constituted by, for example, a liquid crystal element (LCD). In the figure, a polarizing plate, a color filter, an electrode, a black matrix, an antireflection film, and the like are omitted.

【0003】10は照明光源となるバックライト(面光
源)である。ディスプレイデバイス6とバックライト1
0の間には、市松状の開口8を備えたマスクパターンを
形成したマスク基板(マスク)7を配置している。マス
クパターンはガラスまたは樹脂からなるマスク基板7上
にクロムなどの金属蒸着膜または光吸収材等をパターニ
ングして製作している。バックライト10、マスク基板
7等は光源の一要素を構成している。
[0003] Reference numeral 10 denotes a backlight (surface light source) serving as an illumination light source. Display device 6 and backlight 1
Between 0, a mask substrate (mask) 7 on which a mask pattern having a checkered opening 8 is formed is arranged. The mask pattern is manufactured by patterning a metal deposited film such as chromium or a light absorbing material on a mask substrate 7 made of glass or resin. The backlight 10, the mask substrate 7, and the like constitute one element of the light source.

【0004】マスク基板7とディスプレイデバイス6の
間には、透明樹脂またはガラス製の第1のレンチキュラ
レンズ3及び第2のレンチキュラレンズ4を配置してい
る。第1のレンチキュラレンズ3は垂直方向に長い縦シ
リンドリカルレンズを左右方向に並べて構成した縦シリ
ンドリカルレンズアレイであり、第2のレンチキュラレ
ンズ4は水平方向に長い横シリンドリカルレンズを上下
方向に並べて構成した横シリンドリカルレンズアレイで
ある。
A first lenticular lens 3 and a second lenticular lens 4 made of transparent resin or glass are arranged between the mask substrate 7 and the display device 6. The first lenticular lens 3 is a vertical cylindrical lens array formed by arranging vertically long vertical cylindrical lenses in the left-right direction, and the second lenticular lens 4 is formed by arranging vertically long horizontal cylindrical lenses in the horizontal direction. It is a cylindrical lens array.

【0005】ディスプレイデバイス6に表示する画像は
図示するように左右の視差画像R及びLを夫々上下方向
に多数の横ストライプ状の横ストライプ画素R,Lに分
割し、それらを例えば画面上からLRLRLR・・・・
と交互に並べて1つの画像に構成した横ストライプ画像
である。
As shown in the figure, the image displayed on the display device 6 divides the left and right parallax images R and L into a large number of horizontal stripe pixels R and L in the vertical direction, and divides them into, for example, LRLLRLR from the screen. ...
And a horizontal stripe image alternately arranged to form one image.

【0006】バックライト10からの光はマスク基板7
の各開口8を透過してディスプレイデバイス6を照明
し、観察者の両眼に左右のストライプ画素R,Lが分離
して観察される。
The light from the backlight 10 is applied to the mask substrate 7
Then, the display device 6 is illuminated through each of the openings 8, and the left and right stripe pixels R and L are separately observed by both eyes of the observer.

【0007】すなわち、マスク基板7はバックライト1
0により照明され、開口8から光が出射する。マスク基
板7の観察者側には第1のレンチキュラレンズ3を配置
しており、その各シリンドリカルレンズのほぼ焦点位置
にマスク基板7がくるようにレンズ曲率を設計してい
る。この断面においては第2のレンチキュラレンズ4は
光学的に何の作用もしないので、開口8上の1点から射
出する光束はこの断面内では略平行光束に変換される。
That is, the mask substrate 7 is
0 illuminates, and light exits from the aperture 8. The first lenticular lens 3 is arranged on the observer side of the mask substrate 7, and the lens curvature is designed so that the mask substrate 7 is almost at the focal position of each cylindrical lens. In this cross section, the second lenticular lens 4 has no optical effect, so that the light beam emitted from one point on the opening 8 is converted into a substantially parallel light beam in this cross section.

【0008】マスクパターンの一対の開口部と遮光部は
略第1のレンチキュラレンズ3の1ピッチに対応するよ
うに設定している。
The pair of openings and light-shielding portions of the mask pattern are set to substantially correspond to one pitch of the first lenticular lens 3.

【0009】また、観察者の所定の位置から第1のレン
チキュラレンズ3までの光学的距離と第1のレンチキュ
ラレンズ3からマスクパターンまでの光学的距離の関係
を元に、第1のレンチキュラレンズ3のピッチとマスク
パターンの一対の開口部と遮光部のピッチを定めること
によって、画面の全幅にわたって、開口部8からの光が
一様に左眼又は右眼に集まるようにすることができる。
このようにしてディスプレイデバイス6上の左右のスト
ライプ画素が水平方向に左眼、右眼の領域に分離して観
察される。
Further, based on the relationship between the optical distance from a predetermined position of the observer to the first lenticular lens 3 and the optical distance from the first lenticular lens 3 to the mask pattern, the first lenticular lens 3 is formed. By determining the pitch of the mask pattern and the pitch of the pair of openings and the light-shielding portion of the mask pattern, light from the openings 8 can be uniformly collected to the left eye or the right eye over the entire width of the screen.
In this way, the left and right stripe pixels on the display device 6 are observed separately in the horizontal direction into the left eye and right eye regions.

【0010】第2のレンチキュラーレンズ4は、マスク
7の開口8上の各点から発する光束を、すべてディスプ
レイデバイス6の右目又は左目用ストライプ画素上に集
光して、これを照明、透過して上下方向にのみ集光時の
NAに応じて発散し、観察者の所定の眼の高さから画面
の上下方向の全幅にわたって左右のストライプ画素を一
様に分離して見える観察領域を与えている。
The second lenticular lens 4 condenses all light beams emitted from each point on the opening 8 of the mask 7 on the right-eye or left-eye stripe pixel of the display device 6, illuminates and transmits the same. It diverges only in the vertical direction according to the NA at the time of condensing, and provides an observation area in which the left and right stripe pixels are uniformly separated from the predetermined eye height of the observer over the entire vertical width of the screen. .

【0011】しかしながら、このような立体画像表示装
置の視野角は狭く、観察者の視点が視野角からはずれる
と立体表示が認識されなくなる。そのため、観察者の視
点位置を検出して、視点位置の移動に応答して画像表示
を制御することにより、立体視が可能な領域を拡大する
技術が提案されている。例えば、特開平10−2323
67号公報には、マスクパターン又はレンチキュラレン
ズを表示面に平行移動させて、立体視可能な領域を拡大
する技術が開示されている。
However, the viewing angle of such a stereoscopic image display device is narrow, and if the observer's viewpoint deviates from the viewing angle, the stereoscopic display cannot be recognized. Therefore, there has been proposed a technique of detecting a viewpoint position of an observer and controlling image display in response to the movement of the viewpoint position, thereby enlarging a region where stereoscopic viewing is possible. For example, Japanese Patent Application Laid-Open No. H10-2323
No. 67 discloses a technique for expanding a stereoscopically visible area by moving a mask pattern or a lenticular lens in parallel to a display surface.

【0012】図12は、特開平10−232367号公
報に開示される立体画像表示装置の図である。図12に
おいて、図11と同じ構成要素には同じ参照数字を付
し、説明は省略する。図12の立体画像表示装置はレン
チキュラーレンズが1枚の構成を有するので、図11に
おける第2のレンチキュラーレンズ4を有していない。
FIG. 12 is a diagram of a stereoscopic image display device disclosed in Japanese Patent Application Laid-Open No. 10-232367. 12, the same reference numerals are given to the same components as those in FIG. 11, and the description will be omitted. Since the three-dimensional image display device in FIG. 12 has a single lenticular lens, it does not include the second lenticular lens 4 in FIG.

【0013】このような構成の立体画像表示装置におい
て、観察者54の移動に応じた制御は以下のようにに行
われる。まず、位置センサー51が、予め設定された基
準の位置からの観察者54の水平方向のずれを検出し、
その情報を制御ユニット52へ送り、このずれ情報に応
じて制御ユニット52がディスプレイ駆動回路50へ画
像制御信号を出力すると、ディスプレイ駆動回路50が
第1又は第2の横ストライプ画像をディスプレイ6に表
示する。同時に制御ユニット52はずれ情報に基づくア
クチュエータ駆動信号を発生し、マスクパターン7を水
平方向に移動させるアクチュエータ53を駆動すること
により、マスクパターン7を観察者54が左右のストラ
イプ画像をもっともよく分離できる位置に移動させる。
この結果、観察者54の視点位置が変化しても、立体視
可能な範囲が拡大することになる。
In the three-dimensional image display device having such a configuration, control according to the movement of the observer 54 is performed as follows. First, the position sensor 51 detects a horizontal displacement of the observer 54 from a preset reference position,
The information is sent to the control unit 52, and when the control unit 52 outputs an image control signal to the display drive circuit 50 according to the shift information, the display drive circuit 50 displays the first or second horizontal stripe image on the display 6. I do. At the same time, the control unit 52 generates an actuator drive signal based on the displacement information and drives the actuator 53 that moves the mask pattern 7 in the horizontal direction, so that the mask pattern 7 can be separated from the left and right stripe images by the observer 54 in the best position. Move to
As a result, even if the viewpoint position of the observer 54 changes, the range that can be stereoscopically viewed is expanded.

【0014】このように、観察者の視点位置に応じて表
示を制御する場合、検出精度が低くても、検出のための
処理時間が長くても、観察者の視点に適した画像表示が
行えない。そのため、観察者の視点位置をいかに精度よ
く、しかも短時間で検出するかは表示装置の性能におい
て非常に重要である。
As described above, when the display is controlled in accordance with the viewpoint position of the observer, an image suitable for the observer's viewpoint can be displayed even if the detection accuracy is low or the processing time for detection is long. Absent. Therefore, it is very important to detect the viewpoint position of the observer with high accuracy and in a short time in the performance of the display device.

【0015】観察者(被測定者)の視点位置検出方法と
しては、 1)赤外光を観察者に照射し、網膜の反射を検出する方
法(例えば、伴野 「視点検出のための瞳孔撮影光学系
の設計法」、電子情報通信学会論文誌D-II, Vol.J74-D-
II, No.6, pp.736-747, 1991年6月に記載) 2)可視画像を画像処理して観察者の目を検出する方法
(例えば、坂口ら 「画像の2次元離散コサイン変換を
利用した実時間顔表情認識」、電子情報通信学会論文誌
D-II, Vol. J80-D-II, No.6, pp. 1547-1554 1997年6
月に記載) 3)赤外画像と可視画像を利用し、画像処理により観察
者の目を検出する方法(例えば、特開平8−28721
6号公報に記載) などがある。
As the method of detecting the viewpoint position of the observer (measured person), 1) a method of irradiating the observer with infrared light and detecting the reflection of the retina (for example, see Banno "Pupil optics for viewpoint detection" System Design Method, IEICE Transactions D-II, Vol.J74-D-
II, No.6, pp.736-747, described in June 1991) 2) A method of processing visible images to detect the eyes of the observer (for example, Sakaguchi et al. Real-Time Face Expression Recognition Using "IEICE Transactions
D-II, Vol.J80-D-II, No.6, pp.1547-1554 1997/6
3) A method of detecting an observer's eyes by image processing using an infrared image and a visible image (for example, see Japanese Patent Application Laid-Open No. 8-28721).
No. 6).

【0016】1)の方法は、人間の瞳孔が近赤外光を再
帰反射する(入射方向と同一方向に光を戻す)性質を有
することを利用したものである。瞳孔反射光は鋭い反射
ピークとして得られ、通常、顔面などよりも高い反射率
を示すため、光源と光軸を同軸とした赤外線撮像装置を
用いて観察者を撮影することにより、瞳孔部分のみを明
るく撮像することができる。この撮影画像を適当な閾値
で二値化処理すれば、抽出された瞳孔位置から正確な視
点位置が検出できる。
The method 1) utilizes the fact that the human pupil has the property of retroreflecting near-infrared light (returning light in the same direction as the incident direction). Pupil reflected light is obtained as a sharp reflection peak, and usually shows a higher reflectance than the face, etc., so that only the pupil part is captured by imaging the observer using an infrared imaging device whose optical axis is coaxial with the light source. Bright images can be taken. If this photographed image is binarized with an appropriate threshold, an accurate viewpoint position can be detected from the extracted pupil position.

【0017】また、2)の方法では、撮影範囲の中の観
察者位置を予め限定し、その状態で観察者に瞬きをさせ
て、その可視画視画像のフレーム間画像によって目の領
域を抽出している。
In the method 2), the position of the observer in the photographing range is limited in advance, the observer blinks in that state, and the eye region is extracted by the inter-frame image of the visible image. are doing.

【0018】また、3)の方法では、赤外画像と可視カ
ラー画像を同時に撮影し、これら画像から顔領域を抽出
したのちテンプレートマッチングを利用して目などの特
徴領域を検出する。赤外画像は人物候補領域の抽出と、
カラー画像から肌色領域を抽出する際に用いる温度閾値
の決定に用いられる。
In the method 3), an infrared image and a visible color image are simultaneously photographed, a face region is extracted from these images, and then a characteristic region such as an eye is detected by using template matching. The infrared image is used to extract a person candidate area,
It is used to determine a temperature threshold used when extracting a skin color region from a color image.

【0019】[0019]

【発明が解決しようとする課題】しかしながら、1)の
方法においては、比較的強い赤外光を連続的に観察者に
対して照射する必要があるため、赤外光による観察者へ
の影響が懸念されるという問題があるほか、網膜による
反射を利用するため、観察者が瞬きした場合などは検出
が行えないという問題がある。また、環境の照度による
瞳孔の拡大縮小や、被測定者の視線の方向によっては、
瞳孔反射像の追従が困難となるという問題もある。
However, in the method (1), since it is necessary to continuously irradiate the observer with relatively strong infrared light, the influence of the infrared light on the observer is small. In addition to the problem of concern, there is also a problem that detection cannot be performed when the observer blinks because reflection by the retina is used. In addition, depending on the pupil enlargement or reduction due to the illuminance of the environment,
There is also a problem that it is difficult to follow the pupil reflection image.

【0020】また、2)の方法においては、観察位置の
調節や瞬きを行うなどの動作を観察者に要求することに
なり、観察者からみると面倒であること、テンプレート
を作成するために、観察位置の調節や瞬きを行うなどの
動作にかかる時間が必要となり、実用的でないことなど
の問題がある。
In the method 2), the observer is required to perform operations such as adjustment of the observation position and blinking, which is troublesome for the observer. It requires time for operations such as adjustment of the observation position and blinking, which is not practical.

【0021】さらに、3)の方法では、1)の方法に比
べて低い赤外光の照射強度でよいが、赤外画像の中間処
理結果を求めた後、その処理結果を利用して可視画像を
処理し、赤外画像の処理結果と可視画像の処理結果を用
いて顔領域を検出してからさらにパターンマッチングを
行うため、非常に処理が複雑である。また、パターンマ
ッチングに用いるテンプレートの作成も容易でないとい
った問題がある。また、パターンマッチング用のテンプ
レートを作成するために必要な顔の部位位置を可視画像
のみから検出しているため、位置精度があまり良くない
という問題もある。
In the method 3), the irradiation intensity of infrared light may be lower than that in the method 1). However, after the intermediate processing result of the infrared image is obtained, the visible image is obtained by using the processing result. Is processed, the face area is detected using the processing result of the infrared image and the processing result of the visible image, and further pattern matching is performed. Therefore, the processing is very complicated. There is also a problem that it is not easy to create a template used for pattern matching. In addition, since the position of the face required to create a template for pattern matching is detected only from the visible image, there is a problem that the position accuracy is not very good.

【0022】したがって、本発明の目的は、簡易な構成
により、かつ人体への影響懸念を抑制しながら、短時間
で高精度かつ追従性のよい視点位置検出装置及び方法を
提供することにある。また、本発明の別の目的は、本発
明の視点位置検出装置あるいは方法を用いて得られる視
点位置情報を用いて表示を制御する立体画像表示装置を
有する立体画像表示システムを提供することにある。
Accordingly, it is an object of the present invention to provide a viewpoint position detecting apparatus and method which have high accuracy and followability in a short time, with a simple configuration and while suppressing the influence on the human body. It is another object of the present invention to provide a stereoscopic image display system having a stereoscopic image display device that controls display using viewpoint position information obtained by using the viewpoint position detecting device or method of the present invention. .

【0023】[0023]

【課題を解決するための手段】すなわち、本発明の要旨
は、被測定者の視点位置を検出し、視点位置情報を出力
する視点位置検出装置であって、被測定者の赤外画像を
取得する赤外画像取得手段と、被測定者の可視画像を取
得する可視画像取得手段と、赤外画像取得手段が取得し
た赤外画像から、被測定者の瞳孔位置を検出する検出手
段と、可視画像取得手段が取得した可視画像から、瞳孔
位置を用いてパターンマッチング用のテンプレートを作
成するテンプレート作成手段と、テンプレート作成手段
の作成したテンプレートを用い、可視画像取得手段が取
得する可視画像とテンプレートマッチングを行って被測
定者の視点位置を検出し、結果を視点位置情報として出
力するマッチング手段とを有することを特徴とする視点
位置検出装置に存する。
That is, the gist of the present invention is a viewpoint position detecting device for detecting a viewpoint position of a person to be measured and outputting viewpoint position information, and acquiring an infrared image of the person to be measured. Infrared image acquiring means for acquiring, a visible image acquiring means for acquiring a visible image of the subject, detecting means for detecting a pupil position of the subject from the infrared image acquired by the infrared image acquiring means, A template creation unit that creates a template for pattern matching using the pupil position from the visible image acquired by the image acquisition unit, and a visible image acquired by the visible image acquisition unit using the template created by the template creation unit and template matching And a matching means for detecting the viewpoint position of the person to be measured and outputting the result as viewpoint position information. That.

【0024】また、本発明の別の要旨は、被測定者の視
点位置を検出し、視点位置情報を出力する視点位置検出
装置であって、被測定者の赤外画像を取得する赤外画像
取得手段と、被測定者の可視画像を取得する可視画像取
得手段と、赤外画像取得手段が取得した赤外画像から、
被測定者の瞳孔位置を検出する検出手段と、可視画像取
得手段が取得した可視画像から、瞳孔位置を用いてパタ
ーンマッチング用のテンプレートを作成するテンプレー
ト作成手段と、テンプレート作成手段の作成したテンプ
レートを用いて可視画像取得手段が取得する可視画像と
テンプレートマッチングを行い、被測定者の視点位置を
検出し、検出結果を視点位置情報として出力するマッチ
ング手段と、所定の条件を満たす場合に検出手段及びテ
ンプレート作成手段を用いて再度テンプレートを作成す
るように制御する制御手段とを有することを特徴とする
視点位置検出装置に存する。
Another aspect of the present invention is a viewpoint position detecting apparatus for detecting a viewpoint position of a person to be measured and outputting viewpoint position information. Acquisition means, visible image acquisition means for acquiring a visible image of the subject, from the infrared image acquired by the infrared image acquisition means,
Detecting means for detecting the pupil position of the subject, template creating means for creating a template for pattern matching using the pupil position from the visible image acquired by the visible image acquiring means, and a template created by the template creating means. Performing template matching with the visible image acquired by the visible image acquisition means using the same, detecting the viewpoint position of the person to be measured, a matching means for outputting the detection result as viewpoint position information, and a detection means when a predetermined condition is satisfied. And a control unit for controlling to create a template again by using the template creating unit.

【0025】また、本発明の別の要旨は、上述の本発明
による視点位置検出装置と、この視点位置検出装置に接
続された立体画像表示装置とを有する立体画像表示シス
テムであって、視点位置検出装置から受信した視点位置
情報を用いて立体画像表示装置を制御することを特徴と
する立体画像表示システムに存する。
Another aspect of the present invention is a stereoscopic image display system including the above-described viewpoint position detecting device according to the present invention and a stereoscopic image display device connected to the viewpoint position detecting device. There is provided a stereoscopic image display system that controls a stereoscopic image display device using viewpoint position information received from a detection device.

【0026】また、本発明の別の要旨は、被測定者の視
点位置を検出し、視点位置情報を出力する視点位置検出
方法であって、被測定者の赤外画像を取得する赤外画像
取得ステップと、被測定者の可視画像を取得する可視画
像取得ステップと、赤外画像取得ステップで取得した赤
外画像から、被測定者の瞳孔位置を検出する検出ステッ
プと、可視画像取得ステップで取得した可視画像から、
瞳孔位置を用いてパターンマッチング用のテンプレート
を作成するテンプレート作成ステップと、テンプレート
作成ステップで作成したテンプレートを用い、可視画像
取得ステップで取得する可視画像とテンプレートマッチ
ングを行って被測定者の視点位置を検出し、結果を視点
位置情報として出力するマッチングステップとを有する
ことを特徴とする視点位置検出方法に存する。
Another aspect of the present invention is a viewpoint position detecting method for detecting a viewpoint position of a person to be measured and outputting viewpoint position information, the method comprising detecting an infrared image of the person to be measured. An acquiring step, a visible image acquiring step of acquiring a visible image of the subject, a detecting step of detecting a pupil position of the subject from the infrared image acquired in the infrared image acquiring step, and a visible image acquiring step. From the acquired visible image,
A template creation step of creating a template for pattern matching using the pupil position, and using the template created in the template creation step, performing a template matching with the visible image acquired in the visible image acquisition step to determine the viewpoint position of the subject. And a matching step of detecting and outputting a result as viewpoint position information.

【0027】また、本発明の別の要旨は、被測定者の視
点位置を検出し、視点位置情報を出力する視点位置検出
方法であって、被測定者の赤外画像を取得する赤外画像
取得ステップと、被測定者の可視画像を取得する可視画
像取得ステップと、赤外画像取得ステップで取得した赤
外画像から、被測定者の瞳孔位置を検出する検出ステッ
プと、可視画像取得ステップで取得した可視画像から、
瞳孔位置を用いてパターンマッチング用のテンプレート
を作成するテンプレート作成ステップと、テンプレート
作成ステップで作成したテンプレートを用いて可視画像
取得ステップで取得する可視画像とテンプレートマッチ
ングを行い、被測定者の視点位置を検出し、検出結果を
視点位置情報として出力するマッチングステップと、所
定の条件を満たす場合に検出ステップ及びテンプレート
作成ステップを用いて再度テンプレートを作成するとと
もに、それ以外の場合には可視画像取得ステップとマッ
チングステップとを繰り返し行うことを特徴とする視点
位置検出方法に存する。
Another subject of the present invention is a viewpoint position detecting method for detecting a viewpoint position of a person to be measured and outputting viewpoint position information. An acquiring step, a visible image acquiring step of acquiring a visible image of the subject, a detecting step of detecting a pupil position of the subject from the infrared image acquired in the infrared image acquiring step, and a visible image acquiring step. From the acquired visible image,
A template creation step of creating a template for pattern matching using the pupil position, and performing template matching with the visible image acquired in the visible image acquisition step using the template created in the template creation step, and determining the viewpoint position of the subject. A matching step of detecting and outputting the detection result as viewpoint position information; and, if a predetermined condition is satisfied, creating a template again using the detection step and the template creation step; otherwise, a visible image acquisition step. The present invention resides in a viewpoint position detection method characterized by repeatedly performing a matching step.

【0028】また、本発明の別の要旨は、上述の本発明
による視点位置検出方法をコンピュータが実行可能なプ
ログラムとして格納したコンピュータ読みとり可能な記
憶媒体に存する。
Another aspect of the present invention resides in a computer-readable storage medium storing a viewpoint position detecting method according to the present invention as a computer-executable program.

【0029】[0029]

【発明の実施の形態】以下、図面を参照して本発明の実
施形態を詳細に説明する。以下の説明においては、本発
明の視点位置検出装置を立体画像表示装置に接続した立
体画像表示システムについて説明するが、本発明の視点
位置検出装置の用途は立体画像表示装置システムに限定
されるものではない。
Embodiments of the present invention will be described below in detail with reference to the drawings. In the following description, a stereoscopic image display system in which the viewpoint position detecting device of the present invention is connected to a stereoscopic image display device will be described, but the use of the viewpoint position detecting device of the present invention is limited to the stereoscopic image display device system. is not.

【0030】また、本発明において、視点位置とは観察
者の目の位置を示すある一点の座標を意味するが、本発
明の視点位置検出装置の出力する視点位置情報は必ずし
も一点の座標値でなくともよく、ある領域を示す情報で
あっても良い。用途によっては眼全体の位置がおおよそ
わかればよい場合もあり、その用途によって適宜選択す
ればよい。
Also, in the present invention, the viewpoint position means the coordinates of a certain point indicating the position of the eyes of the observer. The viewpoint position information output by the viewpoint position detecting device of the present invention is not necessarily the coordinate value of one point. It does not have to be, and may be information indicating a certain area. Depending on the use, the position of the entire eye may be roughly known, and may be appropriately selected depending on the use.

【0031】(第1の実施形態)図1は、本発明に係る
視点位置検出装置の構成を示すブロック図である。本実
施形態における視点位置検出装置は、撮影部1と、視点
位置検出部2とから構成され、画像表示部3は前述した
立体画像表示装置である。以下、視点位置検出装置と画
像表示部3とを併せて立体画像表示システムと言うこと
がある。
(First Embodiment) FIG. 1 is a block diagram showing a configuration of a viewpoint position detecting device according to the present invention. The viewpoint position detection device according to the present embodiment includes an imaging unit 1 and a viewpoint position detection unit 2, and the image display unit 3 is the above-described stereoscopic image display device. Hereinafter, the viewpoint position detecting device and the image display unit 3 may be collectively referred to as a stereoscopic image display system.

【0032】撮影部1は、可視画像撮影部11、赤外画
像撮影部12及び赤外光発光部13から構成され、観察
者の可視画像及び赤外画像を撮影する。可視画像撮影部
11及び赤外画像撮影部12はいずれもビデオカメラに
よって構成可能であり、赤外画像撮影部12はフィルタ
等によって赤外光のみを内部の受光素子に入射させてい
る。また、赤外光発光部13は例えばLEDなどの赤外
光発光素子から構成することができ、観察者と撮影部1
との通常取りうる範囲の距離において、網膜反射を得る
ために必要な発光量が得られるように構成する。
The photographing section 1 comprises a visible image photographing section 11, an infrared image photographing section 12, and an infrared light emitting section 13, and photographs a visible image and an infrared image of an observer. Each of the visible image photographing section 11 and the infrared image photographing section 12 can be constituted by a video camera, and the infrared image photographing section 12 causes only infrared light to enter the internal light receiving element by a filter or the like. The infrared light emitting unit 13 can be composed of an infrared light emitting element such as an LED, for example.
The light emission amount necessary for obtaining retinal reflection can be obtained at a distance within a range which can be normally taken with the above.

【0033】視点位置検出部2は、可視画像記憶部21
と、パターンマッチング判定部22と、テンプレート作
成部23と、視点位置検出処理部24と、赤外画像記憶
部25と、赤外光発光制御部26とから構成されてい
る。視点位置検出部2はたとえば撮影部1が出力する画
像信号を記憶可能な、汎用パーソナルコンピュータから
構成することができる。
The viewpoint position detecting section 2 includes a visible image storing section 21
, A pattern matching determination unit 22, a template creation unit 23, a viewpoint position detection processing unit 24, an infrared image storage unit 25, and an infrared light emission control unit 26. The viewpoint position detecting section 2 can be constituted by a general-purpose personal computer capable of storing an image signal output from the photographing section 1, for example.

【0034】可視画像記憶部21及び赤外画像記憶部2
5はいずれも対応する撮影部11、12が撮影した画像
データを記憶する手段として用いられ、RAMのような
半導体メモリで構成しても、磁気ディスクや光ディスク
などの記憶装置を用いて構成してもよい。
The visible image storage unit 21 and the infrared image storage unit 2
5 is used as a means for storing image data photographed by the corresponding photographing units 11 and 12, and may be constituted by a semiconductor memory such as a RAM or by using a storage device such as a magnetic disk or an optical disk. Is also good.

【0035】パターンマッチング判定部22は、テンプ
レート作成部23から供給されるテンプレートを用い
て、可視画像記憶部21に記憶された画像のうちテンプ
レートとの相関が最も高い領域の位置情報を画像表示部
3へ出力する。また、パターンマッチング失敗時など
に、赤外光発光制御部26に赤外光発光部13を発光さ
せる出力を行う。
The pattern matching determination unit 22 uses the template supplied from the template creation unit 23 to display position information of an area having the highest correlation with the template in the image stored in the visible image storage unit 21 on the image display unit. Output to 3. In addition, when the pattern matching fails, the infrared light emission control unit 26 outputs the infrared light emission unit 13 to emit light.

【0036】テンプレート作成部23は、視点位置検出
処理部24から供給される位置情報を用いて、可視画像
記憶部21に記憶された画像データから、パターンマッ
チング判定部22で用いるパターンマッチング用のテン
プレートを作成する。
The template creation unit 23 uses the position information supplied from the viewpoint position detection processing unit 24 to convert the image data stored in the visible image storage unit 21 into a pattern matching template used by the pattern matching determination unit 22. Create

【0037】視点位置検出処理部24は、赤外光発光制
御部26が赤外光発光部13の発光を行ったことを知ら
せる信号を入力として、その信号情報をもとにして赤外
画像記憶部25に記憶された赤外画像から視点位置を検
出し、その位置情報をテンプレート作成部23に供給す
る。また、その位置情報を画像表示部3に供給しても良
い。
The viewpoint position detection processing section 24 receives a signal indicating that the infrared light emission control section 26 has emitted light from the infrared light emission section 13 as an input, and stores an infrared image based on the signal information. The viewpoint position is detected from the infrared image stored in the unit 25, and the position information is supplied to the template creating unit 23. Further, the position information may be supplied to the image display unit 3.

【0038】赤外光発光制御部26は、図示しない制御
部、視点位置検出処理部24、パターンマッチング処理
部等の制御に従い、赤外光発光部13の点灯制御を行
う。これら視点位置検出部2の各構成要素は、図示しな
い制御部の制御によって動作する。
The infrared light emission control unit 26 controls the lighting of the infrared light emission unit 13 according to the control of a control unit (not shown), a viewpoint position detection processing unit 24, a pattern matching processing unit, and the like. These components of the viewpoint position detection unit 2 operate under the control of a control unit (not shown).

【0039】次に、図1に示したシステムの具体的な動
作について、図2〜図4(b)を用いて説明する。図2
は本実施形態における視点位置検出装置の動作を示すフ
ローチャートである。
Next, a specific operation of the system shown in FIG. 1 will be described with reference to FIGS. FIG.
5 is a flowchart illustrating an operation of the viewpoint position detecting device in the present embodiment.

【0040】まず、撮影部1、視点位置検出部2及び画
像表示部3の電源投入、初期化など、各部の起動を行う
(ステップS10)。次に、図示しない制御部は、赤外
光発光制御部26に赤外光発光を指示する。それを受け
て赤外光発光制御部26は、赤外光発光部13を点灯さ
せる(ステップS11)とともに、視点位置検出処理部
24に赤外光を発光した旨を通知する。そして、可視画
像撮影部11によって撮影された可視画像と、赤外画像
撮影部12によって撮影された赤外画像をそれぞれ可視
画像記憶部21及び赤外画像記憶部25に取り込んで、
赤外光発光部13を消灯する。この際、精度のよいテン
プレートの作成及びパターンマッチングを行うために、
各画像記憶部に取り込む画像は実質的に同じタイミング
(フレーム)のものとすることが好ましい。
First, the respective units are started, such as turning on the power of the photographing unit 1, the viewpoint position detecting unit 2, and the image display unit 3, and initializing (step S10). Next, the control unit (not shown) instructs the infrared light emission control unit 26 to emit infrared light. In response to this, the infrared light emission control unit 26 turns on the infrared light emission unit 13 (step S11) and notifies the viewpoint position detection processing unit 24 that the infrared light has been emitted. Then, the visible image captured by the visible image capturing unit 11 and the infrared image captured by the infrared image capturing unit 12 are loaded into the visible image storage unit 21 and the infrared image storage unit 25, respectively.
The infrared light emitting unit 13 is turned off. At this time, in order to create an accurate template and perform pattern matching,
It is preferable that the images taken into the respective image storage units have substantially the same timing (frame).

【0041】また、赤外光の発光開始は、たとえば観察
者の有無を検知するセンサを設けて、観察者の存在が確
認されてから自動的に行ったり、観察者に介しボタンを
押下させるなど任意の方法を用いることができる。
The emission of the infrared light is started, for example, by providing a sensor for detecting the presence or absence of an observer, automatically after the existence of the observer is confirmed, or by pressing the button through the observer. Any method can be used.

【0042】次いで、視点位置検出処理部24は、赤外
画像記憶部25に取り込んだ赤外画像から、視点位置を
検出する(ステップS12)。視点位置の検出は基本的
に画像の2値化処理によって行う。ただし、赤外画像内
で左に出てきた反射像を観察者の右眼、右に出てきた反
射像を観察者の左眼とする。図3は、赤外画像の例であ
り、近赤外光の網膜反射によって、瞳孔部分が他の部分
に比べて非常に明るくなる。
Next, the viewpoint position detection processing section 24 detects the viewpoint position from the infrared image fetched into the infrared image storage section 25 (step S12). The detection of the viewpoint position is basically performed by binarizing the image. However, in the infrared image, the reflected image that appears to the left is the right eye of the observer, and the reflected image that appears to the right is the left eye of the observer. FIG. 3 is an example of an infrared image, in which the pupil portion becomes much brighter than other portions due to retinal reflection of near-infrared light.

【0043】また、網膜反射による反射像は、画像内の
一部の領域になるため、ステップS12で検出される反
射像の位置は画像内の1点を指すピンポイントの座標値
ではない。反射像からピンポイントの画像内座標値であ
る視点位置を求める処理は、パターンマッチングのテン
プレート作成段階までに適宜行えば良い。
Since the reflection image due to retinal reflection is a partial area in the image, the position of the reflection image detected in step S12 is not a pinpoint coordinate value indicating one point in the image. The process of obtaining the viewpoint position, which is the pinpoint coordinate value in the image, from the reflection image may be appropriately performed until the template creation stage of pattern matching.

【0044】ステップS13において、2点が検出でき
た場合は、ステップS14へ、観察者が瞬きしていた等
の理由により正常に検出できなかった場合には、ステッ
プS11へ戻って再度画像取得を行う。
In step S13, if two points can be detected, the process proceeds to step S14. If the image cannot be detected normally due to the blinking of the observer, the process returns to step S11 to acquire an image again. Do.

【0045】ステップS13で正常に視点位置検出が完
了した場合には、テンプレートの作成処理を開始する。
本実施形態において用いるパターンマッチング用のテン
プレートは、2つの子テンプレートと1つの親テンプレ
ートである。それぞれの種類のテンプレートについて図
4(a)及び図4(b)を用いてさらに説明する。
If the viewpoint position detection has been completed normally in step S13, template creation processing is started.
The templates for pattern matching used in the present embodiment are two child templates and one parent template. Each type of template will be further described with reference to FIGS. 4 (a) and 4 (b).

【0046】図4(a)及び図4(b)は、本実施形態
で用いる子テンプレート及び親テンプレートをそれぞれ
説明する図である。図に示すように、2つの子テンプレ
ートはそれぞれ右眼、左眼の視点位置を基点(図中×で
示す)とするテンプレート、親テンプレートは右眼左眼
の視点位置を含み、視点位置の中点を基点とする1つの
テンプレートである。ここで、テンプレートにおける視
点位置は、画像内座標の1点を指す座標である。
FIGS. 4A and 4B are diagrams for explaining a child template and a parent template used in the present embodiment, respectively. As shown in the figure, the two child templates each have a viewpoint based on the viewpoint positions of the right eye and the left eye (indicated by X in the figure), and the parent template includes the viewpoint positions of the right eye and the left eye. One template is based on a point. Here, the viewpoint position in the template is a coordinate indicating one point of the coordinates in the image.

【0047】本実施形態において、テンプレートの作成
処理は子テンプレートの作成から行う。テンプレート作
成部23は、視点位置検出処理部24が赤外画像から検
出した右眼、左眼の視点位置(画像上の座標値)を用い
て、可視画像記憶部21に記憶された可視画像から、右
眼視点位置を基点とした子テンプレート1、左眼視点位
置を基点とした子テンプレート2を作成する(ステップ
S14)。子テンプレートの大きさは、右眼左眼視点位
置間の距離によって次式から決定する。平均的な人間の
右眼左眼視点位置間の距離:測定された右眼左眼視点位
置間の距離=平均的な人間の眼と眉が入る程度の大き
き:子テンプレートの大きさここで、視点位置間距離及
び眼と眉が入る大きさの平均値は、たとえば統計的に求
めた値を用いることができる。
In the present embodiment, template creation processing is performed from the creation of a child template. The template creation unit 23 uses the right-eye and left-eye viewpoint positions (coordinate values on the image) detected from the infrared image by the viewpoint position detection processing unit 24 to convert the visible image stored in the visible image storage unit 21. Then, a child template 1 based on the right eye viewpoint position and a child template 2 based on the left eye viewpoint position are created (step S14). The size of the child template is determined from the following equation based on the distance between the right-eye and left-eye viewpoint positions. Average distance between the right and left eye viewpoint positions of the human: Measured distance between the right and left eye viewpoint positions = large enough to include the average human eye and eyebrows: the size of the child template As the average value of the distance between the viewpoint positions and the size of the eye and eyebrows, for example, a statistically determined value can be used.

【0048】子テンプレートの作成が終わると、テンプ
レート作成部23は親テンプレートの作成を行う(ステ
ップS15)。上述したように、親テンプレートは右眼
左眼2つの視点位置の中点を基点として、2つの視点位
置を含むテンプレートである。親テンプレートの大きき
は、右眼左眼視点位置間の距離によって次式から決定す
る。平均的な人間の右眼左眼視点位置間の距離:測定さ
れた右眼左眼視点位置間の距離=平均的な人間の顔が入
る程度の大きさ:親テンプレートの大きさ子テンプレー
ト作成時と同様に、平均値には統計的に求めた値を用い
ることができる。テンプレート作成部23が作成したテ
ンプレートは、パターンマッチング判定部22へ供給さ
れる。
When the child template has been created, the template creating section 23 creates a parent template (step S15). As described above, the parent template is a template including the two viewpoint positions with the middle point between the two viewpoint positions for the right eye and the left eye as a base point. The size of the parent template is determined from the following equation based on the distance between the right-eye and left-eye viewpoint positions. Average distance between human right-eye and left-eye viewpoint positions: measured distance between right-eye and left-eye viewpoint positions = size enough to include an average human face: parent template size When creating child template Similarly to the above, a statistically determined value can be used for the average value. The template created by the template creation unit 23 is supplied to the pattern matching determination unit 22.

【0049】テンプレートの作成が終わると、可視画像
記憶部21に取り込んだ可視画像と、テンプレート作成
部23が作成したテンプレートを用いてパターンマッチ
ングを行う。パターンマッチング判定部22はまず、親
テンプレートと可視画像のパターンマッチングを行う
(ステップS16)。パターンマッチングはたとえば正
規化相関関数を用いて行うことができる。正規化相関関
数を用いたパターンマッチングについては例えば、「マ
トロックスイメージングライブラリ バージョン5.1
ユーザガイド(Matrox Imaging Library Version 5.1
User Guide)」第154〜155ページに記載されて
いる。正規化相関関数によって得られる値は0〜100
(%)として表され、100%が完全一致を意味する。
When the creation of the template is completed, pattern matching is performed using the visible image fetched into the visible image storage unit 21 and the template created by the template creation unit 23. The pattern matching determination unit 22 first performs pattern matching between the parent template and the visible image (step S16). Pattern matching can be performed using, for example, a normalized correlation function. The pattern matching using the normalized correlation function is described in, for example, “Matrox Imaging Library Version 5.1.
User Guide (Matrox Imaging Library Version 5.1
User Guide) ”, pp. 154-155. The value obtained by the normalized correlation function is 0 to 100
(%), 100% means perfect match.

【0050】本実施形態においては、例えば85%を超
える相関度が得られれば、パターンマッチングが成功し
たと見なす。テンプレート作成直後のパターンマッチン
グは、テンプレートの元になった画像とパターンマッチ
ングを行う画像データが同一であるため、基本的にほぼ
100%の相関度が得られるはずである。
In the present embodiment, for example, if a correlation degree exceeding 85% is obtained, it is determined that the pattern matching has succeeded. In the pattern matching immediately after the template is created, since the image on which the template is based and the image data to be subjected to the pattern matching are the same, basically a correlation of almost 100% should be obtained.

【0051】親テンプレートと可視画像のパターンマッ
チング結果が所定の相関度を満たした場合には、ステッ
プS17においてパターンマッチング成功と判断され、
ステップS18へ移行する。一方、相関度が所定値に満
たなければ、テンプレートを作成し直す必要があると考
えられるため、ステップS11へ戻り、赤外画像取得か
ら再度処理する。
If the result of pattern matching between the parent template and the visible image satisfies a predetermined degree of correlation, it is determined in step S17 that the pattern matching has been successful.
Move to step S18. On the other hand, if the degree of correlation is less than the predetermined value, it is considered that the template needs to be recreated, so the process returns to step S11, and the process is again performed from the acquisition of the infrared image.

【0052】親テンプレートを用いたパターンマッチン
グが成功すると、パターンマッチング判定部22は視点
位置の探索領域設定を行う(ステップS18)。すなわ
ち、親テンプレート内の左半分を右眼視点位置の探索領
域、親テンプレート内の右半分を左眼視点位置の探索領
域とする。そして、設定した探索領域を元にして、子テ
ンプレートと可視画像のパターンマッチングを行う(ス
テップS19)。このように、階層的にパターンマッチ
ングを行い、段階的に探索範囲を絞り、右眼左眼視点位
置の拘束を行うことで、誤った視点位置の検出(失敗で
はない)を防ぎ、精度良い追従ができる。
If the pattern matching using the parent template succeeds, the pattern matching determination section 22 sets a search area for the viewpoint position (step S18). That is, the left half in the parent template is set as the search area for the right eye viewpoint position, and the right half in the parent template is set as the search area for the left eye viewpoint position. Then, pattern matching between the child template and the visible image is performed based on the set search area (step S19). In this way, by performing pattern matching hierarchically, narrowing down the search range in stages, and restricting the right eye left eye viewpoint position, detection of erroneous viewpoint position (not failure) is prevented, and accurate tracking is performed. Can be.

【0053】パターンマッチングの結果、最大相関値が
所定の相関値を満たす場合には、ステップS20におい
てパターンマッチング成功と判断され、ステップS21
へ移行する。一方、最大相関値が所定相関値に満たない
場合には、ステップS11へ戻って赤外画像取得動作か
らやり直す。この際、パターンマッチング判定部22は
赤外光発光制御部26に再度赤外光を発光するよう指示
する。
If the maximum correlation value satisfies the predetermined correlation value as a result of the pattern matching, it is determined that the pattern matching is successful in step S20, and the process proceeds to step S21.
Move to. On the other hand, if the maximum correlation value is less than the predetermined correlation value, the process returns to step S11 and starts again from the infrared image acquisition operation. At this time, the pattern matching determination unit 22 instructs the infrared light emission control unit 26 to emit infrared light again.

【0054】ステップS20でパターンマッチング成功
と判断されると、パターンマッチング判定部22は、画
像表示部3へ最終的に得られた視点位置情報(画像上の
視点位置座標)を右眼、左眼ごとに出力する。ステップ
S21においてシステム終了を行うか否かを判定し、シ
ステムの動作終了を指示されていなければ可視画像撮影
部11から可視画像を取り込み、可視画像記憶部21へ
記憶してからステップS16へ戻る。
If it is determined in step S20 that the pattern matching is successful, the pattern matching determination unit 22 sends the finally obtained viewpoint position information (viewpoint position coordinates on the image) to the image display unit 3 for the right eye and the left eye. Output every time. In step S21, it is determined whether or not to end the system. If the end of the operation of the system is not instructed, a visible image is fetched from the visible image photographing unit 11, stored in the visible image storage unit 21, and then returns to step S16.

【0055】以降、可視画像に対するパターンマッチン
グを継続し、パターンマッチングが失敗すると自動的に
赤外光を発光してテンプレートの再作成処理を行う。ス
テップS21において終了処理が指示された場合には、
所定の終了処理を行って(ステップS22)一連の処理
を終了する。
Thereafter, the pattern matching for the visible image is continued, and if the pattern matching fails, the infrared light is automatically emitted and the template is recreated. When the end processing is instructed in step S21,
After performing a predetermined end process (step S22), a series of processes is ended.

【0056】このように、テンプレート作成時の視点位
置情報として高精度な情報の得られる赤外光による網膜
反射画像を用いることにより、赤外光の照射時間も最小
限に抑制でき、観察者への影響懸念をも低減することが
できる。また、テンプレートマッチングが不成功に終わ
った場合には自動的にテンプレートを再作成するため、
安定して精度の良いパターンマッチング結果が得られ、
図12に示したような立体画像表示装置などの表示制御
に好適に用いることができる。
As described above, by using the retinal reflection image by infrared light, which can obtain high-precision information as viewpoint position information at the time of template creation, the irradiation time of infrared light can be suppressed to a minimum, and the observer can be observed. Concerns can also be reduced. Also, if template matching is unsuccessful, the template is automatically recreated,
Stable and accurate pattern matching results are obtained,
It can be suitably used for display control of a stereoscopic image display device as shown in FIG.

【0057】(第2の実施形態)第1の実施形態におい
ては、パターンマッチング結果が失敗に終わった場合に
赤外画像取得からやり直すことにより、高精度で追従性
の良いパターンマッチングを行う構成を説明したが、あ
まり被測定者が動かないような環境においては、定期的
にテンプレートを作り直すことによっても同様の効果が
期待できる。本実施形態においては、この構成について
説明する。
(Second Embodiment) In the first embodiment, when the pattern matching result is unsuccessful, the pattern matching is performed with high accuracy and good tracking by re-starting from the infrared image acquisition. As described above, in an environment where the subject does not move much, the same effect can be expected by periodically recreating the template. In the present embodiment, this configuration will be described.

【0058】図5は、本発明の第2の実施形態に係る視
点位置検出装置の構成を示すブロック図である。本図に
おいても図1と同様に、画像表示部3を接続して立体画
像表示システムを構成した場合を示している。図5にお
いて、第1の実施形態を示す図1と同一の構成要素には
同じ参照数字を付し、その説明は省略する。
FIG. 5 is a block diagram showing a configuration of a viewpoint position detecting device according to a second embodiment of the present invention. This figure also shows a case where the image display unit 3 is connected to form a stereoscopic image display system, similarly to FIG. 5, the same reference numerals are given to the same components as those in FIG. 1 showing the first embodiment, and the description thereof will be omitted.

【0059】本実施形態において、第1の実施形態と異
なるのは、視点位置検出部20が時間計測部27を有し
ている点である。時間計測部27は、いわゆるタイマ手
段であり、所定の時間ごとに信号を発生する。この出力
信号は赤外線発光制御部26へ入力され、それに応答し
て赤外線発光制御部26は赤外光発光部13を制御して
赤外光を発光させる。これにより、システム起動時と同
様の処理が開始される。
The present embodiment differs from the first embodiment in that the viewpoint position detecting section 20 has a time measuring section 27. The time measuring unit 27 is a so-called timer means, and generates a signal at predetermined time intervals. This output signal is input to the infrared light emission control unit 26, and in response, the infrared light emission control unit 26 controls the infrared light emission unit 13 to emit infrared light. As a result, the same processing as when the system is started is started.

【0060】具体的な動作を図6を用いて説明する。図
6は、本実施形態の動作を示すフローチャートである。
図6において、図2と同じ動作を行うステップについて
は同じ参照数字を付し、詳細な説明は省略する。
The specific operation will be described with reference to FIG. FIG. 6 is a flowchart showing the operation of the present embodiment.
6, steps that perform the same operations as those in FIG. 2 are denoted by the same reference numerals, and detailed descriptions thereof will be omitted.

【0061】図6から明らかなように、本実施形態は、
図2に示す処理ステップから、パターンマッチングの成
功を判別するステップ(ステップS17およびステップ
S20)を除去し、時間計測部27の出力有無を判別す
るステップS23を付加したものである。
As is clear from FIG. 6, the present embodiment
The processing step shown in FIG. 2 is different from the processing steps shown in FIG. 2 in that the step of determining the success of the pattern matching (steps S17 and S20) is removed, and the step S23 of determining whether or not the time measuring unit 27 outputs is added.

【0062】システム起動を行うステップS10から、
親テンプレートと可視画像とのパターンマッチングを行
うステップS16までは図2と同様に処理が行われる。
パターンマッチングが終了すると、すぐに視点位置の探
索領域設定処理を行い(ステップS18)、子テンプレ
ートと可視画像のパターンマッチング処理が行われる
(ステップS19)。
From step S10 for starting the system,
The processing is performed in the same manner as in FIG. 2 up to step S16 for performing pattern matching between the parent template and the visible image.
Upon completion of the pattern matching, a search area setting process for the viewpoint position is immediately performed (step S18), and a pattern matching process between the child template and the visible image is performed (step S19).

【0063】ステップS19において子テンプレートと
可視画像のパターンマッチングが終了すると、ステップ
S23において、時間計測部27からの信号出力があっ
たか否かを判別する。出力が検出されなかった場合に
は、ステップS21へ移行し、システム終了の指示があ
るか否かによって次の可視画像の取り込み及びパターン
マッチング処理をくり返すか、システムの終了処理(ス
テップS22)を行う。一方、時間計測部27の信号出
力が検出された場合には、赤外光発光ステップ(ステッ
プS11)へ戻り、再度赤外画像取得から処理を行うこ
とで、子テンプレート及び親テンプレートを更新する。
When the pattern matching between the child template and the visible image is completed in step S19, it is determined in step S23 whether or not a signal has been output from the time measuring unit 27. If no output is detected, the process proceeds to step S21, and depending on whether or not there is an instruction to end the system, the next visible image capture and pattern matching processing are repeated, or the system end processing (step S22) is performed. Do. On the other hand, when the signal output of the time measuring unit 27 is detected, the process returns to the infrared light emission step (step S11), and the processing is performed again from the acquisition of the infrared image, thereby updating the child template and the parent template.

【0064】なお、ステップS16〜S19のパターン
マッチング処理中に時間計測部27からの信号出力があ
った場合には、赤外線発光制御部26が信号出力を検出
したことを例えば内部記憶領域に記憶しておき、子テン
プレートと可視画像のパターンマッチング(ステップS
19)が終了するのを待って赤外光発光部13に赤外光
の発光を指示するとともに、赤外画像からの瞳孔位置検
出を視点位置検出処理部24に指示する。
If there is a signal output from the time measuring unit 27 during the pattern matching process in steps S16 to S19, the fact that the infrared light emission control unit 26 has detected the signal output is stored in, for example, an internal storage area. In advance, pattern matching between the child template and the visible image (step S
After the end of 19), the infrared light emitting unit 13 is instructed to emit infrared light, and the pupil position detection from the infrared image is instructed to the viewpoint position detection processing unit 24.

【0065】また、時間計測部27の信号発生周期は、
画像表示部3の使用環境(観察者が移動しやすいかどう
か、観察者が頻繁に変わるか否か、など)及びテンプレ
ート作成に必要な処理時間などの条件をもとに適宜定め
れば良い。このような構成により、本実施形態に於いて
は簡便な構成により処理速度と検出精度を両立させるこ
とができる。
The signal generation cycle of the time measurement unit 27 is
It may be appropriately determined based on conditions such as the use environment of the image display unit 3 (whether the observer is easy to move, whether the observer changes frequently, and the like) and the processing time required for template creation. With such a configuration, in the present embodiment, it is possible to achieve both processing speed and detection accuracy with a simple configuration.

【0066】(第3の実施形態)本実施形態は、第1の
実施形態と第2の実施形態を組み合わせた処理を行う。
すなわち、パターンマッチングの結果が失敗と判定され
た場合に加え、所定時間毎に強制的にテンプレートの更
新を行う。
(Third Embodiment) In the present embodiment, a process in which the first embodiment and the second embodiment are combined is performed.
That is, in addition to the case where the result of the pattern matching is determined as failure, the template is forcibly updated at predetermined time intervals.

【0067】図7は、本発明の第3の実施形態に係る視
点位置検出装置の構成を示すブロック図である。本図に
おいても図1と同様に、画像表示部3を接続して立体画
像表示システムを構成した場合を示している。図7にお
いて、既に説明した図5と同一の構成要素には同じ参照
数字を付し、その説明は省略する。図7に示す構成と図
5に示した構成とでは、構成要素は共通であり、その接
続関係が異なるのみであるため、構成の説明は省略し、
図8を用いて動作を説明する。
FIG. 7 is a block diagram showing a configuration of a viewpoint position detecting device according to the third embodiment of the present invention. This figure also shows a case where the image display unit 3 is connected to form a stereoscopic image display system, similarly to FIG. 7, the same components as those of FIG. 5 described above are denoted by the same reference numerals, and description thereof will be omitted. The components shown in FIG. 7 and the configuration shown in FIG. 5 have the same components and only differ in the connection relationship.
The operation will be described with reference to FIG.

【0068】図8は、本実施形態における視点位置検出
動作を示すフローチャートである。図2及び図6と同一
動作のステップについては同一参照数字を付し、各ステ
ップの詳細な説明は省略する。図2、図6及び図8の対
比から明らかなように、本実施形態は第1の実施形態
(図2)において、子テンプレートを用いたパターンマ
ッチング後のパターンマッチング結果評価ステップS2
0と、終了指示有無の判別を行うステップS21の間
に、時間計測部の信号出力が検出されたか否かを判定す
るステップS23を付加したことを特徴とする。
FIG. 8 is a flowchart showing a viewpoint position detecting operation in the present embodiment. Steps having the same operations as those in FIGS. 2 and 6 are denoted by the same reference numerals, and detailed description of each step is omitted. As is clear from the comparison between FIGS. 2, 6, and 8, the present embodiment differs from the first embodiment (FIG. 2) in that a pattern matching result evaluation step S2 after pattern matching using a child template is performed.
A step S23 for determining whether or not a signal output of the time measuring unit has been detected is added between 0 and step S21 for determining the presence or absence of the end instruction.

【0069】このステップS23の付加により、2つの
パターンマッチング結果評価ステップS17及びS20
のいずれかでパターンマッチングが失敗と評価された場
合に加え、パターンマッチングが失敗しなくても時間計
測部27の信号出力周期毎にテンプレートの更新(作
成)処理が行われるようになる。その結果、テンプレー
トが定期的に最適化されることになり、さらに精度の高
い位置検出が実現できる。
With the addition of step S23, two pattern matching result evaluation steps S17 and S20 are performed.
In addition to the case where the pattern matching is evaluated as failed in any of the above, the template updating (creation) processing is performed for each signal output cycle of the time measuring unit 27 even if the pattern matching does not fail. As a result, the template is periodically optimized, and more accurate position detection can be realized.

【0070】(第4の実施形態)上述の通り、赤外画像
を用いた視点位置検出は、網膜の近赤外線反射特性を利
用したものである。通常人間の顔面には赤外線を(網膜
のように)反射する部分はないが、眼鏡をかけている観
察者など、赤外線を反射しうる物体を顔面あるいは前頭
部などの撮影範囲に装着している場合には、赤外画像上
に3つ以上の反射像が検出されたり、非常に大きな反射
像が検出される場合が起こりうる。このような赤外画像
からは視点位置が検出できなかったり、検出はできても
誤差が大きい、あるいは正しくない視点位置となること
がある。
(Fourth Embodiment) As described above, the viewpoint position detection using an infrared image utilizes the near-infrared reflection characteristics of the retina. Normally, the human face does not reflect infrared rays (like the retina), but an object that can reflect infrared rays, such as an observer wearing spectacles, is attached to the face or the forehead or other shooting area. In this case, three or more reflected images may be detected on the infrared image, or a very large reflected image may be detected. The viewpoint position may not be detected from such an infrared image, or even if the detection is possible, the error is large or the viewpoint position may be incorrect.

【0071】上述の実施形態に於いてはいずれも赤外画
像からの視点位置検出処理において、2つの反射像が鮮
明に検出されることを前提としているため、検出が失敗
した場合には無条件で何度でも赤外画像の取得及び取得
した赤外画像からの視点位置検出処理(図2、図6また
は図8のステップS11〜S12)をくり返すように構
成されている。
In each of the above embodiments, it is assumed that the two reflected images are clearly detected in the viewpoint position detection processing from the infrared image. Thus, the infrared image acquisition and the viewpoint position detection processing (steps S11 to S12 in FIG. 2, FIG. 6, or FIG. 8) from the acquired infrared image are repeated as many times as necessary.

【0072】しかしながら、実際には眼鏡による反射な
どが原因で、何度処理を行っても赤外画像から正常な視
点位置検出ができないことが発生しうる。そのため、本
実施形態は、赤外画像からの視点位置検出が所定回連続
して失敗した場合には、観察者が眼鏡をかけているなど
の理由により、赤外光による視点位置検出が正常に行え
る可能性が低いと判断して、可視画像情報のみからテン
プレートの作成を行うようにしたことを特徴とする。
However, in practice, it is possible that a normal viewpoint position cannot be detected from the infrared image even if the processing is performed many times due to reflection by eyeglasses or the like. Therefore, in the present embodiment, when the viewpoint position detection from the infrared image fails consecutively for a predetermined number of times, the viewpoint position detection by the infrared light is normally performed due to the reason that the observer wears glasses. It is characterized in that it is determined that the possibility of performing the template is low, and the template is created only from the visible image information.

【0073】本実施形態に係る視点位置検出装置の構成
は、図1に示す構成と同一でよいため、各構成要素の説
明は省略し、図9を用いて動作について説明する。図9
は、本実施形態に係る視点位置検出装置の動作を示すフ
ローチャートである。図において、図2と同一処理のス
テップについては同一の参照数字を付し、そのステップ
についての詳細な説明は省略する。また、以下の説明で
は、赤外画像からの視点位置検出が4回連続して失敗し
た場合に赤外画像からの視点位置検出を断念する場合を
例に説明する。
The configuration of the viewpoint position detecting device according to the present embodiment may be the same as the configuration shown in FIG. 1, so that the description of each component is omitted, and the operation will be described with reference to FIG. FIG.
5 is a flowchart illustrating an operation of the viewpoint position detecting device according to the present embodiment. In the figure, the same reference numerals are given to the steps of the same processing as in FIG. 2, and the detailed description of the steps is omitted. In the following description, a case will be described as an example where the viewpoint position detection from the infrared image is abandoned when the viewpoint position detection from the infrared image has failed four consecutive times.

【0074】図9に示すように、本実施形態は図2に示
した第1の実施形態における動作に対し、ステップS2
4〜S26の処理を付加したものである。システムの起
動から赤外画像による視点位置検出結果の評価ステップ
(ステップS13)までは実施形態1と同一の処理を行
う。
As shown in FIG. 9, this embodiment differs from the operation of the first embodiment shown in FIG.
4 to S26 are added. The same processing as in the first embodiment is performed from the activation of the system to the evaluation step of the viewpoint position detection result based on the infrared image (step S13).

【0075】ステップS13において、赤外画像からの
視点位置検出が成功した場合は、ステップS14へ移行
し、その後実施形態1と同様に処理が行われる。一方、
ステップS13において視点位置検出が失敗したと判断
された場合は、連続した失敗した回数が所定回数(この
場合は4回)に達したか否かを判別する(ステップS2
4)。連続して失敗した回数は、例えば視点位置検出処
理部24が内部記憶装置に記憶しておく。連続失敗回数
が所定回数未満であれば、赤外画像の取得ステップ(ス
テップS11)へ戻り、再度赤外画像からの視点位置検
出を試みる。
If the detection of the viewpoint position from the infrared image has succeeded in step S13, the process proceeds to step S14, and the same processing as in the first embodiment is performed. on the other hand,
If it is determined in step S13 that the viewpoint position detection has failed, it is determined whether the number of consecutive failures has reached a predetermined number (four in this case) (step S2).
4). For example, the viewpoint position detection processing unit 24 stores the number of consecutive failures in the internal storage device. If the number of consecutive failures is less than the predetermined number, the process returns to the infrared image acquisition step (step S11), and the viewpoint position detection from the infrared image is attempted again.

【0076】一方、連続失敗回数が所定回数(本実施形
態では4回)に達した場合には、赤外画像からの視点位
置検出を断念し、可視画像のみからテンプレートを作成
する。すなわち、図示しない制御部は、テンプレート作
成部23に対し、可視画像記憶部21に取り込んだ画像
データに画像処理を行って領域の抽出、テンプレートの
作成を行うよう指示する。この場合、赤外画像から視点
位置情報が得られないため、テンプレートの作成は親テ
ンプレートから先に行う。具体的には、まず顔の輪郭を
検出し、親テンプレートを作成する(ステップS2
5)。ついで、親テンプレートの右領域、左領域内で目
領域を探索し、子テンプレートを作成する(ステップS
26)。以下、ステップS16へ移行し、パターンマッ
チング以降の処理は第1の実施形態と同様に行う。
On the other hand, when the number of consecutive failures reaches a predetermined number (four in this embodiment), the viewpoint position detection from the infrared image is abandoned, and a template is created only from the visible image. That is, the control unit (not shown) instructs the template creation unit 23 to perform image processing on the image data taken into the visible image storage unit 21 to extract a region and create a template. In this case, since the viewpoint position information cannot be obtained from the infrared image, the template is created first from the parent template. Specifically, first, the outline of the face is detected, and a parent template is created (step S2).
5). Next, an eye area is searched in the right area and the left area of the parent template to create a child template (step S).
26). Thereafter, the process proceeds to step S16, and the processes after the pattern matching are performed in the same manner as in the first embodiment.

【0077】本実施形態においてはパターンマッチング
結果の評価ステップ(ステップS17及びステップS2
0)において、パターンマッチングが失敗したと評価さ
れた場合には再度赤外画像の取得からやり直す場合を示
したが、例えば連続4回失敗して可視画像のみからテン
プレートを作成した場合には、ステップS11へ戻ら
ず、ステップS25からやり直すように構成したり、パ
ターンマッチングの連続失敗回数をカウントし、所定回
数を超えた場合にのみ赤外画像の取得からやり直すよう
に構成しても良い。
In this embodiment, the step of evaluating the pattern matching result (steps S17 and S2)
In (0), the case where it is evaluated that the pattern matching has failed has been described, and the case where the processing is started again from the acquisition of the infrared image has been described. Instead of returning to S11, the system may be configured to start over from step S25, or may be configured to count the number of consecutive failures in pattern matching and start over from the acquisition of the infrared image only when the number exceeds a predetermined number.

【0078】以上説明したように、本実施形態によれ
ば、現実に起こりうる問題に対して、的確に対処するこ
とができ、視点位置検出ができないという最悪の事態を
回避することができる。
As described above, according to the present embodiment, it is possible to appropriately deal with a problem that may actually occur, and to avoid the worst case where the viewpoint position cannot be detected.

【0079】(第5の実施形態)第4の実施形態では、
被測定者が眼鏡をかけている等の理由により、赤外画像
からの視点位置検出が困難な場合に、可視画像のみから
2つのテンプレートを作成するようにしていたが、本実
施形態においては、赤外画像の情報を用いて1つのテン
プレートを作成することを特徴とする。本実施形態に係
る視点位置検出装置の構成は、図1に示す構成と同一で
よいため、各構成要素の説明は省略し、図10を用いて
動作について説明する。
(Fifth Embodiment) In the fourth embodiment,
In the case where it is difficult to detect the viewpoint position from the infrared image, for example, because the subject wears glasses, two templates are created from only the visible image, but in the present embodiment, It is characterized in that one template is created using the information of the infrared image. Since the configuration of the viewpoint position detecting device according to the present embodiment may be the same as the configuration shown in FIG. 1, the description of each component will be omitted, and the operation will be described with reference to FIG.

【0080】図10は、本実施形態に係る視点位置検出
装置の動作を示すフローチャートである。図において、
図2と同一処理のステップについては同一の参照数字を
付し、そのステップについての詳細な説明は省略する。
また、以下の説明では、第4の実施形態と同様、赤外画
像からの視点位置検出が4回連続して失敗した場合に赤
外画像からの視点位置検出を断念する場合を例に説明す
る。図10に示すように、本実施形態は図9に示した第
4の実施形態における動作に対し、ステップS30〜S
33の処理を付加したものである。システムの起動から
赤外画像による視点位置検出結果の評価ステップ(ステ
ップS13)までは実施形態1と同一の処理を行う。
FIG. 10 is a flowchart showing the operation of the viewpoint position detecting device according to this embodiment. In the figure,
Steps of the same processing as in FIG. 2 are denoted by the same reference numerals, and detailed description of the steps is omitted.
Further, in the following description, as in the fourth embodiment, a case will be described as an example where the viewpoint position detection from the infrared image is abandoned when the viewpoint position detection from the infrared image has failed four consecutive times. . As shown in FIG. 10, the present embodiment differs from the operation in the fourth embodiment shown in FIG.
33 is added. The same processing as in the first embodiment is performed from the activation of the system to the evaluation step of the viewpoint position detection result based on the infrared image (step S13).

【0081】ステップS13において、赤外画像からの
視点位置検出が成功した場合は、ステップS14へ移行
し、その後実施形態1と同様に処理が行われる。一方、
ステップS13において視点位置検出が失敗したと判断
された場合は、連続した失敗した回数が所定回数(この
場合は4回)に達したか否かを判別する(ステップS2
4)。連続して失敗した回数は、例えば視点位置検出処
理部24が内部記憶装置に記憶しておく。連続失敗回数
が所定回数未満であれば、赤外画像の取得ステップ(ス
テップS11)へ戻り、再度赤外画像からの視点位置検
出を試みる。
If the detection of the viewpoint position from the infrared image is successful in step S13, the process proceeds to step S14, and the same processing as in the first embodiment is performed. on the other hand,
If it is determined in step S13 that the viewpoint position detection has failed, it is determined whether the number of consecutive failures has reached a predetermined number (four in this case) (step S2).
4). For example, the viewpoint position detection processing unit 24 stores the number of consecutive failures in the internal storage device. If the number of consecutive failures is less than the predetermined number, the process returns to the infrared image acquisition step (step S11), and the viewpoint position detection from the infrared image is attempted again.

【0082】一方、連続失敗回数が所定回数(本実施形
態では4回)に達した場合には、赤外画像からの視点位
置検出を断念し、赤外画像から得られる情報を用いて可
視画像からテンプレートを作成する。これは、例えば被
測定者が眼鏡をかけており、眼鏡のフレームやレンズの
反射によって赤外画像からの視点位置検出ができない場
合であっても、眼鏡は目の位置に存在するものであり、
その反射像の中に視点が存在する可能性が高いため、テ
ンプレートを作成する際の基点位置情報として有用と考
えられることによる。
On the other hand, when the number of consecutive failures reaches a predetermined number (four in this embodiment), the viewpoint position detection from the infrared image is abandoned, and the visual image is detected using information obtained from the infrared image. Create a template from. This means, for example, that the subject is wearing spectacles, and even if the viewpoint position cannot be detected from the infrared image due to the reflection of the spectacle frame or lens, the spectacles are present at the position of the eyes,
Because there is a high possibility that the viewpoint exists in the reflection image, it is considered that it is useful as base point position information when creating a template.

【0083】そのため、本実施形態においては、視点位
置検出処理部24が、赤外画像に含まれる全ての反射光
を含む領域の重心を算出し、テンプレート作成部23が
この重心を基点として可視画像からテンプレートを作成
する(ステップS30)。この際、第4の実施形態にお
いては親テンプレートと子テンプレートの両方を作成し
たが、本実施形態で作成するテンプレートは1つであ
る。テンプレートの大きさは、例えば全ての反射光を含
む領域の横幅、縦幅等の情報から決定する。テンプレー
トを作成したら、テンプレート中の視点があると思われ
る位置を推定し、左眼、右眼の視点位置とする。
For this reason, in the present embodiment, the viewpoint position detection processing section 24 calculates the center of gravity of the area including all the reflected lights included in the infrared image, and the template creating section 23 uses the center of gravity as a base point for the visible image. (Step S30). At this time, both the parent template and the child template are created in the fourth embodiment, but one template is created in the present embodiment. The size of the template is determined, for example, from information such as the horizontal width and the vertical width of the area including all the reflected light. After the template is created, a position in the template where the viewpoint is considered to be present is estimated, and the viewpoint positions of the left eye and the right eye are set.

【0084】テンプレートの作成が終了したら、そのテ
ンプレートを用いて可視画像とのパターンマッチングを
行う(ステップS32)。パターンマッチングが成功と
判断され、ステップS33で終了処理の指示がない場合
には、ステップS31へ戻って処理を継続する。一方、
ステップS32においてパターンマッチングが失敗と判
断された場合にはステップS11へ戻って赤外画像の取
得から再度行う。本実施形態の場合、もともと高精度な
パターンマッチング結果は期待できないため、ステップ
S32におけるパターンマッチング結果の評価基準を赤
外画像から正確な視点位置検出が可能な実施形態1にお
ける判断基準より多少甘くする等変更してもよい。
When the creation of the template is completed, pattern matching with the visible image is performed using the template (step S32). If it is determined that the pattern matching is successful and there is no instruction for the end processing in step S33, the process returns to step S31 to continue the processing. on the other hand,
If it is determined in step S32 that the pattern matching has failed, the process returns to step S11 to start again from the acquisition of the infrared image. In the case of the present embodiment, since a highly accurate pattern matching result cannot be expected from the beginning, the evaluation criterion of the pattern matching result in step S32 is set somewhat looser than the criterion in the first embodiment that enables accurate viewpoint position detection from an infrared image. Etc. may be changed.

【0085】本実施形態においてはパターンマッチング
結果の評価ステップ(ステップS32)において、パタ
ーンマッチングが失敗したと評価された場合には再度赤
外画像の取得からやり直す場合を示したが、例えば連続
4回失敗して赤外画像の情報を用いてテンプレートを作
成した場合には、ステップS11へ戻らず、ステップS
30からやり直すように構成したり、パターンマッチン
グの連続失敗回数をカウントし、所定回数を超えた場合
にのみ赤外画像の取得からやり直すように構成しても良
い。
In this embodiment, in the step of evaluating the pattern matching result (step S32), when it is evaluated that the pattern matching has failed, the case where the processing is started again from the acquisition of the infrared image is shown. If the template is created using the information of the infrared image due to a failure, the process does not return to step S11 but proceeds to step S11.
Alternatively, the system may be configured to start over from 30 or to start from the acquisition of the infrared image only when the number of consecutive failures in pattern matching is counted and the number of times exceeds a predetermined number.

【0086】以上説明したように、本実施形態によれ
ば、現実に起こりうる問題に対して、的確に対処するこ
とができ、視点位置検出ができないという最悪の事態を
回避することができる。
As described above, according to the present embodiment, it is possible to appropriately deal with a problem that can actually occur, and to avoid the worst case where the viewpoint position cannot be detected.

【0087】[0087]

【その他の実施形態】上述の実施形態においては、いず
れも視点位置検出のイニシアチブは本発明の視点位置検
出装置が持っている場合を説明したが、例えば画像表示
部3を付加した立体画像表示システムとして使用する場
合には、画像表示部3またはリモートコントローラにユ
ーザが操作できるボタン等を設け、ユーザが立体表示を
認識しにくくなった場合にこのボタンを押すことによ
り、赤外画像取得動作に始まる視点位置検出動作をやり
直すように構成することもできる。このような構成とす
ることにより、的確なタイミングでテンプレートの更新
が行われ、より高精度の視点位置検出が可能となり、結
果として立体視可能な範囲が広い立体画像表示システム
を実現することができる。
[Other Embodiments] In the above embodiments, the case where the viewpoint position detection initiative of the present invention has the initiative of viewpoint position detection has been described. When the image display unit 3 or the remote controller is used, a button or the like that can be operated by the user is provided, and when the user has difficulty in recognizing the stereoscopic display, the user presses this button to start the infrared image acquisition operation. It is also possible to configure so that the viewpoint position detecting operation is redone. With such a configuration, the template is updated at an accurate timing, and the viewpoint position detection can be performed with higher accuracy. As a result, a stereoscopic image display system with a wide stereoscopic view range can be realized. .

【0088】また、赤外光を発光する際に、画像表示部
3の輝度や観察者までの距離に応じてその発光量を変化
させたり、赤外画像からの視点検出が失敗してやり直す
際には前回と発光量を変化させる(強くする、あるいは
弱くする)こともできる。このような発光量の制御は、
赤外画像からの視点検出を成功させる確率を高め、結果
として高精度な視点位置検出結果を得ることにつなが
る。
When the infrared light is emitted, the amount of the emitted light may be changed in accordance with the brightness of the image display unit 3 or the distance to the observer. In (2), the light emission amount can be changed (increased or decreased) from the previous time. Such control of the light emission amount
The probability of successful viewpoint detection from the infrared image is increased, which results in obtaining a highly accurate viewpoint position detection result.

【0089】また、上述の実施形態では本発明による視
点位置検出装置の検出結果を立体画像表示装置に供給す
る場合を例にして説明したが、本発明による視点位置検
出装置は、任意の用途に用いることができる。
Further, in the above-described embodiment, the case where the detection result of the viewpoint position detecting device according to the present invention is supplied to the stereoscopic image display device has been described as an example. However, the viewpoint position detecting device according to the present invention is applicable to any application. Can be used.

【0090】また、上述の実施形態において説明した具
体的な手法、例えばパターンマッチングの方法、テンプ
レート作成の方法等は、実施形態において説明した者に
限定されるものではなく、同等に適用可能な方法を用い
ても良いことはいうまでもない。
Further, the specific methods described in the above embodiments, such as the pattern matching method and the template creation method, are not limited to those described in the embodiments, but may be equally applicable. It is needless to say that may be used.

【0091】上述の実施形態においては、ピンポイント
の座標である視点位置を出力するように構成されていた
が、例えば上述の実施形態のように最終的に得られる視
点位置を立体画像表示装置の制御に用いる場合であれ
ば、右眼と左眼の視点位置の中心位置がわかれば最低限
の制御は可能であるため、テンプレートの中心位置を画
像表示部3へ出力するようにしても良い。特に実施形態
4及び5で説明したような、赤外画像から正確な視点位
置情報が得られない場合にはこのような構成は有効であ
る。
In the above-described embodiment, the viewpoint position, which is the coordinate of the pinpoint, is configured to be output. However, for example, as in the above-described embodiment, the viewpoint position finally obtained is determined by the three-dimensional image display device. In the case of using for control, since the minimum control is possible if the center position of the viewpoint positions of the right eye and the left eye is known, the center position of the template may be output to the image display unit 3. In particular, when accurate viewpoint position information cannot be obtained from an infrared image as described in the fourth and fifth embodiments, such a configuration is effective.

【0092】また、赤外画像からの視点位置検出が困難
な場合、他の方法に切り替える実施形態4及び5のよう
な場合には、例えば被測定者が眼鏡をかけていることを
本発明の視点位置検出装置に指示する手段(ボタンな
ど)を設け、このボタンが押された場合には初めから代
替えステップに移行するように構成しても良い。この場
合、実施形態4においては図9におけるステップS10
から可視画像を取得し、直接ステップS25へ移行、あ
るいはステップS13で赤外光からの視点位置検出が最
初に失敗と判断された時点でステップS25へ移行する
ように構成すればよい。同様に、実施形態5ではステッ
プS11で赤外画像を取得し、直接ステップS30へ移
行、あるいはステップS13で赤外光からの視点位置検
出が最初に失敗と判断された時点でステップS30へ移
行するように構成すればよい。
Further, when it is difficult to detect the viewpoint position from the infrared image, in the case of Embodiments 4 and 5 in which the method is switched to another method, for example, it is assumed that the subject is wearing glasses. A means (such as a button) for instructing the viewpoint position detecting device may be provided so that when this button is pressed, the process shifts to the substitution step from the beginning. In this case, in the fourth embodiment, step S10 in FIG.
May be configured to directly acquire the visible image from step S <b> 25 and proceed to step S <b> 25, or proceed to step S <b> 25 when it is determined in step S <b> 13 that the viewpoint position detection from the infrared light has first failed. Similarly, in the fifth embodiment, an infrared image is acquired in step S11, and the process directly proceeds to step S30, or proceeds to step S30 when it is determined that the viewpoint position detection from infrared light has failed for the first time in step S13. It may be configured as follows.

【0093】なお、本発明は、複数の機器(例えばホス
トコンピュータ、インタフェイス機器、リーダ、プリン
タなど)から構成されるシステムに適用しても、一つの
機器からなる装置(例えば、複写機、ファクシミリ装置
など)に適用してもよい。
The present invention can be applied to a system including a plurality of devices (for example, a host computer, an interface device, a reader, a printer, etc.), and can be applied to a single device (for example, a copier, a facsimile). Device).

【0094】また、本発明の目的は、前述した実施形態
の機能を実現するソフトウェアのプログラムコードを記
録した記憶媒体(または記録媒体)を、システムあるい
は装置に供給し、そのシステムあるいは装置のコンピュ
ータ(またはCPUやMPU)が記憶媒体に格納されたプログ
ラムコードを読み出し実行することによっても、達成さ
れることは言うまでもない。
Further, an object of the present invention is to supply a storage medium (or a recording medium) in which a program code of software for realizing the functions of the above-described embodiments is recorded to a system or an apparatus, and to provide the computer (or computer) of the system or the apparatus It is needless to say that the present invention can also be achieved by a CPU or an MPU) reading and executing the program code stored in the storage medium.

【0095】この場合、記憶媒体から読み出されたプロ
グラムコード自体が前述した実施形態の機能を実現する
ことになり、そのプログラムコードを記憶した記憶媒体
は本発明を構成することになる。また、コンピュータが
読み出したプログラムコードを実行することにより、前
述した実施形態の機能が実現されるだけでなく、そのプ
ログラムコードの指示に基づき、コンピュータ上で稼働
しているオペレーティングシステム(OS)などが実際の処
理の一部または全部を行い、その処理によって前述した
実施形態の機能が実現される場合も含まれることは言う
までもない。
In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiment, and the storage medium storing the program code constitutes the present invention. By executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also an operating system (OS) running on the computer based on the instruction of the program code. It goes without saying that a case where some or all of the actual processing is performed and the functions of the above-described embodiments are realized by the processing is also included.

【0096】さらに、記憶媒体から読み出されたプログ
ラムコードが、コンピュータに挿入された機能拡張カー
ドやコンピュータに接続された機能拡張ユニットに備わ
るメモリに書込まれた後、そのプログラムコードの指示
に基づき、その機能拡張カードや機能拡張ユニットに備
わるCPUなどが実際の処理の一部または全部を行い、そ
の処理によって前述した実施形態の機能が実現される場
合も含まれることは言うまでもない。
Further, after the program code read from the storage medium is written into the memory provided in the function expansion card inserted into the computer or the function expansion unit connected to the computer, the program code is read based on the instruction of the program code. Needless to say, the CPU included in the function expansion card or the function expansion unit performs part or all of the actual processing, and the processing realizes the functions of the above-described embodiments.

【0097】本発明を上記記憶媒体に適用する場合、そ
の記憶媒体には、先に説明した(図2、図6、図8〜図
10のいずれかに示す)フローチャートに対応するプロ
グラムコードが格納されることになる。
When the present invention is applied to the storage medium, the storage medium stores program codes corresponding to the above-described flowcharts (shown in FIGS. 2, 6, 8 to 10). Will be done.

【0098】[0098]

【発明の効果】以上説明したように、本発明によれば、
観察者の視点位置を検出して視点位置情報を出力する視
点位置検出装置において、初期のテンプレート作成に赤
外画像を利用し、その後は可視画像のパターンマッチン
グを行う構成とすることにより、赤外光を連続して観察
者に照射する必要がなく、観察者への影響懸念を最小限
とすることができる上、短時間で精度の高い赤外画像か
らの位置検出情報を用いてテンプレートを作成すること
ができるため、テンプレート作成処理が軽減され、かつ
精度の高いテンプレートを作成することができる。
As described above, according to the present invention,
In a viewpoint position detection device that detects a viewpoint position of an observer and outputs viewpoint position information, an infrared image is used for initial template creation, and thereafter, a pattern matching of a visible image is performed. It is not necessary to continuously irradiate light to the observer, minimizing concerns about the influence on the observer, and creating a template using highly accurate position detection information from an infrared image in a short time Therefore, the template creation process can be reduced, and a template with high accuracy can be created.

【0099】また、観察者が変わったり、大きく移動し
た場合など、可視画像のパターンマッチングに失敗した
場合や、定期的にテンプレートを更新するように構成す
ることにより、常に精度の高いテンプレートを維持する
ことが可能となり、結果として高精度な視点位置情報が
安定して得られるという効果を有する。
Further, when the pattern matching of the visible image fails, such as when the observer changes or moves greatly, or by updating the template periodically, a template with high accuracy is always maintained. As a result, there is an effect that highly accurate viewpoint position information can be stably obtained.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第1実施形態に係る視点位置検出装置
の構成を示すブロック図である。
FIG. 1 is a block diagram illustrating a configuration of a viewpoint position detecting device according to a first embodiment of the present invention.

【図2】本発明の第1実施形態の動作を説明するフロー
チャートである。
FIG. 2 is a flowchart illustrating the operation of the first embodiment of the present invention.

【図3】赤外光により得られる画像の例を示す図であ
る。
FIG. 3 is a diagram illustrating an example of an image obtained by infrared light.

【図4】本発明の実施形態において用いるテンプレート
の構成を説明する図である。
FIG. 4 is a diagram illustrating a configuration of a template used in the embodiment of the present invention.

【図5】本発明の第2実施形態に係る視点位置検出装置
の構成を示すブロック図である。
FIG. 5 is a block diagram illustrating a configuration of a viewpoint position detecting device according to a second embodiment of the present invention.

【図6】本発明の第2実施形態の動作を説明するフロー
チャートである。
FIG. 6 is a flowchart illustrating the operation of the second embodiment of the present invention.

【図7】本発明の第3実施形態に係る視点位置検出装置
の構成を示すブロック図である。
FIG. 7 is a block diagram illustrating a configuration of a viewpoint position detecting device according to a third embodiment of the present invention.

【図8】本発明の第3実施形態の動作を説明するフロー
チャートである。
FIG. 8 is a flowchart illustrating the operation of the third embodiment of the present invention.

【図9】本発明の第4実施形態の動作を説明するフロー
チャートである。
FIG. 9 is a flowchart illustrating the operation of the fourth embodiment of the present invention.

【図10】本発明の第5実施形態の動作を説明するフロ
ーチャートである。
FIG. 10 is a flowchart illustrating the operation of the fifth embodiment of the present invention.

【図11】リアクロスレンチキュラ方式の立体画像表示
装置の構成を示す斜視図である。
FIG. 11 is a perspective view showing a configuration of a rear cross lenticular type stereoscopic image display device.

【図12】視点位置により表示制御を行う立体画像表示
装置の例を示す斜視図である。
FIG. 12 is a perspective view illustrating an example of a stereoscopic image display device that performs display control according to a viewpoint position.

─────────────────────────────────────────────────────
────────────────────────────────────────────────── ───

【手続補正書】[Procedure amendment]

【提出日】平成12年3月24日(2000.3.2
4)
[Submission date] March 24, 2000 (200.3.2.
4)

【手続補正1】[Procedure amendment 1]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】全文[Correction target item name] Full text

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【書類名】 明細書[Document Name] Statement

【発明の名称】 視点位置検出装置、方法及び立体画像
表示システム
Patent application title: Viewpoint position detecting device, method and stereoscopic image display system

【特許請求の範囲】[Claims]

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明が属する技術分野】本発明は被測定者の視点位置
を検出する視点検出装置及び視点検出方法に関し、特に
高速処理と高検出精度とを両立した視点検出装置及び視
点検出方法に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a viewpoint detection apparatus and a viewpoint detection method for detecting a viewpoint position of a person to be measured, and more particularly to a viewpoint detection apparatus and a viewpoint detection method that achieve both high-speed processing and high detection accuracy. .

【0002】[0002]

【従来の技術】従来、裸眼による立体視が可能ないわゆ
る立体画像表示装置がある。立体画像表示装置には種々
の方式があるが、例えば特開平09−311294号公
報には、リアクロスレンチキュラ方式のものが開示され
ている。図11はリアクロスレンチキュラ方式の立体画
像表示装置の例を示す要部斜視図である。図中、6は画
像表示用のディスプレイデバイスであり、例えば液晶素
子(LCD)で構成する。図は、偏光板、カラーフィル
ター、電極、ブラックマトリクス、反射防止膜などは省
略してある。
2. Description of the Related Art Conventionally, there is a so-called stereoscopic image display device capable of stereoscopic viewing with the naked eye. There are various types of stereoscopic image display devices. For example, JP-A-09-31294 discloses a rear cross lenticular type. FIG. 11 is a perspective view of an essential part showing an example of a rear cross lenticular type stereoscopic image display device. In the figure, reference numeral 6 denotes a display device for displaying images, which is constituted by, for example, a liquid crystal element (LCD). In the figure, a polarizing plate, a color filter, an electrode, a black matrix, an antireflection film, and the like are omitted.

【0003】10は照明光源となるバックライト(面光
源)である。ディスプレイデバイス6とバックライト1
0の間には、市松状の開口8を備えたマスクパターンを
形成したマスク基板(マスク)7を配置している。マス
クパターンはガラスまたは樹脂からなるマスク基板7上
にクロムなどの金属蒸着膜または光吸収材等をパターニ
ングして製作している。バックライト10、マスク基板
7等は光源の一要素を構成している。
[0003] Reference numeral 10 denotes a backlight (surface light source) serving as an illumination light source. Display device 6 and backlight 1
Between 0, a mask substrate (mask) 7 on which a mask pattern having a checkered opening 8 is formed is arranged. The mask pattern is manufactured by patterning a metal deposited film such as chromium or a light absorbing material on a mask substrate 7 made of glass or resin. The backlight 10, the mask substrate 7, and the like constitute one element of the light source.

【0004】マスク基板7とディスプレイデバイス6の
間には、透明樹脂またはガラス製の第1のレンチキュラ
レンズ3及び第2のレンチキュラレンズ4を配置してい
る。第1のレンチキュラレンズ3は垂直方向に長い縦シ
リンドリカルレンズを左右方向に並べて構成した縦シリ
ンドリカルレンズアレイであり、第2のレンチキュラレ
ンズ4は水平方向に長い横シリンドリカルレンズを上下
方向に並べて構成した横シリンドリカルレンズアレイで
ある。
A first lenticular lens 3 and a second lenticular lens 4 made of transparent resin or glass are arranged between the mask substrate 7 and the display device 6. The first lenticular lens 3 is a vertical cylindrical lens array formed by arranging vertically long vertical cylindrical lenses in the left-right direction, and the second lenticular lens 4 is formed by arranging vertically long horizontal cylindrical lenses in the horizontal direction. It is a cylindrical lens array.

【0005】ディスプレイデバイス6に表示する画像は
図示するように左右の視差画像R及びLを夫々上下方向
に多数の横ストライプ状の横ストライプ画素R,Lに分
割し、それらを例えば画面上からLRLRLR・・・・
と交互に並べて1つの画像に構成した横ストライプ画像
である。
As shown in the figure, the image displayed on the display device 6 divides the left and right parallax images R and L into a large number of horizontal stripe pixels R and L in the vertical direction, and divides them into, for example, LRLLRLR from the screen. ...
And a horizontal stripe image alternately arranged to form one image.

【0006】バックライト10からの光はマスク基板7
の各開口8を透過してディスプレイデバイス6を照明
し、観察者の両眼に左右のストライプ画素R,Lが分離
して観察される。
The light from the backlight 10 is applied to the mask substrate 7
Then, the display device 6 is illuminated through each of the openings 8, and the left and right stripe pixels R and L are separately observed by both eyes of the observer.

【0007】すなわち、マスク基板7はバックライト1
0により照明され、開口8から光が出射する。マスク基
板7の観察者側には第1のレンチキュラレンズ3を配置
しており、その各シリンドリカルレンズのほぼ焦点位置
にマスク基板7がくるようにレンズ曲率を設計してい
る。この断面においては第2のレンチキュラレンズ4は
光学的に何の作用もしないので、開口8上の1点から射
出する光束はこの断面内では略平行光束に変換される。
That is, the mask substrate 7 is
0 illuminates, and light exits from the aperture 8. The first lenticular lens 3 is arranged on the observer side of the mask substrate 7, and the lens curvature is designed so that the mask substrate 7 is almost at the focal position of each cylindrical lens. In this cross section, the second lenticular lens 4 has no optical effect, so that the light beam emitted from one point on the opening 8 is converted into a substantially parallel light beam in this cross section.

【0008】マスクパターンの一対の開口部と遮光部は
略第1のレンチキュラレンズ3の1ピッチに対応するよ
うに設定している。
The pair of openings and light-shielding portions of the mask pattern are set to substantially correspond to one pitch of the first lenticular lens 3.

【0009】また、観察者の所定の位置から第1のレン
チキュラレンズ3までの光学的距離と第1のレンチキュ
ラレンズ3からマスクパターンまでの光学的距離の関係
を元に、第1のレンチキュラレンズ3のピッチとマスク
パターンの一対の開口部と遮光部のピッチを定めること
によって、画面の全幅にわたって、開口部8からの光が
一様に左眼又は右眼に集まるようにすることができる。
このようにしてディスプレイデバイス6上の左右のスト
ライプ画素が水平方向に左眼、右眼の領域に分離して観
察される。
Further, based on the relationship between the optical distance from a predetermined position of the observer to the first lenticular lens 3 and the optical distance from the first lenticular lens 3 to the mask pattern, the first lenticular lens 3 is formed. By determining the pitch of the mask pattern and the pitch of the pair of openings and the light-shielding portion of the mask pattern, light from the openings 8 can be uniformly collected to the left eye or the right eye over the entire width of the screen.
In this way, the left and right stripe pixels on the display device 6 are observed separately in the horizontal direction into the left eye and right eye regions.

【0010】第2のレンチキュラーレンズ4は、マスク
7の開口8上の各点から発する光束を、すべてディスプ
レイデバイス6の右目又は左目用ストライプ画素上に集
光して、これを照明、透過して上下方向にのみ集光時の
NAに応じて発散し、観察者の所定の眼の高さから画面
の上下方向の全幅にわたって左右のストライプ画素を一
様に分離して見える観察領域を与えている。
The second lenticular lens 4 condenses all light beams emitted from each point on the opening 8 of the mask 7 on the right-eye or left-eye stripe pixel of the display device 6, illuminates and transmits the same. It diverges only in the vertical direction according to the NA at the time of condensing, and provides an observation area in which the left and right stripe pixels are uniformly separated from the predetermined eye height of the observer over the entire vertical width of the screen. .

【0011】しかしながら、このような立体画像表示装
置の視野角は狭く、観察者の視点が視野角からはずれる
と立体表示が認識されなくなる。そのため、観察者の視
点位置を検出して、視点位置の移動に応答して画像表示
を制御することにより、立体視が可能な領域を拡大する
技術が提案されている。例えば、特開平10−2323
67号公報には、マスクパターン又はレンチキュラレン
ズを表示面に平行移動させて、立体視可能な領域を拡大
する技術が開示されている。
However, the viewing angle of such a stereoscopic image display device is narrow, and if the observer's viewpoint deviates from the viewing angle, the stereoscopic display cannot be recognized. Therefore, there has been proposed a technique of detecting a viewpoint position of an observer and controlling image display in response to the movement of the viewpoint position, thereby enlarging a region where stereoscopic viewing is possible. For example, Japanese Patent Application Laid-Open No. H10-2323
No. 67 discloses a technique for expanding a stereoscopically visible area by moving a mask pattern or a lenticular lens in parallel to a display surface.

【0012】図12は、特開平10−232367号公
報に開示される立体画像表示装置の図である。図12に
おいて、図11と同じ構成要素には同じ参照数字を付
し、説明は省略する。図12の立体画像表示装置はレン
チキュラーレンズが1枚の構成を有するので、図11に
おける第2のレンチキュラーレンズ4を有していない。
FIG. 12 is a diagram of a stereoscopic image display device disclosed in Japanese Patent Application Laid-Open No. 10-232367. 12, the same reference numerals are given to the same components as those in FIG. 11, and the description will be omitted. Since the three-dimensional image display device in FIG. 12 has a single lenticular lens, it does not include the second lenticular lens 4 in FIG.

【0013】このような構成の立体画像表示装置におい
て、観察者54の移動に応じた制御は以下のようにに行
われる。まず、位置センサー51が、予め設定された基
準の位置からの観察者54の水平方向のずれを検出し、
その情報を制御ユニット52へ送り、このずれ情報に応
じて制御ユニット52がディスプレイ駆動回路50へ画
像制御信号を出力すると、ディスプレイ駆動回路50が
第1又は第2の横ストライプ画像をディスプレイ6に表
示する。同時に制御ユニット52はずれ情報に基づくア
クチュエータ駆動信号を発生し、マスクパターン7を水
平方向に移動させるアクチュエータ53を駆動すること
により、マスクパターン7を観察者54が左右のストラ
イプ画像をもっともよく分離できる位置に移動させる。
この結果、観察者54の視点位置が変化しても、立体視
可能な範囲が拡大することになる。
In the three-dimensional image display device having such a configuration, control according to the movement of the observer 54 is performed as follows. First, the position sensor 51 detects a horizontal displacement of the observer 54 from a preset reference position,
The information is sent to the control unit 52, and when the control unit 52 outputs an image control signal to the display drive circuit 50 according to the shift information, the display drive circuit 50 displays the first or second horizontal stripe image on the display 6. I do. At the same time, the control unit 52 generates an actuator drive signal based on the displacement information, and drives the actuator 53 that moves the mask pattern 7 in the horizontal direction. Move to
As a result, even if the viewpoint position of the observer 54 changes, the range that can be stereoscopically viewed is expanded.

【0014】このように、観察者の視点位置に応じて表
示を制御する場合、検出精度が低くても、検出のための
処理時間が長くても、観察者の視点に適した画像表示が
行えない。そのため、観察者の視点位置をいかに精度よ
く、しかも短時間で検出するかは表示装置の性能におい
て非常に重要である。
As described above, when the display is controlled in accordance with the viewpoint position of the observer, an image suitable for the observer's viewpoint can be displayed even if the detection accuracy is low or the processing time for detection is long. Absent. Therefore, it is very important to detect the viewpoint position of the observer with high accuracy and in a short time in the performance of the display device.

【0015】観察者(被測定者)の視点位置検出方法と
しては、 1)赤外光を観察者に照射し、網膜の反射を検出する方
法(例えば、伴野 「視点検出のための瞳孔撮影光学系
の設計法」、電子情報通信学会論文誌D-II, Vol.J74-D-
II, No.6, pp.736-747, 1991年6月に記載) 2)可視画像を画像処理して観察者の目を検出する方法
(例えば、坂口ら 「画像の2次元離散コサイン変換を
利用した実時間顔表情認識」、電子情報通信学会論文誌
D-II, Vol. J80-D-II, No.6, pp. 1547-1554 1997年6
月に記載) 3)赤外画像と可視画像を利用し、画像処理により観察
者の目を検出する方法(例えば、特開平8−28721
6号公報に記載) などがある。
As the method of detecting the viewpoint position of the observer (measured person), 1) a method of irradiating the observer with infrared light and detecting the reflection of the retina (for example, see Banno "Pupil optics for viewpoint detection" System Design Method, IEICE Transactions D-II, Vol.J74-D-
II, No.6, pp.736-747, described in June 1991) 2) A method of processing visible images to detect the eyes of the observer (for example, Sakaguchi et al. Real-Time Face Expression Recognition Using "IEICE Transactions
D-II, Vol.J80-D-II, No.6, pp.1547-1554 1997/6
3) A method of detecting an observer's eyes by image processing using an infrared image and a visible image (for example, see Japanese Patent Application Laid-Open No. 8-28721).
No. 6).

【0016】1)の方法は、人間の瞳孔が近赤外光を再
帰反射する(入射方向と同一方向に光を戻す)性質を有
することを利用したものである。瞳孔反射光は鋭い反射
ピークとして得られ、通常、顔面などよりも高い反射率
を示すため、光源と光軸を同軸とした赤外線撮像装置を
用いて観察者を撮影することにより、瞳孔部分のみを明
るく撮像することができる。この撮影画像を適当な閾値
で二値化処理すれば、抽出された瞳孔位置から正確な視
点位置が検出できる。
The method 1) utilizes the fact that the human pupil has the property of retroreflecting near-infrared light (returning light in the same direction as the incident direction). Pupil reflected light is obtained as a sharp reflection peak, and usually shows a higher reflectance than the face, etc., so that only the pupil part is captured by imaging the observer using an infrared imaging device whose optical axis is coaxial with the light source. Bright images can be taken. If this photographed image is binarized with an appropriate threshold, an accurate viewpoint position can be detected from the extracted pupil position.

【0017】また、2)の方法では、撮影範囲の中の観
察者位置を予め限定し、その状態で観察者に瞬きをさせ
て、その可視画視画像のフレーム間画像によって目の領
域を抽出している。その目の領域範囲をもとに作成した
テンプレートを用いて、パターンマッチングによる視点
位置検出を行う。
In the method 2), the position of the observer in the photographing range is limited in advance, the observer blinks in that state, and the eye region is extracted by the inter-frame image of the visible image. are doing. Created based on the eye area range
Viewpoint by pattern matching using template
Perform position detection.

【0018】また、3)の方法では、赤外画像と可視カ
ラー画像を同時に撮影し、これら画像から顔領域を抽出
したのちパターンマッチングを利用して目などの特徴領
域を検出する。赤外画像は人物候補領域の抽出と、カラ
ー画像から肌色領域を抽出する際に用いる温度閾値の決
定に用いられる。
In the method 3), the infrared image and the visible
Images at the same time and extract facial regions from these images
After that, a characteristic region such as an eye is detected using pattern matching . The infrared image is used for extracting a person candidate area and determining a temperature threshold used when extracting a skin color area from a color image.

【0019】[0019]

【発明が解決しようとする課題】しかしながら、1)の
方法においては、比較的強い赤外光を連続的に観察者に
対して照射する必要があるため、赤外光による観察者へ
の影響が懸念されるという問題があるほか、網膜による
反射を利用するため、観察者が瞬きした場合などは検出
が行えないという問題がある。また、環境の照度による
瞳孔の拡大縮小や、被測定者の視線の方向によっては、
瞳孔反射像の追従が困難となるという問題もある。
However, in the method (1), since it is necessary to continuously irradiate the observer with relatively strong infrared light, the influence of the infrared light on the observer is small. In addition to the problem of concern, there is also a problem that detection cannot be performed when the observer blinks because reflection by the retina is used. In addition, depending on the pupil enlargement or reduction due to the illuminance of the environment,
There is also a problem that it is difficult to follow the pupil reflection image.

【0020】また、2)の方法においては、観察位置の
調節や瞬きを行うなどの動作を観察者に要求することに
なり、観察者からみると面倒であること、テンプレート
を作成するために、観察位置の調節や瞬きを行うなどの
動作にかかる時間が必要となり、実用的でないことなど
の問題がある。
In the method 2), the observer is required to perform operations such as adjustment of the observation position and blinking, which is troublesome for the observer. It requires time for operations such as adjustment of the observation position and blinking, which is not practical.

【0021】さらに、3)の方法では、1)の方法に比
べて低い赤外光の照射強度でよいが、赤外画像の中間処
理結果を求めた後、その処理結果を利用して可視画像を
処理し、赤外画像の処理結果と可視画像の処理結果を用
いて顔領域を検出してからさらにパターンマッチングを
行うため、非常に処理が複雑である。また、パターンマ
ッチングに用いるテンプレートの作成も容易でないとい
った問題がある。また、パターンマッチング用のテンプ
レートを作成するために必要な顔の部位位置を可視画像
のみから検出しているため、位置精度があまり良くない
という問題もある。
In the method 3), the irradiation intensity of infrared light may be lower than that in the method 1). However, after the intermediate processing result of the infrared image is obtained, the visible image is obtained by using the processing result. Is processed, the face area is detected using the processing result of the infrared image and the processing result of the visible image, and further pattern matching is performed. Therefore, the processing is very complicated. There is also a problem that it is not easy to create a template used for pattern matching. In addition, since the position of the face required to create a template for pattern matching is detected only from the visible image, there is a problem that the position accuracy is not very good.

【0022】したがって、本発明の目的は、簡易な構成
により、かつ人体への影響懸念を抑制しながら、短時間
で高精度かつ追従性のよい視点位置検出装置及び方法を
提供することにある。また、本発明の別の目的は、本発
明の視点位置検出装置あるいは方法を用いて得られる視
点位置情報を用いて表示を制御する立体画像表示装置を
有する立体画像表示システムを提供することにある。
Accordingly, it is an object of the present invention to provide a viewpoint position detecting apparatus and method which have high accuracy and followability in a short time, with a simple configuration and while suppressing the influence on the human body. It is another object of the present invention to provide a stereoscopic image display system having a stereoscopic image display device that controls display using viewpoint position information obtained by using the viewpoint position detecting device or method of the present invention. .

【0023】[0023]

【課題を解決するための手段】すなわち、本発明の要旨
は、被測定者の視点位置を検出し、視点位置情報を出力
する視点位置検出装置であって、被測定者の赤外画像を
取得する赤外画像取得手段と、被測定者の可視画像を取
得する可視画像取得手段と、赤外画像取得手段が取得し
た赤外画像から、被測定者の瞳孔位置を検出する検出手
段と、可視画像取得手段が取得した可視画像から、瞳孔
位置を用いてパターンマッチング用のテンプレートを作
成するテンプレート作成手段と、テンプレート作成手段
の作成したテンプレートを用い、可視画像取得手段が取
得する可視画像とパターンマッチングを行って被測定者
の視点位置を検出し、結果を視点位置情報として出力す
るマッチング手段とを有することを特徴とする視点位置
検出装置に存する。
That is, the gist of the present invention is a viewpoint position detecting device for detecting a viewpoint position of a person to be measured and outputting viewpoint position information, and acquiring an infrared image of the person to be measured. Infrared image acquiring means for acquiring, a visible image acquiring means for acquiring a visible image of the subject, detecting means for detecting a pupil position of the subject from the infrared image acquired by the infrared image acquiring means, A template creation unit that creates a template for pattern matching using the pupil position from the visible image acquired by the image acquisition unit, and a visible image acquired by the visible image acquisition unit using the template created by the template creation unit and pattern matching And a matching means for detecting the viewpoint position of the person to be measured and outputting the result as viewpoint position information.

【0024】また、本発明の別の要旨は、被測定者の視
点位置を検出し、視点位置情報を出力する視点位置検出
装置であって、被測定者の赤外画像を取得する赤外画像
取得手段と、被測定者の可視画像を取得する可視画像取
得手段と、赤外画像取得手段が取得した赤外画像から、
被測定者の瞳孔位置を検出する検出手段と、可視画像取
得手段が取得した可視画像から、瞳孔位置を用いてパタ
ーンマッチング用のテンプレートを作成するテンプレー
ト作成手段と、テンプレート作成手段の作成したテンプ
レートを用いて可視画像取得手段が取得する可視画像と
パターンマッチングを行い、被測定者の視点位置を検出
し、検出結果を視点位置情報として出力するマッチング
手段と、所定の条件を満たす場合に検出手段及びテンプ
レート作成手段を用いて再度テンプレートを作成するよ
うに制御する制御手段とを有することを特徴とする視点
位置検出装置に存する。
Another aspect of the present invention is a viewpoint position detecting apparatus for detecting a viewpoint position of a person to be measured and outputting viewpoint position information. Acquisition means, visible image acquisition means for acquiring a visible image of the subject, from the infrared image acquired by the infrared image acquisition means,
Detecting means for detecting the pupil position of the subject, template creating means for creating a template for pattern matching using the pupil position from the visible image acquired by the visible image acquiring means, and a template created by the template creating means. Using the visible image acquired by the visible image acquiring means using
A template is created again using a matching unit that performs pattern matching , detects the viewpoint position of the subject, and outputs the detection result as viewpoint position information, and a detection unit and a template creation unit when a predetermined condition is satisfied. And a control means for controlling the visual point position.

【0025】また、本発明の別の要旨は、上述の本発明
による視点位置検出装置と、この視点位置検出装置に接
続された立体画像表示装置とを有する立体画像表示シス
テムであって、視点位置検出装置から受信した視点位置
情報を用いて立体画像表示装置を制御することを特徴と
する立体画像表示システムに存する。
Another aspect of the present invention is a stereoscopic image display system including the above-described viewpoint position detecting device according to the present invention and a stereoscopic image display device connected to the viewpoint position detecting device. There is provided a stereoscopic image display system that controls a stereoscopic image display device using viewpoint position information received from a detection device.

【0026】また、本発明の別の要旨は、被測定者の視
点位置を検出し、視点位置情報を出力する視点位置検出
方法であって、被測定者の赤外画像を取得する赤外画像
取得ステップと、被測定者の可視画像を取得する可視画
像取得ステップと、赤外画像取得ステップで取得した赤
外画像から、被測定者の瞳孔位置を検出する検出ステッ
プと、可視画像取得ステップで取得した可視画像から、
瞳孔位置を用いてパターンマッチング用のテンプレート
を作成するテンプレート作成ステップと、テンプレート
作成ステップで作成したテンプレートを用い、可視画像
取得ステップで取得する可視画像とパターンマッチング
を行って被測定者の視点位置を検出し、結果を視点位置
情報として出力するマッチングステップとを有すること
を特徴とする視点位置検出方法に存する。
Another aspect of the present invention is a viewpoint position detecting method for detecting a viewpoint position of a person to be measured and outputting viewpoint position information, the method comprising detecting an infrared image of the person to be measured. An acquiring step, a visible image acquiring step of acquiring a visible image of the subject, a detecting step of detecting a pupil position of the subject from the infrared image acquired in the infrared image acquiring step, and a visible image acquiring step. From the acquired visible image,
A template creating step for creating a template for pattern matching using the pupil position, and using the template created in the template creating step, performing pattern matching with the visible image acquired in the visible image acquiring step to measure the subject. And a matching step of detecting the viewpoint position of the image and outputting the result as viewpoint position information.

【0027】また、本発明の別の要旨は、被測定者の視
点位置を検出し、視点位置情報を出力する視点位置検出
方法であって、被測定者の赤外画像を取得する赤外画像
取得ステップと、被測定者の可視画像を取得する可視画
像取得ステップと、赤外画像取得ステップで取得した赤
外画像から、被測定者の瞳孔位置を検出する検出ステッ
プと、可視画像取得ステップで取得した可視画像から、
瞳孔位置を用いてパターンマッチング用のテンプレート
を作成するテンプレート作成ステップと、テンプレート
作成ステップで作成したテンプレートを用いて可視画像
取得ステップで取得する可視画像とパターンマッチング
を行い、被測定者の視点位置を検出し、検出結果を視点
位置情報として出力するマッチングステップと、所定の
条件を満たす場合に検出ステップ及びテンプレート作成
ステップを用いて再度テンプレートを作成するととも
に、それ以外の場合には可視画像取得ステップとマッチ
ングステップとを繰り返し行うことを特徴とする視点位
置検出方法に存する。
Another subject of the present invention is a viewpoint position detecting method for detecting a viewpoint position of a person to be measured and outputting viewpoint position information. An acquiring step, a visible image acquiring step of acquiring a visible image of the subject, a detecting step of detecting a pupil position of the subject from the infrared image acquired in the infrared image acquiring step, and a visible image acquiring step. From the acquired visible image,
Performs a template creating step of creating a template for pattern matching with a pupil position, the visible image and the pattern matching <br/> for obtaining a visible image acquisition step using a template created by the template creation step, the person to be measured A template is created again using the matching step of detecting the viewpoint position of the object and outputting the detection result as viewpoint position information, and the detection step and the template creation step when a predetermined condition is satisfied. The present invention resides in a viewpoint position detection method characterized by repeatedly performing an image acquisition step and a matching step.

【0028】また、本発明の別の要旨は、上述の本発明
による視点位置検出方法をコンピュータが実行可能なプ
ログラムとして格納したコンピュータ読みとり可能な記
憶媒体に存する。
Another aspect of the present invention resides in a computer-readable storage medium storing a viewpoint position detecting method according to the present invention as a computer-executable program.

【0029】[0029]

【発明の実施の形態】以下、図面を参照して本発明の実
施形態を詳細に説明する。以下の説明においては、本発
明の視点位置検出装置を立体画像表示装置に接続した立
体画像表示システムについて説明するが、本発明の視点
位置検出装置の用途は立体画像表示装置システムに限定
されるものではない。
Embodiments of the present invention will be described below in detail with reference to the drawings. In the following description, a stereoscopic image display system in which the viewpoint position detecting device of the present invention is connected to a stereoscopic image display device will be described, but the use of the viewpoint position detecting device of the present invention is limited to the stereoscopic image display device system. is not.

【0030】また、本発明において、視点位置とは観察
者の目の位置を示すある一点の座標を意味するが、本発
明の視点位置検出装置の出力する視点位置情報は必ずし
も一点の座標値でなくともよく、ある領域を示す情報で
あっても良い。用途によっては眼全体の位置がおおよそ
わかればよい場合もあり、その用途によって適宜選択す
ればよい。
Also, in the present invention, the viewpoint position means the coordinates of a certain point indicating the position of the eyes of the observer. The viewpoint position information output by the viewpoint position detecting device of the present invention is not necessarily the coordinate value of one point. It does not have to be, and may be information indicating a certain area. Depending on the use, the position of the entire eye may be roughly known, and may be appropriately selected depending on the use.

【0031】(第1の実施形態)図1は、本発明に係る
視点位置検出装置の構成を示すブロック図である。本実
施形態における視点位置検出装置は、撮影部1と、視点
位置検出部2とから構成され、画像表示部3は前述した
立体画像表示装置である。以下、視点位置検出装置と画
像表示部3とを併せて立体画像表示システムと言うこと
がある。
(First Embodiment) FIG. 1 is a block diagram showing a configuration of a viewpoint position detecting device according to the present invention. The viewpoint position detection device according to the present embodiment includes an imaging unit 1 and a viewpoint position detection unit 2, and the image display unit 3 is the above-described stereoscopic image display device. Hereinafter, the viewpoint position detecting device and the image display unit 3 may be collectively referred to as a stereoscopic image display system.

【0032】撮影部1は、可視画像撮影部11、赤外画
像撮影部12及び赤外光発光部13から構成され、観察
者の可視画像及び赤外画像を撮影する。可視画像撮影部
11及び赤外画像撮影部12はいずれもビデオカメラに
よって構成可能であり、赤外画像撮影部12はフィルタ
等によって赤外光のみを内部の受光素子に入射させてい
る。また、赤外光発光部13は例えばLEDなどの赤外
光発光素子から構成することができ、観察者と撮影部1
との通常取りうる範囲の距離において、網膜反射を得る
ために必要な発光量が得られるように構成する。
The photographing section 1 comprises a visible image photographing section 11, an infrared image photographing section 12, and an infrared light emitting section 13, and photographs a visible image and an infrared image of an observer. Each of the visible image photographing section 11 and the infrared image photographing section 12 can be constituted by a video camera, and the infrared image photographing section 12 causes only infrared light to enter the internal light receiving element by a filter or the like. The infrared light emitting unit 13 can be composed of an infrared light emitting element such as an LED, for example.
The light emission amount necessary for obtaining retinal reflection can be obtained at a distance within a range which can be normally taken with the above.

【0033】視点位置検出部2は、可視画像記憶部21
と、パターンマッチング判定部22と、テンプレート作
成部23と、瞳孔位置検出処理部24と、赤外画像記憶
部25と、赤外光発光制御部26とから構成されてい
る。視点位置検出部2はたとえば撮影部1が出力する画
像信号を記憶可能な、汎用パーソナルコンピュータから
構成することができる。
The viewpoint position detecting section 2 includes a visible image storing section 21
, A pattern matching determination unit 22, a template creation unit 23, a pupil position detection processing unit 24, an infrared image storage unit 25, and an infrared light emission control unit 26. The viewpoint position detecting section 2 can be constituted by a general-purpose personal computer capable of storing an image signal output from the photographing section 1, for example.

【0034】可視画像記憶部21及び赤外画像記憶部2
5はいずれも対応する撮影部11、12が撮影した画像
データを記憶する手段として用いられ、RAMのような
半導体メモリで構成しても、磁気ディスクや光ディスク
などの記憶装置を用いて構成してもよい。
The visible image storage unit 21 and the infrared image storage unit 2
5 is used as a means for storing image data photographed by the corresponding photographing units 11 and 12, and may be constituted by a semiconductor memory such as a RAM or by using a storage device such as a magnetic disk or an optical disk. Is also good.

【0035】パターンマッチング判定部22は、テンプ
レート作成部23から供給されるテンプレートを用い
て、可視画像記憶部21に記憶された画像のうちテンプ
レートとの相関が最も高い領域の位置情報を画像表示部
3へ出力する。また、パターンマッチング失敗時など
に、赤外光発光制御部26に赤外光発光部13を発光さ
せる出力を行う。
The pattern matching determination unit 22 uses the template supplied from the template creation unit 23 to display position information of an area having the highest correlation with the template in the image stored in the visible image storage unit 21 on the image display unit. Output to 3. In addition, when the pattern matching fails, the infrared light emission control unit 26 outputs the infrared light emission unit 13 to emit light.

【0036】テンプレート作成部23は、瞳孔位置検出
処理部24から供給される位置情報を用いて、可視画像
記憶部21に記憶された画像データから、パターンマッ
チング判定部22で用いるパターンマッチング用のテン
プレートを作成する。
The template creating section 23 detects a pupil position.
Using the position information supplied from the processing unit 24 , a template for pattern matching used by the pattern matching determination unit 22 is created from the image data stored in the visible image storage unit 21.

【0037】瞳孔位置検出処理部24は、赤外光発光制
御部26が赤外光発光部13の発光を行ったことを知ら
せる信号を入力として、その信号情報をもとにして赤外
画像記憶部25に記憶された赤外画像から瞳孔位置を検
出し、その位置情報をテンプレート作成部23に供給す
る。また、その位置情報を画像表示部3に供給しても良
い。
The pupil position detection processing unit 24 receives a signal indicating that the infrared light emission control unit 26 has emitted light from the infrared light emission unit 13 and stores an infrared image based on the signal information. The pupil position is detected from the infrared image stored in the unit 25, and the position information is supplied to the template creating unit 23. Further, the position information may be supplied to the image display unit 3.

【0038】赤外光発光制御部26は、図示しない制御
部、瞳孔位置検出処理部24、パターンマッチング処理
部等の制御に従い、赤外光発光部13の点灯制御を行
う。これら視点位置検出部2の各構成要素は、図示しな
い制御部の制御によって動作する。
The infrared light emission control unit 26 controls the lighting of the infrared light emission unit 13 in accordance with the control of a control unit (not shown), a pupil position detection processing unit 24 , a pattern matching processing unit, and the like. These components of the viewpoint position detection unit 2 operate under the control of a control unit (not shown).

【0039】次に、図1に示したシステムの具体的な動
作について、図2〜図4(b)を用いて説明する。図2
は本実施形態における視点位置検出装置の動作を示すフ
ローチャートである。
Next, a specific operation of the system shown in FIG. 1 will be described with reference to FIGS. FIG.
5 is a flowchart illustrating an operation of the viewpoint position detecting device in the present embodiment.

【0040】まず、撮影部1、視点位置検出部2及び画
像表示部3の電源投入、初期化など、各部の起動を行う
(ステップS10)。次に、図示しない制御部は、赤外
光発光制御部26に赤外光発光を指示する。それを受け
て赤外光発光制御部26は、赤外光発光部13を点灯さ
せる(ステップS11)とともに、瞳孔位置検出処理部
24に赤外光を発光した旨を通知する。そして、可視画
像撮影部11によって撮影された可視画像と、赤外画像
撮影部12によって撮影された赤外画像をそれぞれ可視
画像記憶部21及び赤外画像記憶部25に取り込んで、
赤外光発光部13を消灯する。この際、精度のよいテン
プレートの作成及びパターンマッチングを行うために、
各画像記憶部に取り込む画像は実質的に同じタイミング
(フレーム)のものとすることが好ましい。
First, the respective units are started, such as turning on the power of the photographing unit 1, the viewpoint position detecting unit 2, and the image display unit 3, and initializing (step S10). Next, the control unit (not shown) instructs the infrared light emission control unit 26 to emit infrared light. In response to this, the infrared light emission control unit 26 turns on the infrared light emission unit 13 (step S11), and the pupil position detection processing unit
24 is notified that infrared light has been emitted. Then, the visible image captured by the visible image capturing unit 11 and the infrared image captured by the infrared image capturing unit 12 are loaded into the visible image storage unit 21 and the infrared image storage unit 25, respectively.
The infrared light emitting unit 13 is turned off. At this time, in order to create an accurate template and perform pattern matching,
It is preferable that the images taken into the respective image storage units have substantially the same timing (frame).

【0041】また、赤外光の発光開始は、たとえば観察
者の有無を検知するセンサを設けて、観察者の存在が確
認されてから自動的に行ったり、観察者に介しボタンを
押下させるなど任意の方法を用いることができる。
The emission of the infrared light is started, for example, by providing a sensor for detecting the presence or absence of an observer, automatically after the existence of the observer is confirmed, or by pressing the button through the observer. Any method can be used.

【0042】次いで、瞳孔位置検出処理部24は、赤外
画像記憶部25に取り込んだ赤外画像から、瞳孔位置を
検出する(ステップS12)。瞳孔位置の検出は基本的
に画像の2値化処理によって行う。ただし、赤外画像内
で左に出てきた反射像を観察者の右眼、右に出てきた反
射像を観察者の左眼とする。図3は、赤外画像の例であ
り、近赤外光の網膜反射によって、瞳孔部分が他の部分
に比べて非常に明るくなる。
Next, the pupil position detection processing section 24 detects a pupil position from the infrared image fetched into the infrared image storage section 25 (step S12). The detection of the pupil position is basically performed by binarizing the image. However, in the infrared image, the reflected image that appears to the left is the right eye of the observer, and the reflected image that appears to the right is the left eye of the observer. FIG. 3 is an example of an infrared image, in which the pupil portion becomes much brighter than other portions due to retinal reflection of near-infrared light.

【0043】また、網膜反射による反射像は、画像内の
一部の領域になるため、ステップS12で検出される反
射像の位置は画像内の1点を指すピンポイントの座標値
ではない。反射像からピンポイントの画像内座標値であ
瞳孔位置を求める処理は、パターンマッチングのテン
プレート作成段階までに適宜行えば良い。
Since the reflection image due to retinal reflection is a partial area in the image, the position of the reflection image detected in step S12 is not a pinpoint coordinate value indicating one point in the image. The process of obtaining the pupil position , which is the coordinate value of the pinpoint image, from the reflection image may be appropriately performed before the template matching stage of pattern matching.

【0044】ステップS13において、2点が検出でき
た場合は、ステップS14へ、観察者が瞬きしていた等
の理由により正常に検出できなかった場合には、ステッ
プS11へ戻って再度画像取得を行う。
In step S13, if two points can be detected, the process proceeds to step S14. If the image cannot be detected normally due to the blinking of the observer, the process returns to step S11 to acquire an image again. Do.

【0045】ステップS13で正常に瞳孔位置検出が完
了した場合には、テンプレートの作成処理を開始する。
本実施形態において用いるパターンマッチング用のテン
プレートは、2つの子テンプレートと1つの親テンプレ
ートである。それぞれの種類のテンプレートについて図
4(a)及び図4(b)を用いてさらに説明する。
If the detection of the pupil position is normally completed in step S13, the process of creating a template is started.
The templates for pattern matching used in the present embodiment are two child templates and one parent template. Each type of template will be further described with reference to FIGS. 4 (a) and 4 (b).

【0046】図4(a)及び図4(b)は、本実施形態
で用いる子テンプレート及び親テンプレートをそれぞれ
説明する図である。図に示すように、2つの子テンプレ
ートはそれぞれ右眼、左眼の視点位置を基点(図中×で
示す)とするテンプレート、親テンプレートは右眼左眼
の視点位置を含み、視点位置の中点を基点とする1つの
テンプレートである。ここで、テンプレートにおける視
点位置は、画像内座標の1点を指す座標である。
FIGS. 4A and 4B are diagrams for explaining a child template and a parent template used in the present embodiment, respectively. As shown in the figure, the two child templates each have a viewpoint based on the viewpoint positions of the right eye and the left eye (indicated by X in the figure), and the parent template includes the viewpoint positions of the right eye and the left eye. One template is based on a point. Here, the viewpoint position in the template is a coordinate indicating one point of the coordinates in the image.

【0047】本実施形態において、テンプレートの作成
処理は子テンプレートの作成から行う。テンプレート作
成部23は、瞳孔位置検出処理部24が赤外画像から検
出した右眼、左眼の瞳孔位置(画像上の座標値)を用い
て、可視画像記憶部21に記憶された可視画像から、
眼瞳孔位置を基点とした子テンプレート1、左眼瞳孔位
を基点とした子テンプレート2を作成する(ステップ
S14)。子テンプレートの大きさは、右眼左眼瞳孔位
置間の距離によって次式から決定する。平均的な人間の
右眼左眼瞳孔位置間の距離:測定された右眼左眼瞳孔位
置間の距離=平均的な人間の眼と眉が入る程度の大き
き:子テンプレートの大きさここで、瞳孔位置間距離
び眼と眉が入る大きさの平均値は、たとえば統計的に求
めた値を用いることができる。
In the present embodiment, template creation processing is performed from the creation of a child template. The template creating unit 23 uses the pupil positions (coordinate values on the image) of the right eye and the left eye detected by the pupil position detection processing unit 24 from the infrared image to extract the visible image stored in the visible image storage unit 21. , Right
Child template 1 based on eye pupil position , left eye pupil position
A child template 2 based on the position is created (step S14). The size of the child template is the pupil position of the right eye and the left eye
The distance is determined from the following equation according to the distance between the units . Average human
Distance between pupil positions of right eye and left eye : measured pupil position of right eye and left eye
Distance between positions = large enough to include average human eyes and eyebrows: size of child template Here, the distance between pupil positions and the average value of the size between eyes and eyebrows are: For example, a value obtained statistically can be used.

【0048】子テンプレートの作成が終わると、テンプ
レート作成部23は親テンプレートの作成を行う(ステ
ップS15)。上述したように、親テンプレートは右眼
左眼2つの瞳孔位置の中点を基点として、2つの瞳孔位
を含むテンプレートである。親テンプレートの大きき
は、右眼左眼瞳孔位置間の距離によって次式から決定す
る。平均的な人間の右眼左眼瞳孔位置間の距離:測定さ
れた右眼左眼瞳孔位置間の距離=平均的な人間の顔が入
る程度の大きさ:親テンプレートの大きさ子テンプレー
ト作成時と同様に、平均値には統計的に求めた値を用い
ることができる。テンプレート作成部23が作成したテ
ンプレートは、パターンマッチング判定部22へ供給さ
れる。
When the child template has been created, the template creating section 23 creates a parent template (step S15). As described above, the parent template has two pupil positions based on the midpoint of the two pupil positions of the right eye and the left eye
This is a template that includes the location. The size of the parent template is determined from the following equation based on the distance between the pupil positions of the right and left eyes . Average distance between pupil positions of right and left eyes of human: measured distance between pupil positions of right and left eyes = size enough to include average human face: size of parent template When creating child template Similarly to the above, a statistically determined value can be used for the average value. The template created by the template creation unit 23 is supplied to the pattern matching determination unit 22.

【0049】テンプレートの作成が終わると、可視画像
記憶部21に取り込んだ可視画像と、テンプレート作成
部23が作成したテンプレートを用いてパターンマッチ
ングを行う。パターンマッチング判定部22はまず、親
テンプレートと可視画像のパターンマッチングを行う
(ステップS16)。パターンマッチングはたとえば正
規化相関関数を用いて行うことができる。正規化相関関
数を用いたパターンマッチングについては例えば、「マ
トロックスイメージングライブラリ バージョン5.1
ユーザガイド(Matrox Imaging Library Version 5.1
User Guide)」第154〜155ページに記載されて
いる。正規化相関関数によって得られる値は0〜100
(%)として表され、100%が完全一致を意味する。
また、パターンマッチングは、テンプレートマッチング
と呼ばれることもある。
When the creation of the template is completed, pattern matching is performed using the visible image fetched into the visible image storage unit 21 and the template created by the template creation unit 23. The pattern matching determination unit 22 first performs pattern matching between the parent template and the visible image (step S16). Pattern matching can be performed using, for example, a normalized correlation function. The pattern matching using the normalized correlation function is described in, for example, “Matrox Imaging Library Version 5.1.
User Guide (Matrox Imaging Library Version 5.1
User Guide) ”, pp. 154-155. The value obtained by the normalized correlation function is 0 to 100
(%), 100% means perfect match.
Also, pattern matching is template matching
Sometimes called.

【0050】本実施形態においては、例えば85%を超
える相関度が得られれば、パターンマッチングが成功し
たと見なす。テンプレート作成直後のパターンマッチン
グは、テンプレートの元になった画像とパターンマッチ
ングを行う画像データが同一であるため、基本的にほぼ
100%の相関度が得られるはずである。
In the present embodiment, for example, if a correlation degree exceeding 85% is obtained, it is determined that the pattern matching has succeeded. In the pattern matching immediately after the template is created, since the image on which the template is based and the image data to be subjected to the pattern matching are the same, basically a correlation of almost 100% should be obtained.

【0051】親テンプレートと可視画像のパターンマッ
チング結果が所定の相関度を満たした場合には、ステッ
プS17においてパターンマッチング成功と判断され、
ステップS18へ移行する。一方、相関度が所定値に満
たなければ、テンプレートを作成し直す必要があると考
えられるため、ステップS11へ戻り、赤外画像取得か
ら再度処理する。
If the result of pattern matching between the parent template and the visible image satisfies a predetermined degree of correlation, it is determined in step S17 that the pattern matching has been successful.
Move to step S18. On the other hand, if the degree of correlation is less than the predetermined value, it is considered that the template needs to be recreated, so the process returns to step S11, and the process is again performed from the acquisition of the infrared image.

【0052】親テンプレートを用いたパターンマッチン
グが成功すると、パターンマッチング判定部22は視点
位置の探索領域設定を行う(ステップS18)。すなわ
ち、親テンプレート内の左半分を右眼視点位置の探索領
域、親テンプレート内の右半分を左眼視点位置の探索領
域とする。そして、設定した探索領域を元にして、子テ
ンプレートと可視画像のパターンマッチングを行う(ス
テップS19)。このように、階層的にパターンマッチ
ングを行い、段階的に探索範囲を絞り、右眼左眼視点位
置の拘束を行うことで、誤った視点位置の検出(失敗で
はない)を防ぎ、精度良い追従ができる。
If the pattern matching using the parent template succeeds, the pattern matching determination section 22 sets a search area for the viewpoint position (step S18). That is, the left half in the parent template is set as the search area for the right eye viewpoint position, and the right half in the parent template is set as the search area for the left eye viewpoint position. Then, pattern matching between the child template and the visible image is performed based on the set search area (step S19). In this way, by performing pattern matching hierarchically, narrowing down the search range in stages, and restricting the right eye left eye viewpoint position, detection of erroneous viewpoint position (not failure) is prevented, and accurate tracking is performed. Can be.

【0053】パターンマッチングの結果、最大相関値が
所定の相関値を満たす場合には、ステップS20におい
てパターンマッチング成功と判断され、ステップS21
へ移行する。一方、最大相関値が所定相関値に満たない
場合には、ステップS11へ戻って赤外画像取得動作か
らやり直す。この際、パターンマッチング判定部22は
赤外光発光制御部26に再度赤外光を発光するよう指示
する。
If the maximum correlation value satisfies the predetermined correlation value as a result of the pattern matching, it is determined that the pattern matching is successful in step S20, and the process proceeds to step S21.
Move to. On the other hand, if the maximum correlation value is less than the predetermined correlation value, the process returns to step S11 and starts again from the infrared image acquisition operation. At this time, the pattern matching determination unit 22 instructs the infrared light emission control unit 26 to emit infrared light again.

【0054】ステップS20でパターンマッチング成功
と判断されると、パターンマッチング判定部22は、画
像表示部3へ最終的に得られた視点位置情報(画像上の
視点位置座標)を右眼、左眼ごとに出力する。ステップ
S21においてシステム終了を行うか否かを判定し、シ
ステムの動作終了を指示されていなければ可視画像撮影
部11から可視画像を取り込み、可視画像記憶部21へ
記憶してからステップS16へ戻る。
If it is determined in step S20 that the pattern matching is successful, the pattern matching determination unit 22 sends the finally obtained viewpoint position information (viewpoint position coordinates on the image) to the image display unit 3 for the right eye and the left eye. Output every time. In step S21, it is determined whether or not to end the system. If the end of the operation of the system is not instructed, a visible image is fetched from the visible image photographing unit 11, stored in the visible image storage unit 21, and then returns to step S16.

【0055】以降、可視画像に対するパターンマッチン
グを継続し、パターンマッチングが失敗すると自動的に
赤外光を発光してテンプレートの再作成処理を行う。ス
テップS21において終了処理が指示された場合には、
所定の終了処理を行って(ステップS22)一連の処理
を終了する。
Thereafter, the pattern matching for the visible image is continued, and if the pattern matching fails, the infrared light is automatically emitted and the template is recreated. When the end processing is instructed in step S21,
After performing a predetermined end process (step S22), a series of processes is ended.

【0056】このように、テンプレート作成時の瞳孔位
置情報として高精度な情報の得られる赤外光による網膜
反射画像を用いることにより、赤外光の照射時間も最小
限に抑制でき、観察者への影響懸念をも低減することが
できる。また、パターンマッチングが不成功に終わった
場合には自動的にテンプレートを再作成するため、安定
して精度の良いパターンマッチング結果が得られ、図1
2に示したような立体画像表示装置などの表示制御に好
適に用いることができる。
As described above, the pupil position when the template is created
By using a retinal reflection image by infrared light that can obtain highly accurate information as the placement information , the irradiation time of infrared light can be minimized, and concerns about the influence on the observer can be reduced. In addition, when the pattern matching is unsuccessful, the template is automatically re-created, so that a stable and accurate pattern matching result can be obtained.
It can be suitably used for display control of a stereoscopic image display device as shown in FIG.

【0057】(第2の実施形態)第1の実施形態におい
ては、パターンマッチング結果が失敗に終わった場合に
赤外画像取得からやり直すことにより、高精度で追従性
の良いパターンマッチングを行う構成を説明したが、あ
まり被測定者が動かないような環境においては、定期的
にテンプレートを作り直すことによっても同様の効果が
期待できる。本実施形態においては、この構成について
説明する。
(Second Embodiment) In the first embodiment, when the pattern matching result is unsuccessful, the pattern matching is performed with high accuracy and good tracking by re-starting from the infrared image acquisition. As described above, in an environment where the subject does not move much, the same effect can be expected by periodically recreating the template. In the present embodiment, this configuration will be described.

【0058】図5は、本発明の第2の実施形態に係る視
点位置検出装置の構成を示すブロック図である。本図に
おいても図1と同様に、画像表示部3を接続して立体画
像表示システムを構成した場合を示している。図5にお
いて、第1の実施形態を示す図1と同一の構成要素には
同じ参照数字を付し、その説明は省略する。
FIG. 5 is a block diagram showing a configuration of a viewpoint position detecting device according to a second embodiment of the present invention. This figure also shows a case where the image display unit 3 is connected to form a stereoscopic image display system, similarly to FIG. 5, the same reference numerals are given to the same components as those in FIG. 1 showing the first embodiment, and the description thereof will be omitted.

【0059】本実施形態において、第1の実施形態と異
なるのは、視点位置検出部2が時間計測部27を有して
いる点である。時間計測部27は、いわゆるタイマ手段
であり、所定の時間ごとに信号を発生する。この出力信
号は赤外線発光制御部26へ入力され、それに応答して
赤外線発光制御部26は赤外光発光部13を制御して赤
外光を発光させる。これにより、システム起動時と同様
の処理が開始される。
The present embodiment differs from the first embodiment in that the viewpoint position detecting section 2 has a time measuring section 27. The time measuring unit 27 is a so-called timer means, and generates a signal at predetermined time intervals. This output signal is input to the infrared light emission control unit 26, and in response, the infrared light emission control unit 26 controls the infrared light emission unit 13 to emit infrared light. As a result, the same processing as when the system is started is started.

【0060】具体的な動作を図6を用いて説明する。図
6は、本実施形態の動作を示すフローチャートである。
図6において、図2と同じ動作を行うステップについて
は同じ参照数字を付し、詳細な説明は省略する。
The specific operation will be described with reference to FIG. FIG. 6 is a flowchart showing the operation of the present embodiment.
6, steps that perform the same operations as those in FIG. 2 are denoted by the same reference numerals, and detailed descriptions thereof will be omitted.

【0061】図6から明らかなように、本実施形態は、
図2に示す処理ステップから、パターンマッチングの成
功を判別するステップ(ステップS17およびステップ
S20)を除去し、時間計測部27の出力有無を判別す
るステップS23を付加したものである。
As is clear from FIG. 6, the present embodiment
The processing step shown in FIG. 2 is different from the processing steps shown in FIG. 2 in that the step of determining the success of the pattern matching (steps S17 and S20) is removed, and the step S23 of determining whether or not the time measuring unit 27 outputs is added.

【0062】システム起動を行うステップS10から、
親テンプレートと可視画像とのパターンマッチングを行
うステップS16までは図2と同様に処理が行われる。
パターンマッチングが終了すると、すぐに視点位置の探
索領域設定処理を行い(ステップS18)、子テンプレ
ートと可視画像のパターンマッチング処理が行われる
(ステップS19)。
From step S10 for starting the system,
The processing is performed in the same manner as in FIG. 2 up to step S16 for performing pattern matching between the parent template and the visible image.
Upon completion of the pattern matching, a search area setting process for the viewpoint position is immediately performed (step S18), and a pattern matching process between the child template and the visible image is performed (step S19).

【0063】ステップS19において子テンプレートと
可視画像のパターンマッチングが終了すると、ステップ
S23において、時間計測部27からの信号出力があっ
たか否かを判別する。出力が検出されなかった場合に
は、ステップS21へ移行し、システム終了の指示があ
るか否かによって次の可視画像の取り込み及びパターン
マッチング処理をくり返すか、システムの終了処理(ス
テップS22)を行う。一方、時間計測部27の信号出
力が検出された場合には、赤外光発光ステップ(ステッ
プS11)へ戻り、再度赤外画像取得から処理を行うこ
とで、子テンプレート及び親テンプレートを更新する。
When the pattern matching between the child template and the visible image is completed in step S19, it is determined in step S23 whether or not a signal has been output from the time measuring unit 27. If no output is detected, the process proceeds to step S21, and depending on whether or not there is an instruction to end the system, the next visible image capture and pattern matching processing are repeated, or the system end processing (step S22) is performed. Do. On the other hand, when the signal output of the time measuring unit 27 is detected, the process returns to the infrared light emission step (step S11), and the processing is performed again from the acquisition of the infrared image, thereby updating the child template and the parent template.

【0064】なお、ステップS16〜S19のパターン
マッチング処理中に時間計測部27からの信号出力があ
った場合には、赤外線発光制御部26が信号出力を検出
したことを例えば内部記憶領域に記憶しておき、子テン
プレートと可視画像のパターンマッチング(ステップS
19)が終了するのを待って赤外光発光部13に赤外光
の発光を指示するとともに、赤外画像からの瞳孔位置検
出を瞳孔位置検出処理部24に指示する。
If there is a signal output from the time measuring unit 27 during the pattern matching process in steps S16 to S19, the fact that the infrared light emission control unit 26 has detected the signal output is stored in, for example, an internal storage area. In advance, pattern matching between the child template and the visible image (step S
After the completion of step 19), the infrared light emission unit 13 is instructed to emit infrared light, and the pupil position detection processing unit 24 is instructed to detect the pupil position from the infrared image.

【0065】また、時間計測部27の信号発生周期は、
画像表示部3の使用環境(観察者が移動しやすいかどう
か、観察者が頻繁に変わるか否か、など)及びテンプレ
ート作成に必要な処理時間などの条件をもとに適宜定め
れば良い。このような構成により、本実施形態に於いて
は簡便な構成により処理速度と検出精度を両立させるこ
とができる。
The signal generation cycle of the time measurement unit 27 is
It may be appropriately determined based on conditions such as the use environment of the image display unit 3 (whether the observer is easy to move, whether the observer changes frequently, and the like) and the processing time required for template creation. With such a configuration, in the present embodiment, it is possible to achieve both processing speed and detection accuracy with a simple configuration.

【0066】(第3の実施形態)本実施形態は、第1の
実施形態と第2の実施形態を組み合わせた処理を行う。
すなわち、パターンマッチングの結果が失敗と判定され
た場合に加え、所定時間毎に強制的にテンプレートの更
新を行う。
(Third Embodiment) In the present embodiment, a process in which the first embodiment and the second embodiment are combined is performed.
That is, in addition to the case where the result of the pattern matching is determined as failure, the template is forcibly updated at predetermined time intervals.

【0067】図7は、本発明の第3の実施形態に係る視
点位置検出装置の構成を示すブロック図である。本図に
おいても図1と同様に、画像表示部3を接続して立体画
像表示システムを構成した場合を示している。図7にお
いて、既に説明した図5と同一の構成要素には同じ参照
数字を付し、その説明は省略する。図7に示す構成と図
5に示した構成とでは、構成要素は共通であり、その接
続関係が異なるのみであるため、構成の説明は省略し、
図8を用いて動作を説明する。
FIG. 7 is a block diagram showing a configuration of a viewpoint position detecting device according to the third embodiment of the present invention. This figure also shows a case where the image display unit 3 is connected to form a stereoscopic image display system, similarly to FIG. 7, the same components as those of FIG. 5 described above are denoted by the same reference numerals, and description thereof will be omitted. The components shown in FIG. 7 and the configuration shown in FIG. 5 have the same components and only differ in the connection relationship.
The operation will be described with reference to FIG.

【0068】図8は、本実施形態における視点位置検出
動作を示すフローチャートである。図2及び図6と同一
動作のステップについては同一参照数字を付し、各ステ
ップの詳細な説明は省略する。図2、図6及び図8の対
比から明らかなように、本実施形態は第1の実施形態
(図2)において、子テンプレートを用いたパターンマ
ッチング後のパターンマッチング結果評価ステップS2
0と、終了指示有無の判別を行うステップS21の間
に、時間計測部の信号出力が検出されたか否かを判定す
るステップS23を付加したことを特徴とする。
FIG. 8 is a flowchart showing a viewpoint position detecting operation in the present embodiment. Steps having the same operations as those in FIGS. 2 and 6 are denoted by the same reference numerals, and detailed description of each step is omitted. As is clear from the comparison between FIGS. 2, 6, and 8, the present embodiment differs from the first embodiment (FIG. 2) in that a pattern matching result evaluation step S2 after pattern matching using a child template is performed.
A step S23 for determining whether or not a signal output of the time measuring unit has been detected is added between 0 and step S21 for determining the presence or absence of the end instruction.

【0069】このステップS23の付加により、2つの
パターンマッチング結果評価ステップS17及びS20
のいずれかでパターンマッチングが失敗と評価された場
合に加え、パターンマッチングが失敗しなくても時間計
測部27の信号出力周期毎にテンプレートの更新(作
成)処理が行われるようになる。その結果、テンプレー
トが定期的に最適化されることになり、さらに精度の高
い位置検出が実現できる。
With the addition of step S23, two pattern matching result evaluation steps S17 and S20 are performed.
In addition to the case where the pattern matching is evaluated as failed in any of the above, the template updating (creation) processing is performed for each signal output cycle of the time measuring unit 27 even if the pattern matching does not fail. As a result, the template is periodically optimized, and more accurate position detection can be realized.

【0070】(第4の実施形態)上述の通り、赤外画像
を用いた瞳孔位置検出は、網膜の近赤外線反射特性を利
用したものである。通常人間の顔面には赤外線を(網膜
のように)反射する部分はないが、眼鏡をかけている観
察者など、赤外線を反射しうる物体を顔面あるいは前頭
部などの撮影範囲に装着している場合には、赤外画像上
に3つ以上の反射像が検出されたり、非常に大きな反射
像が検出される場合が起こりうる。このような赤外画像
からは瞳孔位置が検出できなかったり、検出はできても
誤差が大きい、あるいは正しくない瞳孔位置となること
がある。
(Fourth Embodiment) As described above, the pupil position detection using an infrared image utilizes the near-infrared reflection characteristics of the retina. Normally, the human face does not reflect infrared rays (like the retina), but an object that can reflect infrared rays, such as an observer wearing spectacles, is attached to the face or the forehead or other shooting area. In this case, three or more reflected images may be detected on the infrared image, or a very large reflected image may be detected. The pupil position cannot be detected from such an infrared image, or even if the pupil position can be detected, an error is large or an incorrect pupil position may be obtained.

【0071】上述の実施形態に於いてはいずれも赤外画
像からの瞳孔位置検出処理において、2つの反射像が鮮
明に検出されることを前提としているため、検出が失敗
した場合には無条件で何度でも赤外画像の取得及び取得
した赤外画像からの瞳孔位置検出処理(図2、図6また
は図8のステップS11〜S12)をくり返すように構
成されている。
In each of the above-described embodiments, it is assumed that two reflected images are clearly detected in the pupil position detection processing from an infrared image. And the pupil position detection processing (steps S11 to S12 in FIG. 2, FIG. 6, or FIG. 8) from the acquired infrared image is repeated any number of times.

【0072】しかしながら、実際には眼鏡による反射な
どが原因で、何度処理を行っても赤外画像から正常な
孔位置検出ができないことが発生しうる。そのため、本
実施形態は、赤外画像からの瞳孔位置検出が所定回連続
して失敗した場合には、観察者が眼鏡をかけているなど
の理由により、赤外光による瞳孔位置検出が正常に行え
る可能性が低いと判断して、可視画像情報のみからテン
プレートの作成を行うようにしたことを特徴とする。
However, in reality, even if the processing is performed many times, the normal pupil is obtained from the infrared image due to the reflection by the glasses.
Failure to detect the hole position may occur. Therefore, in the present embodiment, when pupil position detection from an infrared image fails consecutively for a predetermined number of times, pupil position detection by infrared light is performed normally due to reasons such as the viewer wearing glasses. It is characterized in that it is determined that the possibility of performing the template is low, and the template is created only from the visible image information.

【0073】本実施形態に係る視点位置検出装置の構成
は、図1に示す構成と同一でよいため、各構成要素の説
明は省略し、図9を用いて動作について説明する。図9
は、本実施形態に係る視点位置検出装置の動作を示すフ
ローチャートである。図において、図2と同一処理のス
テップについては同一の参照数字を付し、そのステップ
についての詳細な説明は省略する。また、以下の説明で
は、赤外画像からの瞳孔位置検出が4回連続して失敗し
た場合に赤外画像からの瞳孔位置検出を断念する場合を
例に説明する。
The configuration of the viewpoint position detecting device according to the present embodiment may be the same as the configuration shown in FIG. 1, so that the description of each component is omitted, and the operation will be described with reference to FIG. FIG.
5 is a flowchart illustrating an operation of the viewpoint position detecting device according to the present embodiment. In the figure, the same reference numerals are given to the steps of the same processing as in FIG. 2, and the detailed description of the steps is omitted. In the following description, it will be described as an example the case of abandoned pupil position detection from the infrared image when the pupil position detection from the infrared image fails four consecutive times.

【0074】図9に示すように、本実施形態は図2に示
した第1の実施形態における動作に対し、ステップS2
4〜S26の処理を付加したものである。システムの起
動から赤外画像による瞳孔位置検出結果の評価ステップ
(ステップS13)までは実施形態1と同一の処理を行
う。
As shown in FIG. 9, this embodiment differs from the operation of the first embodiment shown in FIG.
4 to S26 are added. The same processing as in the first embodiment is performed from the activation of the system to the evaluation step of the pupil position detection result based on the infrared image (step S13).

【0075】ステップS13において、赤外画像からの
瞳孔位置検出が成功した場合は、ステップS14へ移行
し、その後実施形態1と同様に処理が行われる。一方、
ステップS13において瞳孔位置検出が失敗したと判断
された場合は、連続した失敗した回数が所定回数(この
場合は4回)に達したか否かを判別する(ステップS2
4)。連続して失敗した回数は、例えば瞳孔位置検出処
理部24が内部記憶装置に記憶しておく。連続失敗回数
が所定回数未満であれば、赤外画像の取得ステップ(ス
テップS11)へ戻り、再度赤外画像からの瞳孔位置検
を試みる。
In step S13, the infrared image
If the pupil position detection has succeeded, the process shifts to step S14, and the same processing as in the first embodiment is performed thereafter. on the other hand,
If it is determined in step S13 that the pupil position detection has failed, it is determined whether the number of consecutive failures has reached a predetermined number (four in this case) (step S2).
4). The number of consecutive failures can be determined by, for example, the pupil position detection process.
The processing unit 24 stores the information in the internal storage device. If the number of consecutive failures is less than the predetermined number, the process returns to the infrared image acquisition step (step S11), and the pupil position detection from the infrared image is performed again.
Try to get out .

【0076】一方、連続失敗回数が所定回数(本実施形
態では4回)に達した場合には、赤外画像からの瞳孔位
置検出を断念し、可視画像のみからテンプレートを作成
する。すなわち、図示しない制御部は、テンプレート作
成部23に対し、可視画像記憶部21に取り込んだ画像
データに画像処理を行って領域の抽出、テンプレートの
作成を行うよう指示する。この場合、赤外画像から瞳孔
位置情報が得られないため、テンプレートの作成は親テ
ンプレートから先に行う。具体的には、まず顔の輪郭を
検出し、親テンプレートを作成する(ステップS2
5)。ついで、親テンプレートの右領域、左領域内で目
領域を探索し、子テンプレートを作成する(ステップS
26)。以下、ステップS16へ移行し、パターンマッ
チング以降の処理は第1の実施形態と同様に行う。
On the other hand, if the number of consecutive failures reaches a predetermined number (four in this embodiment), the pupil position from the infrared image
Abandon position detection and create a template from visible images only. That is, the control unit (not shown) instructs the template creation unit 23 to perform image processing on the image data taken into the visible image storage unit 21 to extract a region and create a template. In this case, the pupil from the infrared image
Since position information cannot be obtained, the template is created first from the parent template. Specifically, first, the outline of the face is detected, and a parent template is created (step S2).
5). Next, an eye area is searched in the right area and the left area of the parent template to create a child template (step S).
26). Thereafter, the process proceeds to step S16, and the processes after the pattern matching are performed in the same manner as in the first embodiment.

【0077】本実施形態においてはパターンマッチング
結果の評価ステップ(ステップS17及びステップS2
0)において、パターンマッチングが失敗したと評価さ
れた場合には再度赤外画像の取得からやり直す場合を示
したが、例えば連続4回失敗して可視画像のみからテン
プレートを作成した場合には、ステップS11へ戻ら
ず、ステップS25からやり直すように構成したり、パ
ターンマッチングの連続失敗回数をカウントし、所定回
数を超えた場合にのみ赤外画像の取得からやり直すよう
に構成しても良い。
In this embodiment, the step of evaluating the pattern matching result (steps S17 and S2)
In (0), the case where it is evaluated that the pattern matching has failed has been described, and the case where the processing is started again from the acquisition of the infrared image has been described. Instead of returning to S11, the system may be configured to start over from step S25, or may be configured to count the number of consecutive failures in pattern matching and start over from the acquisition of the infrared image only when the number exceeds a predetermined number.

【0078】以上説明したように、本実施形態によれ
ば、現実に起こりうる問題に対して、的確に対処するこ
とができ、視点位置検出ができないという最悪の事態を
回避することができる。
As described above, according to the present embodiment, it is possible to appropriately deal with a problem that may actually occur, and to avoid the worst case where the viewpoint position cannot be detected.

【0079】(第5の実施形態)第4の実施形態では、
被測定者が眼鏡をかけている等の理由により、赤外画像
からの瞳孔位置検出が困難な場合に、可視画像のみから
2つのテンプレートを作成するようにしていたが、本実
施形態においては、赤外画像の情報を用いて1つのテン
プレートを作成することを特徴とする。本実施形態に係
る視点位置検出装置の構成は、図1に示す構成と同一で
よいため、各構成要素の説明は省略し、図10を用いて
動作について説明する。
(Fifth Embodiment) In the fourth embodiment,
In the case where it is difficult to detect the pupil position from the infrared image due to the reason that the subject wears glasses, two templates are created from only the visible image, but in the present embodiment, It is characterized in that one template is created using the information of the infrared image. Since the configuration of the viewpoint position detecting device according to the present embodiment may be the same as the configuration shown in FIG. 1, the description of each component will be omitted, and the operation will be described with reference to FIG.

【0080】図10は、本実施形態に係る視点位置検出
装置の動作を示すフローチャートである。図において、
図2と同一処理のステップについては同一の参照数字を
付し、そのステップについての詳細な説明は省略する。
また、以下の説明では、第4の実施形態と同様、赤外画
像からの瞳孔位置検出が4回連続して失敗した場合に赤
外画像からの瞳孔位置検出を断念する場合を例に説明す
る。図10に示すように、本実施形態は図9に示した第
4の実施形態における動作に対し、ステップS30〜S
33の処理を付加したものである。システムの起動から
赤外画像による瞳孔位置検出結果の評価ステップ(ステ
ップS13)までは実施形態1と同一の処理を行う。
FIG. 10 is a flowchart showing the operation of the viewpoint position detecting device according to this embodiment. In the figure,
Steps of the same processing as in FIG. 2 are denoted by the same reference numerals, and detailed description of the steps is omitted.
In the following description, as in the fourth embodiment, will be described as an example the case of abandoned pupil position detection from the infrared image when the pupil position detection from the infrared image fails four consecutive times . As shown in FIG. 10, the present embodiment differs from the operation in the fourth embodiment shown in FIG.
33 is added. The same processing as in the first embodiment is performed from the activation of the system to the evaluation step of the pupil position detection result based on the infrared image (step S13).

【0081】ステップS13において、赤外画像からの
瞳孔位置検出が成功した場合は、ステップS14へ移行
し、その後実施形態1と同様に処理が行われる。一方、
ステップS13において瞳孔位置検出が失敗したと判断
された場合は、連続した失敗した回数が所定回数(この
場合は4回)に達したか否かを判別する(ステップS2
4)。連続して失敗した回数は、例えば瞳孔位置検出処
理部24が内部記憶装置に記憶しておく。連続失敗回数
が所定回数未満であれば、赤外画像の取得ステップ(ス
テップS11)へ戻り、再度赤外画像からの瞳孔位置検
を試みる。
In step S13, the infrared image
If the pupil position detection has succeeded, the process shifts to step S14, and thereafter, the same processing as in the first embodiment is performed. on the other hand,
If it is determined in step S13 that the pupil position detection has failed, it is determined whether the number of consecutive failures has reached a predetermined number (four in this case) (step S2).
4). The number of consecutive failures can be determined by, for example, the pupil position detection process.
The processing unit 24 stores the information in the internal storage device. If the number of consecutive failures is less than the predetermined number, the process returns to the infrared image acquisition step (step S11), and the pupil position detection from the infrared image is performed again.
Try to get out .

【0082】一方、連続失敗回数が所定回数(本実施形
態では4回)に達した場合には、赤外画像からの瞳孔位
置検出を断念し、赤外画像から得られる情報を用いて可
視画像からテンプレートを作成する。これは、例えば被
測定者が眼鏡をかけており、眼鏡のフレームやレンズの
反射によって赤外画像からの瞳孔位置検出ができない場
合であっても、眼鏡は目の位置に存在するものであり、
その反射像の中に視点が存在する可能性が高いため、テ
ンプレートを作成する際の基点位置情報として有用と考
えられることによる。
On the other hand, if the number of consecutive failures reaches a predetermined number (four in this embodiment), the pupil position from the infrared image
Abandon position detection and create a template from the visible image using information obtained from the infrared image. This is, for example, even if the subject is wearing spectacles and the pupil position cannot be detected from the infrared image due to the reflection of the frames and lenses of the spectacles, the spectacles are present at the eye position,
Because there is a high possibility that the viewpoint exists in the reflection image, it is considered that it is useful as base point position information when creating a template.

【0083】そのため、本実施形態においては、瞳孔位
置検出処理部24が、赤外画像に含まれる全ての反射光
を含む領域の重心を算出し、テンプレート作成部23が
この重心を基点として可視画像からテンプレートを作成
する(ステップS30)。この際、第4の実施形態にお
いては親テンプレートと子テンプレートの両方を作成し
たが、本実施形態で作成するテンプレートは1つであ
る。テンプレートの大きさは、例えば全ての反射光を含
む領域の横幅、縦幅等の情報から決定する。テンプレー
トを作成したら、テンプレート中の視点があると思われ
る位置を推定し、左眼、右眼の視点位置とする。
Therefore, in the present embodiment, the pupil position
The location detection processing unit 24 calculates the center of gravity of the region including all the reflected light included in the infrared image, and the template creating unit 23 creates a template from the visible image using the center of gravity as a base point (step S30). At this time, both the parent template and the child template are created in the fourth embodiment, but one template is created in the present embodiment. The size of the template is determined, for example, from information such as the horizontal width and the vertical width of the area including all the reflected light. After the template is created, a position in the template where the viewpoint is considered to be present is estimated, and the viewpoint positions of the left eye and the right eye are set.

【0084】テンプレートの作成が終了したら、そのテ
ンプレートを用いて可視画像とのパターンマッチングを
行う(ステップS32)。パターンマッチングが成功と
判断され、ステップS33で終了処理の指示がない場合
には、ステップS31へ戻って処理を継続する。一方、
ステップS32においてパターンマッチングが失敗と判
断された場合にはステップS11へ戻って赤外画像の取
得から再度行う。本実施形態の場合、もともと高精度な
パターンマッチング結果は期待できないため、ステップ
S32におけるパターンマッチング結果の評価基準を赤
外画像から正確な瞳孔位置検出が可能な実施形態1にお
ける判断基準より多少甘くする等変更してもよい。
When the creation of the template is completed, pattern matching with the visible image is performed using the template (step S32). If it is determined that the pattern matching is successful and there is no instruction for the end processing in step S33, the process returns to step S31 to continue the processing. on the other hand,
If it is determined in step S32 that the pattern matching has failed, the process returns to step S11 to start again from the acquisition of the infrared image. In the case of the present embodiment, since a highly accurate pattern matching result cannot be expected from the beginning, the evaluation criterion of the pattern matching result in step S32 is set somewhat looser than the criterion in the first embodiment that allows accurate pupil position detection from an infrared image. Etc. may be changed.

【0085】本実施形態においてはパターンマッチング
結果の評価ステップ(ステップS32)において、パタ
ーンマッチングが失敗したと評価された場合には再度赤
外画像の取得からやり直す場合を示したが、例えば連続
4回失敗して赤外画像の情報を用いてテンプレートを作
成した場合には、ステップS11へ戻らず、ステップS
30からやり直すように構成したり、パターンマッチン
グの連続失敗回数をカウントし、所定回数を超えた場合
にのみ赤外画像の取得からやり直すように構成しても良
い。
In this embodiment, in the step of evaluating the pattern matching result (step S32), when it is evaluated that the pattern matching has failed, the case where the processing is started again from the acquisition of the infrared image is shown. If the template is created using the information of the infrared image due to a failure, the process does not return to step S11 but proceeds to step S11.
Alternatively, the system may be configured to start over from 30 or to start from the acquisition of the infrared image only when the number of consecutive failures in pattern matching is counted and the number of times exceeds a predetermined number.

【0086】以上説明したように、本実施形態によれ
ば、現実に起こりうる問題に対して、的確に対処するこ
とができ、視点位置検出ができないという最悪の事態を
回避することができる。
As described above, according to the present embodiment, it is possible to appropriately deal with a problem that can actually occur, and to avoid the worst case where the viewpoint position cannot be detected.

【0087】[0087]

【その他の実施形態】上述の実施形態においては、いず
れも視点位置検出のイニシアチブは本発明の視点位置検
出装置が持っている場合を説明したが、例えば画像表示
部3を付加した立体画像表示システムとして使用する場
合には、画像表示部3またはリモートコントローラにユ
ーザが操作できるボタン等を設け、ユーザが立体表示を
認識しにくくなった場合にこのボタンを押すことによ
り、赤外画像取得動作に始まる瞳孔位置検出動作をやり
直すように構成することもできる。このような構成とす
ることにより、的確なタイミングでテンプレートの更新
が行われ、より高精度の視点位置検出が可能となり、結
果として立体視可能な範囲が広い立体画像表示システム
を実現することができる。
[Other Embodiments] In the above embodiments, the case where the viewpoint position detection initiative of the present invention has the initiative of viewpoint position detection has been described. When the image display unit 3 or the remote controller is used, a button or the like that can be operated by the user is provided, and when the user has difficulty in recognizing the stereoscopic display, the user presses this button to start the infrared image acquisition operation. The pupil position detection operation may be configured to be redone. With such a configuration, the template is updated at an accurate timing, and the viewpoint position detection can be performed with higher accuracy. As a result, a stereoscopic image display system with a wide stereoscopic view range can be realized. .

【0088】また、赤外光を発光する際に、画像表示部
3の輝度や観察者までの距離に応じてその発光量を変化
させたり、赤外画像からの瞳孔位置検出が失敗してやり
直す際には前回と発光量を変化させる(強くする、ある
いは弱くする)こともできる。このような発光量の制御
は、赤外画像からの瞳孔位置検出を成功させる確率を高
め、結果として高精度な視点位置検出結果を得ることに
つながる。
When emitting infrared light, the amount of light emission is changed according to the brightness of the image display unit 3 or the distance to the observer, or the pupil position detection from the infrared image fails and is repeated. At this time, the light emission amount can be changed (increased or weakened) from the last time. Such control of the light emission amount increases the probability of successfully detecting the pupil position from the infrared image, and as a result, leads to obtaining a highly accurate viewpoint position detection result.

【0089】また、上述の実施形態では本発明による視
点位置検出装置の検出結果を立体画像表示装置に供給す
る場合を例にして説明したが、本発明による視点位置検
出装置は、任意の用途に用いることができる。
Further, in the above-described embodiment, the case where the detection result of the viewpoint position detecting device according to the present invention is supplied to the stereoscopic image display device has been described as an example. However, the viewpoint position detecting device according to the present invention is applicable to any application. Can be used.

【0090】また、上述の実施形態において説明した具
体的な手法、例えばパターンマッチングの方法、テンプ
レート作成の方法等は、実施形態において説明した者に
限定されるものではなく、同等に適用可能な方法を用い
ても良いことはいうまでもない。
Further, the specific methods described in the above embodiments, such as the pattern matching method and the template creation method, are not limited to those described in the embodiments, but may be equally applicable. It is needless to say that may be used.

【0091】上述の実施形態においては、ピンポイント
の座標である視点位置を出力するように構成されていた
が、例えば上述の実施形態のように最終的に得られる視
点位置を立体画像表示装置の制御に用いる場合であれ
ば、右眼と左眼の視点位置の中心位置がわかれば最低限
の制御は可能であるため、テンプレートの中心位置を画
像表示部3へ出力するようにしても良い。特に実施形態
4及び5で説明したような、赤外画像から正確な瞳孔位
置情報が得られない場合にはこのような構成は有効であ
る。
In the above-described embodiment, the viewpoint position, which is the coordinate of the pinpoint, is configured to be output. However, for example, as in the above-described embodiment, the viewpoint position finally obtained is determined by the three-dimensional image display device. In the case of using for control, since the minimum control is possible if the center position of the viewpoint positions of the right eye and the left eye is known, the center position of the template may be output to the image display unit 3. In particular, the accurate pupil position from the infrared image as described in Embodiments 4 and 5
Such a configuration is effective when the location information cannot be obtained.

【0092】また、赤外画像からの瞳孔位置検出が困難
な場合、他の方法に切り替える実施形態4及び5のよう
な場合には、例えば被測定者が眼鏡をかけていることを
本発明の視点位置検出装置に指示する手段(ボタンな
ど)を設け、このボタンが押された場合には初めから代
替えステップに移行するように構成しても良い。この場
合、実施形態4においては図9におけるステップS10
から可視画像を取得し、直接ステップS25へ移行、あ
るいはステップS13で赤外光からの瞳孔位置検出が最
初に失敗と判断された時点でステップS25へ移行する
ように構成すればよい。同様に、実施形態5ではステッ
プS11で赤外画像を取得し、直接ステップS30へ移
行、あるいはステップS13で赤外光からの瞳孔位置検
が最初に失敗と判断された時点でステップS30へ移
行するように構成すればよい。
Further, when it is difficult to detect the pupil position from the infrared image, in the case of Embodiments 4 and 5 in which the method is switched to another method, for example, it is assumed that the subject is wearing glasses. Means (a button or the like) for instructing the viewpoint position detecting device may be provided so that when this button is pressed, the process shifts to the substitution step from the beginning. In this case, in the fourth embodiment, step S10 in FIG.
May be configured to directly acquire the visible image from step S25 and proceed to step S25, or proceed to step S25 when it is determined that the detection of the pupil position from the infrared light has failed for the first time in step S13. Similarly, in the fifth embodiment, an infrared image is acquired in step S11, and the process directly proceeds to step S30, or the pupil position detection from infrared light is performed in step S13.
What is necessary is just to comprise so that it may shift to step S30 at the time when it is determined that the first delivery has failed.

【0093】なお、本発明は、複数の機器(例えばホス
トコンピュータ、インタフェイス機器、リーダ、プリン
タなど)から構成されるシステムに適用しても、一つの
機器からなる装置(例えば、複写機、ファクシミリ装置
など)に適用してもよい。
The present invention can be applied to a system including a plurality of devices (for example, a host computer, an interface device, a reader, a printer, etc.), and can be applied to a single device (for example, a copier, a facsimile). Device).

【0094】また、本発明の目的は、前述した実施形態
の機能を実現するソフトウェアのプログラムコードを記
録した記憶媒体(または記録媒体)を、システムあるい
は装置に供給し、そのシステムあるいは装置のコンピュ
ータ(またはCPUやMPU)が記憶媒体に格納されたプログ
ラムコードを読み出し実行することによっても、達成さ
れることは言うまでもない。
Further, an object of the present invention is to supply a storage medium (or a recording medium) in which a program code of software for realizing the functions of the above-described embodiments is recorded to a system or an apparatus, and to provide the computer (or computer) of the system or the apparatus It is needless to say that the present invention can also be achieved by a CPU or an MPU) reading and executing the program code stored in the storage medium.

【0095】この場合、記憶媒体から読み出されたプロ
グラムコード自体が前述した実施形態の機能を実現する
ことになり、そのプログラムコードを記憶した記憶媒体
は本発明を構成することになる。また、コンピュータが
読み出したプログラムコードを実行することにより、前
述した実施形態の機能が実現されるだけでなく、そのプ
ログラムコードの指示に基づき、コンピュータ上で稼働
しているオペレーティングシステム(OS)などが実際の処
理の一部または全部を行い、その処理によって前述した
実施形態の機能が実現される場合も含まれることは言う
までもない。
In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiment, and the storage medium storing the program code constitutes the present invention. By executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also an operating system (OS) running on the computer based on the instruction of the program code. It goes without saying that a case where some or all of the actual processing is performed and the functions of the above-described embodiments are realized by the processing is also included.

【0096】さらに、記憶媒体から読み出されたプログ
ラムコードが、コンピュータに挿入された機能拡張カー
ドやコンピュータに接続された機能拡張ユニットに備わ
るメモリに書込まれた後、そのプログラムコードの指示
に基づき、その機能拡張カードや機能拡張ユニットに備
わるCPUなどが実際の処理の一部または全部を行い、そ
の処理によって前述した実施形態の機能が実現される場
合も含まれることは言うまでもない。
Further, after the program code read from the storage medium is written into the memory provided in the function expansion card inserted into the computer or the function expansion unit connected to the computer, the program code is read based on the instruction of the program code. Needless to say, the CPU included in the function expansion card or the function expansion unit performs part or all of the actual processing, and the processing realizes the functions of the above-described embodiments.

【0097】本発明を上記記憶媒体に適用する場合、そ
の記憶媒体には、先に説明した(図2、図6、図8〜図
10のいずれかに示す)フローチャートに対応するプロ
グラムコードが格納されることになる。
When the present invention is applied to the storage medium, the storage medium stores program codes corresponding to the above-described flowcharts (shown in FIGS. 2, 6, 8 to 10). Will be done.

【0098】[0098]

【発明の効果】以上説明したように、本発明によれば、
観察者の視点位置を検出して視点位置情報を出力する視
点位置検出装置において、初期のテンプレート作成に赤
外画像を利用し、その後は可視画像のパターンマッチン
グを行う構成とすることにより、赤外光を連続して観察
者に照射する必要がなく、観察者への影響懸念を最小限
とすることができる上、短時間で精度の高い赤外画像か
らの位置検出情報を用いてテンプレートを作成すること
ができるため、テンプレート作成処理が軽減され、かつ
精度の高いテンプレートを作成することができる。
As described above, according to the present invention,
In a viewpoint position detection device that detects a viewpoint position of an observer and outputs viewpoint position information, an infrared image is used for initial template creation, and thereafter, a pattern matching of a visible image is performed. It is not necessary to continuously irradiate light to the observer, minimizing concerns about the influence on the observer, and creating a template using highly accurate position detection information from an infrared image in a short time Therefore, the template creation process can be reduced, and a template with high accuracy can be created.

【0099】また、観察者が変わったり、大きく移動し
た場合など、可視画像のパターンマッチングに失敗した
場合や、定期的にテンプレートを更新するように構成す
ることにより、常に精度の高いテンプレートを維持する
ことが可能となり、結果として高精度な視点位置情報が
安定して得られるという効果を有する。
Further, when the pattern matching of the visible image fails, such as when the observer changes or moves greatly, or by updating the template periodically, a template with high accuracy is always maintained. As a result, there is an effect that highly accurate viewpoint position information can be stably obtained.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第1実施形態に係る視点位置検出装置
の構成を示すブロック図である。
FIG. 1 is a block diagram illustrating a configuration of a viewpoint position detecting device according to a first embodiment of the present invention.

【図2】本発明の第1実施形態の動作を説明するフロー
チャートである。
FIG. 2 is a flowchart illustrating the operation of the first embodiment of the present invention.

【図3】赤外光により得られる画像の例を示す図であ
る。
FIG. 3 is a diagram illustrating an example of an image obtained by infrared light.

【図4】本発明の実施形態において用いるテンプレート
の構成を説明する図である。
FIG. 4 is a diagram illustrating a configuration of a template used in the embodiment of the present invention.

【図5】本発明の第2実施形態に係る視点位置検出装置
の構成を示すブロック図である。
FIG. 5 is a block diagram illustrating a configuration of a viewpoint position detecting device according to a second embodiment of the present invention.

【図6】本発明の第2実施形態の動作を説明するフロー
チャートである。
FIG. 6 is a flowchart illustrating the operation of the second embodiment of the present invention.

【図7】本発明の第3実施形態に係る視点位置検出装置
の構成を示すブロック図である。
FIG. 7 is a block diagram illustrating a configuration of a viewpoint position detecting device according to a third embodiment of the present invention.

【図8】本発明の第3実施形態の動作を説明するフロー
チャートである。
FIG. 8 is a flowchart illustrating the operation of the third embodiment of the present invention.

【図9】本発明の第4実施形態の動作を説明するフロー
チャートである。
FIG. 9 is a flowchart illustrating the operation of the fourth embodiment of the present invention.

【図10】本発明の第5実施形態の動作を説明するフロ
ーチャートである。
FIG. 10 is a flowchart illustrating the operation of the fifth embodiment of the present invention.

【図11】リアクロスレンチキュラ方式の立体画像表示
装置の構成を示す斜視図である。
FIG. 11 is a perspective view showing a configuration of a rear cross lenticular type stereoscopic image display device.

【図12】視点位置により表示制御を行う立体画像表示
装置の例を示す斜視図である。
FIG. 12 is a perspective view illustrating an example of a stereoscopic image display device that performs display control according to a viewpoint position.

【手続補正3】[Procedure amendment 3]

【補正対象書類名】図面[Document name to be amended] Drawing

【補正対象項目名】図1[Correction target item name] Fig. 1

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【図1】 FIG.

【手続補正4】[Procedure amendment 4]

【補正対象書類名】図面[Document name to be amended] Drawing

【補正対象項目名】図2[Correction target item name] Figure 2

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【図2】 FIG. 2

【手続補正5】[Procedure amendment 5]

【補正対象書類名】図面[Document name to be amended] Drawing

【補正対象項目名】図5[Correction target item name] Fig. 5

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【図5】 FIG. 5

【手続補正6】[Procedure amendment 6]

【補正対象書類名】図面[Document name to be amended] Drawing

【補正対象項目名】図6[Correction target item name] Fig. 6

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【図6】 FIG. 6

【手続補正7】[Procedure amendment 7]

【補正対象書類名】図面[Document name to be amended] Drawing

【補正対象項目名】図7[Correction target item name] Fig. 7

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【図7】 FIG. 7

【手続補正8】[Procedure amendment 8]

【補正対象書類名】図面[Document name to be amended] Drawing

【補正対象項目名】図8[Correction target item name] Fig. 8

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【図8】 FIG. 8

【手続補正9】[Procedure amendment 9]

【補正対象書類名】図面[Document name to be amended] Drawing

【補正対象項目名】図9[Correction target item name] Fig. 9

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【図9】 FIG. 9

【手続補正10】[Procedure amendment 10]

【補正対象書類名】図面[Document name to be amended] Drawing

【補正対象項目名】図10[Correction target item name] FIG.

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【図10】 FIG. 10

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5C061 AA06 AA29 AB12 AB16 AB17 AB24  ──────────────────────────────────────────────────続 き Continued on the front page F term (reference) 5C061 AA06 AA29 AB12 AB16 AB17 AB24

Claims (22)

【特許請求の範囲】[Claims] 【請求項1】 被測定者の視点位置を検出し、視点位置
情報を出力する視点位置検出装置であって、 被測定者の赤外画像を取得する赤外画像取得手段と、 被測定者の可視画像を取得する可視画像取得手段と、 前記赤外画像取得手段が取得した赤外画像から、被測定
者の瞳孔位置を検出する検出手段と、 前記可視画像取得手段が取得した可視画像から、前記瞳
孔位置を用いてパターンマッチング用のテンプレートを
作成するテンプレート作成手段と、 前記テンプレート作成手段の作成したテンプレートを用
い、前記可視画像取得手段が取得する可視画像とテンプ
レートマッチングを行って被測定者の視点位置を検出
し、結果を前記視点位置情報として出力するマッチング
手段とを有することを特徴とする視点位置検出装置。
1. A viewpoint position detecting device for detecting a viewpoint position of a person to be measured and outputting viewpoint position information, comprising: an infrared image acquiring means for acquiring an infrared image of the person to be measured; A visible image acquiring unit that acquires a visible image, from the infrared image acquired by the infrared image acquiring unit, a detecting unit that detects a pupil position of the subject, and a visible image acquired by the visible image acquiring unit. Template creating means for creating a template for pattern matching using the pupil position; and using the template created by the template creating means, the visible image acquiring means performs template matching with the visible image acquired by A matching means for detecting a viewpoint position and outputting a result as the viewpoint position information.
【請求項2】 被測定者の視点位置を検出し、視点位置
情報を出力する視点位置検出装置であって、 被測定者の赤外画像を取得する赤外画像取得手段と、 被測定者の可視画像を取得する可視画像取得手段と、 前記赤外画像取得手段が取得した赤外画像から、被測定
者の瞳孔位置を検出する検出手段と、 前記可視画像取得手段が取得した可視画像から、前記瞳
孔位置を用いてパターンマッチング用のテンプレートを
作成するテンプレート作成手段と、 前記テンプレート作成手段の作成したテンプレートを用
いて前記可視画像取得手段が取得する可視画像とテンプ
レートマッチングを行い、被測定者の視点位置を検出
し、検出結果を前記視点位置情報として出力するマッチ
ング手段と、 所定の条件を満たす場合に前記検出手段及び前記テンプ
レート作成手段を用いて再度前記テンプレートを作成す
るように制御する制御手段とを有することを特徴とする
視点位置検出装置。
2. A viewpoint position detecting device for detecting a viewpoint position of a person to be measured and outputting viewpoint position information, comprising: an infrared image acquiring means for acquiring an infrared image of the person to be measured; A visible image acquiring unit that acquires a visible image, from the infrared image acquired by the infrared image acquiring unit, a detecting unit that detects a pupil position of the subject, and a visible image acquired by the visible image acquiring unit. A template creating unit that creates a template for pattern matching using the pupil position; and performing template matching with the visible image acquired by the visible image acquiring unit using the template created by the template creating unit. A matching unit that detects a viewpoint position and outputs a detection result as the viewpoint position information; and a detection unit and the template when a predetermined condition is satisfied. Control means for controlling to create the template again by using the port creation means.
【請求項3】 前記制御手段が、前記マッチング手段の
検出結果を評価するとともに、検出が所定回数失敗した
と判定された場合に前記検出手段及び前記テンプレート
作成手段を用いて再度前記テンプレートを作成するよう
に制御することを特徴とする請求項2記載の視点位置検
出装置。
3. The control unit evaluates the detection result of the matching unit, and when it is determined that the detection has failed a predetermined number of times, creates the template again using the detection unit and the template creation unit. 3. The viewpoint position detecting device according to claim 2, wherein the control is performed in such a manner.
【請求項4】 前記制御手段が、所定の時間毎に前記検
出手段及び前記テンプレート作成手段を用いて再度前記
テンプレートを作成するように制御することを特徴とす
る請求項2記載の視点位置検出装置。
4. The viewpoint position detecting apparatus according to claim 2, wherein said control means controls the generation of the template again using the detection means and the template generation means at predetermined time intervals. .
【請求項5】 前記制御手段が、前記マッチング手段の
検出結果を評価するとともに、検出が所定回数失敗した
と判定された場合及び所定の時間毎に前記検出手段及び
前記テンプレート作成手段を用いて再度前記テンプレー
トを作成するように制御することを特徴とする請求項2
記載の視点位置検出装置。
5. The control means evaluates the detection result of the matching means, and when it is determined that the detection has failed a predetermined number of times, and again at predetermined time intervals, using the detection means and the template creation means. 3. The method according to claim 2, wherein the control is performed to create the template.
The viewpoint position detecting device according to the above.
【請求項6】 被測定者からの指示を受信する受信手段
をさらに有し、前記制御手段が、前記受信手段を介して
所定の指示を受信すると前記検出手段及び前記テンプレ
ート作成手段を用いて再度前記テンプレートを作成する
ように制御することを特徴とする請求項2記載の視点位
置検出装置。
6. A receiving means for receiving an instruction from a person to be measured, wherein said control means, when receiving a predetermined instruction via said receiving means, re-uses said detecting means and said template creating means. The viewpoint position detecting device according to claim 2, wherein control is performed to create the template.
【請求項7】 前記テンプレート作成手段が大きさの異
なる複数のテンプレートを作成し、前記マッチング手段
が前記複数のテンプレートを順次用いて複数回テンプレ
ートマッチングを行うことを特徴とする請求項2記載の
視点位置検出装置。
7. The viewpoint according to claim 2, wherein the template creating unit creates a plurality of templates having different sizes, and the matching unit performs the template matching a plurality of times using the plurality of templates sequentially. Position detection device.
【請求項8】 前記検出手段による瞳孔検出が所定回数
失敗した場合、前記可視画像のみ、あるいは前記赤外画
像から得られる情報を用いてパターンマッチング用テン
プレートを作成し、前記テンプレート作成手段が作成し
たテンプレートとして前記マッチング手段に供給する第
2のテンプレート作成手段をさらに有することを特徴と
する請求項2記載の視点位置検出装置。
8. When the pupil detection by the detection means has failed a predetermined number of times, a pattern matching template is created using only the visible image or information obtained from the infrared image, and the template creation means creates the pattern matching template. 3. The viewpoint position detecting device according to claim 2, further comprising a second template creating unit that supplies the template to the matching unit.
【請求項9】 被測定者からの指示を受信する受信手段
をさらに有し、前記制御手段が、前記受信手段を介して
所定の指示を受信すると前記第2のテンプレート作成手
段を用いてテンプレートマッチングを行うように制御す
ることを特徴とする請求項2記載の視点位置検出装置。
9. A receiving means for receiving an instruction from a person to be measured, wherein the control means receives a predetermined instruction via the receiving means and uses the second template creating means to perform template matching. 3. The viewpoint position detecting device according to claim 2, wherein the control is performed to perform the following.
【請求項10】 被測定者の視点位置を検出し、視点位
置情報を出力する視点位置検出方法であって、 被測定者の赤外画像を取得する赤外画像取得ステップ
と、 被測定者の可視画像を取得する可視画像取得ステップ
と、 前記赤外画像取得ステップで取得した赤外画像から、被
測定者の瞳孔位置を検出する検出ステップと、 前記可視画像取得ステップで取得した可視画像から、前
記瞳孔位置を用いてパターンマッチング用のテンプレー
トを作成するテンプレート作成ステップと、 前記テンプレート作成ステップで作成したテンプレート
を用い、前記可視画像取得ステップで取得する可視画像
とテンプレートマッチングを行って被測定者の視点位置
を検出し、結果を前記視点位置情報として出力するマッ
チングステップとを有することを特徴とする視点位置検
出方法。
10. A viewpoint position detecting method for detecting a viewpoint position of a person to be measured and outputting viewpoint position information, comprising: an infrared image acquiring step of acquiring an infrared image of the person to be measured; A visible image acquisition step of acquiring a visible image, from the infrared image acquired in the infrared image acquisition step, a detection step of detecting a pupil position of the subject, and from the visible image acquired in the visible image acquisition step, A template creation step of creating a template for pattern matching using the pupil position, and using the template created in the template creation step, performing visible image acquisition in the visible image acquisition step and template matching to perform measurement of the subject. A matching step of detecting a viewpoint position and outputting a result as the viewpoint position information. That the viewpoint position detection method.
【請求項11】 被測定者の視点位置を検出し、視点位
置情報を出力する視点位置検出方法であって、 被測定者の赤外画像を取得する赤外画像取得ステップ
と、 被測定者の可視画像を取得する可視画像取得ステップ
と、 前記赤外画像取得ステップで取得した赤外画像から、被
測定者の瞳孔位置を検出する検出ステップと、 前記可視画像取得ステップで取得した可視画像から、前
記瞳孔位置を用いてパターンマッチング用のテンプレー
トを作成するテンプレート作成ステップと、 前記テンプレート作成ステップで作成したテンプレート
を用いて前記可視画像取得ステップで取得する可視画像
とテンプレートマッチングを行い、被測定者の視点位置
を検出し、検出結果を前記視点位置情報として出力する
マッチングステップとを有し、 所定の条件を満たす場合に前記検出ステップ及び前記テ
ンプレート作成ステップを用いて再度前記テンプレート
を作成するとともに、それ以外の場合には前記可視画像
取得ステップと前記マッチングステップとを繰り返し行
うことことを特徴とする視点位置検出方法。
11. A viewpoint position detecting method for detecting a viewpoint position of a person to be measured and outputting viewpoint position information, comprising: an infrared image acquiring step of acquiring an infrared image of the person to be measured; A visible image acquisition step of acquiring a visible image, from the infrared image acquired in the infrared image acquisition step, a detection step of detecting a pupil position of the subject, and from the visible image acquired in the visible image acquisition step, A template creation step of creating a template for pattern matching using the pupil position, and performing template matching with the visible image acquired in the visible image acquisition step using the template created in the template creation step, and A matching step of detecting a viewpoint position and outputting a detection result as the viewpoint position information. The viewpoint is characterized in that the template is created again using the detection step and the template creation step when the condition is satisfied, and otherwise the visible image acquisition step and the matching step are repeatedly performed. Position detection method.
【請求項12】 前記マッチングステップの検出結果を
評価する評価ステップをさらに有し、検出が所定回数失
敗したと判定された場合に前記検出ステップ及び前記テ
ンプレート作成ステップを用いて再度前記テンプレート
を作成することを特徴とする請求項11記載の視点位置
検出方法。
12. An evaluation step for evaluating a detection result of the matching step, wherein when it is determined that the detection has failed a predetermined number of times, the template is created again using the detection step and the template creation step. The viewpoint position detecting method according to claim 11, wherein:
【請求項13】 所定の時間を検出する時間検出ステッ
プをさらに有し、この時間検出ステップにより前記所定
の時間が検出される毎に前記検出ステップ及び前記テン
プレート作成ステップを用いて再度前記テンプレートを
作成することを特徴とする請求項11記載の視点位置検
出方法。
13. A time detecting step for detecting a predetermined time, wherein the template is generated again by using the detecting step and the template generating step every time the predetermined time is detected by the time detecting step. The method according to claim 11, further comprising:
【請求項14】 前記マッチングステップの検出結果を
評価する評価ステップと、所定の時間を検出する時間検
出ステップとをさらに有し、前記評価ステップで検出が
所定回数失敗したと判定された場合及び前記時間検出ス
テップで前記所定の時間が検出される毎に前記検出ステ
ップ及び前記テンプレート作成ステップを用いて再度前
記テンプレートを作成することを特徴とする請求項11
記載の視点位置検出方法。
14. An evaluation step for evaluating a detection result of the matching step, and a time detection step for detecting a predetermined time, wherein the evaluation step determines that the detection has failed a predetermined number of times, and 12. The template is created again by using the detecting step and the template creating step each time the predetermined time is detected in the time detecting step.
The described viewpoint position detection method.
【請求項15】 被測定者からの指示を受信する受信ス
テップをさらに有し、前記受信ステップで所定の指示を
受信すると前記検出ステップ及び前記テンプレート作成
ステップを用いて再度前記テンプレートを作成すること
を特徴とする請求項11記載の視点位置検出方法。
15. A receiving step for receiving an instruction from a person to be measured, wherein the step of receiving the predetermined instruction in the receiving step includes generating the template again by using the detecting step and the template generating step. The method of detecting a viewpoint position according to claim 11, wherein:
【請求項16】 前記テンプレート作成ステップが大き
さの異なる複数のテンプレートを作成し、前記マッチン
グステップにおいて前記複数のテンプレートを順次用い
て複数回テンプレートマッチングを行うことを特徴とす
る請求項11記載の視点位置検出方法。
16. The viewpoint according to claim 11, wherein the template creating step creates a plurality of templates having different sizes, and performs the template matching a plurality of times by sequentially using the plurality of templates in the matching step. Position detection method.
【請求項17】 前記検出ステップによる瞳孔検出が所
定回数失敗した場合、前記可視画像のみ、あるいは前記
赤外画像から得られる情報を用いてパターンマッチング
用テンプレートを作成し、前記テンプレート作成ステッ
プが作成したテンプレートとして前記マッチングステッ
プに供給する第2のテンプレート作成ステップをさらに
有することを特徴とする請求項11記載の視点位置検出
方法。
17. When the pupil detection in the detecting step has failed a predetermined number of times, a pattern matching template is created using only the visible image or information obtained from the infrared image, and the template creating step creates the template. The method according to claim 11, further comprising a second template creation step of supplying the template as a template to the matching step.
【請求項18】 被測定者からの指示を受信する受信ス
テップをさらに有し、前記受信ステップにおいて、所定
の指示を受信すると前記第2のテンプレート作成ステッ
プを用いてテンプレートマッチングを行うことを特徴と
する請求項11記載の視点位置検出方法。
18. The method according to claim 18, further comprising a receiving step of receiving an instruction from the subject, wherein in the receiving step, when a predetermined instruction is received, template matching is performed using the second template creating step. The viewpoint position detecting method according to claim 11, wherein
【請求項19】 請求項1乃至9のいずれかに記載の視
点位置検出装置と、この視点位置検出装置に接続された
立体画像表示装置とを有する立体画像表示システムであ
って、前記視点位置検出装置から受信した前記視点位置
情報を用いて前記立体画像表示装置を制御することを特
徴とする立体画像表示システム。
19. A stereoscopic image display system comprising: the viewpoint position detecting device according to claim 1; and a stereoscopic image display device connected to the viewpoint position detecting device. A stereoscopic image display system, wherein the stereoscopic image display device is controlled using the viewpoint position information received from the device.
【請求項20】 請求項1乃至9のいずれかに記載の視
点位置検出装置と、この視点位置検出装置に接続され
た、立体画像表示装置とを有する立体画像表示システム
であって、前記立体画像表示装置が出射光路を制御する
マスクパターンを有する立体画像表示装置であって、前
記視点位置検出装置から受信した視点位置情報を用いて
前記マスクパターンの位置またはパターンを変化させる
ことを特徴とする立体画像表示システム。
20. A stereoscopic image display system comprising: the viewpoint position detecting device according to claim 1; and a stereoscopic image display device connected to the viewpoint position detecting device. A stereoscopic image display device having a mask pattern in which a display device controls an emission optical path, wherein the position or pattern of the mask pattern is changed using viewpoint position information received from the viewpoint position detection device. Stereoscopic image display system.
【請求項21】 請求項10記載の方法をコンピュータ
が実行可能なプログラムとして格納したコンピュータ読
みとり可能な記憶媒体。
21. A computer-readable storage medium storing the method according to claim 10 as a computer-executable program.
【請求項22】 請求項11記載の方法をコンピュータ
が実行可能なプログラムとして格納したコンピュータ読
みとり可能な記憶媒体。
22. A computer-readable storage medium storing the method according to claim 11 as a computer-executable program.
JP08245599A 1998-11-12 1999-03-25 Viewpoint position detecting device, method and stereoscopic image display system Expired - Fee Related JP3428920B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP08245599A JP3428920B2 (en) 1999-03-25 1999-03-25 Viewpoint position detecting device, method and stereoscopic image display system
US09/395,365 US6757422B1 (en) 1998-11-12 1999-09-14 Viewpoint position detection apparatus and method, and stereoscopic image display system
US10/238,593 US20030012425A1 (en) 1998-11-12 2002-09-11 Viewpoint position detection apparatus and method, and stereoscopic image display system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP08245599A JP3428920B2 (en) 1999-03-25 1999-03-25 Viewpoint position detecting device, method and stereoscopic image display system

Publications (2)

Publication Number Publication Date
JP2000278716A true JP2000278716A (en) 2000-10-06
JP3428920B2 JP3428920B2 (en) 2003-07-22

Family

ID=13775000

Family Applications (1)

Application Number Title Priority Date Filing Date
JP08245599A Expired - Fee Related JP3428920B2 (en) 1998-11-12 1999-03-25 Viewpoint position detecting device, method and stereoscopic image display system

Country Status (1)

Country Link
JP (1) JP3428920B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001340300A (en) * 2000-05-31 2001-12-11 Mixed Reality Systems Laboratory Inc Pupil detecting device and method, fixation point detecting device and method, and three-dimensional image display system
JP2002232917A (en) * 2001-01-31 2002-08-16 Mixed Reality Systems Laboratory Inc Viewpoint position detector, viewpoint position detection method and stereoscopic image display system
JP2006039271A (en) * 2004-07-28 2006-02-09 Brother Ind Ltd Image display apparatus, reflection mirror thereof and image display method
JP2009544992A (en) * 2006-07-24 2009-12-17 シーフロント ゲゼルシャフト ミット ベシュレンクテル ハフツング Autostereoscopic system
KR101216123B1 (en) * 2011-07-08 2012-12-27 김호 Method and device for generating tracking information of viewer's face, computer-readable recording medium for the same, three dimensional display apparatus
JP2013516882A (en) * 2010-01-07 2013-05-13 3ディー スイッチ エス.アール.エル. Apparatus and method for recognizing stereoscopic glasses, and method for controlling display of a stereoscopic video stream
CN103302666A (en) * 2012-03-09 2013-09-18 佳能株式会社 Information processing apparatus and information processing method
US9156162B2 (en) 2012-03-09 2015-10-13 Canon Kabushiki Kaisha Information processing apparatus and information processing method
JP2017534957A (en) * 2014-09-16 2017-11-24 マイクロソフト テクノロジー ライセンシング,エルエルシー Display that reduces eye discomfort

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001340300A (en) * 2000-05-31 2001-12-11 Mixed Reality Systems Laboratory Inc Pupil detecting device and method, fixation point detecting device and method, and three-dimensional image display system
JP2002232917A (en) * 2001-01-31 2002-08-16 Mixed Reality Systems Laboratory Inc Viewpoint position detector, viewpoint position detection method and stereoscopic image display system
US6856341B2 (en) 2001-01-31 2005-02-15 Canon Kabushiki Kaisha Viewpoint detecting apparatus, viewpoint detecting method, and three-dimensional image display system
JP2006039271A (en) * 2004-07-28 2006-02-09 Brother Ind Ltd Image display apparatus, reflection mirror thereof and image display method
JP2009544992A (en) * 2006-07-24 2009-12-17 シーフロント ゲゼルシャフト ミット ベシュレンクテル ハフツング Autostereoscopic system
JP4950293B2 (en) * 2006-07-24 2012-06-13 シーフロント ゲゼルシャフト ミット ベシュレンクテル ハフツング Autostereoscopic system
JP2013516882A (en) * 2010-01-07 2013-05-13 3ディー スイッチ エス.アール.エル. Apparatus and method for recognizing stereoscopic glasses, and method for controlling display of a stereoscopic video stream
WO2013009020A2 (en) * 2011-07-08 2013-01-17 Lee In Kwon Method and apparatus for generating viewer face-tracing information, recording medium for same, and three-dimensional display apparatus
WO2013009020A3 (en) * 2011-07-08 2013-03-07 Lee In Kwon Method and apparatus for generating viewer face-tracing information, recording medium for same, and three-dimensional display apparatus
KR101216123B1 (en) * 2011-07-08 2012-12-27 김호 Method and device for generating tracking information of viewer's face, computer-readable recording medium for the same, three dimensional display apparatus
CN103302666A (en) * 2012-03-09 2013-09-18 佳能株式会社 Information processing apparatus and information processing method
US9026234B2 (en) 2012-03-09 2015-05-05 Canon Kabushiki Kaisha Information processing apparatus and information processing method
US9156162B2 (en) 2012-03-09 2015-10-13 Canon Kabushiki Kaisha Information processing apparatus and information processing method
CN103302666B (en) * 2012-03-09 2016-03-02 佳能株式会社 Messaging device and information processing method
JP2017534957A (en) * 2014-09-16 2017-11-24 マイクロソフト テクノロジー ライセンシング,エルエルシー Display that reduces eye discomfort

Also Published As

Publication number Publication date
JP3428920B2 (en) 2003-07-22

Similar Documents

Publication Publication Date Title
JP3647376B2 (en) Viewpoint position detection apparatus, viewpoint position detection method, and stereoscopic image display system
US6757422B1 (en) Viewpoint position detection apparatus and method, and stereoscopic image display system
JP3450801B2 (en) Pupil position detecting device and method, viewpoint position detecting device and method, and stereoscopic image display system
JP2001195582A (en) Device and method for detecting image, device and system for three-dimensional display, display controller, and program storage medium
US20160179193A1 (en) Content projection system and content projection method
US10592739B2 (en) Gaze-tracking system and method of tracking user&#39;s gaze
JP2001008235A (en) Image input method for reconfiguring three-dimensional data and multiple-lens data input device
US10726257B2 (en) Gaze-tracking system and method of tracking user&#39;s gaze
JPH0782539B2 (en) Pupil imager
WO2015035823A1 (en) Image collection with increased accuracy
JP2009254525A (en) Pupil detecting method and apparatus
WO2022017447A1 (en) Image display control method, image display control apparatus, and head-mounted display device
US20220148218A1 (en) System and method for eye tracking
JP3428920B2 (en) Viewpoint position detecting device, method and stereoscopic image display system
US11458040B2 (en) Corneal topography mapping with dense illumination
JP3465336B2 (en) Face image capturing device
JP6856017B2 (en) Corneal reflex position detection device, line-of-sight detection device and corneal reflex position detection method
JP2024003037A (en) Electronic apparatus, method for controlling electronic apparatus, program, and storage medium
JP3297504B2 (en) Optical device
JP4451195B2 (en) Gaze detection device
JP3192483B2 (en) Optical equipment
JP3416706B2 (en) Pupil position detecting device and method, viewpoint position detecting device and method, and stereoscopic image display system
US10928894B2 (en) Eye tracking
JP2018011681A (en) Visual line detection device, visual line detection program, and visual line detection method
US20230083725A1 (en) Personal authentication apparatus, personal authentication method, and storage medium

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20030421

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090516

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100516

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100516

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110516

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120516

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120516

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130516

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140516

Year of fee payment: 11

LAPS Cancellation because of no payment of annual fees