JP2001340300A - Pupil detecting device and method, fixation point detecting device and method, and three-dimensional image display system - Google Patents

Pupil detecting device and method, fixation point detecting device and method, and three-dimensional image display system

Info

Publication number
JP2001340300A
JP2001340300A JP2000163288A JP2000163288A JP2001340300A JP 2001340300 A JP2001340300 A JP 2001340300A JP 2000163288 A JP2000163288 A JP 2000163288A JP 2000163288 A JP2000163288 A JP 2000163288A JP 2001340300 A JP2001340300 A JP 2001340300A
Authority
JP
Japan
Prior art keywords
pupil position
template
image
pupil
brightness
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000163288A
Other languages
Japanese (ja)
Other versions
JP3450801B2 (en
Inventor
Masahiro Suzuki
雅博 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mixed Reality Systems Laboratory Inc
Original Assignee
Mixed Reality Systems Laboratory Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mixed Reality Systems Laboratory Inc filed Critical Mixed Reality Systems Laboratory Inc
Priority to JP2000163288A priority Critical patent/JP3450801B2/en
Publication of JP2001340300A publication Critical patent/JP2001340300A/en
Application granted granted Critical
Publication of JP3450801B2 publication Critical patent/JP3450801B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Liquid Crystal (AREA)
  • Eye Examination Apparatus (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a pupil detecting device and a method capable of highly accurately detecting a pupil position for a short time even when an observer wears spectacles. SOLUTION: An infrared image and a visible image of the observer are acquired (S102), and gravity center coordinates of a high luminance area in the infrared image is determined (S105). A density value of visible image picture elements corresponding to the gravity center coordinates is determined, and the high luminance area including the gravity center coordinates corresponding to the visible image picture elements having the lowest density value is determined as a retina reflected image of the observer (S107), and the gravity center coordinates are decided as the pupillary position.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明が属する技術分野】本発明は被測定者(観察者)
の瞳孔位置を検出する瞳孔位置検出装置及び瞳孔位置検
出方法に関し、特に検出精度の向上した瞳孔位置検出装
置及び瞳孔検出方法に関する。本発明は更に、瞳孔位置
検出装置及び方法を用いた視点位置検出装置及び方法並
びに立体画像表示システムに関する。
TECHNICAL FIELD The present invention relates to a subject (observer)
The present invention relates to a pupil position detection device and a pupil position detection method for detecting a pupil position of a pupil, and more particularly to a pupil position detection device and a pupil detection method with improved detection accuracy. The present invention further relates to a viewpoint position detecting device and method using the pupil position detecting device and method, and a stereoscopic image display system.

【0002】[0002]

【従来の技術】従来、裸眼による立体視が可能ないわゆ
る直視型立体画像表示装置がある。立体画像表示装置に
は種々の方式があるが、例えば特開平09−31129
4号公報には、リアクロスレンチキュラ方式のものが開
示されている。図6はリアクロスレンチキュラ方式の立
体画像表示装置の例を示す要部斜視図である。図中、6
は画像表示用のディスプレイデバイスであり、例えば液
晶素子(LCD)で構成する。図は、偏光板、カラーフ
ィルター、電極、ブラックマトリクス、反射防止膜など
は省略してある。
2. Description of the Related Art Conventionally, there is a so-called direct-view type stereoscopic image display device capable of stereoscopic viewing with the naked eye. There are various types of stereoscopic image display devices.
No. 4 discloses a rear cross lenticular type. FIG. 6 is a perspective view of an essential part showing an example of a rear cross lenticular type stereoscopic image display device. In the figure, 6
Is a display device for displaying images, and is composed of, for example, a liquid crystal element (LCD). In the figure, a polarizing plate, a color filter, an electrode, a black matrix, an antireflection film, and the like are omitted.

【0003】10は照明光源となるバックライト(面光
源)である。ディスプレイデバイス6とバックライト1
0の間には、市松状の開口8を備えたマスクパターンを
形成したマスク基板(マスク)7を配置している。マス
クパターンはガラスまたは樹脂からなるマスク基板7上
にクロムなどの金属蒸着膜または光吸収材等をパターニ
ングして製作している。バックライト10、マスク基板
7等は光源の一要素を構成している。
[0003] Reference numeral 10 denotes a backlight (surface light source) serving as an illumination light source. Display device 6 and backlight 1
Between 0, a mask substrate (mask) 7 on which a mask pattern having a checkered opening 8 is formed is arranged. The mask pattern is manufactured by patterning a metal deposited film such as chromium or a light absorbing material on a mask substrate 7 made of glass or resin. The backlight 10, the mask substrate 7, and the like constitute one element of the light source.

【0004】マスク基板7とディスプレイデバイス6の
間には、透明樹脂またはガラス製の第1のレンチキュラ
レンズ3及び第2のレンチキュラレンズ4を配置してい
る。第1のレンチキュラレンズ3は垂直方向に長い縦シ
リンドリカルレンズを左右方向に並べて構成した縦シリ
ンドリカルレンズアレイであり、第2のレンチキュラレ
ンズ4は水平方向に長い横シリンドリカルレンズを上下
方向に並べて構成した横シリンドリカルレンズアレイで
ある。
A first lenticular lens 3 and a second lenticular lens 4 made of transparent resin or glass are arranged between the mask substrate 7 and the display device 6. The first lenticular lens 3 is a vertical cylindrical lens array formed by arranging vertically long vertical cylindrical lenses in the left-right direction, and the second lenticular lens 4 is formed by vertically arranging horizontal cylindrical lenses long in the horizontal direction. It is a cylindrical lens array.

【0005】ディスプレイデバイス6に表示する画像は
図示するように左右の視差画像R及びLを夫々上下方向
に多数の横ストライプ状の横ストライプ画素R,Lに分
割し、それらを例えば画面上からLRLRLR・・・・
と交互に並べて1つの画像に構成した横ストライプ画像
である。
As shown in the figure, the image displayed on the display device 6 divides the left and right parallax images R and L into a large number of horizontal stripe pixels R and L in the vertical direction, and divides them into, for example, LRLLRLR from the screen. ...
And a horizontal stripe image alternately arranged to form one image.

【0006】バックライト10からの光はマスク基板7
の各開口8を透過してディスプレイデバイス6を照明
し、観察者の両眼に左右のストライプ画素R,Lが分離
して観察される。
The light from the backlight 10 is applied to the mask substrate 7
Then, the display device 6 is illuminated through each of the openings 8, and the left and right stripe pixels R and L are separately observed by both eyes of the observer.

【0007】すなわち、マスク基板7はバックライト1
0により照明され、開口8から光が出射する。マスク基
板7の観察者側には第1のレンチキュラレンズ3を配置
しており、その各シリンドリカルレンズのほぼ焦点位置
にマスク基板7がくるようにレンズ曲率を設計してい
る。この断面においては第2のレンチキュラレンズ4は
光学的に何の作用もしないので、開口8上の1点から射
出する光束はこの断面内では略平行光束に変換される。
That is, the mask substrate 7 is
0 illuminates, and light exits from the aperture 8. The first lenticular lens 3 is arranged on the observer side of the mask substrate 7, and the lens curvature is designed so that the mask substrate 7 is almost at the focal position of each cylindrical lens. In this cross section, the second lenticular lens 4 has no optical effect, so that the light beam emitted from one point on the opening 8 is converted into a substantially parallel light beam in this cross section.

【0008】マスクパターンの一対の開口部と遮光部は
略第1のレンチキュラレンズ3の1ピッチに対応するよ
うに設定している。
The pair of openings and light-shielding portions of the mask pattern are set to substantially correspond to one pitch of the first lenticular lens 3.

【0009】また、観察者の所定の位置から第1のレン
チキュラレンズ3までの光学的距離と第1のレンチキュ
ラレンズ3からマスクパターンまでの光学的距離の関係
を元に、第1のレンチキュラレンズ3のピッチとマスク
パターンの一対の開口部と遮光部のピッチを定めること
によって、画面の全幅にわたって、開口部8からの光が
一様に左眼又は右眼に集まるようにすることができる。
このようにしてディスプレイデバイス6上の左右のスト
ライプ画素が水平方向に左眼、右眼の領域に分離して観
察される。
Further, based on the relationship between the optical distance from a predetermined position of the observer to the first lenticular lens 3 and the optical distance from the first lenticular lens 3 to the mask pattern, the first lenticular lens 3 is formed. By determining the pitch of the mask pattern and the pitch of the pair of openings and the light-shielding portion of the mask pattern, light from the openings 8 can be uniformly collected to the left eye or the right eye over the entire width of the screen.
In this way, the left and right stripe pixels on the display device 6 are observed separately in the horizontal direction into the left eye and right eye regions.

【0010】第2のレンチキュラーレンズ4は、マスク
7の開口8上の各点から発する光束を、すべてディスプ
レイデバイス6の右目又は左目用ストライプ画素上に集
光して、これを照明、透過して上下方向にのみ集光時の
NAに応じて発散し、観察者の所定の眼の高さから画面
の上下方向の全幅にわたって左右のストライプ画素を一
様に分離して見える観察領域を与えている。
The second lenticular lens 4 condenses all light beams emitted from each point on the opening 8 of the mask 7 on the right-eye or left-eye stripe pixel of the display device 6, illuminates and transmits the same. It diverges only in the vertical direction according to the NA at the time of condensing, and provides an observation area in which the left and right stripe pixels are uniformly separated from the predetermined eye height of the observer over the entire vertical width of the screen. .

【0011】しかしながら、このような立体画像表示装
置の視野角は狭く、観察者の視点が視野角からはずれる
と立体表示が認識されなくなる。そのため、観察者の視
点位置を検出して、視点位置の移動に応答して画像表示
を制御することにより、立体視が可能な視野角範囲を動
的に移動することによって、実質的な視野角を拡大する
技術が提案されている。例えば、特開平10−2323
67号公報には、マスクパターン又はレンチキュラレン
ズを表示面に平行移動させて、立体視可能な領域(視野
角)を拡大する技術が開示されている。
However, the viewing angle of such a stereoscopic image display device is narrow, and if the observer's viewpoint deviates from the viewing angle, the stereoscopic display cannot be recognized. Therefore, by detecting the viewpoint position of the observer and controlling the image display in response to the movement of the viewpoint position, by dynamically moving the viewing angle range in which stereoscopic viewing is possible, a substantial viewing angle is obtained. A technique for expanding the size of the device has been proposed. For example, Japanese Patent Application Laid-Open No. 10-2323
No. 67 discloses a technique for expanding a stereoscopically visible region (viewing angle) by moving a mask pattern or a lenticular lens in parallel to a display surface.

【0012】図7は、特開平10−232367号公報
に開示される立体画像表示装置の図である。図7におい
て、図6と同じ構成要素には同じ参照数字を付し、説明
は省略する。図7の立体画像表示装置はレンチキュラー
レンズが1枚の構成を有するので、図6における第2の
レンチキュラーレンズ4を有していない。
FIG. 7 is a diagram of a stereoscopic image display device disclosed in Japanese Patent Application Laid-Open No. 10-232367. 7, the same reference numerals are given to the same components as those in FIG. 6, and the description will be omitted. Since the three-dimensional image display device in FIG. 7 has a single lenticular lens, it does not include the second lenticular lens 4 in FIG.

【0013】このような構成の立体画像表示装置におい
て、観察者54の移動に応じた制御は以下のように行わ
れる。まず、位置センサー51が、予め設定された基準
の位置からの観察者54の水平方向のずれを検出し、そ
の情報を制御ユニット52へ送り、このずれ情報に応じ
て制御ユニット52がディスプレイ駆動回路50へ画像
制御信号を出力すると、ディスプレイ駆動回路50が第
1又は第2の横ストライプ画像をディスプレイ6に表示
する。同時に制御ユニット52はずれ情報に基づくアク
チュエータ駆動信号を発生し、マスクパターン7を水平
方向に移動させるアクチュエータ53を駆動することに
より、マスクパターン7を観察者54が左右のストライ
プ画像をもっともよく分離できる位置に移動させる。こ
の結果、観察者54の視点位置が変化しても、立体視可
能な範囲が拡大することになる。
In the three-dimensional image display device having such a configuration, control according to the movement of the observer 54 is performed as follows. First, the position sensor 51 detects a horizontal displacement of the observer 54 from a preset reference position, and sends the information to the control unit 52. The control unit 52 responds to the displacement information by using the display drive circuit. When the image control signal is output to the display 50, the display drive circuit 50 displays the first or second horizontal stripe image on the display 6. At the same time, the control unit 52 generates an actuator drive signal based on the displacement information and drives the actuator 53 that moves the mask pattern 7 in the horizontal direction, so that the mask pattern 7 can be separated from the left and right stripe images by the observer 54 in the best position. Move to As a result, even if the viewpoint position of the observer 54 changes, the range that can be stereoscopically viewed is expanded.

【0014】また、マスクパターンを物理的に移動する
方法以外にも、例えば特開平10−78563号公報に
記載される様に、マスクパターンを透過型液晶表示素子
により構成してパターン(開口部)の大きさを制御する
方法でも、視野角の拡大が可能である。
In addition to the method of physically moving the mask pattern, for example, as described in Japanese Patent Application Laid-Open No. H10-78563, the mask pattern is formed by a transmissive liquid crystal display element to form a pattern (opening). The viewing angle can also be increased by controlling the size of.

【0015】図8は、特開平10−78563号公報に
開示される立体画像表示装置の図である。図8におい
て、図6又は図7と同じ構成要素には同じ参照数字を付
し、説明は省略する。
FIG. 8 is a diagram of a stereoscopic image display device disclosed in Japanese Patent Application Laid-Open No. 10-78563. 8, the same reference numerals are given to the same components as those in FIG. 6 or FIG. 7, and the description will be omitted.

【0016】図8の立体画像表示装置は、クロスレンチ
キュラー型の直視型立体画像表示装置であって、マスク
パターン7が透過型液晶素子等のパターン(開口部)の
大きさを動的に変更可能な素子によって構成している点
以外、ディスプレイ部分は図6に示した表示装置と同一
の構成を有する。一方、ディスプレイの制御部分として
図7に示した表示装置と同様に観察者54の位置を検出
する位置センサー51と、この位置センサーの検出した
位置情報に従ってマスクパターンの開口部面積及び形状
を変更する制御ユニット55を有している。
The stereoscopic image display device shown in FIG. 8 is a cross-lenticular type direct-view type stereoscopic image display device, in which the mask pattern 7 can dynamically change the size of a pattern (opening) of a transmission type liquid crystal element or the like. The display unit has the same configuration as that of the display device shown in FIG. On the other hand, as a control part of the display, a position sensor 51 for detecting the position of the observer 54 in the same manner as the display device shown in FIG. 7, and the opening area and shape of the mask pattern are changed according to the position information detected by the position sensor. It has a control unit 55.

【0017】具体的には、制御ユニット55が観察者の
位置に応じて開口部(パターンの透明な部分)と遮光部
(同黒い部分)の位置と幅を変更することによって、観
察者の左右の移動に追従してクロストークや逆立体視が
ない良好な立体画像表示を実現する。マスクパターンの
移動及びパターンの変更により視野角が拡大する原理及
び具体的な方法については本発明と直接関係しないため
その詳細な説明は上述の各公報の記載に譲り、ここでは
行わない。
Specifically, the control unit 55 changes the position and width of the opening (the transparent portion of the pattern) and the light-shielding portion (the same black portion) according to the position of the observer, so that the right and left of the observer can be changed. And realizes good stereoscopic image display without crosstalk and reverse stereoscopic vision following the movement of. The principle and specific method for expanding the viewing angle by moving the mask pattern and changing the pattern are not directly related to the present invention, and therefore, detailed descriptions thereof are omitted from the descriptions of the above publications and will not be repeated here.

【0018】このように、観察者の視点位置に応じて表
示装置を制御する場合、検出精度が低くても、検出のた
めの処理時間が長くても、観察者の視点に適した画像表
示が行えない。そのため、観察者の視点位置をいかに精
度よく、しかも短時間で検出するかはこの種の表示装置
の性能において非常に重要である。
As described above, when the display device is controlled in accordance with the observer's viewpoint position, an image display suitable for the observer's viewpoint can be performed even if the detection accuracy is low or the processing time for detection is long. I can't. Therefore, it is very important how to accurately detect the viewpoint position of the observer in a short time in the performance of this type of display device.

【0019】観察者(被測定者)の視点位置検出方法と
して、赤外光を観察者に照射し、網膜の反射を検出する
方法(例えば、伴野 「視点検出のための瞳孔撮影光学
系の設計法」、電子情報通信学会論文誌D-II, Vol. J74
-D-II, No.6, pp.736-747, 1991年6月に記載)により瞳
孔位置を検出し、この瞳孔位置を視点位置として用いた
り、あるいは検出した瞳孔位置を用いて可視画像から視
点位置を検出する方法などが知られている。
As a method of detecting the viewpoint position of the observer (measured person), a method of irradiating the observer with infrared light and detecting the reflection of the retina (for example, see the design of the pupil photographing optical system for detecting the pupil of the pupil) Law, IEICE Transactions D-II, Vol. J74
-D-II, No.6, pp.736-747, described in June 1991) to detect the pupil position and use this pupil position as the viewpoint position or from the visible image using the detected pupil position A method of detecting a viewpoint position is known.

【0020】これらの方法は、人間の瞳孔が近赤外光を
再帰反射する(入射方向と同一方向に光を戻す)性質を
有することを利用したものである。瞳孔反射光は鋭い反
射ピークとして得られ、通常、顔面などよりも高い反射
率を示すため、光源と光軸を同軸とした赤外線撮像装置
を用いて観察者を撮影することにより、瞳孔部分のみを
明るく撮像することができる。この撮影画像を適当な閾
値で二値化処理すれば、抽出された瞳孔位置から正確な
視点位置が検出できる。
These methods make use of the fact that a human pupil has the property of retroreflecting near-infrared light (returning light in the same direction as the incident direction). Pupil reflected light is obtained as a sharp reflection peak, and usually shows a higher reflectance than the face, etc., so that only the pupil part is captured by imaging the observer using an infrared imaging device whose optical axis is coaxial with the light source. Bright images can be taken. If this photographed image is binarized with an appropriate threshold, an accurate viewpoint position can be detected from the extracted pupil position.

【0021】[0021]

【発明が解決しようとする課題】上述の通り、赤外画像
を用いた瞳孔位置検出は、網膜の近赤外線反射特性を利
用したものである。通常人間の顔面には赤外線を(網膜
のように)強く反射する部分はないが、鼻や頬などの皮
脂によって赤外光が反射されたり、観察者の周囲にある
物体による反射や、照明などが赤外画像中に検出される
ことが起こりうる。
As described above, pupil position detection using an infrared image utilizes the near-infrared reflection characteristics of the retina. Normally, there is no part of human face that reflects infrared rays strongly (like the retina), but infrared light is reflected by sebum such as nose and cheeks, reflection by objects around the observer, lighting, etc. May be detected in the infrared image.

【0022】特に、観察者が眼鏡をかけている場合、そ
のレンズやフレームにより赤外光が反射されると、瞳孔
位置の近傍にその反射像が検出され、正しい瞳孔位置が
検出できなかったり、検出はできても誤差が大きい等の
問題が発生する。図9に、観察者が眼鏡をかけている場
合の赤外画像(図9(a))及び可視画像(図9
(b))の例を、図10に、観察者の撮影範囲に照明が
ある場合の赤外画像(図10(a))及び可視画像(図
10(b))の例をそれぞれ示す。図9及び図10から
明らかなように、赤外画像には網膜反射像以外に種々の
反射像が含まれる。
In particular, when the observer wears glasses, if infrared light is reflected by the lens or the frame, the reflected image is detected near the pupil position, and the correct pupil position cannot be detected. Although detection is possible, problems such as a large error occur. FIG. 9 shows an infrared image (FIG. 9A) and a visible image (FIG. 9) when the observer wears glasses.
FIG. 10 shows an example of (b)) and FIG. 10 shows an example of an infrared image (FIG. 10 (a)) and an example of a visible image (FIG. 10 (b)) when there is illumination in the photographing range of the observer. As is clear from FIGS. 9 and 10, the infrared image includes various reflection images other than the retinal reflection image.

【0023】このような問題を解決する方法として、例
えば特開平7−218989号公報記載の発明において
は、人間が瞬きをすることを利用し、数十秒程度の間反
射像を取得し、その中で点滅がある(時間によって存在
したりしなかったりする)反射像を網膜反射像と判定す
る方法、また異なる方向から赤外光を照射して赤外画像
を取得し、輝度の変化した像を網膜反射像と判定する方
法などが開示されている。
As a method for solving such a problem, for example, in the invention described in Japanese Patent Application Laid-Open No. Hei 7-218989, a reflected image is acquired for about several tens of seconds by utilizing the fact that a person blinks, and the reflected image is obtained. A method in which a reflected image that blinks in the image (exists or does not exist depending on time) is determined as a retinal reflected image, or an infrared image is acquired by irradiating infrared light from a different direction, and an image in which the luminance has changed And the like are disclosed.

【0024】また、特開平8−185503号公報に
は、眼鏡による反射が網膜による反射よりも強いことを
利用し、2種類の閾値で赤外画像を二値化し、反射像の
形状の違いから眼鏡による反射像を二値化画像で判別す
る方法が開示されている。
Japanese Patent Application Laid-Open No. 8-185503 discloses that infrared images are binarized using two types of thresholds, taking advantage of the fact that reflection by eyeglasses is stronger than reflection by retinas. A method of discriminating a reflection image by eyeglasses from a binarized image is disclosed.

【0025】しかしながら、特開平7−218989号
公報記載の方法においては、異なる時間に取得した画像
間の差分に依存した判定が行われるので、観察者の移動
が早い場合には検出が困難である。また、異なる方向か
ら赤外光を照射して取得した赤外画像の差分を用いて検
出する場合、赤外光の照射方向に固有の反射像が含まれ
る可能性があり、このような反射像は差分をとっても消
去できないため、誤検出する可能性がある。また、特開
平8−185503号公報記載の方法においては、観察
者の撮影画像の解像度を高くする必要があり、解像度を
高くするには観察者をズームアップして撮影しなければ
ならない。よって観察者が動くような場合を想定すると
現実的ではない。
However, in the method described in Japanese Patent Application Laid-Open No. Hei 7-218989, since the determination is performed depending on the difference between the images acquired at different times, it is difficult to detect when the observer moves quickly. . In addition, when detection is performed using a difference between infrared images obtained by irradiating infrared light from different directions, a reflection image specific to the irradiation direction of infrared light may be included, and such a reflection image may be included. Cannot be erased even if the difference is taken, so that there is a possibility of erroneous detection. Further, in the method described in Japanese Patent Application Laid-Open No. 8-185503, it is necessary to increase the resolution of a captured image of an observer, and to increase the resolution, the observer must zoom in to take an image. Therefore, it is not realistic to assume that the observer moves.

【0026】本発明はこのような従来技術の問題点に鑑
みなされたものであり、観察者が眼鏡をかけているよう
な場合であっても、短時間で高精度に瞳孔の位置を検出
可能な瞳孔検出装置及び方法を提供することにある。ま
た、本発明の別の目的は、本発明の瞳孔位置検出装置あ
るいは方法を用いて得られる瞳孔位置情報を用いた視点
位置検出装置及び方法並びに立体画像表示システムを提
供することにある。
The present invention has been made in view of such problems of the prior art, and can detect the position of the pupil in a short time and with high accuracy even when the observer wears glasses. Pupil detection device and method. It is another object of the present invention to provide a viewpoint position detecting device and method using pupil position information obtained by using the pupil position detecting device or method of the present invention, and a stereoscopic image display system.

【0027】[0027]

【課題を解決するための手段】すなわち、本発明の要旨
は、被測定者の赤外画像及び可視画像から、被測定者の
瞳孔位置を検出し、瞳孔位置情報を出力する瞳孔位置検
出装置であって、赤外画像において、所定値以上の明る
さを有する高輝度領域を検出する高輝度領域抽出手段
と、高輝度領域のうち、可視画像において対応する領域
の輝度が所定値未満である高輝度領域中の所定の座標に
基づいて被測定者の瞳孔位置を算出して出力する瞳孔位
置算出手段とを有することを特徴とする瞳孔位置検出装
置に存する。
That is, the gist of the present invention is a pupil position detecting device for detecting a pupil position of a subject from an infrared image and a visible image of the subject and outputting pupil position information. A high-brightness area extraction unit that detects a high-brightness area having a brightness equal to or higher than a predetermined value in the infrared image; and a high-brightness area in which the brightness of a corresponding area in the visible image is lower than the predetermined value. A pupil position calculating device for calculating and outputting a pupil position of the subject based on predetermined coordinates in the luminance area.

【0028】また、本発明の別の要旨は、被測定者の赤
外画像及び可視画像から、被測定者の瞳孔位置を検出
し、瞳孔位置情報を出力する瞳孔位置検出装置であっ
て、赤外画像から、所定値以上の明るさを有する高輝度
領域を抽出し、抽出した各高輝度領域毎に、少なくとも
1つの所定の座標を得る領域抽出手段と、可視画像の、
所定の座標に対応する画素の濃淡値を取得する濃淡値取
得手段と、濃淡値取得手段が取得した濃淡値のうち、所
定値未満の濃淡値を有する代表座標画素に対応する所定
の座標を含む高輝度領域を検出し、代表座標に基づいて
被測定者の瞳孔位置を算出して出力する瞳孔位置算出手
段とを有することを特徴とする瞳孔位置検出装置に存す
る。
Another aspect of the present invention is a pupil position detecting device for detecting a pupil position of a subject from an infrared image and a visible image of the subject and outputting pupil position information. From the outside image, a high-brightness area having a brightness equal to or more than a predetermined value is extracted, and for each of the extracted high-brightness areas, an area extraction unit that obtains at least one predetermined coordinate;
The image processing apparatus includes a gray-scale value obtaining unit that obtains a gray-scale value of a pixel corresponding to the predetermined coordinate, and a predetermined coordinate corresponding to a representative coordinate pixel having a gray-scale value smaller than the predetermined value among the gray-scale values obtained by the gray-scale value obtaining unit. A pupil position calculating device for detecting a high-luminance area, calculating and outputting a pupil position of the subject based on the representative coordinates.

【0029】また、本発明の別の要旨は、本発明の瞳孔
位置検出装置と、可視画像から、瞳孔位置を用いてパタ
ーンマッチング用のテンプレートを作成するテンプレー
ト作成手段と、テンプレート作成手段の作成したテンプ
レートを用い、少なくとも所定時間毎に連続して取得さ
れた被測定者の可視画像とパターンマッチングを行って
被測定者の視点位置を検出し、結果を視点位置情報とし
て出力するマッチング手段とを有することを特徴とする
視点位置検出装置に存する。
Further, another gist of the present invention is that the pupil position detecting device of the present invention, a template creating means for creating a template for pattern matching from a visible image using a pupil position, and a template creating means are provided. A matching unit that detects a viewpoint position of the subject by performing pattern matching with a visible image of the subject continuously acquired at least every predetermined time using a template, and outputs a result as viewpoint position information. The present invention resides in a viewpoint position detecting device characterized in that:

【0030】また、本発明の別の要旨は、本発明の瞳孔
位置検出装置と、可視画像から、瞳孔位置を用いてパタ
ーンマッチング用のテンプレートを作成するテンプレー
ト作成手段と、テンプレート作成手段の作成したテンプ
レートを用い、少なくとも所定時間毎に連続して取得さ
れた被測定者の可視画像とパターンマッチングを行って
被測定者の視点位置を検出し、検出結果を視点位置情報
として出力するマッチング手段と、所定の条件を満たす
場合に瞳孔位置検出装置及びテンプレート作成手段を用
いて再度テンプレートを作成するように制御する制御手
段とを有することを特徴とする視点位置検出装置に存す
る。
Further, another gist of the present invention is that the pupil position detecting apparatus of the present invention, a template creating means for creating a template for pattern matching from a visible image using a pupil position, and a template creating means are provided. Using a template, a matching means for detecting a viewpoint position of the subject by performing pattern matching with a visible image of the subject continuously acquired at least every predetermined time, and outputting the detection result as viewpoint position information, There is provided a viewpoint position detecting device characterized by having a pupil position detecting device and a control means for controlling to generate a template again using the template generating means when a predetermined condition is satisfied.

【0031】また、本発明の別の要旨は、本発明の視点
位置検出装置と、立体画像表示手段とを有する立体画像
表示システムであって、立体画像表示装置が出射光路を
制御するマスクパターンを有する立体画像表示装置であ
って、視点位置検出装置から受信した視点位置情報を用
いてマスクパターンの位置またはパターンを変化させる
ことを特徴とする立体画像表示システムに存する。
Another aspect of the present invention is a stereoscopic image display system including the viewpoint position detecting device of the present invention and stereoscopic image display means, wherein the stereoscopic image display device controls a mask pattern for controlling an emission optical path. A stereoscopic image display system having a stereoscopic image display system characterized by changing a position or a pattern of a mask pattern using viewpoint position information received from a viewpoint position detecting device.

【0032】また、本発明の別の要旨は、被測定者の赤
外画像及び可視画像から、被測定者の瞳孔位置を検出
し、瞳孔位置情報を出力する瞳孔位置検出方法であっ
て、赤外画像において、所定値以上の明るさを有する高
輝度領域を検出する高輝度領域抽出ステップと、高輝度
領域のうち、可視画像において対応する領域の輝度が所
定値未満である高輝度領域中の所定の座標に基づいて被
測定者の瞳孔位置を算出して出力する瞳孔位置算出ステ
ップとを有することを特徴とする瞳孔位置検出方法に存
する。
Another aspect of the present invention is a pupil position detecting method for detecting a pupil position of a subject from an infrared image and a visible image of the subject and outputting pupil position information. In the outer image, a high-brightness region extraction step of detecting a high-brightness region having a brightness equal to or more than a predetermined value, and among the high-brightness regions, a high-brightness region in which the brightness of a corresponding region in the visible image is less than a predetermined value A pupil position calculating step of calculating and outputting a pupil position of the subject based on predetermined coordinates.

【0033】また、本発明の別の要旨は、被測定者の赤
外画像及び可視画像から、被測定者の瞳孔位置を検出
し、瞳孔位置情報を出力する瞳孔位置検出方法であっ
て、赤外画像から、所定値以上の明るさを有する高輝度
領域を抽出し、抽出した各高輝度領域毎に、少なくとも
1つの所定の座標を得る領域抽出ステップと、可視画像
の、所定の座標に対応する画素の濃淡値を取得する濃淡
値取得ステップと、濃淡値取得ステップが取得した濃淡
値のうち、所定値未満の濃淡値を有する代表座標画素に
対応する所定の座標を含む高輝度領域を検出し、代表座
標に基づいて被測定者の瞳孔位置を算出して出力する瞳
孔位置算出ステップとを有することを特徴とする瞳孔位
置検出方法に存する。
Another aspect of the present invention is a pupil position detection method for detecting a pupil position of a subject from an infrared image and a visible image of the subject and outputting pupil position information. Extracting, from the outer image, a high-brightness region having a brightness equal to or more than a predetermined value, and obtaining an at least one predetermined coordinate for each extracted high-brightness region; Value obtaining step for obtaining a gray value of a pixel to be performed, and detecting, from among the gray values obtained by the gray value obtaining step, a high brightness area including predetermined coordinates corresponding to a representative coordinate pixel having a gray value smaller than a predetermined value A pupil position calculating step of calculating and outputting a pupil position of the subject based on the representative coordinates.

【0034】また、本発明の別の要旨は、本発明の瞳孔
位置検出方法に加え、可視画像から、瞳孔位置を用いて
パターンマッチング用のテンプレートを作成するテンプ
レート作成ステップと、テンプレート作成ステップの作
成したテンプレートを用い、少なくとも所定時間毎に連
続して取得された被測定者の可視画像とパターンマッチ
ングを行って被測定者の視点位置を検出し、結果を視点
位置情報として出力するマッチングステップとを有する
ことを特徴とする視点位置検出方法に存する。
Further, another gist of the present invention is that, in addition to the pupil position detecting method of the present invention, a template creating step of creating a template for pattern matching from a visible image using a pupil position, and creating a template creating step A matching step of performing pattern matching with a visible image of the subject continuously acquired at least every predetermined time to detect the viewpoint position of the subject, and outputting the result as viewpoint position information using the template. The present invention resides in a method of detecting a viewpoint position.

【0035】また、本発明の別の要旨は、本発明の瞳孔
位置検出方法に加え、可視画像から、瞳孔位置を用いて
パターンマッチング用のテンプレートを作成するテンプ
レート作成ステップと、テンプレート作成ステップの作
成したテンプレートを用い、少なくとも所定時間毎に連
続して取得された被測定者の可視画像とパターンマッチ
ングを行って被測定者の視点位置を検出し、検出結果を
視点位置情報として出力するマッチングステップと、所
定の条件を満たす場合に瞳孔位置検出方法及びテンプレ
ート作成ステップを用いて再度テンプレートを作成する
ように制御する制御ステップとを有することを特徴とす
る視点位置検出方法に存する。
Another gist of the present invention is that, in addition to the pupil position detecting method of the present invention, a template creating step for creating a template for pattern matching from a visible image using a pupil position, and a template creating step A matching step of performing pattern matching with the visible image of the subject obtained at least every predetermined time continuously to detect the viewpoint position of the subject, and outputting the detection result as viewpoint position information using the template. And a control step of performing control so as to generate a template again by using the pupil position detection method and the template generation step when a predetermined condition is satisfied.

【0036】また、本発明の別の要旨は、本発明の瞳孔
位置検出方法を、コンピュータ装置実行可能なプログラ
ムとして格納したコンピュータ装置読み取り可能な記憶
媒体に存する。
Another aspect of the present invention resides in a computer-readable storage medium storing a pupil position detecting method of the present invention as a computer-executable program.

【0037】また、本発明の別の要旨は、本発明の視点
位置検出方法を、コンピュータ装置実行可能なプログラ
ムとして格納したコンピュータ装置読み取り可能な記憶
媒体に存する。
Further, another gist of the present invention resides in a computer-readable storage medium storing a viewpoint position detecting method of the present invention as a computer-executable program.

【0038】[0038]

【発明の実施の形態】以下、図面を参照して本発明をそ
の好適な実施形態に基づき詳細に説明する。以下の説明
においては、本発明の瞳孔位置検出装置を有する視点位
置検出装置によって検出した観察者の視点位置に基づい
て立体画像表示装置を制御することで立体視可能な範囲
を拡大可能な立体画像表示システムについて説明する
が、本発明の瞳孔位置検出装置はいかなる分野、用途に
も利用可能であることは言うまでもない。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described in detail based on preferred embodiments with reference to the drawings. In the following description, a stereoscopic image capable of expanding a stereoscopically viewable range by controlling a stereoscopic image display device based on an observer's viewpoint position detected by a viewpoint position detection device having a pupil position detection device of the present invention. Although the display system will be described, it goes without saying that the pupil position detection device of the present invention can be used in any field and application.

【0039】また、以下の説明において、視点位置とは
観察者の目の位置を示すある一点の座標を意味するが、
視点位置検出装置の出力する視点位置情報は必ずしも一
点の座標値でなくともよく、ある領域を示す情報であっ
ても良い。用途によっては眼全体の位置がおおよそわか
ればよい場合もあり、その用途によって適宜選択すれば
よい。
In the following description, the viewpoint position means the coordinates of a certain point indicating the position of the observer's eyes.
The viewpoint position information output from the viewpoint position detecting device does not necessarily have to be the coordinate value of one point, but may be information indicating a certain area. Depending on the use, the position of the entire eye may be roughly known, and may be appropriately selected depending on the use.

【0040】図1は、本発明の実施形態に係る立体画像
表示システムの構成例を示すブロック図である。立体画
像表示システムは、撮影部1、視点位置検出部2及び立
体画像表示部3から構成される。撮影部1は立体画像表
示部3の台に内蔵され、瞳孔位置検出、視点位置検出及
び追従用の可視画像を撮影する可視画像撮影部11と、
瞳孔位置検出用の赤外画像を撮影する赤外画像撮影部1
2とを有する。可視画像撮影部11及び赤外画像撮影部
12はいずれも、立体画像表示部3に表示される立体画
像の観察者頭部正面(顔面)を撮影するよう、本システ
ムの設置される位置と、予測される観察者の位置に応じ
てその画角及び撮影方向を決定する。
FIG. 1 is a block diagram showing a configuration example of a stereoscopic image display system according to an embodiment of the present invention. The stereoscopic image display system includes a photographing unit 1, a viewpoint position detecting unit 2, and a stereoscopic image display unit 3. A photographing unit 1 that is built in the base of the stereoscopic image display unit 3 and captures a visible image for pupil position detection, viewpoint position detection, and tracking;
Infrared image capturing unit 1 that captures an infrared image for pupil position detection
And 2. Each of the visible image capturing unit 11 and the infrared image capturing unit 12 is provided with a position where the present system is installed so as to capture the front (face) of the observer's head of the stereoscopic image displayed on the stereoscopic image display unit 3. The angle of view and the imaging direction are determined according to the predicted position of the observer.

【0041】可視画像撮影部11及び赤外画像撮影部1
2はいずれもビデオカメラによって構成可能であり、赤
外画像撮影部12はフィルタ等によって赤外光のみを内
部の受光素子に入射させる様に構成されている。また、
LED等による赤外画像撮影用の赤外光発光部13とし
ての赤外光源は、赤外画像撮影部12のレンズ中心と等
しい光軸で観察者を照らすことが好ましいため、例えば
赤外画像撮影部12の内部に組み込まれ、ハーフミラー
等の光路切り換え手段を用いて赤外画像撮影部12のレ
ンズ中心と同軸で赤外光が照射されるように構成され
る。さらには、可視画像撮影部11及び赤外画像撮影部
12の光軸をハーフミラー等の光路切り換え手段によっ
て、同軸に配置してもよい。
Visible image photographing section 11 and infrared image photographing section 1
2 can be constituted by a video camera, and the infrared image photographing unit 12 is configured so that only infrared light is incident on an internal light receiving element by a filter or the like. Also,
The infrared light source serving as the infrared light emitting unit 13 for infrared image capturing using an LED or the like preferably illuminates the observer with an optical axis equal to the lens center of the infrared image capturing unit 12. It is incorporated in the unit 12 and is configured to emit infrared light coaxially with the lens center of the infrared image capturing unit 12 using an optical path switching unit such as a half mirror. Further, the optical axes of the visible image capturing unit 11 and the infrared image capturing unit 12 may be coaxially arranged by an optical path switching unit such as a half mirror.

【0042】視点位置検出部2は、赤外画像撮影部12
と可視画像撮影部11で撮影した赤外画像と可視画像か
ら観察者の瞳孔位置を検出し、得られた瞳孔位置と可視
画像撮影部11で撮影した可視画像とを用いて、観察者
の移動に追従しながらその視点位置を検出する。
The viewpoint position detecting section 2 includes an infrared image photographing section 12
The pupil position of the observer is detected from the infrared image and the visible image captured by the visible image capturing unit 11, and the observer moves using the obtained pupil position and the visible image captured by the visible image capturing unit 11. While detecting the viewpoint position.

【0043】視点位置検出部2によって得られた視点位
置情報等は、図示しない表示制御部に供給される。表示
制御部は立体画像表示部3に表示する立体画像データを
生成する。
The viewpoint position information and the like obtained by the viewpoint position detector 2 are supplied to a display controller (not shown). The display control unit generates stereoscopic image data to be displayed on the stereoscopic image display unit 3.

【0044】視点位置検出部2はたとえば撮影部1が出
力する画像信号を記憶可能な、汎用コンピュータ装置か
ら構成することができる。また、表示制御部も同様に汎
用のコンピュータ装置から構成することができるが、グ
ラフィックアクセラレータ等画像処理を高速に実行可能
な回路を有することが好ましい。視点位置検出部2と、
表示制御部とを同一のコンピュータ装置によって構成す
ることも可能である。
The viewpoint position detecting section 2 can be composed of a general-purpose computer device capable of storing an image signal output from the photographing section 1, for example. The display control unit can also be constituted by a general-purpose computer device, but it is preferable to have a circuit such as a graphic accelerator that can execute image processing at high speed. Viewpoint position detector 2,
It is also possible to configure the display control unit with the same computer device.

【0045】視点位置検出部2は、可視画像記憶部21
と、パターンマッチング判定部22と、テンプレート作
成部23と、瞳孔位置検出処理部24と、赤外画像記憶
部25と、赤外光発光制御部26と、座標・濃淡情報記
憶部27とから構成されている。
The viewpoint position detector 2 includes a visible image storage 21
A pattern matching determination unit 22, a template creation unit 23, a pupil position detection processing unit 24, an infrared image storage unit 25, an infrared light emission control unit 26, and a coordinate / shade information storage unit 27. Have been.

【0046】可視画像記憶部21及び赤外画像記憶部2
5はいずれも対応する撮影部11、12が撮影した画像
データを記憶する手段として用いられ、RAMのような
半導体メモリで構成しても、磁気ディスクや光ディスク
などの磁気/光学記憶装置を用いて構成してもよい。
The visible image storage unit 21 and the infrared image storage unit 2
5 is used as a means for storing image data taken by the corresponding photographing units 11 and 12. Even if it is constituted by a semiconductor memory such as a RAM, a magnetic / optical storage device such as a magnetic disk or an optical disk is used. You may comprise.

【0047】パターンマッチング判定部22は、テンプ
レート作成部23から供給されるテンプレートを用い
て、可視画像記憶部21に記憶された画像のうちテンプ
レートとの相関が最も高い領域の位置情報を立体画像表
示部3へ出力する。また、パターンマッチング失敗時な
どに、赤外光発光制御部26に赤外光発光部13を発光
させる出力を行う。
The pattern matching determination unit 22 uses the template supplied from the template creation unit 23 to display the position information of the area having the highest correlation with the template among the images stored in the visible image storage unit 21 as a three-dimensional image. Output to section 3. In addition, when the pattern matching fails, the infrared light emission control unit 26 outputs the infrared light emission unit 13 to emit light.

【0048】テンプレート作成部23は、瞳孔位置検出
処理部24から供給される位置情報を用いて、可視画像
記憶部21に記憶された画像データから、パターンマッ
チング判定部22で用いるパターンマッチング用のテン
プレートを作成する。
The template creating unit 23 uses the position information supplied from the pupil position detection processing unit 24 to convert the image data stored in the visible image storage unit 21 into a pattern matching template used by the pattern matching determination unit 22. Create

【0049】瞳孔位置検出処理部24は、赤外光発光制
御部26が赤外光発光部13の発光を行ったことを知ら
せる信号を入力として、その信号情報をもとにして赤外
画像記憶部25に記憶された赤外画像から瞳孔位置を検
出し、その位置情報をテンプレート作成部23に供給す
る。また、その位置情報を立体画像表示部3に供給して
も良い。
The pupil position detection processing unit 24 receives a signal indicating that the infrared light emission control unit 26 has emitted light from the infrared light emission unit 13 and stores an infrared image based on the signal information. The pupil position is detected from the infrared image stored in the unit 25, and the position information is supplied to the template creating unit 23. Further, the position information may be supplied to the stereoscopic image display unit 3.

【0050】赤外光発光制御部26は、図示しない制御
部、瞳孔位置検出処理部24、パターンマッチング判定
部22等の制御に従い、赤外光発光部13の点灯制御を
行う。これら視点位置検出部2の各構成要素は、システ
ム全体の制御を行う、マイクロコンピュータ等によって
実現されるシステム制御部28によって動作する。
The infrared light emission control unit 26 controls lighting of the infrared light emission unit 13 in accordance with the control of a control unit (not shown), a pupil position detection processing unit 24, a pattern matching determination unit 22, and the like. Each component of the viewpoint position detection unit 2 is operated by a system control unit 28 that controls the entire system and is realized by a microcomputer or the like.

【0051】座標・濃淡情報記憶部27は、赤外画像か
ら抽出した反射像のそれぞれについて、その重心座標あ
るいは重心に最も近い座標と、重心座標あるいは重心に
最も近い座標に対応する可視画像画素の濃淡値(階調
値)を対応付けして記憶する。なお、以下では、重心座
標あるいは重心に最も近い座標を合わせて重心座標と呼
ぶことがある。
The coordinate / shade information storage unit 27 stores, for each of the reflection images extracted from the infrared image, the coordinates of the center of gravity or the coordinates closest to the center of gravity, and the coordinates of the center of gravity or the coordinates of the visible image corresponding to the coordinates closest to the center of gravity. The gradation values (gradation values) are stored in association with each other. Hereinafter, the coordinates of the center of gravity or the coordinates closest to the center of gravity may be collectively referred to as the center of gravity coordinates.

【0052】立体画像表示部3は、表示制御部から供給
される表示用の画像データを、やはり表示制御部から供
給される制御信号に従って表示する。また、本実施形態
において、立体画像表示部3は、観察者の視点位置に追
従して視野角を拡大可能な構成を有する直視型立体表示
装置であるものとするが、その構成は例えば上述の特開
平10−232367号公報が開示するマスクパターン
移動タイプでも、特開平10−78563号公報が開示
するマスクパターン変更型でも、また更に別の方式の表
示装置であっても良い。
The three-dimensional image display unit 3 displays the display image data supplied from the display control unit in accordance with a control signal also supplied from the display control unit. Further, in the present embodiment, the stereoscopic image display unit 3 is a direct-view type stereoscopic display device having a configuration in which the viewing angle can be expanded by following the viewpoint position of the observer. A mask pattern moving type disclosed in Japanese Patent Application Laid-Open No. H10-232367, a mask pattern changing type disclosed in Japanese Patent Application Laid-Open No. H10-78563, or a display device of another type may be used.

【0053】立体画像表示部3は、パターンマッチング
判定部22及び/又は瞳孔位置検出部24から供給され
る観察者の視点位置情報に基づき、図示しない制御ユニ
ットがマスクパターンを移動もしくはマスクパターンを
変更することにより、観察者の移動に追従して視野角を
移動し、立体視可能な視野角を拡大する。
The control unit (not shown) moves the mask pattern or changes the mask pattern based on the viewpoint position information of the observer supplied from the pattern matching determination unit 22 and / or the pupil position detection unit 24. By doing so, the viewing angle is moved following the movement of the observer, and the viewing angle that can be viewed stereoscopically is expanded.

【0054】なお、以上の構成において、本発明による
瞳孔位置検出装置は、撮影部1、可視画像記憶部21、
瞳孔位置検出部24、赤外画像記憶部25、赤外光発光
制御部26及び座標・濃淡情報記憶部27から構成さ
れ、視点位置検出装置は撮影部1と視点位置検出部2と
を合わせた構成となる。ただし、瞳孔位置検出装置、視
点位置検出装置とも撮影部1に含まれる構成要素は必ず
しも必要でなく、取得された画像からそれぞれ瞳孔位
置、視点位置を検出する部分のみを瞳孔位置検出装置、
視点位置検出装置としてもよい。
In the above configuration, the pupil position detecting device according to the present invention comprises the photographing unit 1, the visible image storage unit 21,
The pupil position detection unit 24, the infrared image storage unit 25, the infrared light emission control unit 26, and the coordinate / density information storage unit 27, and the viewpoint position detection device combines the imaging unit 1 and the viewpoint position detection unit 2. Configuration. However, neither the pupil position detecting device nor the viewpoint position detecting device necessarily includes the components included in the imaging unit 1, and only the pupil position detecting unit and the pupil position detecting unit that detect the pupil position and the viewpoint position from the acquired image are used.
It may be a viewpoint position detecting device.

【0055】(瞳孔位置検出処理)次に、本実施形態に
係る立体画像表示システムにおける、瞳孔位置検出処理
動作について、図2に示すフローチャートを用いて説明
する。瞳孔位置の検出は、観察者が交替するたびに行わ
れる他、取得した赤外画像から瞳孔位置が検出できなか
った場合や、後述する視点位置検出処理が観察者の動き
に追従できない場合、定期的に取得するように設定され
ている場合など、再度視点位置検出を行う必要が生じた
時点で行われる。
(Pupil Position Detection Processing) Next, the pupil position detection processing operation in the stereoscopic image display system according to the present embodiment will be described with reference to the flowchart shown in FIG. The detection of the pupil position is performed every time the observer changes, and when the pupil position cannot be detected from the acquired infrared image, or when the viewpoint position detection process described later cannot follow the observer's movement, This is performed when it is necessary to perform the viewpoint position detection again, for example, in a case where the setting is made so as to obtain the target position.

【0056】まず、赤外画像及び可視画像を取得する
(ステップS102)。図示しない制御部から赤外光発
光制御部26に対し赤外光の発光が、また赤外画像撮影
部12及び可視画像撮影部11に、画像の取得がそれぞ
れ指示される。この指示に応答して赤外光発光制御部2
6は赤外光発光部13を発光させ、赤外画像撮影部12
では赤外画像を取得する。赤外画像の取得が終わると、
赤外画像撮影部12からの通知により、図示しない制御
部、赤外光発光制御部26を介して赤外光発光部13の
発光を終了する。あるいは、赤外画像撮影部12から直
接取得終了を赤外光発光制御部26へ通知し、その通知
に応答して赤外光の発光を終了するようにしても良い。
First, an infrared image and a visible image are obtained (step S102). The control unit (not shown) instructs the infrared light emission control unit 26 to emit infrared light, and the infrared image photographing unit 12 and the visible image photographing unit 11 to acquire an image. In response to this instruction, the infrared light emission control unit 2
6 causes the infrared light emitting unit 13 to emit light, and the infrared image photographing unit 12
Then, an infrared image is acquired. Once the infrared image has been acquired,
In response to the notification from the infrared image capturing unit 12, the emission of the infrared light emitting unit 13 is terminated via the infrared light emission control unit 26, which is not shown. Alternatively, the end of the acquisition may be directly notified from the infrared image capturing unit 12 to the infrared light emission control unit 26, and the emission of the infrared light may be terminated in response to the notification.

【0057】一方、可視画像撮影部11は、好ましくは
赤外画像の取得と同時に(同フレームタイミングで)可
視画像を取得するように構成することが望ましい。この
ように構成することにより、精度のよいテンプレートの
作成及びパターンマッチングが可能になる。
On the other hand, it is desirable that the visible image photographing section 11 be constructed so as to acquire a visible image at the same time (at the same frame timing) as the acquisition of an infrared image. With this configuration, accurate template creation and pattern matching can be performed.

【0058】そして、可視画像撮影部11及び赤外画像
撮影部12によって取得した可視画像及び赤外画像をそ
れぞれ可視画像記憶部21及び赤外画像記憶部25に記
憶する。次に、取得した多階調赤外画像の二値化を行う
(ステップS103)。二値化に用いる閾値は、網膜に
よる赤外反射像等の、比較的強い反射像を抽出し、他の
不要な反射像をノイズとして除去可能であれば、どのよ
うな値を設定するかは任意である。具体的には、例えば
立体画像表示システムの設置場所で予め取得した赤外画
像を用いて適切な値を求めればよい。
Then, the visible image and the infrared image acquired by the visible image capturing section 11 and the infrared image capturing section 12 are stored in the visible image storing section 21 and the infrared image storing section 25, respectively. Next, binarization of the acquired multi-tone infrared image is performed (step S103). The threshold value used for binarization is such that if a relatively strong reflection image such as an infrared reflection image by the retina is extracted and other unnecessary reflection images can be removed as noise, what value is set. Optional. Specifically, for example, an appropriate value may be obtained using an infrared image acquired in advance at the installation location of the stereoscopic image display system.

【0059】二値化赤外画像が得られたら、ラベリング
処理を行う(ステップS104)。ラベリング処理は、
二値化画像中の高輝度領域(白画素領域)のうち、所定
の条件を満たす領域を検出し、各領域にその後の処理で
用いるための識別子(番号等)を付与する処理である。
所定の条件とは、例えば領域の大きさであり、瞳孔の反
射像よりも明らかに小さい、又は大きいと判定される領
域についてはラベリング処理を行わない。
When a binarized infrared image is obtained, a labeling process is performed (step S104). The labeling process is
This is a process of detecting a region that satisfies a predetermined condition among the high-luminance regions (white pixel regions) in the binarized image, and assigning an identifier (a number or the like) to each region for use in subsequent processing.
The predetermined condition is, for example, the size of the region, and the labeling process is not performed on the region determined to be clearly smaller or larger than the reflected image of the pupil.

【0060】ラベリング処理が終わると、ラベリングし
た各領域について、その重心座標を算出する(ステップ
S105)。この際、各領域の丸さを表す円形度につい
ても算出する事が好ましい。円形度を算出する場合、円
形度が所定値以上、すなわち円形に近くない形状の領域
(たとえば眼鏡のフレームなど)については、後述する
網膜反射像の判定対象から除外するように構成すること
ができる。
When the labeling process is completed, the barycentric coordinates of each of the labeled regions are calculated (step S105). At this time, it is preferable to calculate the degree of circularity representing the roundness of each area. When calculating the circularity, a region having a circularity equal to or more than a predetermined value, that is, a region having a shape not close to a circle (for example, a frame of glasses) can be configured to be excluded from a retinal reflection image determination target described later. .

【0061】次に、ラベリングされた各領域の重心座標
に対応する可視画像画素の濃淡値(階調値)とを対応付
けて、座標・濃淡情報記憶部27に記憶する(ステップ
S106)。この際、可視画像撮影部11が多階調モノ
クロ画像(グレースケール画像)を取得していれば、重
心座標に対応する画素の濃淡値をそのまま取り出せばよ
い。一方、可視画像撮影部11がカラー画像を取得して
いる場合には、一旦グレースケール画像に変換してから
濃淡値を取り出す。
Next, the grayscale values (gradation values) of the visible image pixels corresponding to the barycenter coordinates of each labeled area are stored in the coordinate / shade information storage unit 27 in association with each other (step S106). At this time, if the visible image photographing unit 11 has acquired a multi-tone monochrome image (gray scale image), the gray scale value of the pixel corresponding to the barycentric coordinates may be extracted as it is. On the other hand, when the visible image capturing unit 11 has acquired a color image, it converts the image into a grayscale image and then extracts the grayscale value.

【0062】次に、取り出した濃淡値を用いて、網膜反
射像の判定を行う(ステップS107)。具体的には、
ステップS106で得られた可視画像の濃淡値のうち、
最低値から順に2つに対応する重心座標を含む領域を網
膜反射像と判定する。これは、通常人間の瞳孔は黒色で
あり、可視画像においても黒、すなわち低い濃淡値を有
するからである。一方、眼鏡のレンズによる反射像部
分、照明は、可視画像においても明るく撮影されるた
め、濃淡値は高くなる。従って、可視画像画素の濃淡値
が最も低い値と2番目に低い値に対応する重心座標を有
する白色領域が網膜反射像であると判定できる。そし
て、ステップS108において、網膜反射像と判定され
た像の重心座標を瞳孔位置として出力する。なお、上述
のステップS103〜S108の処理は、瞳孔位置検出
部24と座標・濃淡情報記憶部27が行う。
Next, a retinal reflection image is determined using the extracted gray value (step S107). In particular,
Among the gray values of the visible image obtained in step S106,
A region including the barycentric coordinates corresponding to the two in order from the lowest value is determined as a retinal reflection image. This is because the human pupil is usually black and has a low gray value even in a visible image. On the other hand, the reflected image portion and the illumination of the spectacle lens are photographed brightly even in the visible image, so that the gray value is high. Therefore, it can be determined that the white area having the barycentric coordinates corresponding to the lowest and second lowest gray-scale values of the visible image pixels is the retinal reflection image. Then, in step S108, the coordinates of the center of gravity of the image determined to be a retinal reflection image are output as pupil positions. Note that the processes of steps S103 to S108 described above are performed by the pupil position detection unit 24 and the coordinate / density information storage unit 27.

【0063】ステップS104〜S107の処理につい
て、図3を用いて更に説明する。図3は、ステップS1
03で二値化された赤外画像(図3(a))及び、対応
する可視画像(図3(b))の例を示す図である。
The processing of steps S104 to S107 will be further described with reference to FIG. FIG. 3 shows step S1.
It is a figure which shows the example of the infrared image (FIG. 3 (a)) binarized by 03, and the corresponding visible image (FIG. 3 (b)).

【0064】ステップS104のラベリング処理におい
て、高輝度領域a〜gのうち、領域gは予め定めた大き
さを越える大きさを有するのでラベリングの対象から除
外される。そして、残りの領域a〜fのそれぞれについ
てラベリングが行われる。
In the labeling process in step S104, of the high brightness regions a to g, the region g has a size exceeding a predetermined size and is therefore excluded from the labeling. Then, labeling is performed for each of the remaining regions a to f.

【0065】そして、ステップS105において、ラベ
リングされた領域a〜fのそれぞれについて、重心座標
(Xn,Yn)(ただし、n=1〜6の整数)が算出さ
れる。また、各領域の円形度も算出される。図3(a)
においては、領域a〜fがいずれも円形度の高い形状を
有するので、ステップS106においては領域a〜fの
重心座標と、対応する可視画像画素濃淡値がそれぞれ座
標・濃淡情報記憶部27に記憶される。
Then, in step S105, barycentric coordinates (Xn, Yn) (where n = 1 to 6) are calculated for each of the labeled regions a to f. Also, the circularity of each area is calculated. FIG. 3 (a)
, Since the regions a to f all have a shape with a high degree of circularity, the coordinates of the center of gravity of the regions a to f and the corresponding grayscale values of the visible image pixels are stored in the coordinate / shade information storage unit 27 in step S106. Is done.

【0066】次に、ステップS107において、座標・
濃淡情報記憶部27に記憶された可視画像画素濃淡値を
比較する。図3(a)に示す赤外画像の高輝度領域a〜
gのうち、領域a,dが網膜反射像、領域b,eが眼鏡
レンズによる反射像、領域c,f,gが照明の像とする
と、領域a,d、即ち座標(X1,Y1)及び(X4,
Y4)に対応する可視画像画素の濃淡値は低く、その他
の座標に対応する可視画像画素の濃淡値は高い。
Next, in step S107, the coordinates
The grayscale values of the visible image pixels stored in the grayscale information storage unit 27 are compared. High-luminance areas a to of the infrared image shown in FIG.
In g, regions a and d are retinal reflection images, regions b and e are reflection images by spectacle lenses, and regions c, f, and g are illumination images. Regions a and d, ie, coordinates (X1, Y1) and (X4
The gray value of the visible image pixel corresponding to Y4) is low, and the gray value of the visible image pixel corresponding to the other coordinates is high.

【0067】従って、ステップS107では領域a,d
が網膜反射像であると判定され、その重心座標(X1,
Y1)及び(X4,Y4)が瞳孔位置としてステップS
108で出力される。ただし、赤外画像内で左に出てき
た反射像を観察者の右眼、右に出てきた反射像を観察者
の左眼とする。
Therefore, in step S107, the areas a and d
Is determined to be a retinal reflection image, and the barycentric coordinates (X1,
Y1) and (X4, Y4) are set as pupil positions in step S
It is output at 108. However, in the infrared image, the reflected image that appears to the left is the right eye of the observer, and the reflected image that appears to the right is the left eye of the observer.

【0068】次に、図1に示したシステム全体の具体的
な動作について、図4に示すフローチャートを用いて説
明する。
Next, a specific operation of the entire system shown in FIG. 1 will be described with reference to a flowchart shown in FIG.

【0069】まず、撮影部1、視点位置検出部2及び立
体画像表示部3の電源投入、初期化など、各部の起動を
行う(ステップS201)。次に、新規観察者の検出が
なされたか否かをチェックする。
First, the respective units are started such as turning on the power of the photographing unit 1, the viewpoint position detecting unit 2, and the stereoscopic image display unit 3 (step S201). Next, it is checked whether a new observer has been detected.

【0070】新規観察者の検出は、例えば観察者が座る
椅子に設けたスイッチ等がオフからオンになったことを
検知する、撮影部1の可視画像取得部11の撮影画像を
処理して観察者が観察位置に来たことを検出する等、シ
ステム側で自動的に検出する方法や、観察者が観察位置
において操作できるスイッチを設け、観察者にスイッチ
をオンさせる様にする等、観察者の能動的な動作によっ
て検出するようにすることも可能である。
The detection of a new observer is performed, for example, by processing a photographed image of the visible image acquiring unit 11 of the photographing unit 1 for detecting that a switch or the like provided on a chair on which the observer is sitting is turned on from off. The system can automatically detect when the observer has arrived at the observation position, or provide a switch that can be operated by the observer at the observation position and turn on the switch by the observer. It is also possible to make the detection by the active operation of.

【0071】次に、図2を用いて説明した瞳孔位置検出
処理(ステップS102〜ステップS108)を行う
(ステップS202)。ステップS202で正常に瞳孔
位置検出が完了した場合には、テンプレートの作成処理
を開始する(ステップS203)。本実施形態のシステ
ムにおいては任意のパターンマッチング用テンプレート
を用いることができるが、ここでは2つの子テンプレー
トと1つの親テンプレートを用いる場合を例にとって説
明する。それぞれの種類のテンプレートについて図5
(a)及び図5(b)を用いてさらに説明する。
Next, the pupil position detection processing (steps S102 to S108) described with reference to FIG. 2 is performed (step S202). If the pupil position detection has been normally completed in step S202, the template creation process is started (step S203). Although any pattern matching template can be used in the system of the present embodiment, a case where two child templates and one parent template are used will be described here as an example. Figure 5 for each type of template
This will be further described with reference to FIG.

【0072】図5(a)及び図5(b)は、本実施形態
で用いる子テンプレート及び親テンプレートをそれぞれ
説明する図である。図に示すように、2つの子テンプレ
ートはそれぞれ右眼、左眼の視点位置を基点(図中×で
示す)とするテンプレート、親テンプレートは右眼左眼
の視点位置を含み、視点位置の中点を基点とする1つの
テンプレートである。ここで、テンプレートにおける視
点位置は、画像内座標の1点を指す座標である。
FIGS. 5A and 5B are diagrams for explaining a child template and a parent template used in the present embodiment, respectively. As shown in the figure, the two child templates each have a viewpoint based on the viewpoint positions of the right eye and the left eye (indicated by X in the figure), and the parent template includes the viewpoint positions of the right eye and the left eye. One template is based on a point. Here, the viewpoint position in the template is a coordinate indicating one point of the coordinates in the image.

【0073】本実施形態において、テンプレートの作成
処理は子テンプレートの作成から行う。テンプレート作
成部23は、瞳孔位置検出処理部24が赤外画像から検
出した右眼、左眼の瞳孔位置(画像上の座標値)を用い
て、可視画像記憶部21に記憶された可視画像から、右
眼瞳孔位置を基点とした子テンプレート1、左眼瞳孔位
置を基点とした子テンプレート2を作成する。子テンプ
レートの大きさは、右眼左眼瞳孔位置間の距離によって
次式から決定する。平均的な人間の右眼左眼瞳孔位置間
の距離:測定された右眼左眼瞳孔位置間の距離=平均的
な人間の眼と眉が入る程度の大きき:子テンプレートの
大きさここで、瞳孔位置間距離及び眼と眉が入る大きさ
の平均値は、たとえば統計的に求めた値を用いることが
できる。
In the present embodiment, template creation processing is performed from creation of a child template. The template creating unit 23 uses the pupil positions (coordinate values on the image) of the right eye and the left eye detected by the pupil position detection processing unit 24 from the infrared image to extract the visible image stored in the visible image storage unit 21. , A child template 1 based on the right eye pupil position and a child template 2 based on the left eye pupil position. The size of the child template is determined from the following equation according to the distance between the pupil positions of the right eye and the left eye. Average distance between the pupil positions of the right and left eyes of the human: measured distance between the pupil positions of the right and left eyes = large enough to include the average human eye and eyebrows: the size of the child template The average value of the distance between pupil positions and the size of the eye and eyebrows can be, for example, a statistically obtained value.

【0074】子テンプレートの作成が終わると、テンプ
レート作成部23は親テンプレートの作成を行う。上述
したように、親テンプレートは右眼左眼2つの瞳孔位置
の中点を基点として、2つの瞳孔位置を含むテンプレー
トである。親テンプレートの大ききは、右眼左眼瞳孔位
置間の距離によって次式から決定する。平均的な人間の
右眼左眼瞳孔位置間の距離:測定された右眼左眼瞳孔位
置間の距離=平均的な人間の顔が入る程度の大きさ:親
テンプレートの大きさ子テンプレート作成時と同様に、
平均値には統計的に求めた値を用いることができる。テ
ンプレート作成部23が作成したテンプレートは、パタ
ーンマッチング判定部22へ供給される。
When the child template has been created, the template creating section 23 creates a parent template. As described above, the parent template is a template including two pupil positions starting from the middle point of the two pupil positions of the right eye and the left eye. The size of the parent template is determined from the following equation based on the distance between the pupil positions of the right and left eyes. Average distance between pupil positions of right and left eyes of human: measured distance between pupil positions of right and left eyes = size enough to include average human face: size of parent template When creating child template alike,
A statistically determined value can be used as the average value. The template created by the template creation unit 23 is supplied to the pattern matching determination unit 22.

【0075】テンプレートの作成が終わると、これらの
テンプレートを用いたパターンマッチングを行い、観察
者の視点位置変化に追従して視点位置検出を行う(ステ
ップS204)。具体的には、可視画像記憶部21に取
り込んだ可視画像と、テンプレート作成部23が作成し
たテンプレートを用いてパターンマッチングを行う。
When the templates have been created, pattern matching using these templates is performed, and the viewpoint position is detected following the change in the viewpoint position of the observer (step S204). Specifically, pattern matching is performed using the visible image captured in the visible image storage unit 21 and the template created by the template creating unit 23.

【0076】パターンマッチング判定部22はまず、親
テンプレートと可視画像のパターンマッチングを行う。
パターンマッチングはたとえば正規化相関関数を用いて
行うことができる。正規化相関関数を用いたパターンマ
ッチングについては例えば、「マトロックスイメージン
グライブラリ バージョン5.1 ユーザガイド(Matr
ox Imaging Library Version 5.1 User Guide)」 第
154〜155ページに記載されている。正規化相関関
数によって得られる値は0〜100(%)として表さ
れ、100%が完全一致を意味する。また、パターンマ
ッチングは、テンプレートマッチングと呼ばれることも
ある。
The pattern matching determination section 22 first performs pattern matching between the parent template and the visible image.
Pattern matching can be performed using, for example, a normalized correlation function. For the pattern matching using the normalized correlation function, see, for example, “Matrox Imaging Library Version 5.1 User Guide (Matr
ox Imaging Library Version 5.1 User Guide) ", pages 154 to 155. The value obtained by the normalized correlation function is expressed as 0 to 100 (%), and 100% means a perfect match. Also, pattern matching is sometimes called template matching.

【0077】本実施形態においては、例えば85%を超
える相関度が得られれば、パターンマッチングが成功し
たと見なす。テンプレート作成直後のパターンマッチン
グは、テンプレートの元になった画像とパターンマッチ
ングを行う画像データが同一であるため、基本的にほぼ
100%の相関度が得られるはずである。
In the present embodiment, if a degree of correlation exceeding, for example, 85% is obtained, it is determined that the pattern matching has succeeded. In the pattern matching immediately after the template is created, since the image on which the template is based and the image data to be subjected to the pattern matching are the same, basically a correlation of almost 100% should be obtained.

【0078】親テンプレートと可視画像のパターンマッ
チング結果が所定の相関度を満たした場合には、親テン
プレートを用いたパターンマッチングが成功したと判定
し、パターンマッチング判定部22は視点位置の探索領
域設定を行う。すなわち、親テンプレート内の左半分を
右眼視点位置の探索領域、親テンプレート内の右半分を
左眼視点位置の探索領域とする。そして、設定した探索
領域を元にして、子テンプレートと可視画像のパターン
マッチングを行う。このように、階層的にパターンマッ
チングを行い、段階的に探索範囲を絞り、右眼左眼視点
位置の拘束を行うことで、誤った視点位置の検出(失敗
ではない)を防ぎ、精度良い追従ができる。また、パタ
ーンマッチングが成功している間は子テンプレートによ
るパターンマッチングを行い、パターンマッチングが失
敗している間は親テンプレートと子テンプレートを用い
て階層的にパターンマッチングを行うようにしてもよ
い。
When the result of pattern matching between the parent template and the visible image satisfies a predetermined degree of correlation, it is determined that pattern matching using the parent template has succeeded, and the pattern matching determination unit 22 sets the search area for the viewpoint position. I do. That is, the left half in the parent template is set as the search area for the right eye viewpoint position, and the right half in the parent template is set as the search area for the left eye viewpoint position. Then, pattern matching between the child template and the visible image is performed based on the set search area. In this way, by performing pattern matching hierarchically, narrowing down the search range in stages, and restricting the right eye left eye viewpoint position, detection of erroneous viewpoint position (not failure) is prevented, and accurate tracking is performed. Can be. Alternatively, pattern matching using the child template may be performed while the pattern matching is successful, and pattern matching may be performed hierarchically using the parent template and the child template while the pattern matching fails.

【0079】パターンマッチングの結果、最大相関値が
所定の相関値を満たす場合には、ステップS205にお
いてパターンマッチング成功と判断され、ステップS2
06へ移行する。一方、最大相関値が所定相関値に満た
ない場合には、パターンマッチング失敗と判断され、ス
テップS202へ戻って瞳孔位置検出処理からやり直
す。図4では、パターンマッチングに1回失敗したとき
S202に戻るようになっているが、2回以上の所定回
数失敗したときS202に戻るようにしてもよい。
If the maximum correlation value satisfies the predetermined correlation value as a result of the pattern matching, it is determined that the pattern matching is successful in step S205, and the process proceeds to step S2.
Shift to 06. On the other hand, if the maximum correlation value is less than the predetermined correlation value, it is determined that the pattern matching has failed, and the process returns to step S202 and starts again from the pupil position detection process. In FIG. 4, when the pattern matching fails once
Although the process returns to S202, the process may return to S202 when two or more failures have occurred.

【0080】ステップS205でパターンマッチング成
功と判断されると、パターンマッチング判定部22は、
図示しない表示制御部及び立体画像表示部3へ最終的に
得られた視点位置情報(画像上の視点位置座標)を右
眼、左眼ごとに出力する。
If it is determined in step S205 that the pattern matching is successful, the pattern matching determination unit 22
The finally obtained viewpoint position information (viewpoint position coordinates on the image) is output to the display control unit and the stereoscopic image display unit 3 (not shown) for each of the right eye and the left eye.

【0081】ステップS206において、図示しない表
示制御部は、この視点位置情報に基づいて観察者の視点
位置に応じた表示用画像データを生成して立体画像表示
部3へ出力する。また、立体画像表示部3では、視点位
置情報に基づいて、図示しない制御ユニットが、マスク
パターンを水平方向に移動もしくはマスクパターンを変
更することにより、観察者が立体視可能な視野角を観察
者の視点位置に追従させる。
In step S206, the display control unit (not shown) generates display image data corresponding to the viewpoint position of the observer based on the viewpoint position information, and outputs the display image data to the stereoscopic image display unit 3. In the stereoscopic image display unit 3, a control unit (not shown) moves the mask pattern in the horizontal direction or changes the mask pattern based on the viewpoint position information, thereby changing the viewing angle at which the observer can view stereoscopically. Follow the viewpoint position of

【0082】ステップS207においてシステム終了を
行うか否かを判定し、システムの動作終了を指示されて
いなければ可視画像撮影部11から可視画像を取り込
み、可視画像記憶部21へ記憶してからステップS20
4へ戻る。
In step S207, it is determined whether or not to end the system. If the end of the operation of the system is not instructed, a visible image is fetched from the visible image photographing unit 11, stored in the visible image storage unit 21, and then stored in step S20.
Return to 4.

【0083】以降、可視画像に対するパターンマッチン
グを継続し、パターンマッチングが失敗すると自動的に
瞳孔位置検出処理に戻ってテンプレートの再作成処理を
行う。ステップS207において終了処理が指示された
場合には、所定の終了処理を行って(ステップS20
8)一連の処理を終了する。
Thereafter, the pattern matching for the visible image is continued, and if the pattern matching fails, the process automatically returns to the pupil position detecting process to perform the template re-creating process. When the end processing is instructed in step S207, predetermined end processing is performed (step S20).
8) End a series of processing.

【0084】[0084]

【その他の実施形態】上述の実施形態においては、パタ
ーンマッチング結果が失敗に終わった場合に赤外画像取
得からやり直すことにより、高精度で追従性の良いパタ
ーンマッチングを行う構成を説明したが、あまり被測定
者が動かないような環境においては、定期的にテンプレ
ートを作り直すことによっても同様の効果が期待でき
る。特に、同一観察者に対して赤外画像の取得を何度も
行うのが望ましくない場合には、このような処理を行う
ことが好ましい。
[Other Embodiments] In the above-described embodiment, a configuration has been described in which pattern matching with high accuracy and good tracking is performed by redoing from acquisition of an infrared image when the pattern matching result has failed. In an environment where the subject does not move, a similar effect can be expected by periodically recreating the template. In particular, when it is not desirable to repeatedly obtain an infrared image for the same observer, it is preferable to perform such processing.

【0085】また、観察者にリモートコントローラ等の
スイッチ等を操作させ、それを瞳孔位置検出処理の開始
信号として用いることにもできる。このような構成によ
り、取得した赤外画像における観察者の瞳孔位置が存在
する範囲を絞り込むことができ、より精度の高い検出が
可能になる。
Further, the observer can operate a switch or the like of a remote controller or the like and use it as a start signal of the pupil position detection processing. With such a configuration, the range in which the pupil position of the observer exists in the acquired infrared image can be narrowed, and more accurate detection can be performed.

【0086】同様に、ユーザが立体視しにくくなった場
合にこのスイッチを操作することにより、赤外画像取得
動作に始まる瞳孔位置検出処理をやり直すように構成す
ることもできる。このような構成とすることにより、的
確なタイミングでテンプレートの更新が行われ、より高
精度の視点位置検出が可能となり、結果として立体視可
能な範囲が広い立体画像表示システムを実現することが
できる。
Similarly, by operating this switch when it becomes difficult for the user to perform stereoscopic viewing, the pupil position detecting process starting from the infrared image acquiring operation can be performed again. With such a configuration, the template is updated at an accurate timing, and the viewpoint position detection can be performed with higher accuracy. As a result, a stereoscopic image display system with a wide stereoscopic view range can be realized. .

【0087】また、赤外光を発光する際に、画像表示部
3の輝度や観察者までの距離に応じてその発光量を変化
させたり、赤外画像からの瞳孔位置検出が失敗してやり
直す際には前回と発光量を変化させる(強くする、ある
いは弱くする)こともできる。このような発光量の制御
は、赤外画像からの瞳孔位置検出を成功させる確率を高
め、結果として高精度な視点位置検出結果を得ることに
つながる。
When emitting infrared light, the amount of emitted light is changed according to the brightness of the image display unit 3 or the distance to the observer, or the pupil position detection from the infrared image fails and is repeated. At this time, the light emission amount can be changed (increased or weakened) from the last time. Such control of the light emission amount increases the probability of successfully detecting the pupil position from the infrared image, and as a result, leads to obtaining a highly accurate viewpoint position detection result.

【0088】また、上述の実施形態では本発明による瞳
孔位置検出装置の検出結果を用いて視点位置検出を行う
場合を例にして説明したが、本発明による瞳孔位置検出
装置は、任意の用途に用いることができる。
In the above-described embodiment, the case where the viewpoint position is detected using the detection result of the pupil position detecting device according to the present invention has been described as an example. However, the pupil position detecting device according to the present invention can be used for any purpose. Can be used.

【0089】また、上述の実施形態においては、二値化
赤外画像から抽出した白色領域の重心座標に対応する可
視画像画素の濃淡値によって網膜反射像を判定したが、
白色領域毎に2つ以上の座標を求め、各座標に対応する
可視画像画素濃淡値の平均値を用いて網膜反射像の判定
を行うように構成することも可能である。ただし、この
場合最終的な瞳孔位置として出力する座標は、別途求め
る必要がある(重心座標であっても良い)。
In the above-described embodiment, the retinal reflection image is determined based on the gray value of the visible image pixel corresponding to the barycentric coordinate of the white area extracted from the binarized infrared image.
It is also possible to determine two or more coordinates for each white area and determine the retinal reflection image using the average value of the grayscale values of the visible image pixels corresponding to each coordinate. However, in this case, the coordinates output as the final pupil position need to be separately obtained (the coordinates of the center of gravity may be used).

【0090】あるいは、二値化赤外画像から抽出した白
色領域に対応する可視画像領域に含まれる画素すべての
平均濃淡値を用いて網膜反射像の判定を行うように構成
することも可能である。
Alternatively, the retinal reflection image can be determined using the average grayscale value of all pixels included in the visible image region corresponding to the white region extracted from the binarized infrared image. .

【0091】また、上述の実施形態においては、二値化
赤外画像から抽出した白色領域の重心座標に対応する可
視画像画素の濃淡値によって網膜反射像を判定したが、
グレースケールの赤外画像から、所定の輝度以上を有す
る(所定値よりも明るい濃淡値を有する)領域を抽出す
るようにしてもよい。この場合、抽出した領域はその後
実施形態における白色領域と同等に取り扱えばよい。
In the above-described embodiment, the retinal reflection image is determined based on the gray value of the visible image pixel corresponding to the barycentric coordinate of the white area extracted from the binarized infrared image.
A region having a predetermined brightness or higher (having a lighter / darker value than a predetermined value) may be extracted from the grayscale infrared image. In this case, the extracted area may be treated similarly to the white area in the embodiment.

【0092】また、網膜反射像の判定時に、対応する可
視画像画素の濃淡値が最も低い領域から2つを機械的に
瞳孔反射像と判定せずに、最低濃淡値から3〜5個程度
の領域から、テンプレート作成時に用いる平均的な人間
の右眼左眼瞳孔位置間の距離等、左右の瞳孔の位置関係
等を用いて最終的な判定を行うように構成することもで
きる。このように構成することでさらに精度の高い検出
が可能になる。
When determining the retinal reflection image, two of the regions having the lowest gray value of the corresponding visible image pixel are not mechanically determined as the pupil reflection image. A final determination may be made from the region using the positional relationship between the left and right pupils, such as the average distance between the pupil positions of the right and left eyes of the human used when creating the template. With such a configuration, more accurate detection can be performed.

【0093】もちろん、最初に対応する可視画像画素の
濃淡値が最も低い領域から2つを機械的に瞳孔反射像と
仮判定し、上述の位置関係を満たさない場合にさらに下
から3番目以上の可視画像画素の濃淡値に対応する領域
について順次判定するようにしてもよい。
Of course, first, two regions from the lowest gray level value of the corresponding visible image pixel are mechanically provisionally determined as pupil reflection images, and if the above-mentioned positional relationship is not satisfied, the third or higher third from the bottom is further determined. You may make it determine sequentially about the area | region corresponding to the gray value of a visible image pixel.

【0094】本発明の本質は、赤外画像において明る
く、可視画像において暗い領域を網膜反射像として判定
することにあるため、上述の条件以外にも任意の条件を
用いることが可能である。
Since the essence of the present invention is to determine a bright region in an infrared image and a dark region in a visible image as a retinal reflection image, any conditions other than the above conditions can be used.

【0095】また、上述の実施形態において説明した具
体的な手法、例えばパターンマッチングの方法、テンプ
レート作成の方法等は、実施形態において説明したもの
に限定されるものではなく、同等に適用可能な方法を用
いても良いことはいうまでもない。
Further, the specific methods described in the above embodiments, such as the pattern matching method and the template creation method, are not limited to those described in the embodiments, but may be equally applied. It is needless to say that may be used.

【0096】上述の実施形態においては、ピンポイント
の座標である視点位置を出力するように構成されていた
が、例えば上述の実施形態のように最終的に得られる視
点位置を立体画像表示部の制御に用いる場合であれば、
右眼と左眼の視点位置の中心位置がわかれば最低限の制
御は可能であるため、テンプレートの中心位置を立体画
像表示部3へ出力するようにしても良い。
In the above-described embodiment, the viewpoint position, which is the pinpoint coordinate, is configured to be output. However, for example, as in the above-described embodiment, the finally obtained viewpoint position is displayed on the stereoscopic image display unit. If used for control,
Since minimum control is possible if the center positions of the viewpoint positions of the right eye and the left eye are known, the center position of the template may be output to the stereoscopic image display unit 3.

【0097】また、上述の実施形態においては立体画像
表示部3としてバックライトを用いた液晶表示装置を用
いた場合のみを説明したが、CRT等の自発光型表示装
置によってバックライトとマスクパターンとの組み合わ
せと同等の機能を実現することも可能である。
In the above embodiment, only the case where a liquid crystal display device using a backlight is used as the three-dimensional image display unit 3 has been described. It is also possible to realize a function equivalent to the combination of.

【0098】なお、本発明は、複数の機器(例えばホス
トコンピュータ、インタフェイス機器、リーダ、プリン
タなど)から構成されるシステムに適用しても、一つの
機器からなる装置(例えば、複写機、ファクシミリ装置
など)に適用してもよい。
The present invention can be applied to a system including a plurality of devices (for example, a host computer, an interface device, a reader, a printer, etc.), but can be applied to a single device (for example, a copier, a facsimile). Device).

【0099】また、本発明の目的は、前述した実施形態
の機能を実現するソフトウェアのプログラムコードを記
録した記憶媒体(または記録媒体)を、システムあるい
は装置に供給し、そのシステムあるいは装置のコンピュ
ータ(またはCPUやMPU)が記憶媒体に格納されたプログ
ラムコードを読み出し実行することによっても、達成さ
れることは言うまでもない。
Further, an object of the present invention is to supply a storage medium (or a recording medium) recording software program codes for realizing the functions of the above-described embodiments to a system or an apparatus, and to provide a computer (a computer) of the system or the apparatus. It is needless to say that the present invention can also be achieved by a CPU or an MPU) reading and executing the program code stored in the storage medium.

【0100】この場合、記憶媒体から読み出されたプロ
グラムコード自体が前述した実施形態の機能を実現する
ことになり、そのプログラムコードを記憶した記憶媒体
は本発明を構成することになる。また、コンピュータが
読み出したプログラムコードを実行することにより、前
述した実施形態の機能が実現されるだけでなく、そのプ
ログラムコードの指示に基づき、コンピュータ上で稼働
しているオペレーティングシステム(OS)などが実際の処
理の一部または全部を行い、その処理によって前述した
実施形態の機能が実現される場合も含まれることは言う
までもない。
In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiment, and the storage medium storing the program code constitutes the present invention. By executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also an operating system (OS) running on the computer based on the instruction of the program code. It goes without saying that a case where some or all of the actual processing is performed and the functions of the above-described embodiments are realized by the processing is also included.

【0101】さらに、記憶媒体から読み出されたプログ
ラムコードが、コンピュータに挿入された機能拡張カー
ドやコンピュータに接続された機能拡張ユニットに備わ
るメモリに書込まれた後、そのプログラムコードの指示
に基づき、その機能拡張カードや機能拡張ユニットに備
わるCPUなどが実際の処理の一部または全部を行い、そ
の処理によって前述した実施形態の機能が実現される場
合も含まれることは言うまでもない。
Further, after the program code read from the storage medium is written into the memory provided in the function expansion card inserted into the computer or the function expansion unit connected to the computer, the program code is read based on the instruction of the program code. Needless to say, the CPU included in the function expansion card or the function expansion unit performs part or all of the actual processing, and the processing realizes the functions of the above-described embodiments.

【0102】本発明を上記記憶媒体に適用する場合、そ
の記憶媒体には、先に説明した(図2及び/又は図4に
示す)フローチャートに対応するプログラムコードが格
納されることになる。
When the present invention is applied to the storage medium, the storage medium stores program codes corresponding to the above-described flowcharts (shown in FIG. 2 and / or FIG. 4).

【0103】[0103]

【発明の効果】以上説明したように、本発明によれば、
赤外光を用いた網膜反射像を用いて観察者の瞳孔位置を
検出する瞳孔位置検出装置において、観察者が眼鏡をか
けているような場合であっても短時間で精度の高い瞳孔
位置検出が実現できる。
As described above, according to the present invention,
In a pupil position detection device that detects a pupil position of an observer using a retinal reflection image using infrared light, highly accurate pupil position detection can be performed in a short time even when the observer is wearing glasses. Can be realized.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施形態に係る立体画像表示システム
の構成を示すブロック図である。
FIG. 1 is a block diagram illustrating a configuration of a stereoscopic image display system according to an embodiment of the present invention.

【図2】本発明の実施形態に係る赤外画像取得動作を説
明するフローチャートである。
FIG. 2 is a flowchart illustrating an infrared image acquisition operation according to the embodiment of the present invention.

【図3】赤外画像と可視画像から網膜反射像を判定する
処理を説明する図である。
FIG. 3 is a diagram illustrating a process of determining a retinal reflection image from an infrared image and a visible image.

【図4】本発明の実施形態に係る立体画像表示システム
の動作を説明するフローチャートである。
FIG. 4 is a flowchart illustrating an operation of the stereoscopic image display system according to the embodiment of the present invention.

【図5】本発明の実施形態において用いるテンプレート
の構成を説明する図である。
FIG. 5 is a diagram illustrating a configuration of a template used in the embodiment of the present invention.

【図6】リアクロスレンチキュラ方式の立体画像表示装
置の構成を示す斜視図である。
FIG. 6 is a perspective view showing a configuration of a rear cross lenticular type stereoscopic image display device.

【図7】視点位置により表示制御を行う立体画像表示装
置の例を示す斜視図である。
FIG. 7 is a perspective view illustrating an example of a stereoscopic image display device that performs display control based on a viewpoint position.

【図8】視点位置により表示制御を行う立体画像表示装
置の例を示す斜視図である。
FIG. 8 is a perspective view illustrating an example of a stereoscopic image display device that performs display control based on a viewpoint position.

【図9】観察者が眼鏡をかけている場合に得られる赤外
画像及び可視画像の例を示す図である。
FIG. 9 is a diagram illustrating an example of an infrared image and a visible image obtained when an observer wears glasses.

【図10】観察者の背景に照明がある場合に得られる赤
外画像及び可視画像の例を示す図である。
FIG. 10 is a diagram showing an example of an infrared image and a visible image obtained when there is illumination on the background of the observer.

─────────────────────────────────────────────────────
────────────────────────────────────────────────── ───

【手続補正書】[Procedure amendment]

【提出日】平成13年2月8日(2001.2.8)[Submission date] February 8, 2001 (2001.2.8)

【手続補正1】[Procedure amendment 1]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】請求項13[Correction target item name] Claim 13

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G06T 1/00 340 H04N 13/00 5C061 H04N 13/00 G02F 1/13 505 // G02F 1/13 505 H04N 7/18 B H04N 7/18 A61B 3/10 A Fターム(参考) 2F065 AA03 AA17 BB22 BB27 CC16 DD00 FF04 FF26 FF28 GG07 GG22 LL46 QQ24 QQ38 RR05 UU05 UU07 2H059 AA33 AB04 AB11 2H088 EA06 HA10 HA26 MA20 5B057 BA01 BA02 CA08 CA12 CA16 CB13 CB16 CC03 CE12 DA07 DA08 DA16 DB02 DB05 DB08 DB09 DC06 DC14 DC22 DC34 DC39 5C054 CA04 CA05 CC03 FC01 FC04 FC05 FC12 FC15 FD02 GB12 HA05 HA12 5C061 AA07 AB17 AB24 ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) G06T 1/00 340 H04N 13/00 5C061 H04N 13/00 G02F 1/13 505 // G02F 1/13 505 H04N 7/18 B H04N 7/18 A61B 3/10 A F term (reference) 2F065 AA03 AA17 BB22 BB27 CC16 DD00 FF04 FF26 FF28 GG07 GG22 LL46 QQ24 QQ38 RR05 UU05 UU07 2H059 AA33 AB04 AB11 2H088BA20 BA02 CA16 CB13 CB16 CC03 CE12 DA07 DA08 DA16 DB02 DB05 DB08 DB09 DC06 DC14 DC22 DC34 DC39 5C054 CA04 CA05 CC03 FC01 FC04 FC05 FC12 FC15 FD02 GB12 HA05 HA12 5C061 AA07 AB17 AB24

Claims (28)

【特許請求の範囲】[Claims] 【請求項1】 被測定者の赤外画像及び可視画像から、
前記被測定者の瞳孔位置を検出し、瞳孔位置情報を出力
する瞳孔位置検出装置であって、 前記赤外画像において、所定値以上の明るさを有する高
輝度領域を検出する高輝度領域抽出手段と、 前記高輝度領域のうち、前記可視画像において対応する
領域の輝度が所定値未満である前記高輝度領域中の所定
の座標に基づいて前記被測定者の瞳孔位置を算出して出
力する瞳孔位置算出手段とを有することを特徴とする瞳
孔位置検出装置。
1. An infrared image and a visible image of a subject,
A pupil position detection device that detects a pupil position of the subject and outputs pupil position information, wherein a high-brightness region extracting unit that detects a high-brightness region having a brightness of a predetermined value or more in the infrared image. And a pupil that calculates and outputs a pupil position of the subject based on predetermined coordinates in the high-brightness area in which the brightness of a corresponding area in the visible image is less than a predetermined value in the high-brightness area. A pupil position detection device, comprising: a position calculation unit.
【請求項2】 被測定者の赤外画像及び可視画像から、
前記被測定者の瞳孔位置を検出し、瞳孔位置情報を出力
する瞳孔位置検出装置であって、 前記赤外画像から、所定値以上の明るさを有する高輝度
領域を抽出し、抽出した各高輝度領域毎に、少なくとも
1つの所定の座標を得る領域抽出手段と、 前記可視画像の、前記所定の座標に対応する画素の濃淡
値を取得する濃淡値取得手段と、 前記濃淡値取得手段が取得した濃淡値のうち、所定値未
満の濃淡値を有する代表座標画素に対応する前記所定の
座標を含む前記高輝度領域を検出し、前記代表座標に基
づいて被測定者の瞳孔位置を算出して出力する瞳孔位置
算出手段とを有することを特徴とする瞳孔位置検出装
置。
2. From an infrared image and a visible image of a subject,
A pupil position detection device that detects a pupil position of the subject and outputs pupil position information, wherein a high-brightness region having a brightness equal to or greater than a predetermined value is extracted from the infrared image. An area extracting unit that obtains at least one predetermined coordinate for each luminance area; a gray value obtaining unit that obtains a gray value of a pixel corresponding to the predetermined coordinate in the visible image; Among the gray values, the high-luminance area including the predetermined coordinates corresponding to the representative coordinate pixels having a gray value less than the predetermined value is detected, and the pupil position of the subject is calculated based on the representative coordinates. A pupil position calculating device for outputting the pupil position.
【請求項3】 前記瞳孔位置算出手段が、前記高輝度領
域のうち、前記可視画像において対応する領域の輝度が
最も低い高輝度領域と、次に低い高輝度領域の2つの前
記高輝度領域中の所定の座標を前記被測定者の瞳孔位置
として出力することを特徴とする請求項1または請求項
2記載の瞳孔位置検出装置。
3. The pupil position calculating means according to claim 1, wherein said pupil position calculating means includes: a high-luminance area having a lowest luminance of a corresponding area in said visible image; 3. The pupil position detecting device according to claim 1, wherein the predetermined coordinates are output as the pupil position of the subject.
【請求項4】 前記所定の座標が、前記高輝度領域の重
心座標あるいは重心に最も近い座標を含むことを特徴と
する請求項1乃至請求項3のいずれか1項に記載の瞳孔
位置検出装置。
4. The pupil position detecting device according to claim 1, wherein the predetermined coordinates include a barycentric coordinate of the high-brightness area or a coordinate closest to the barycenter. .
【請求項5】 前記高輝度領域抽出手段が、所定の面積
及び/又は円形度を満たす領域を前記高輝度領域として
抽出することを特徴とする請求項1乃至請求項4のいず
れか1項に記載の瞳孔位置検出装置。
5. The high-brightness region extracting unit according to claim 1, wherein the high-brightness region extracting unit extracts a region satisfying a predetermined area and / or circularity as the high-brightness region. The pupil position detecting device according to any one of the preceding claims.
【請求項6】 前記赤外画像を所定の閾値による二値化
画像を生成する二値化画像生成手段を更に有し、 前記高輝度領域抽出手段が、前記二値化画像から前記高
輝度領域の検出を行うことを特徴とする請求項1乃至請
求項5のいずれか1項に記載の瞳孔位置検出装置。
6. A high-luminance area extracting means for generating a high-luminance area extracting means for generating a high-luminance area from the high-luminance area, comprising: The pupil position detecting device according to any one of claims 1 to 5, wherein the pupil position detecting device detects the pupil position.
【請求項7】 前記可視画像と前記赤外画像とが同時に
取得されたものであることを特徴とする請求項1乃至請
求項6のいずれか1項に記載の瞳孔位置検出装置。
7. The pupil position detecting device according to claim 1, wherein the visible image and the infrared image are obtained at the same time.
【請求項8】 請求項1乃至請求項7のいずれか1項に
記載の瞳孔位置検出装置と、 前記可視画像から、前記瞳孔位置を用いてパターンマッ
チング用のテンプレートを作成するテンプレート作成手
段と、 前記テンプレート作成手段の作成したテンプレートを用
い、少なくとも所定時間毎に連続して取得された前記被
測定者の可視画像とパターンマッチングを行って前記被
測定者の視点位置を検出し、結果を視点位置情報として
出力するマッチング手段とを有することを特徴とする視
点位置検出装置。
8. A pupil position detection device according to claim 1, wherein: a template creation unit that creates a template for pattern matching from the visible image using the pupil position. Using the template created by the template creating means, pattern matching is performed with the visible image of the subject, which is continuously acquired at least every predetermined time, to detect the viewpoint position of the subject, and the result is referred to as the viewpoint position. A viewpoint position detecting device, comprising: a matching unit that outputs the information as information.
【請求項9】 請求項1乃至請求項7のいずれか1項に
記載の瞳孔位置検出装置と、 前記可視画像から、前記瞳孔位置を用いてパターンマッ
チング用のテンプレートを作成するテンプレート作成手
段と、 前記テンプレート作成手段の作成したテンプレートを用
い、少なくとも所定時間毎に連続して取得された前記被
測定者の可視画像とパターンマッチングを行って前記被
測定者の視点位置を検出し、検出結果を視点位置情報と
して出力するマッチング手段と、 所定の条件を満たす場合に前記瞳孔位置検出装置及び前
記テンプレート作成手段を用いて再度前記テンプレート
を作成するように制御する制御手段とを有することを特
徴とする視点位置検出装置。
9. A pupil position detection device according to claim 1, wherein: a template creation unit that creates a template for pattern matching from the visible image using the pupil position. Using the template created by the template creation unit, pattern matching is performed with the visible image of the person to be measured continuously acquired at least every predetermined time to detect the viewpoint position of the person to be measured, A viewpoint which comprises: matching means for outputting as position information; and control means for controlling the pupil position detecting device and the template creating means to create the template again when a predetermined condition is satisfied. Position detection device.
【請求項10】 前記制御手段が、前記マッチング手段
の検出結果を評価するとともに、検出が所定回数失敗し
たと判定された場合に前記瞳孔位置検出装置及び前記テ
ンプレート作成手段を用いて再度前記テンプレートを作
成するように制御することを特徴とする請求項9記載の
視点位置検出装置。
10. The control unit evaluates a detection result of the matching unit, and when it is determined that the detection has failed a predetermined number of times, the control unit re-executes the template using the pupil position detection device and the template creation unit. The viewpoint position detecting device according to claim 9, wherein control is performed to create the viewpoint position.
【請求項11】 前記制御手段が、所定の時間毎に前記
瞳孔位置検出装置及び前記テンプレート作成手段を用い
て再度前記テンプレートを作成するように制御すること
を特徴とする請求項9記載の視点位置検出装置。
11. The viewpoint position according to claim 9, wherein the control means controls the pupil position detection device and the template creation means to create the template again at predetermined time intervals. Detection device.
【請求項12】 前記制御手段が、前記マッチング手段
の検出結果を評価するとともに、検出が所定回数失敗し
たと判定された場合、あるいは所定の時間毎に前記瞳孔
位置検出装置及び前記テンプレート作成手段を用いて再
度前記テンプレートを作成するように制御することを特
徴とする請求項9記載の視点位置検出装置。
12. The control unit evaluates the detection result of the matching unit, and when it is determined that the detection has failed a predetermined number of times, or every predetermined time, the control unit controls the pupil position detection device and the template creation unit. 10. The viewpoint position detecting apparatus according to claim 9, wherein the control is performed so that the template is created again using the template.
【請求項13】 請求項8乃至請求項12の視点位置検
出装置と、立体画像表示手段とを有する立体画像表示シ
ステムであって、 前記立体画像表示装置が出射光路を制御するマスクパタ
ーンを有する立体画像表示装置であって、前記視点位置
検出装置から受信した前記視点位置情報を用いて前記マ
スクパターンの位置またはパターンを変化させることを
特徴とする立体画像表示システム。
13. A three-dimensional image display system comprising the viewpoint position detecting device according to claim 8, and a three-dimensional image display means, wherein the three-dimensional image display device has a mask pattern for controlling an emission optical path. A stereoscopic image display system, wherein the position or pattern of the mask pattern is changed using the viewpoint position information received from the viewpoint position detection device.
【請求項14】 さらに、前記被測定者の視点位置情報
に応じた前記立体画像表示手段に表示する画像を生成す
る画像生成手段を有することを特徴とする請求項13記
載の立体画像表示システム。
14. The three-dimensional image display system according to claim 13, further comprising image generation means for generating an image to be displayed on said three-dimensional image display means according to the viewpoint position information of said person to be measured.
【請求項15】 被測定者の赤外画像及び可視画像か
ら、前記被測定者の瞳孔位置を検出し、瞳孔位置情報を
出力する瞳孔位置検出方法であって、 前記赤外画像において、所定値以上の明るさを有する高
輝度領域を検出する高輝度領域抽出ステップと、 前記高輝度領域のうち、前記可視画像において対応する
領域の輝度が所定値未満である前記高輝度領域中の所定
の座標に基づいて前記被測定者の瞳孔位置を算出して出
力する瞳孔位置算出ステップとを有することを特徴とす
る瞳孔位置検出方法。
15. A pupil position detecting method for detecting a pupil position of the subject from an infrared image and a visible image of the subject, and outputting pupil position information, wherein the infrared image has a predetermined value. A high-brightness area extraction step of detecting a high-brightness area having the above brightness; and, among the high-brightness areas, predetermined coordinates in the high-brightness area where the brightness of a corresponding area in the visible image is less than a predetermined value A pupil position calculating step of calculating and outputting a pupil position of the subject based on the pupil position.
【請求項16】 被測定者の赤外画像及び可視画像か
ら、前記被測定者の瞳孔位置を検出し、瞳孔位置情報を
出力する瞳孔位置検出方法であって、 前記赤外画像から、所定値以上の明るさを有する高輝度
領域を抽出し、抽出した各高輝度領域毎に、少なくとも
1つの所定の座標を得る領域抽出ステップと、 前記可視画像の、前記所定の座標に対応する画素の濃淡
値を取得する濃淡値取得ステップと、 前記濃淡値取得ステップが取得した濃淡値のうち、所定
値未満の濃淡値を有する代表座標画素に対応する前記所
定の座標を含む前記高輝度領域を検出し、前記代表座標
に基づいて被測定者の瞳孔位置を算出して出力する瞳孔
位置算出ステップとを有することを特徴とする瞳孔位置
検出方法。
16. A pupil position detecting method for detecting a pupil position of the subject from an infrared image and a visible image of the subject, and outputting pupil position information, wherein a predetermined value is obtained from the infrared image. Extracting a high-brightness area having the above brightness, and obtaining at least one predetermined coordinate for each extracted high-brightness area; and shading of a pixel corresponding to the predetermined coordinate in the visible image. A gray value obtaining step of obtaining a value, and among the gray values obtained by the gray value obtaining step, detecting the high brightness area including the predetermined coordinates corresponding to a representative coordinate pixel having a gray value smaller than a predetermined value. A pupil position calculating step of calculating and outputting a pupil position of the subject based on the representative coordinates.
【請求項17】 前記瞳孔位置算出ステップが、前記高
輝度領域のうち、前記可視画像において対応する領域の
輝度が最も低い高輝度領域と、次に低い高輝度領域の2
つの前記高輝度領域中の所定の座標を前記被測定者の瞳
孔位置として出力することを特徴とする請求項15また
は請求項16記載の瞳孔位置検出方法。
17. The pupil position calculating step, wherein, of the high-brightness areas, a high-brightness area having the lowest brightness of a corresponding area in the visible image and a next-highest brightness area
17. The pupil position detection method according to claim 15, wherein predetermined coordinates in the two high-luminance regions are output as pupil positions of the subject.
【請求項18】 前記所定の座標が、前記高輝度領域の
重心座標あるいは重心に最も近い座標を含むことを特徴
とする請求項15乃至請求項17のいずれか1項に記載
の瞳孔位置検出方法。
18. The pupil position detecting method according to claim 15, wherein the predetermined coordinates include a barycentric coordinate of the high-brightness area or a coordinate closest to the barycenter. .
【請求項19】 前記高輝度領域抽出ステップが、所定
の面積及び/又は円形度を満たす領域を前記高輝度領域
として抽出することを特徴とする請求項15乃至請求項
18のいずれか1項に記載の瞳孔位置検出方法。
19. The method according to claim 15, wherein the step of extracting a high-luminance region extracts a region satisfying a predetermined area and / or circularity as the high-luminance region. The pupil position detection method described in the above.
【請求項20】 前記赤外画像を所定の閾値による二値
化画像を生成する二値化画像生成ステップを更に有し、 前記高輝度領域抽出ステップが、前記二値化画像から前
記高輝度領域の検出を行うことを特徴とする請求項15
乃至請求項19のいずれか1項に記載の瞳孔位置検出方
法。
20. A binarized image generating step of generating a binarized image based on a predetermined threshold value from the infrared image, wherein the high-luminance area extracting step includes the step of extracting the high-luminance area from the binarized image. 16. The detection of
A pupil position detection method according to any one of claims 19 to 19.
【請求項21】 前記可視画像と前記赤外画像とが同時
に取得されたものであることを特徴とする請求項15乃
至請求項20のいずれか1項に記載の瞳孔位置検出方
法。
21. The pupil position detecting method according to claim 15, wherein the visible image and the infrared image are obtained at the same time.
【請求項22】 請求項15乃至請求項21のいずれか
1項に記載の瞳孔位置検出方法に加え、 前記可視画像から、前記瞳孔位置を用いてパターンマッ
チング用のテンプレートを作成するテンプレート作成ス
テップと、 前記テンプレート作成ステップの作成したテンプレート
を用い、少なくとも所定時間毎に連続して取得された前
記被測定者の可視画像とパターンマッチングを行って前
記被測定者の視点位置を検出し、結果を視点位置情報と
して出力するマッチングステップとを有することを特徴
とする視点位置検出方法。
22. A pupil position detection method according to claim 15, further comprising: a template creation step of creating a template for pattern matching from the visible image using the pupil position. Using the template created in the template creation step, performing pattern matching with the visible image of the subject obtained continuously at least every predetermined time to detect the viewpoint position of the subject, A matching step of outputting as position information.
【請求項23】 請求項15乃至請求項21のいずれか
1項に記載の瞳孔位置検出方法に加え、 前記可視画像から、前記瞳孔位置を用いてパターンマッ
チング用のテンプレートを作成するテンプレート作成ス
テップと、 前記テンプレート作成ステップの作成したテンプレート
を用い、少なくとも所定時間毎に連続して取得された前
記被測定者の可視画像とパターンマッチングを行って前
記被測定者の視点位置を検出し、検出結果を視点位置情
報として出力するマッチングステップと、 所定の条件を満たす場合に前記瞳孔位置検出方法及び前
記テンプレート作成ステップを用いて再度前記テンプレ
ートを作成するように制御する制御ステップとを有する
ことを特徴とする視点位置検出方法。
23. In addition to the pupil position detection method according to any one of claims 15 to 21, a template creation step of creating a template for pattern matching from the visible image using the pupil position. Using the template created in the template creation step, performing pattern matching with the visible image of the subject obtained continuously at least every predetermined time, detects the viewpoint position of the subject, and detects the detection result. A matching step of outputting as viewpoint position information; and a control step of controlling to create the template again by using the pupil position detection method and the template creation step when a predetermined condition is satisfied. Viewpoint position detection method.
【請求項24】 前記制御ステップが、前記マッチング
ステップの検出結果を評価するとともに、検出が所定回
数失敗したと判定された場合に前記瞳孔位置検出方法及
び前記テンプレート作成ステップを用いて再度前記テン
プレートを作成するように制御することを特徴とする請
求項23記載の視点位置検出方法。
24. The control step evaluates the detection result of the matching step, and when it is determined that the detection has failed a predetermined number of times, re-executes the template using the pupil position detection method and the template creation step. The viewpoint position detecting method according to claim 23, wherein the viewpoint position is controlled to be created.
【請求項25】 前記制御ステップが、所定の時間毎に
前記瞳孔位置検出方法及び前記テンプレート作成ステッ
プを用いて再度前記テンプレートを作成するように制御
することを特徴とする請求項23記載の視点位置検出方
法。
25. The viewpoint position according to claim 23, wherein the control step performs control such that the template is created again using the pupil position detection method and the template creation step at predetermined time intervals. Detection method.
【請求項26】 前記制御ステップが、前記マッチング
ステップの検出結果を評価するとともに、検出が所定回
数失敗したと判定された場合、あるいは所定の時間毎に
前記瞳孔位置検出方法及び前記テンプレート作成ステッ
プを用いて再度前記テンプレートを作成するように制御
することを特徴とする請求項23記載の視点位置検出方
法。
26. The control step evaluates the detection result of the matching step and executes the pupil position detection method and the template creation step when it is determined that the detection has failed a predetermined number of times or every predetermined time. The viewpoint position detecting method according to claim 23, wherein the control is performed so that the template is created again by using the same.
【請求項27】 請求項15乃至請求項21のいずれか
1項に記載の瞳孔位置検出方法を、コンピュータ装置実
行可能なプログラムとして格納したコンピュータ装置読
み取り可能な記憶媒体。
27. A computer-readable storage medium storing the pupil position detection method according to claim 15 as a computer-executable program.
【請求項28】 請求項22乃至請求項26のいずれか
1項に記載の視点位置検出方法を、コンピュータ装置実
行可能なプログラムとして格納したコンピュータ装置読
み取り可能な記憶媒体。
28. A computer-readable storage medium storing the viewpoint position detection method according to claim 22 as a computer-executable program.
JP2000163288A 2000-05-31 2000-05-31 Pupil position detecting device and method, viewpoint position detecting device and method, and stereoscopic image display system Expired - Fee Related JP3450801B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000163288A JP3450801B2 (en) 2000-05-31 2000-05-31 Pupil position detecting device and method, viewpoint position detecting device and method, and stereoscopic image display system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000163288A JP3450801B2 (en) 2000-05-31 2000-05-31 Pupil position detecting device and method, viewpoint position detecting device and method, and stereoscopic image display system

Publications (2)

Publication Number Publication Date
JP2001340300A true JP2001340300A (en) 2001-12-11
JP3450801B2 JP3450801B2 (en) 2003-09-29

Family

ID=18667064

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000163288A Expired - Fee Related JP3450801B2 (en) 2000-05-31 2000-05-31 Pupil position detecting device and method, viewpoint position detecting device and method, and stereoscopic image display system

Country Status (1)

Country Link
JP (1) JP3450801B2 (en)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004105590A (en) * 2002-09-20 2004-04-08 Matsushita Electric Ind Co Ltd Eye position detector and eye position detection method
JP2006275988A (en) * 2005-03-30 2006-10-12 Denso It Laboratory Inc Apparatus and method for pretreatment of detecting object
JP2007089094A (en) * 2005-09-26 2007-04-05 Toyota Motor Corp Pedestrian detection device
KR100754202B1 (en) 2006-01-26 2007-09-03 삼성전자주식회사 3D image displaying apparatus and method using eye detection information
WO2010108495A1 (en) * 2009-03-26 2010-09-30 Bruun-Jensen Joergen A system for clinical examination of some visual functions using lenticular optics
JP2011056069A (en) * 2009-09-10 2011-03-24 Canon Inc Evaluation method of template images and in vivo motion detecting apparatus
KR101096084B1 (en) * 2010-05-28 2011-12-19 주식회사 피치나광학 Eyeball position finding apparatus of optometer
JP2012065312A (en) * 2010-08-20 2012-03-29 Hitachi Kokusai Electric Inc Image monitoring system and camera
JP2012141499A (en) * 2011-01-05 2012-07-26 Nec Personal Computers Ltd Display device and information processor
CN102860018A (en) * 2011-04-20 2013-01-02 株式会社东芝 Image processing device and image processing method
JP2013142597A (en) * 2012-01-11 2013-07-22 Nikon Corp Spectacle fitting parameter measurement system and spectacle fitting parameter measurement method
US9152850B2 (en) 2012-10-09 2015-10-06 Sony Corporation Authentication apparatus, authentication method, and program
JP2016159050A (en) * 2015-03-04 2016-09-05 富士通株式会社 Pupil diameter measuring device, pupil diameter measuring method and its program
KR101723989B1 (en) * 2016-02-24 2017-04-06 유니코스(주) Automatic tracking apparatus of ophthalmometer and methdo thereof
JP2018057872A (en) * 2012-03-08 2018-04-12 エシロル アンテルナショナル(コンパーニュ ジェネラル ドプテーク) Method of determining behavior characteristics, posture characteristics, or geometric form characteristics of person wearing spectacles
WO2020129138A1 (en) * 2018-12-18 2020-06-25 日本電気株式会社 Image processing device, image processing method, and storage medium
US10755420B2 (en) 2017-10-27 2020-08-25 Samsung Electronics Co., Ltd. Method and apparatus for tracking object
WO2022137602A1 (en) * 2020-12-22 2022-06-30 株式会社スワローインキュベート Eye detection method, eye detection device, and eye detection program

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104950489B (en) * 2015-06-19 2019-02-12 许继集团有限公司 A kind of liquid crystal display detection method

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07218989A (en) * 1994-02-04 1995-08-18 Mitsubishi Electric Corp Face image photographing device
JPH08185503A (en) * 1994-12-27 1996-07-16 Mitsubishi Electric Corp Image processor
JPH09311294A (en) * 1996-05-20 1997-12-02 Canon Inc Method and device for stereoscopic image display
JPH1078563A (en) * 1996-09-02 1998-03-24 Canon Inc Stereoscopic picture display method and stereoscopic picture display device using it
JPH10221016A (en) * 1997-02-05 1998-08-21 Nec Corp Visual point position detector
JPH10232626A (en) * 1997-02-20 1998-09-02 Canon Inc Stereoscopic image display device
JPH10232367A (en) * 1997-02-18 1998-09-02 Canon Inc Stereoscopic image display method and stereoscopic image display device using the method
JPH11137524A (en) * 1997-11-13 1999-05-25 Arei Kk Measuring system and method therefor
JP2000278716A (en) * 1999-03-25 2000-10-06 Mr System Kenkyusho:Kk Device and method for detecting view point position and stereoscopic picture display system

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07218989A (en) * 1994-02-04 1995-08-18 Mitsubishi Electric Corp Face image photographing device
JPH08185503A (en) * 1994-12-27 1996-07-16 Mitsubishi Electric Corp Image processor
JPH09311294A (en) * 1996-05-20 1997-12-02 Canon Inc Method and device for stereoscopic image display
JPH1078563A (en) * 1996-09-02 1998-03-24 Canon Inc Stereoscopic picture display method and stereoscopic picture display device using it
JPH10221016A (en) * 1997-02-05 1998-08-21 Nec Corp Visual point position detector
JPH10232367A (en) * 1997-02-18 1998-09-02 Canon Inc Stereoscopic image display method and stereoscopic image display device using the method
JPH10232626A (en) * 1997-02-20 1998-09-02 Canon Inc Stereoscopic image display device
JPH11137524A (en) * 1997-11-13 1999-05-25 Arei Kk Measuring system and method therefor
JP2000278716A (en) * 1999-03-25 2000-10-06 Mr System Kenkyusho:Kk Device and method for detecting view point position and stereoscopic picture display system

Cited By (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004105590A (en) * 2002-09-20 2004-04-08 Matsushita Electric Ind Co Ltd Eye position detector and eye position detection method
JP2006275988A (en) * 2005-03-30 2006-10-12 Denso It Laboratory Inc Apparatus and method for pretreatment of detecting object
JP4508926B2 (en) * 2005-03-30 2010-07-21 株式会社デンソーアイティーラボラトリ Object detection pretreatment apparatus and object detection pretreatment method
JP2007089094A (en) * 2005-09-26 2007-04-05 Toyota Motor Corp Pedestrian detection device
JP4701961B2 (en) * 2005-09-26 2011-06-15 トヨタ自動車株式会社 Pedestrian detection device
KR100754202B1 (en) 2006-01-26 2007-09-03 삼성전자주식회사 3D image displaying apparatus and method using eye detection information
WO2010108495A1 (en) * 2009-03-26 2010-09-30 Bruun-Jensen Joergen A system for clinical examination of some visual functions using lenticular optics
JP2011056069A (en) * 2009-09-10 2011-03-24 Canon Inc Evaluation method of template images and in vivo motion detecting apparatus
KR101096084B1 (en) * 2010-05-28 2011-12-19 주식회사 피치나광학 Eyeball position finding apparatus of optometer
JP2012065312A (en) * 2010-08-20 2012-03-29 Hitachi Kokusai Electric Inc Image monitoring system and camera
JP2012141499A (en) * 2011-01-05 2012-07-26 Nec Personal Computers Ltd Display device and information processor
CN102860018A (en) * 2011-04-20 2013-01-02 株式会社东芝 Image processing device and image processing method
JP5143291B2 (en) * 2011-04-20 2013-02-13 株式会社東芝 Image processing apparatus, method, and stereoscopic image display apparatus
JP2013142597A (en) * 2012-01-11 2013-07-22 Nikon Corp Spectacle fitting parameter measurement system and spectacle fitting parameter measurement method
JP2018057872A (en) * 2012-03-08 2018-04-12 エシロル アンテルナショナル(コンパーニュ ジェネラル ドプテーク) Method of determining behavior characteristics, posture characteristics, or geometric form characteristics of person wearing spectacles
US9152850B2 (en) 2012-10-09 2015-10-06 Sony Corporation Authentication apparatus, authentication method, and program
JP2016159050A (en) * 2015-03-04 2016-09-05 富士通株式会社 Pupil diameter measuring device, pupil diameter measuring method and its program
KR101723989B1 (en) * 2016-02-24 2017-04-06 유니코스(주) Automatic tracking apparatus of ophthalmometer and methdo thereof
US11676421B2 (en) 2017-10-27 2023-06-13 Samsung Electronics Co., Ltd. Method and apparatus for tracking object
US10755420B2 (en) 2017-10-27 2020-08-25 Samsung Electronics Co., Ltd. Method and apparatus for tracking object
US10977801B2 (en) 2017-10-27 2021-04-13 Samsung Electronics Co., Ltd. Method and apparatus for tracking object
US11763598B2 (en) 2018-12-18 2023-09-19 Nec Corporation Image processing device, image processing method, and storage medium
JPWO2020129138A1 (en) * 2018-12-18 2021-10-28 日本電気株式会社 Image processing equipment, image processing methods and programs
EP3900629A4 (en) * 2018-12-18 2022-04-13 NEC Corporation Image processing device, image processing method, and storage medium
CN113453618A (en) * 2018-12-18 2021-09-28 日本电气株式会社 Image processing apparatus, image processing method, and storage medium
WO2020129138A1 (en) * 2018-12-18 2020-06-25 日本電気株式会社 Image processing device, image processing method, and storage medium
US11776312B2 (en) 2018-12-18 2023-10-03 Nec Corporation Image processing device, image processing method, and storage medium
US11776311B2 (en) 2018-12-18 2023-10-03 Nec Corporation Image processing device, image processing method, and storage medium
US11776310B2 (en) 2018-12-18 2023-10-03 Nec Corporation Image processing device, image processing method, and storage medium
US12014572B2 (en) 2018-12-18 2024-06-18 Nec Corporation Image processing device, image processing method, and storage medium
WO2022137602A1 (en) * 2020-12-22 2022-06-30 株式会社スワローインキュベート Eye detection method, eye detection device, and eye detection program
JP2022099129A (en) * 2020-12-22 2022-07-04 株式会社スワローインキュベート Eye detection method, eye detection apparatus, and eye detection program
US11961328B2 (en) 2020-12-22 2024-04-16 Swallow Incubate Co., Ltd. Eye detecting method, eye detecting device, and non-transitory computer-readable recording medium recording eye detecting program

Also Published As

Publication number Publication date
JP3450801B2 (en) 2003-09-29

Similar Documents

Publication Publication Date Title
JP3450801B2 (en) Pupil position detecting device and method, viewpoint position detecting device and method, and stereoscopic image display system
JP3647376B2 (en) Viewpoint position detection apparatus, viewpoint position detection method, and stereoscopic image display system
US6757422B1 (en) Viewpoint position detection apparatus and method, and stereoscopic image display system
US20180246590A1 (en) Eye tracking using structured light
US11330200B2 (en) Parallax correction using cameras of different modalities
JP2001195582A (en) Device and method for detecting image, device and system for three-dimensional display, display controller, and program storage medium
US12023128B2 (en) System and method for eye tracking
US10592739B2 (en) Gaze-tracking system and method of tracking user's gaze
KR20120057033A (en) Gaze tracking system and method for controlling internet protocol tv at a distance
JP6631951B2 (en) Eye gaze detection device and eye gaze detection method
WO2008091401A9 (en) Multimodal ocular biometric system and methods
US10726257B2 (en) Gaze-tracking system and method of tracking user's gaze
JPH0782539B2 (en) Pupil imager
US20210373660A1 (en) Calibration, customization, and improved user experience for bionic lenses
CN110300976B (en) Eye gaze tracking
CN108537103B (en) Living body face detection method and device based on pupil axis measurement
US11458040B2 (en) Corneal topography mapping with dense illumination
JP3465336B2 (en) Face image capturing device
JP3428920B2 (en) Viewpoint position detecting device, method and stereoscopic image display system
JP6856017B2 (en) Corneal reflex position detection device, line-of-sight detection device and corneal reflex position detection method
CN111522431B (en) Classifying glints using an eye tracking system
JP4451195B2 (en) Gaze detection device
US10928894B2 (en) Eye tracking
JP3416706B2 (en) Pupil position detecting device and method, viewpoint position detecting device and method, and stereoscopic image display system
US20240013688A1 (en) Image processing apparatus, display apparatus, image processing method, and storage medium

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20030623

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20070711

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080711

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080711

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090711

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090711

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100711

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100711

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110711

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120711

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120711

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130711

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees