JP2001195582A - Device and method for detecting image, device and system for three-dimensional display, display controller, and program storage medium - Google Patents

Device and method for detecting image, device and system for three-dimensional display, display controller, and program storage medium

Info

Publication number
JP2001195582A
JP2001195582A JP2000004069A JP2000004069A JP2001195582A JP 2001195582 A JP2001195582 A JP 2001195582A JP 2000004069 A JP2000004069 A JP 2000004069A JP 2000004069 A JP2000004069 A JP 2000004069A JP 2001195582 A JP2001195582 A JP 2001195582A
Authority
JP
Japan
Prior art keywords
image
template matching
search range
size
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000004069A
Other languages
Japanese (ja)
Inventor
Masahiro Suzuki
雅博 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mixed Reality Systems Laboratory Inc
Original Assignee
Mixed Reality Systems Laboratory Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mixed Reality Systems Laboratory Inc filed Critical Mixed Reality Systems Laboratory Inc
Priority to JP2000004069A priority Critical patent/JP2001195582A/en
Publication of JP2001195582A publication Critical patent/JP2001195582A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Eye Examination Apparatus (AREA)
  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

PROBLEM TO BE SOLVED: To accelerate the detecting speed of face part by enhancing the probability of the existence of a face part within a search range to be set at the time of template matching. SOLUTION: During the time when a template matching is successful, the position of the search range is made to almost match with the moving direction of the face part up to the moment and further, the search range is set at a separate position corresponding to a moving speed. When the template matching is failed, the size of the next search range is set to a size corresponding to the moving speed up to the moment.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明が属する技術分野】本発明は、例えば視点等の所
定の顔面部位等の特定部位の位置を検出する画像検出装
置及び画像検出方法に関し、特に高速処理と高検出精度
とを両立した視点検出装置及び視点検出方法に関するも
のである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image detecting apparatus and an image detecting method for detecting a position of a specific part such as a predetermined face part such as a viewpoint, and more particularly to a viewpoint detecting method which achieves both high-speed processing and high detection accuracy. The present invention relates to an apparatus and a viewpoint detection method.

【従来の技術】従来、裸眼による立体視が可能ないわゆ
る立体画像表示装置がある。立体画像表示装置には種々
の方式があるが、例えば特開平09−311294号公
報には、リアクロスレンチキュラ方式のものが開示され
ている。第1図はリアクロスレンチキュラ方式の立体画
像表示装置の例を示す要部斜視図である。図中、6は画
像表示用のディスプレイデバイスであり、例えば液晶素
子(LCD)で構成する。図は、偏光板、カラーフィル
ター、電極、ブラックマトリクス、反射防止膜などは省
略してある。10は照明光源となるバックライト(面光
源)である。ディスプレイデバイス6とバックライト1
0の間には、市松状の開口8を備えたマスクパターンを
形成したマスク基板(マスク)7を配置している。マス
クパターンはガラスまたは樹脂からなるマスク基板7上
にクロムなどの金属蒸着膜または光吸収材等をパターニ
ングして製作している。バックライト10、マスク基板
7等は光源の一要素を構成している。
2. Description of the Related Art Conventionally, there is a so-called stereoscopic image display device capable of stereoscopic viewing with the naked eye. There are various types of stereoscopic image display devices. For example, JP-A-09-31294 discloses a rear cross lenticular type. FIG. 1 is a perspective view of an essential part showing an example of a rear cross lenticular type stereoscopic image display device. In the figure, reference numeral 6 denotes a display device for displaying images, which is constituted by, for example, a liquid crystal element (LCD). In the figure, a polarizing plate, a color filter, an electrode, a black matrix, an antireflection film, and the like are omitted. Reference numeral 10 denotes a backlight (surface light source) serving as an illumination light source. Display device 6 and backlight 1
Between 0, a mask substrate (mask) 7 on which a mask pattern having a checkered opening 8 is formed is arranged. The mask pattern is manufactured by patterning a metal deposited film such as chromium or a light absorbing material on a mask substrate 7 made of glass or resin. The backlight 10, the mask substrate 7, and the like constitute one element of the light source.

【0002】マスク基板7とディスプレイデバイス6の
間には、透明樹脂またはガラス製の第1のレンチキュラ
レンズ3及び第2のレンチキュラレンズ4を配置してい
る。第1のレンチキュラレンズ3は垂直方向に長い縦シ
リンドリカルレンズを左右方向に並べて構成した縦シリ
ンドリカルレンズアレイであり、第2のレンチキュラレ
ンズ4は水平方向に長い横シリンドリカルレンズを上下
方向に並べて構成した横シリンドリカルレンズアレイで
ある。
[0002] A first lenticular lens 3 and a second lenticular lens 4 made of transparent resin or glass are arranged between a mask substrate 7 and a display device 6. The first lenticular lens 3 is a vertical cylindrical lens array formed by arranging vertically long vertical cylindrical lenses in the left-right direction, and the second lenticular lens 4 is formed by vertically arranging horizontal cylindrical lenses long in the horizontal direction. It is a cylindrical lens array.

【0003】ディスプレイデバイス6に表示する画像は
図示するように左右の視差画像R及びLを夫々上下方向
に多数の横ストライプ状の横ストライプ画素R,Lに分
割し、それらを例えば画面上からLRLRLR・・・・
と交互に並べて1つの画像に構成した横ストライプ画像
である。
As shown in the figure, the image displayed on the display device 6 divides the left and right parallax images R and L into a large number of horizontal stripe pixels R and L in the vertical direction, and divides them into, for example, LRLLRLR from the screen. ...
And a horizontal stripe image alternately arranged to form one image.

【0004】バックライト10からの光はマスク基板7
の各開口8を透過してディスプレイデバイス6を照明
し、観察者の両眼に左右のストライプ画素R,Lが分離
して観察される。
The light from the backlight 10 is applied to the mask substrate 7
Then, the display device 6 is illuminated through each of the openings 8, and the left and right stripe pixels R and L are separately observed by both eyes of the observer.

【0005】すなわち、マスク基板7はバックライト1
0により照明され、開口8から光が出射する。マスク基
板7の観察者側には第1のレンチキュラレンズ3を配置
しており、その各シリンドリカルレンズのほぼ焦点位置
にマスク基板7がくるようにレンズ曲率を設計してい
る。この断面においては第2のレンチキュラレンズ4は
光学的に何の作用もしないので、開口8上の1点から射
出する光束はこの断面内では略平行光束に変換される。
That is, the mask substrate 7 is
0 illuminates, and light exits from the aperture 8. The first lenticular lens 3 is arranged on the observer side of the mask substrate 7, and the lens curvature is designed so that the mask substrate 7 is almost at the focal position of each cylindrical lens. In this cross section, the second lenticular lens 4 has no optical effect, so that the light beam emitted from one point on the opening 8 is converted into a substantially parallel light beam in this cross section.

【0006】マスクパターンの一対の開口部と遮光部は
略第1のレンチキュラレンズ3の1ピッチに対応するよ
うに設定している。
[0006] A pair of openings and a light shielding portion of the mask pattern are set so as to substantially correspond to one pitch of the first lenticular lens 3.

【0007】また、観察者の所定の位置から第1のレン
チキュラレンズ3までの光学的距離と第1のレンチキュ
ラレンズ3からマスクパターンまでの光学的距離の関係
を元に、第1のレンチキュラレンズ3のピッチとマスク
パターンの一対の開口部と遮光部のピッチを定めること
によって、画面の全幅にわたって、開口部8からの光が
一様に左眼又は右眼に集まるようにすることができる。
このようにしてディスプレイデバイス6上の左右のスト
ライプ画素が水平方向に左眼、右眼の領域に分離して観
察される。
Further, based on the relationship between the optical distance from a predetermined position of the observer to the first lenticular lens 3 and the optical distance from the first lenticular lens 3 to the mask pattern, the first lenticular lens 3 is formed. By determining the pitch of the mask pattern and the pitch of the pair of openings and the light-shielding portion of the mask pattern, light from the openings 8 can be uniformly collected to the left eye or the right eye over the entire width of the screen.
In this way, the left and right stripe pixels on the display device 6 are observed separately in the horizontal direction into the left eye and right eye regions.

【0008】第2のレンチキュラーレンズ4は、マスク
7の開口8上の各点から発する光束を、すべてディスプ
レイデバイス6の右目又は左目用ストライプ画素上に集
光して、これを照明、透過して上下方向にのみ集光時の
NAに応じて発散し、観察者の所定の眼の高さから画面
の上下方向の全幅にわたって左右のストライプ画素を一
様に分離して見える観察領域を与えている。
The second lenticular lens 4 condenses all light beams emitted from each point on the opening 8 of the mask 7 on the right-eye or left-eye stripe pixel of the display device 6, illuminates and transmits the same. It diverges only in the vertical direction according to the NA at the time of condensing, and provides an observation area in which the left and right stripe pixels are uniformly separated from the predetermined eye height of the observer over the entire vertical width of the screen. .

【0009】しかしながら、このような立体画像表示装
置の視野角は狭く、観察者の視点が視野角からはずれる
と立体表示が認識されなくなる。そのため、観察者の視
点位置を検出して、視点位置の移動に応答して画像表示
を制御することにより、立体視が可能な領域を拡大する
技術が提案されている。例えば、特開平10−2323
67号公報には、マスクパターン又はレンチキュラレン
ズを表示面に平行移動させて、立体視可能な領域を拡大
する技術が開示されている。
However, the viewing angle of such a stereoscopic image display device is narrow, and if the observer's viewpoint deviates from the viewing angle, the stereoscopic display cannot be recognized. Therefore, there has been proposed a technique of detecting a viewpoint position of an observer and controlling image display in response to the movement of the viewpoint position, thereby enlarging a region where stereoscopic viewing is possible. For example, Japanese Patent Application Laid-Open No. 10-2323
No. 67 discloses a technique for expanding a stereoscopically visible area by moving a mask pattern or a lenticular lens in parallel to a display surface.

【0010】第2図は、特開平10−232367号公
報に開示される立体画像表示装置の図である。第2図に
おいて、第1図と同じ構成要素には同じ参照数字を付
し、説明は省略する。第2図の立体画像表示装置はレン
チキュラーレンズが1枚の構成を有するので、第1図に
おける第2のレンチキュラーレンズ4を有していない。
FIG. 2 is a diagram of a three-dimensional image display device disclosed in Japanese Patent Application Laid-Open No. 10-232367. 2, the same components as those in FIG. 1 are denoted by the same reference numerals, and description thereof will be omitted. Since the three-dimensional image display device in FIG. 2 has a single lenticular lens, it does not have the second lenticular lens 4 in FIG.

【0011】このような構成の立体画像表示装置におい
て、観察者54の移動に応じた制御は以下のように行わ
れる。まず、位置センサー51が、予め設定された基準
の位置からの観察者54の水平方向のずれを検出し、そ
の情報を制御ユニット52へ送り、このずれ情報に応じ
て制御ユニット52がディスプレイ駆動回路50へ画像
制御信号を出力すると、ディスプレイ駆動回路50が第
1又は第2の横ストライプ画像をディスプレイ6に表示
する。同時に制御ユニット52はずれ情報に基づくアク
チュエータ駆動信号を発生し、マスクパターン7を水平
方向に移動させるアクチュエータ53を駆動することに
より、マスクパターン7を観察者54が左右のストライ
プ画像をもっともよく分離できる位置に移動させる。こ
の結果、観察者54の視点位置が変化しても、立体視可
能な範囲が拡大することになる。
In the three-dimensional image display device having such a configuration, control according to the movement of the observer 54 is performed as follows. First, the position sensor 51 detects a horizontal displacement of the observer 54 from a preset reference position, and sends the information to the control unit 52. The control unit 52 responds to the displacement information by using the display drive circuit. When the image control signal is output to the display 50, the display drive circuit 50 displays the first or second horizontal stripe image on the display 6. At the same time, the control unit 52 generates an actuator drive signal based on the displacement information and drives the actuator 53 that moves the mask pattern 7 in the horizontal direction, so that the mask pattern 7 can be separated from the left and right stripe images by the observer 54 in the best position. Move to As a result, even if the viewpoint position of the observer 54 changes, the range that can be stereoscopically viewed is expanded.

【0012】このように、観察者の視点位置に応じて表
示を制御する場合、検出精度が低くても、検出のための
処理時間が長くても、観察者の視点に適した画像表示が
行えない。そのため、観察者の視点位置をいかに精度よ
く、しかも短時間で検出するかは表示装置の性能におい
て非常に重要である。
As described above, when the display is controlled according to the viewpoint position of the observer, an image suitable for the observer's viewpoint can be displayed even if the detection accuracy is low or the processing time for detection is long. Absent. Therefore, it is very important to detect the viewpoint position of the observer with high accuracy and in a short time in the performance of the display device.

【0013】観察者(被測定者)の視点位置検出方法と
しては、 1)赤外光を観察者に照射し、網膜の反射を検出する方
法(例えば、伴野 「視点検出のための瞳孔撮影光学系
の設計法」、電子情報通信学会論文誌D-II, Vol. J74-D
-II, No.6, pp.736-747, 1991年6月に記載)
As a method of detecting the viewpoint position of the observer (measured person), 1) a method of irradiating the observer with infrared light and detecting reflection of the retina (for example, Banno "Pupil optics for viewpoint detection" System Design Method, ”IEICE Transactions D-II, Vol. J74-D
-II, No.6, pp.736-747, listed in June 1991)

【0014】2)可視画像を画像処理して観察者の目を
検出する方法(例えば、坂口ら 「画像の2次元離散コ
サイン変換を利用した実時間顔表情認識」、電子情報通
信学会論文誌 D-II, Vol. J80-D-II, No.6, pp. 1547-1
554 1997年6月に記載)
2) A method of image processing of a visible image to detect an observer's eyes (for example, Sakaguchi et al. “Real-time facial expression recognition using two-dimensional discrete cosine transform of image”, IEICE Transactions D) -II, Vol. J80-D-II, No.6, pp. 1547-1
554 June 1997)

【0015】3)赤外画像と可視画像を利用し、画像処
理により観察者の目を検出する方法(例えば、特開平8
−287216号公報に記載)などがある。
3) A method of detecting an observer's eyes by image processing using an infrared image and a visible image (for example, see
-287216).

【0016】1)の方法は、人間の瞳孔が近赤外光を再
帰反射する(入射方向と同一方向に光を戻す)性質を有
することを利用したものである。瞳孔反射光は鋭い反射
ピークとして得られ、通常、顔面などよりも高い反射率
を示すため、光源と光軸を同軸とした赤外線撮像装置を
用いて観察者を撮影することにより、瞳孔部分のみを明
るく撮像することができる。この撮影画像を適当な閾値
で二値化処理すれば、抽出された瞳孔位置から正確な視
点位置が検出できる。
The method 1) utilizes the fact that the human pupil has the property of retroreflecting near-infrared light (returning light in the same direction as the incident direction). Pupil reflected light is obtained as a sharp reflection peak, and usually shows a higher reflectance than the face, etc., so that only the pupil part is captured by imaging the observer using an infrared imaging device whose optical axis is coaxial with the light source. Bright images can be taken. If this photographed image is binarized with an appropriate threshold, an accurate viewpoint position can be detected from the extracted pupil position.

【0017】また、2)の方法では、撮影範囲の中の観
察者位置を予め限定し、その状態で観察者に瞬きをさせ
て、その可視画視画像のフレーム間画像によって目の領
域を抽出している。この抽出された目の領域をもとに作
成したテンプレートを用いて、テンプレートマッチング
による視点位置検出を行う。
In the method 2), the position of the observer in the photographing range is limited in advance, the observer blinks in that state, and the eye region is extracted by the inter-frame image of the visible image. are doing. Using a template created based on the extracted eye region, viewpoint position detection is performed by template matching.

【0018】また、3)の方法では、赤外画像と可視カ
ラー画像を同時に撮影し、これら画像から顔領域を抽出
したのちテンプレートマッチングを利用して目などの特
徴領域を検出する。赤外画像は人物候補領域の抽出と、
カラー画像から肌色領域を抽出する際に用いる温度閾値
の決定に用いられる。
In the method 3), an infrared image and a visible color image are simultaneously photographed, a face region is extracted from these images, and then a characteristic region such as an eye is detected by using template matching. The infrared image is used to extract a person candidate area,
It is used to determine a temperature threshold used when extracting a skin color region from a color image.

【0019】[0019]

【発明が解決しようとする課題】しかしながら、1)の
方法においては、比較的強い赤外光を連続的に観察者に
対して照射する必要があるため、赤外光による観察者へ
の影響が懸念されるという問題があるほか、網膜による
反射を利用するため、観察者が瞬きした場合などは検出
が行えないという問題がある。また、環境の照度による
瞳孔の拡大縮小や、被測定者の視線の方向によっては、
瞳孔反射像の追従が困難となるという問題もある。
However, in the method (1), since it is necessary to continuously irradiate the observer with relatively strong infrared light, the influence of the infrared light on the observer is small. In addition to the problem of concern, there is also a problem that detection cannot be performed when the observer blinks because reflection by the retina is used. In addition, depending on the pupil enlargement or reduction due to the illuminance of the environment,
There is also a problem that it is difficult to follow the pupil reflection image.

【0020】また、2)の方法においては、観察位置の
調節や瞬きを行うなどの動作を観察者に要求することに
なり、観察者からみると面倒であること、テンプレート
を作成するために、観察位置の調節や瞬きを行うなどの
動作にかかる時間が必要となり、実用的でないことなど
の問題がある。
In the method 2), the observer is required to perform operations such as adjustment of the observation position and blinking, which is troublesome for the observer. It requires time for operations such as adjustment of the observation position and blinking, which is not practical.

【0021】さらに、3)の方法では、1)の方法に比
べて低い赤外光の照射強度でよいが、赤外画像の中間処
理結果を求めた後、その処理結果を利用して可視画像を
処理し、赤外画像の処理結果と可視画像の処理結果を用
いて顔領域を検出してからさらにパターンマッチングを
行うため、非常に処理が複雑である。また、パターンマ
ッチングに用いるテンプレートの作成も容易でないとい
った問題がある。また、パターンマッチング用のテンプ
レートを作成するために必要な顔の部位位置を可視画像
のみから検出しているため、位置精度があまり良くない
という問題もある。
In the method 3), the irradiation intensity of infrared light may be lower than that in the method 1). However, after the intermediate processing result of the infrared image is obtained, the visible image is obtained by using the processing result. Is processed, the face area is detected using the processing result of the infrared image and the processing result of the visible image, and further pattern matching is performed. Therefore, the processing is very complicated. There is also a problem that it is not easy to create a template used for pattern matching. In addition, since the position of the face required to create a template for pattern matching is detected only from the visible image, there is a problem that the position accuracy is not very good.

【0022】上記の問題を解決するために、出願人は、
平成11年3月25日に特願平11−82455号とし
て、視点位置の検出に、テンプレートマッチングを用い
るものの、テンプレートマッチングを適用する顔面画像
中の探索領域を、初期的に決定する場合と、或いは、テ
ンプレートマッチングが失敗して探索領域を変更する際
の新たな探索領域位置を決定する場合とにおいて、近赤
外光による瞳孔からの反射像を用いて大まかに決定した
瞳孔位置を中心に探索領域を決定するという手法を提案
した。
To solve the above problem, the applicant has
Japanese Patent Application No. 11-82455 on March 25, 1999 discloses a method of initially determining a search area in a face image to which template matching is applied, although template matching is used to detect a viewpoint position. Alternatively, when the template matching fails and a new search area position is determined when the search area is changed, the search is performed centering on the pupil position roughly determined using the reflection image from the pupil by near-infrared light. A method of determining the area was proposed.

【0023】しかしながら、この方法は赤外光を瞳孔に
照射することを必要とし、従って、赤外線照射装置など
のために装置が大型化する。このために、装置を小型化
するためには、探索領域の更新位置の決定を赤外光照射
機構無しで行わねばならない。
However, this method requires irradiating the pupil with infrared light. Therefore, the size of the apparatus is increased due to an infrared irradiation apparatus or the like. Therefore, in order to reduce the size of the apparatus, the update position of the search area must be determined without the infrared light irradiation mechanism.

【0024】探索領域の更新を行う従来技術として、上
述の特開平8−287216号がある。この従来技術で
は、それまでの探索領域中に視点を検出できずに探索領
域を移動する場合において、探索領域の大きさを段階的
に拡大するということが行われている。即ち、探索領域
を拡大しても、視点が検出できなかった場合には、更に
探索領域を拡大し、検出できた場合には、探索領域の大
きさを縮小するというものである。
As a conventional technique for updating a search area, there is Japanese Patent Laid-Open No. Hei 8-287216. In this conventional technique, when the search area is moved without being able to detect a viewpoint in the search area up to that time, the size of the search area is gradually increased. That is, if the viewpoint cannot be detected even when the search area is enlarged, the search area is further expanded. If the viewpoint is detected, the size of the search area is reduced.

【0025】しかしながら、この特開平8−28721
6号の方法は、ユーザの顔面の移動速度や移動方向を考
慮せずに探索領域を決定しているために、決定された探
索領域が必ずしも最適とはいえず、そのために、拡大し
た探索領域において視点が検出できる確率が減ってしま
い、顔面の移動速度が比較的高い場合には、探索領域の
大きさを再度拡大せねばならない事態に陥る可能性が高
い。この探索領域の再拡大のために、それに伴って発生
する計算量の増大が、探索速度を更に低下させて、再々
度の検出の失敗に帰結するという悪循環を起こしやすか
った。
However, Japanese Patent Application Laid-Open No. Hei 8-28721
In the method of No. 6, since the search area is determined without considering the moving speed and the moving direction of the user's face, the determined search area is not necessarily optimal, and therefore, the expanded search area is used. , The probability that the viewpoint can be detected is reduced, and when the moving speed of the face is relatively high, there is a high possibility that the size of the search area must be enlarged again. Due to the re-expansion of the search area, an increase in the amount of calculation that occurs with the re-expansion further tends to cause a vicious cycle in which the search speed is further reduced, resulting in a failure in the re-detection.

【0026】したがって、本発明の目的は、簡易な構成
でありながら、移動する顔面部位(例えば視点位置)の
追跡を、確実且つ高精度に行うことのできる顔面部位検
出装置及び方法を、更には、これらを用いた立体表示装
置、更には、表示コントローラ、表示システムなどを提
供することにある。
Accordingly, an object of the present invention is to provide an apparatus and a method for detecting a face part which can track a moving face part (for example, a viewpoint position) reliably and with high accuracy while having a simple structure. Another object of the present invention is to provide a three-dimensional display device using them, a display controller, a display system, and the like.

【0027】[0027]

【課題を解決するための手段】上記の目的を達成するた
めの本発明の顔面部位検出装置は、撮像手段と、前記撮
像手段によって撮像された所定画像内に設定された任意
探索領域とテンプレートとのマッチングをとることによ
り、前記所定画像内において所定の特定部位の位置を検
出するテンプレートマッチング手段と、前記特定部位の
位置変化速度を検出する速度検出手段と、前記テンプレ
ートマッチング手段が前記特定部位を前記探索領域内に
検出できなかった場合に前記探索領域の大きさを変更す
る変更手段を具備し、前記変更手段は、前記特定部位に
ついて検出された位置変化速度が大きいほど、より大き
な探索領域を設定することにより、この探索領域内にお
ける特定部位の検出速度を向上させることを特徴とす
る。
According to a first aspect of the present invention, there is provided a face part detecting apparatus, comprising: an imaging unit; an optional search area and a template set in a predetermined image captured by the imaging unit; By performing the matching, template matching means for detecting a position of a predetermined specific part in the predetermined image, speed detecting means for detecting a position change speed of the specific part, and the template matching means A change unit that changes the size of the search area when the search area is not detected in the search area, the change unit sets a larger search area as the position change speed detected for the specific part is larger. By setting, the detection speed of the specific part in the search area is improved.

【0028】特定部位の位置変化速度が大きいというこ
とは、それだけより大きな範囲内の領域にその部位が移
動している可能性が高いのであるから、より大きな探索
領域を設定することにより、テンプレートマッチングの
失敗の可能性が減り、結果的に、特定部位位置の検出速
度を向上させることができる。
The fact that the position change speed of a specific part is high means that the part is likely to have moved to an area within a larger range. Therefore, by setting a larger search area, template matching can be performed. Is reduced, and as a result, the detection speed of the specific site position can be improved.

【0029】本発明の好適な一態様である請求項2に拠
れば、前記特定部位は顔面画像中の顔面部位であり、前
記速度検出手段は、前記テンプレートマッチング手段に
より検出された顔面部位位置の変化に基づいて位置変化
速度を検出する。速度検出のために、テンプレートマッ
チングの結果を流用することにより、速度検出のための
ハードウエアが不要となる。
According to a preferred aspect of the present invention, the specific part is a facial part in a facial image, and the speed detecting means detects the position of the facial part detected by the template matching means. The position change speed is detected based on the change. By diverting the result of the template matching for speed detection, hardware for speed detection becomes unnecessary.

【0030】本発明の好適な一態様である請求項3に拠
れば、前記特定部位は前記顔面部位の視点位置である。
According to a preferred aspect of the present invention, the specific portion is a viewpoint position of the facial portion.

【0031】テンプレートマッチング失敗後に顔面部位
の追跡に成功した場合には、探索を大きく設定しておく
必要性はないので、本発明の好適な一態様である請求項
4に拠れば、前記変更手段は、前記テンプレートマッチ
ング手段が、前記変更手段により変更された探索範囲内
に前記特定部位が検出された場合に、探索範囲の大きさ
を小さくする。特定部位の追跡の再開後における探索速
度が向上する。
If the tracking of the face part succeeds after the template matching has failed, there is no need to set a large search, so that the changing means is a preferable aspect of the present invention. The template matching means reduces the size of the search range when the specific part is detected in the search range changed by the change means. The search speed after resuming tracking of a specific part is improved.

【0032】特に、請求項5の装置の前記変更手段は、
探索範囲を単に小さくするのではなく、探索範囲の大き
さを初期値に戻すことを特徴とする。
[0032] In particular, the changing means of the device according to claim 5 includes:
It is characterized in that the size of the search range is returned to the initial value instead of simply reducing the search range.

【0033】本発明の好適な一態様である請求項6に拠
れば探索範囲は、最小値サイズから画面サイズまで変更
可能である。最大サイズを画面サイズとしたことで、顔
面部位が表示画面から出た後に再び入ってきたときに極
めて有効である。
According to a preferred embodiment of the present invention, the search range can be changed from the minimum value size to the screen size. By setting the maximum size to the screen size, it is extremely effective when the face part comes in again after leaving the display screen.

【0034】テンプレートマッチングに成功している限
りは、現在の探索範囲が有効に作用しているはずであ
る。そこで、請求項7によれば、そのような場合には、
探索範囲は前記最小値サイズに維持される。
As long as the template matching is successful, the current search range should be working effectively. Therefore, according to claim 7, in such a case,
The search range is maintained at the minimum size.

【0035】テンプレートマッチングに成功している限
りは、探索範囲の大きさを変えずに、探索範囲を移動さ
せた方が効率的である。そこで、請求項8によれば、前
記変更手段は、探索範囲の位置を移動する移動手段を有
し、
As long as the template matching is successful, it is more efficient to move the search range without changing the size of the search range. Therefore, according to claim 8, the changing means has a moving means for moving the position of the search range,

【0036】前記移動手段は、探索範囲の位置を、前記
テンプレートマッチング手段が検出したマッチング位置
に移動させる。例えば、請求項9のように、テンプレー
トマッチング手段が検出したマッチング位置に一致させ
る。
The moving means moves the position of the search range to the matching position detected by the template matching means. For example, the matching position is matched with the matching position detected by the template matching means.

【0037】探索範囲を移動させる場合には移動量はそ
れまでの特定部位の移動速度に依存させた方が、そのよ
うな探索範囲に顔面部位が存在する確率は高い。そこ
で、請求項10によれば、更に、前記テンプレートマッ
チング手段が検出したマッチング位置の変化に基づいて
視点位置の変化を検出する手段を有し、
When the search range is moved, the probability that a face part exists in such a search range is higher if the amount of movement depends on the moving speed of the specific part up to that time. Therefore, according to claim 10, further comprising means for detecting a change in the viewpoint position based on a change in the matching position detected by the template matching means,

【0038】前記移動手段は、前回検出されたマッチン
グ位置から、今回検出された視点位置の変化量に応じた
位置に次の探索範囲を設定することにより、探索範囲を
移動する。
The moving means moves the search range by setting the next search range from the previously detected matching position to a position corresponding to the amount of change in the currently detected viewpoint position.

【0039】本発明の好適な一態様である請求項11に
拠れば、前記変更手段は、テンプレートマッチング手段
によるテンプレートマッチングが成功している限りは、
探索範囲の大きさを最小初期値に維持する維持手段と、
テンプレートマッチングに初めて失敗したときは、探索
範囲の大きさを、前記速度検出手段により検出された位
置変化速度に応じた速度相当サイズに設定する手段と、
テンプレートマッチングに繰り返し失敗したときは、探
索範囲の大きさを、前記速度相当サイズよりも更に所定
値だけサイズを大きくする手段とを具備する。即ち、テ
ンプレートマッチングに失敗した当初は、探索範囲を特
定部位の移動速度に相応させて大きくし、その後におい
てテンプレートマッチングが失敗し続ける場合には、探
索範囲の大きさを所定値ずつ大きくする。
According to claim 11 which is a preferred aspect of the present invention, the changing means includes: as long as the template matching by the template matching means is successful.
Maintaining means for maintaining the size of the search range at the minimum initial value;
When the template matching fails for the first time, means for setting the size of the search range to a speed equivalent size corresponding to the position change speed detected by the speed detecting means,
Means for increasing the size of the search range by a predetermined value further than the speed equivalent size when template matching has repeatedly failed. That is, when the template matching fails, the search range is increased in accordance with the moving speed of the specific part, and thereafter, when the template matching continues to fail, the size of the search range is increased by a predetermined value.

【0040】逆に、テンプレートマッチングに失敗した
当初は、探索範囲を特定部位の移動速度に相応させて大
きくし、その後においてもテンプレートマッチングが失
敗し続ける場合には、請求項12のように、探索範囲の
大きさを、前記速度相当サイズよりも更に、前記速度検
出手段により検出された移動速度に応じた速度相応増分
だけサイズを大きくするようにしてもよい。
Conversely, when the template matching has failed at the beginning, the search range is increased in accordance with the moving speed of the specific part. The size of the range may be made larger than the speed-equivalent size by an increment corresponding to a speed corresponding to the moving speed detected by the speed detecting means.

【0041】テンプレートマッチングにおいて探索範囲
を大きくすることは誤判定の増加につながる懼れが高ま
る。そこで、誤判定を防ぐために、前記テンプレートマ
ッチング手段においてマッチング成功判断のための閾値
を可変とし、前記変更手段が探索範囲の大きさを大きく
したときは、マッチング成功判断のための閾値を高くす
る。
Increasing the search range in template matching may increase the possibility of erroneous determination. Therefore, in order to prevent erroneous determination, the threshold value for determining the success of matching is made variable in the template matching means, and when the changing means increases the size of the search range, the threshold value for determining the success of matching is increased.

【0042】請求項1乃至請求項13の装置に適用され
ている方法(例えば請求項14乃至26)は、そのまま
上記課題を達成することになる。
The method (for example, claims 14 to 26) applied to the apparatus according to claims 1 to 13 achieves the above object as it is.

【0043】上述の特定部位を高速に検出するという課
題は、以下の構成を有する請求項27の装置によっても
達成することができる。即ち、請求項27の画像検出装
置は、撮像手段と、前記撮像手段によって撮像された所
定画像内に設定された任意探索領域とテンプレートとの
マッチングをとることにより、前記所定画像内において
所定の特定部位の位置を検出するテンプレートマッチン
グ手段と、前記特定部位の検出位置の変化から前記特定
部位の移動方向を検出する方向検出手段と、次回のテン
プレートマッチングのための探索範囲の位置を、前記方
向検出手段により検出された特定部位の移動方向に設定
する設定手段を設けたことを特徴とする。それまでの移
動方向に合致させて探索範囲の位置を設定すれば、その
ように設定された探索範囲内に特定部位が含まれる確率
が高まる。
The above-mentioned problem of detecting a specific portion at a high speed can also be achieved by the device according to claim 27 having the following configuration. That is, the image detecting apparatus according to claim 27 performs a predetermined identification in the predetermined image by matching the template with an arbitrary search area set in the predetermined image captured by the imaging unit. Template matching means for detecting the position of the part, direction detecting means for detecting the moving direction of the specific part from a change in the detection position of the specific part, and detecting the position of the search range for the next template matching. Setting means for setting the moving direction of the specific part detected by the means. If the position of the search range is set so as to match the moving direction up to that time, the probability that the specific part is included in the search range set as such increases.

【0044】本発明の好適な一態様である請求項28に
拠れば、更に、前記特定部位の位置変化速度を検出する
速度検出手段を具備し、前記設定手段は、次回のテンプ
レートマッチングのための探索範囲を、前記方向検出手
段により検出された特定部位の移動方向であって、前記
速度検出手段により検出された特定部位の位置変化速度
に相応の距離だけ離間した位置に設定する。即ち、次の
探索範囲の位置を、特定部位の移動方向の延長上の、特
定部位の位置変化速度に相応の距離だけ離間した位置に
設定する。
According to a preferred embodiment of the present invention, the apparatus further comprises a speed detecting means for detecting a position changing speed of the specific portion, wherein the setting means is provided for a next template matching. A search range is set in a moving direction of the specific part detected by the direction detecting means and at a position separated by a distance corresponding to the position change speed of the specific part detected by the speed detecting means. That is, the position of the next search range is set at a position on the extension of the moving direction of the specific part, which is separated by a distance corresponding to the position changing speed of the specific part.

【0045】本発明の好適な一態様である請求項29に
拠れば、前記方向検出手段は、前記テンプレートマッチ
ング手段により検出された特定部位位置の変化に基づい
て移動方向を検出する。テンプレートマッチングの出力
結果を移動方向の検出に流用することができ、装置の小
型化に寄与する。
According to a preferred aspect of the present invention, the direction detecting means detects the moving direction based on a change in the position of the specific part detected by the template matching means. The output result of the template matching can be used for detecting the moving direction, which contributes to downsizing of the apparatus.

【0046】本発明の好適な一態様である請求項30に
拠れば、前記速度検出手段は、前記テンプレートマッチ
ング手段により検出された特定部位位置の変化に基づい
て位置変化速度を検出する。テンプレートマッチングの
出力結果を移動速度の検出に流用することができ、移動
速度の検出にハードウエアが不要となる。
According to a preferred embodiment of the present invention, the speed detecting means detects a position change speed based on a change in the position of the specific part detected by the template matching means. The output result of the template matching can be used for detecting the moving speed, and hardware is not required for detecting the moving speed.

【0047】本発明の好適な一態様である請求項31に
拠れば、前記特定部位は顔面部位の視点位置である。
According to a preferred aspect of the present invention, the specific part is a viewpoint position of a face part.

【0048】探索範囲の位置を変更させる発明に、探索
範囲の大きさを変更させる機能を追加すると、更に、特
定部位の検出速度は向上する。そこで、請求項32のよ
うに、前記テンプレートマッチング手段が前記特定部位
を前記探索領域内に検出できなかった場合に前記探索領
域の大きさを変更する変更手段を更に具備し、
When a function for changing the size of the search range is added to the invention for changing the position of the search range, the speed of detecting a specific part is further improved. Therefore, as in claim 32, further comprising changing means for changing the size of the search area when the template matching means cannot detect the specific part in the search area,

【0049】前記設定手段は、次回のテンプレートマッ
チングのための探索範囲の位置を前記方向検出手段によ
り検出された特定部位の移動方向に、前記変更手段によ
り拡大された大きさに従って設定する。
The setting means sets the position of the search range for the next template matching in the moving direction of the specific part detected by the direction detecting means according to the size enlarged by the changing means.

【0050】本発明の好適な一態様である請求項33に
拠れば、前記テンプレートマッチング手段がテンプレー
トマッチングに成功している限りは、前記設定手段は、
探索範囲を固定サイズに維持する。
According to a preferred aspect of the present invention, as long as the template matching means succeeds in the template matching, the setting means includes:
Keep the search range at a fixed size.

【0051】請求項27乃至33の装置に適用されてい
る方法(例えば、請求項34乃至40)は、そのまま上
記課題を達成することができる。
The method applied to the devices of claims 27 to 33 (for example, claims 34 to 40) can achieve the above object as it is.

【0052】上記課題は、例えば、請求項41のよう
に、更に視線方向を検出する手段を具備し、
The above object is further provided, for example, in claim 41, further comprising means for detecting the line of sight.

【0053】前記テンプレートマッチング手段は、検出
された視線方向に応じてテンプレート画像を変形補正す
るようにすれば、テンプレートマッチングの精度をより
向上させることができる。
If the template matching means corrects the deformation of the template image in accordance with the detected line-of-sight direction, the accuracy of the template matching can be further improved.

【0054】上記課題は、上記の画像検出方法を実現す
るコンピュータプログラムを記憶するプログラム記憶媒
体によっても達成できる。
The above object can also be achieved by a program storage medium storing a computer program for realizing the above-described image detection method.

【0055】更には、請求項1乃至13のいずれかまた
は27乃至33のいずれかに記載の画像検出装置が検出
した視点位置は、立体表示装置に応用することが好まし
い。
Further, it is preferable that the viewpoint position detected by the image detecting device according to any one of claims 1 to 13 or 27 to 33 is applied to a stereoscopic display device.

【0056】更には、請求項1乃至13のいずれかまた
は27乃至33のいずれかに記載の画像検出装置が検出
した視点位置は、立体表示装置を制御するためのコント
ローラに応用することが好ましい。
Furthermore, it is preferable that the viewpoint position detected by the image detecting device according to any one of claims 1 to 13 or 27 to 33 is applied to a controller for controlling a stereoscopic display device.

【0057】また、請求項1乃至13のいずれかまたは
27乃至33のいずれかに記載の画像検出装置が検出し
た視点位置は、立体表示システムに応用することが好ま
しい。
The viewpoint position detected by the image detecting device according to any one of claims 1 to 13 or 27 to 33 is preferably applied to a stereoscopic display system.

【0058】[0058]

【発明の実施の形態】以下、図面を参照して本発明の特
定部位検出を顔面部位検出、特に視点位置検出に応用し
た実施形態を詳細に説明する。尚、以下の説明において
は、実施形態の視点位置検出装置を立体画像表示装置に
接続した立体画像表示システムについて説明するが、本
発明の顔面部位検出の用途は立体画像表示装置システム
に限定されるものではない。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment in which the detection of a specific part of the present invention is applied to the detection of a face part, particularly to the detection of a viewpoint position will be described in detail with reference to the drawings. In the following description, a stereoscopic image display system in which the viewpoint position detecting device of the embodiment is connected to a stereoscopic image display device will be described, but the application of the face part detection of the present invention is limited to the stereoscopic image display device system. Not something.

【0059】また、以下では立体表示装置としてリアク
ロスレンチキュラ方式のものについて説明しているが、
本発明の顔面部位検出の用途は、リアクロスレンチキュ
ラ方式の立体表示装置に限定されるものではなく、例え
ば、パララックスバリア方式の立体表示装置に適用して
もよい。
In the following, a rear cross lenticular type stereoscopic display device is described.
The application of the face part detection of the present invention is not limited to the rear cross lenticular type stereoscopic display device, but may be applied to, for example, a parallax barrier type stereoscopic display device.

【0060】また、本発明において、顔面部位とは視点
位置とは限られない。更に、その視点位置とは観察者の
目の位置を示すある一点の座標を意味するが、本発明の
視点位置検出装置の出力する視点位置情報は必ずしも一
点の座標値でなくともよく、ある領域を示す情報であっ
ても良い。用途によっては眼全体の位置がおおよそわか
ればよい場合もあり、その用途によって適宜選択すれば
よい。
Further, in the present invention, the face part is not limited to the viewpoint position. Furthermore, the viewpoint position means the coordinates of a certain point indicating the position of the eyes of the observer. However, the viewpoint position information output by the viewpoint position detecting device of the present invention is not necessarily required to be the coordinate value of one point, and may be a certain region. May be indicated. Depending on the use, the position of the entire eye may be roughly known, and may be appropriately selected depending on the use.

【0061】まず、実施形態の視点位置検出が適用され
たリアクロスレンチキュラ方式の立体表示装置について
説明する。
First, a description will be given of a rear cross lenticular type stereoscopic display apparatus to which the viewpoint position detection of the embodiment is applied.

【0062】〈リアクロスレンチキュラ方式〉以下、図
面を用いてクロスレンチキュラ方式の立体表示原理を説
明する。第3図は本実施形態に用いられるクロスレンチ
キュラ方式の原理説明の図であると共に、その立体表示
装置1000の構成を示す斜視図である。
<Rear Cross Lenticular Method> The principle of the three-dimensional display of the cross lenticular method will be described with reference to the drawings. FIG. 3 is a view for explaining the principle of the cross lenticular system used in the present embodiment and a perspective view showing the configuration of the stereoscopic display device 1000.

【0063】60は視差画像を表示するための液晶表示
装置で、61は液晶層などからなる表示画素部でガラス
基板62の間に形成されている。図中では、偏光板、カ
ラーフィルタ、電極、ブラックマトリクス、反射防止膜
などは図示を省略してある。90は照明光源となるバッ
クライトである。その前方には、空間変調装置として機
能するバリア用液晶表示装置80がおかれ、立体画像表
示を行う場合には図示のように市松状のパターン(黒の
部分がバックライト項を通過させず、白の部分がバック
ライトを通過させるように機能する)が表示装置80の
表示画面に表示され、通常の2次元画像を表示する場合
には、対応する領域を白く表示する。バリア用液晶表示
装置80はコントローラ100によりメモリ101を介
して制御される。
Reference numeral 60 denotes a liquid crystal display device for displaying a parallax image. Reference numeral 61 denotes a display pixel portion formed of a liquid crystal layer or the like, which is formed between glass substrates 62. In the drawing, a polarizing plate, a color filter, an electrode, a black matrix, an antireflection film, and the like are not shown. Reference numeral 90 denotes a backlight serving as an illumination light source. A liquid crystal display device 80 for a barrier functioning as a spatial light modulator is placed in front of it. When a stereoscopic image is displayed, a checkered pattern (a black portion does not pass through a backlight item, Is displayed on the display screen of the display device 80, and when displaying a normal two-dimensional image, the corresponding area is displayed in white. The barrier liquid crystal display device 80 is controlled by the controller 100 via the memory 101.

【0064】そのバリア用液晶表示装置80と視差画像
表示用液晶表示装置60の間には、マイクロレンズとし
て透明樹脂またはガラス製の互いに直行する2つのレン
チキュラ71,72が配置されている。視差画像表示用
液晶表示装置60には、図示(61Rが右眼用画像、6
1Lが左眼用画像)のように左右の視差画像が上下方向
に交互に横ストライプ状に配列して表示されている。バ
ックライト90からの光はバリア用液晶表示装置80の
各々の光透過部81を透過し、レンチキュラ72と71
を通して画像用液晶表示装置60を照明し、ユーザの両
眼に左右の視差画像が分離して観察される。
Between the barrier liquid crystal display device 80 and the parallax image display liquid crystal display device 60, two lenticulars 71 and 72 made of a transparent resin or glass and perpendicular to each other are arranged as microlenses. The parallax image display liquid crystal display device 60 includes illustrations (61R is an image for the right eye, 6R).
The left and right parallax images are alternately arranged in the vertical direction and displayed in the form of horizontal stripes as in the case of 1L (image for left eye). The light from the backlight 90 passes through each light transmitting portion 81 of the barrier liquid crystal display device 80, and the lenticules 72 and 71
Illuminates the image liquid crystal display device 60 through the camera, and the left and right parallax images are separately observed by both eyes of the user.

【0065】第4図はユーザの両眼に左右の視差画像が
水平方向に分離して観察される原理を説明する図であ
る。同図は、第3図で説明した立体画像表示装置を上か
ら見た断面を示している。バックライト90によってバ
リア用液晶表示装置80が照明されると、光透過部81
から光が出射する。バリア用液晶表示装置80のユーザ
側にはレンチキュラ72が配置され、その各々のシリン
ドリカルレンズのほぼ焦点位置に、バリア用液晶表示装
置80上のマスクパターンがくるようにレンズ曲率が設
計されている。
FIG. 4 is a diagram for explaining the principle that the left and right parallax images are observed in a horizontally separated manner with both eyes of the user. This figure shows a cross section of the stereoscopic image display device described in FIG. 3 as viewed from above. When the barrier liquid crystal display device 80 is illuminated by the backlight 90, the light transmitting portion 81
The light is emitted from. A lenticular 72 is arranged on the user side of the barrier liquid crystal display device 80, and the lens curvature is designed so that the mask pattern on the barrier liquid crystal display device 80 is located substantially at the focal position of each cylindrical lens.

【0066】第4図中に示した、マスクパターンの光透
過部と遮光部は、視差画像表示用液晶表示装置60に表
示された上下交互に配列した横ストライプ状の左右画像
のうち左画像が対応している。よって、光透過部81か
ら出射した光はレンチキュラ72を通って視差画像表示
用液晶表示装置60の左画像を図中の実線で示すような
範囲に指向性をもって照明する。図中のELはユーザの左
眼をERは右眼を示しており、画像の全幅にわたって、光
透過部81からの光が一様に左眼に集まるように、レン
チキュラ72のピッチはマスクパターンの光透過部と遮
光部で構成される各対の間のピッチよりも僅かに小さく
してある。この結果、視差画像表示用液晶表示装置に表
示された横ストライプ状の左画像は左眼EL付近の範囲の
みで観察される。また、右眼ERに関しては、表示装置8
0のパターンの光透過部と遮光部のパターンは第4図と
は逆になる。すなわち、視差画像表示用液晶表示装置6
0に表示された上下交互に配列した横ストライプ状の左
右画像のうち右画像のストライプに対応するようにな
り、レンチキュラ72を通して右画像は右眼ER付近の範
囲に指向性をもって照明される。これにより、視差画像
表示用液晶表示装置に表示された横ストライプ状の右画
像は右眼ER付近の範囲のみで観察される。このように視
差画像表示用液晶表示装置上の左右の画像が水平方向に
左眼、右眼に分離して観察される。
The light transmitting portion and the light shielding portion of the mask pattern shown in FIG. 4 correspond to the left image of the horizontally striped left and right images alternately arranged on the parallax image display liquid crystal display device 60. Yes, it is. Therefore, the light emitted from the light transmitting portion 81 passes through the lenticular 72 and illuminates the left image of the parallax image display liquid crystal display device 60 with directivity in a range indicated by a solid line in the drawing. In the figure, E L denotes the left eye of the user and E R denotes the right eye, and the pitch of the lenticular 72 is masked so that the light from the light transmission unit 81 is uniformly collected on the left eye over the entire width of the image. The pitch is slightly smaller than the pitch between each pair of light transmitting portions and light blocking portions of the pattern. As a result, transverse stripes in the left image displayed on the liquid crystal display device for displaying a parallax image is observed only in the range around the left eye E L. In addition, with respect to the right eye E R, the display device 8
The pattern of the light transmitting part and the light shielding part of the pattern of 0 is opposite to that of FIG. That is, the parallax image display liquid crystal display device 6
0 to now correspond to the stripe of the right image in the displayed vertically alternating arrangement with lateral stripes of left and right images, the right image through the lenticular 72 is illuminated directionally to range around the right eye E R. Thus, the lateral stripes on the right image displayed on the liquid crystal display device for displaying a parallax image is observed only in the range around the right eye E R. In this way, the left and right images on the parallax image display liquid crystal display device are observed separately in the horizontal direction to the left and right eyes.

【0067】次に、上下方向の観察領域の説明を行う。
第5図は第3図で示したクロスレンチキュラ方式による
立体画像表示装置の上下方向の断面の側面略図を示す図
である。なお、第5図では、この断面については光学作
用を持たないレンチキュラ72及び光学作用に直接関係
しない平面ガラスによる基板は省略されており、レンチ
キュラ71についても概念的に表現されている。バリア
用液晶表示装置80のマスクパターンの開口は第3図に
ように市松状になっており、上下方向には視差画像表示
用液晶表示装置60に表示された上下交互に配列した横
ストライプ状の左右画像に対応している。
Next, the observation region in the vertical direction will be described.
FIG. 5 is a schematic side view of a cross section in the vertical direction of the three-dimensional image display device based on the cross lenticular system shown in FIG. In FIG. 5, the lenticular 72 having no optical action and the flat glass substrate not directly related to the optical action are omitted in this cross section, and the lenticular 71 is also conceptually expressed. The openings of the mask pattern of the barrier liquid crystal display device 80 are in a checkered pattern as shown in FIG. 3, and in the vertical direction, horizontal stripes are displayed on the parallax image display liquid crystal display device 60 and arranged alternately in the upper and lower directions. It supports left and right images.

【0068】第5図において、光透過部81の開口パタ
ーンはユーザのどちらか片方の眼用の画像ラインを照明
するものとする。
In FIG. 5, it is assumed that the opening pattern of the light transmitting portion 81 illuminates an image line for one of the eyes of the user.

【0069】ここで、上下方向のマスクパターンのピッ
チをVm、レンチキュラ71のピッチをVL、レンチキュラ
71を構成する個々のシリンドリカルレンズの第5図の
紙面内の方向の焦点距離をfVとし、視差画像表示用液晶
表示装置の上下方向の画素ピッチをVd、視差画像表示用
液晶表示装置の表示面からレンチキュラ71までの距離
をL1、レンチキュラ71からマスクパターンまでの距離
をL2とするとき、
[0069] Here, pitch V m in the vertical direction of the mask pattern, the pitch V L of the lenticular 71, the focal length of the direction in the plane of FIG. 5 of each cylindrical lens constituting the lenticular 71 and f V The vertical pixel pitch of the parallax image display liquid crystal display device is V d , the distance from the display surface of the parallax image display liquid crystal display device to the lenticular 71 is L 1 , and the distance from the lenticular 71 to the mask pattern is L 2 . and when,

【0070】 Vd:Vm=L1:L2 …(1)V d : V m = L 1 : L 2 (1)

【0071】 Vd:VL=(L1+L2)/2:L2 …(2)V d : V L = (L 1 + L 2 ) / 2: L 2 (2)

【0072】 1/fV=1/L1+1/L2 …(3)1 / f V = 1 / L 1 + 1 / L 2 (3)

【0073】の関係を満たすように設定されている。こ
のときマスクパターンの光透過部はそれぞれ対応する画
素ラインに第5図紙面に垂直な焦線として集光してい
る。市松開口の1つの開口に注目すると、中央の光透過
部81−1の中心の点Aから発せられ、レンチキュラ7
1の対応するシリンドリカルレンズ71−1に入射する
光束は、液晶表示装置の対応する画素列61−1の中央
の点A’上の焦線に集光される。中央の光透過部81−
1の中心の点Aから発せられた71−1以外のレンチキ
ュラ71を構成するシリンドリカルレンズに入射する光
束は液晶表示装置の左眼用画像を表示する画素ラインの
中心に焦線として集光される。
The relationship is set so as to satisfy the following relationship. At this time, the light transmitting portions of the mask pattern converge on the corresponding pixel lines as focal lines perpendicular to the plane of FIG. Paying attention to one of the checkered openings, the light is emitted from the center point A of the central light transmitting portion 81-1 and the lenticular 7
The light beam incident on the corresponding one of the cylindrical lenses 71-1 is condensed on a focal line on the center point A 'of the corresponding pixel column 61-1 of the liquid crystal display device. Central light transmitting portion 81-
A light beam emitted from the center point A of 1 and incident on the cylindrical lens constituting the lenticular 71 other than 71-1 is condensed as a focal line at the center of the pixel line for displaying the image for the left eye of the liquid crystal display device. .

【0074】また光透過部81−1の端の点B,Cから
発せられレンチキュラ71の対応するシリンドリカルレ
ンズに71−1に入射する光束は画素列61−1の端の
点B’,C’上の焦線に夫々集光される。同様に光透過
部81−1のその他の点から発せられシリンドリカルレ
ンズ71−1に入射した光束は液晶表示装置の画素列6
1−1上に焦線として集光される。また光透過部81−
1を発して71−1以外のシリンドリカルレンズに入射
した光束もすべて液晶表示装置60の左眼用画像を表示
する画素ライン上に集光される。
Light beams emitted from the points B and C at the ends of the light transmitting portion 81-1 and incident on the corresponding cylindrical lens 71-1 of the lenticular 71 are points B 'and C' at the ends of the pixel row 61-1. Each is focused on the upper focal line. Similarly, a light beam emitted from another point of the light transmitting portion 81-1 and incident on the cylindrical lens 71-1 is transmitted to the pixel column 6 of the liquid crystal display device.
The light is focused on 1-1 as a focal line. Also, the light transmitting portion 81-
All of the light fluxes that have emitted 1 and entered the cylindrical lenses other than 71-1 are also collected on the pixel line of the liquid crystal display device 60 that displays the image for the left eye.

【0075】第5図に示された、市松パターンの光透過
部81−1以外の光透過部から発せられる光束も、同様
にすべて液晶表示装置60の左眼用画像を表示する画素
ライン上に集光されて液晶表示装置60の左眼用の画素
ラインを照明、透過して上下方向にのみ集光時の開口数
に応じて発散し、ユーザの所定の眼の高さからの画面の
上下方向の全幅にわたって左眼用画像が一様に分離して
見えるような観察領域が得られるようになっている。こ
こではユーザの左眼用画像について説明したがユーザ右
眼用の画像についても同様の働きがある。
Similarly, all of the light fluxes emitted from the light transmitting portions other than the light transmitting portion 81-1 of the checkered pattern shown in FIG. 5 are located on the pixel line for displaying the image for the left eye of the liquid crystal display device 60. The light is condensed, illuminates and transmits the pixel line for the left eye of the liquid crystal display device 60, and diverges only in the vertical direction according to the numerical aperture at the time of light condensing. An observation area is obtained in which the image for the left eye appears to be uniformly separated over the entire width in the direction. Here, the image for the left eye of the user has been described, but the same operation is performed for the image for the right eye of the user.

【0076】第6図は第3図で示した立体画像表示装置
の上下方向の断面の側面図である。同図では、第5図で
は省略した部材も図示してある。ここで、上下方向のマ
スクパターンの開口のピッチをVm、レンチキュラ71の
ピッチをVL、視差画像表示用液晶表示装置の上下方向の
画素ピッチをVd、視差画像表示用液晶表示装置の表示面
からレンチキュラ71のユーザ側の主平面までの距離を
L1、レンチキュラ71のマスク基板側の主平面からマス
クパターンまでの距離をL2、レンチキュラ71を構成す
る個々のシリンドリカルレンズの第6図の紙面内の方向
の焦点距離fVとするとき、上記(1),(2),(3)
式の関係を満たすようにVd=Vm=VL、L1=L2、fV=L1
2と設定されている。すなわち、既に第5図を使って説
明したように、ユーザの所定の眼の高さから画面の上下
方向の全幅にわたって左右画像が一様に分離して見える
ような観察領域が得られるようになっている。
FIG. 6 is a side view of a vertical cross section of the stereoscopic image display device shown in FIG. FIG. 5 also shows members omitted in FIG. Here, the pitch of the opening of the mask pattern in the vertical direction is V m , the pitch of the lenticular 71 is V L , the vertical pixel pitch of the liquid crystal display device for displaying parallax images is V d , the display of the liquid crystal display device for displaying parallax images. Distance from the surface to the user's main plane of the lenticular 71
L 1 , the distance from the main plane of the lenticular 71 on the mask substrate side to the mask pattern is L 2 , and the focal length f V of each of the cylindrical lenses forming the lenticular 71 in the direction in the plane of FIG. (1), (2), (3)
V d = V m = V L , L 1 = L 2 , f V = L 1 /
2 is set. That is, as already described with reference to FIG. 5, it is possible to obtain an observation area in which the right and left images appear to be uniformly separated from the predetermined eye height of the user over the entire vertical width of the screen. ing.

【0077】なお、上記説明では、ユーザ側から見て、
液晶表示装置60、レンチキュラ71、レンチキュラ7
2、市松状光透過部81の順に配置して立体画像表示装
置を構成したが、レンチキュラ72とレンチキュラ71
の順番を入れ替えてもよい。この場合、レンチキュラ7
2、レンチキュラ71のピッチと焦点距離及び市松開口
の縦横のピッチを上述した条件をすべて満たすように設
定し直すことにより、上述の構成と同様に立体画像表示
装置を構成することが可能となる。
In the above description, as viewed from the user side,
Liquid crystal display device 60, lenticular 71, lenticular 7
2. The three-dimensional image display device is configured by arranging the checkered light transmitting portions 81 in this order.
May be interchanged. In this case, lenticular 7
2. By resetting the pitch and focal length of the lenticular 71 and the vertical and horizontal pitches of the checkered aperture so as to satisfy all of the above-described conditions, a stereoscopic image display device can be configured in the same manner as the above-described configuration.

【0078】次に、空間光変調装置80による立体画像
の表示方法について説明する。第7図は第3図で示した
立体表示装置による立体画像表示方法を説明する図であ
る。第7図の(A)は空間光変調装置80の透光部・遮
光部のパターンを示しており、(B),(C)は画面表
示用の液晶表示装置60の表示画素部を示す。上述の立
体画像表示と同様に、液晶表示装置60には左右の視差
画像が横ストライプ状に交互に合成されて表示されてい
る。
Next, a method of displaying a stereoscopic image by the spatial light modulator 80 will be described. FIG. 7 is a diagram for explaining a stereoscopic image display method by the stereoscopic display device shown in FIG. FIG. 7A shows a pattern of a light transmitting portion and a light shielding portion of the spatial light modulator 80, and FIGS. 7B and 7C show a display pixel portion of the liquid crystal display device 60 for screen display. Similar to the above-described stereoscopic image display, the left and right parallax images are alternately combined in a horizontal stripe form and displayed on the liquid crystal display device 60.

【0079】第7図の(A)で、空間光変調素子80の
透光部が実線で示す矩形部65の各々に形成され、矩形
部66が遮光部として形成されている場合には、第7図
の(B)のように第1走査線に右視差画像R1、第2走査
線には左視差画像L2、第3走査線には右視差画像R3、…
となるよう合成された第1の合成ストライプ画像が対応
し、左右の視差画像は各々ユーザの左右眼に分離して観
察される。一方、第7図の(A)において、透光部が点
線で示す矩形部66の各々に形成され、矩形部65が遮
光部であるときには第7図の(C)のように第1走査線
に左視差画像L1、第2走査線には右視差画像R2、第3走
査線には左視差画像L3、…となるよう合成された第2の
合成ストライプ画像が対応し、左右の視差画像は各々ユ
ーザの左右眼に分離して観察される。
In FIG. 7A, when the light transmitting portion of the spatial light modulator 80 is formed in each of the rectangular portions 65 shown by solid lines and the rectangular portion 66 is formed as a light shielding portion, As shown in FIG. 7B, a right parallax image R 1 on the first scanning line, a left parallax image L 2 on the second scanning line, a right parallax image R 3 on the third scanning line, and so on.
The left and right parallax images are separately observed by the left and right eyes of the user, respectively. On the other hand, in FIG. 7A, a light-transmitting portion is formed in each of the rectangular portions 66 indicated by dotted lines, and when the rectangular portion 65 is a light-shielding portion, the first scanning line as shown in FIG. 7C. , A second parallax image L 1 , a second scanning line, a right parallax image R 2 , a third scanning line, a left parallax image L 3 ,... The parallax images are separately observed by the left and right eyes of the user.

【0080】ここで、この状態を時分割で交互に表示す
ることにより、左右視差画像の解像度がストライプ合成
により半分に落ちていたものが、解像度を落とすことな
く高解像度で表示することもできる。
Here, by alternately displaying this state in a time division manner, the resolution of the left and right parallax images, which has been reduced to half due to the stripe composition, can be displayed at a high resolution without lowering the resolution.

【0081】また、そのとき、画像表示用の液晶表示装
置60の表示画素部と空間光変調素子の書き換えスピー
ドに違いがある場合、画像の書き換えと開口パターンの
書き換えのタイミングを一致させてユーザにその境が見
えないようにするために、画像表示コントローラと空間
光変調素子コントローラを追加して同期を取ることも可
能である。その際、視差画像表示用液晶表示装置の表示
画素部と空間光変調素子の対応する走査線上で1画素ご
とに同期させて書き換えても良いし、対応する走査線ご
とに同期を取って書き換えてもよい。
At this time, if there is a difference between the rewriting speed of the display pixel portion of the image display liquid crystal display device 60 and the rewriting speed of the spatial light modulator, the rewriting timing of the image and the rewriting of the aperture pattern are made coincident with each other to the user. In order to make the boundary invisible, an image display controller and a spatial light modulator controller can be added for synchronization. At that time, the display pixel portion of the parallax image display liquid crystal display device and the corresponding scanning line of the spatial light modulator may be rewritten in a synchronized manner for each pixel, or may be rewritten in a synchronized manner for each corresponding scanning line. Is also good.

【0082】右眼画像と左眼画像の2枚の視差画像を画
面ごとに時分割で表示する通常の立体表示方式では、フ
リッカを防止するために、フレーム周波数を120Hz
に上げる必要がある。しかしながら、本実施形態の方式
では、左右の視差画像が横ストライプ状に合成表示され
た画面なので、フレーム周波数60Hzであってもフリ
ッカーを感ずることなく高解像度で観察できる。
In a normal stereoscopic display method in which two parallax images of a right-eye image and a left-eye image are displayed in a time-division manner for each screen, the frame frequency is set to 120 Hz in order to prevent flicker.
Need to be raised. However, in the method of the present embodiment, since the left and right parallax images are combined and displayed in the form of a horizontal stripe, it is possible to observe with high resolution without feeling flicker even at a frame frequency of 60 Hz.

【0083】本実施形態では上下方向のマスクパターン
の開口ピッチをVm、レンチキュラ71のピッチをVL、レ
ンチキュラ71を構成する個々のシリンドリカルレンズ
の第5図の紙面内の方向の焦点距離fV、視差画像表示用
液晶表示装置の上下方向の画素ピッチをVd、視差画像表
示用液晶表示装置の表示面からレンチキュラ71までの
距離をL1、レンチキュラ71からマスクパターンまでの
距離をL2、に対し、Vd=Vm=VL、L1=L2、fV=L1/2の
関係を満たすように構成されている。ここで、Vd=Vm
あるため、空間光変調素子として視差画像表示用液晶表
示装置と同様の画素ピッチからなる液晶表示装置を用い
ることができる。
In the present embodiment, the opening pitch of the mask pattern in the vertical direction is V m , the pitch of the lenticular 71 is V L , and the focal length f V of each of the cylindrical lenses constituting the lenticular 71 in the direction in the plane of FIG. The vertical pixel pitch of the parallax image display liquid crystal display device is V d , the distance from the display surface of the parallax image display liquid crystal display device to the lenticular 71 is L 1 , the distance from the lenticular 71 to the mask pattern is L 2 , to, and is configured so as to satisfy V d = V m = V L , L 1 = L 2, f V = L 1/2 relationship. Here, since V d = V m , a liquid crystal display device having a pixel pitch similar to that of the parallax image display liquid crystal display device can be used as the spatial light modulator.

【0084】次に、本構成での2次元表示と3次元表示
の切り替え混在表示手段について述べる。透過型液晶素
子などの透過型の空間光変調素子80を用いた上記の構
成において、開口パターンを制御することにより所定の
領域を立体画像表示とし、その他の部分は2次元画像を
表示することができる。これを第8図を用いて説明す
る。第8図は第3図で示した立体表示装置による3次元
画像と2次元画像の混在表示方法を説明する図である。
同図において、(A)は空間光変調装置80の透光部・
遮光部のパターンを示しており、(B)は視差画像表示
用液晶表示装置60の表示部の画像パターンを示してい
る。(B)に示されるように、液晶表示装置60の立体
画像を表示する領域67の中は左右の視差画像R,L,
R,…を交互に合成した横ストライプ画像が表示され、
その他の領域には通常の2次元画像Sが表示される。
Next, a description will be given of a mixed display means for switching between two-dimensional display and three-dimensional display in this configuration. In the above configuration using the transmissive spatial light modulator 80 such as a transmissive liquid crystal element, a predetermined area can be displayed as a stereoscopic image by controlling the aperture pattern, and the other part can be displayed as a two-dimensional image. it can. This will be described with reference to FIG. FIG. 8 is a diagram for explaining a method of displaying a three-dimensional image and a two-dimensional image in a mixed manner by the stereoscopic display device shown in FIG.
In the figure, (A) shows a light transmitting part of the spatial light modulator 80.
3B illustrates a pattern of a light shielding unit, and FIG. 3B illustrates an image pattern of a display unit of the liquid crystal display device 60 for displaying a parallax image. As shown in (B), the left and right parallax images R, L, and L in a region 67 of the liquid crystal display device 60 for displaying a stereoscopic image are displayed.
A horizontal stripe image in which R,.
A normal two-dimensional image S is displayed in other areas.

【0085】第8図の(B)に対応する空間光変調装置
80の透光部・遮光部のパターンは、第8図の(A)の
ようになる。立体画像を表示する液晶表示装置60の領
域67に対応する空間光変調装置80の領域87の中
は、市松状の開口パターンにする。この結果、領域6
7、87に対応する部分では、透過光に指向性を持たせ
た左右の視差画像が各々左右の眼に分離して到達するよ
うになる。また、その他の領域では開口をすべて透光状
態にし、左右両眼に2次元画像Sが到達するようにす
る。これにより、領域67にのみ立体画像を表示するこ
とができる。さらに前述のように第1の合成ストライプ
画像と第2の合成ストライプ画像を交互に表示させ、そ
れに同期して開口パターンを変える方法を用いるように
すれば、立体画像の解像度を高めることができる。
The pattern of the light transmitting portion and the light shielding portion of the spatial light modulator 80 corresponding to FIG. 8B is as shown in FIG. 8A. A checkered opening pattern is formed in the area 87 of the spatial light modulator 80 corresponding to the area 67 of the liquid crystal display device 60 for displaying a stereoscopic image. As a result, area 6
In the portions corresponding to 7 and 87, the left and right parallax images having directivity to the transmitted light separately reach the left and right eyes. In other areas, all the apertures are in a light-transmitting state so that the two-dimensional image S reaches both the left and right eyes. Thus, a stereoscopic image can be displayed only in the area 67. Further, as described above, the resolution of the stereoscopic image can be increased by alternately displaying the first combined stripe image and the second combined stripe image and changing the aperture pattern in synchronization with the first combined stripe image and the second combined stripe image.

【0086】〈表示システム〉第3図の立体表示装置1
000を用い、視点位置を追跡した最適な立体視を実現
する立体表示システムの構成を第9図に示す。本実施形
態における視点位置検出装置は、撮影部300と、視点
位置検出部400とから構成され、視点位置検出部40
0に接続されたコントローラ100は、検出部400に
より検出された視点位置に応じて最適なバリアマスクを
生成して、表示装置1000のバリアマスク表示装置8
0に表示する。以下、視点位置検出装置400とコント
ローラ100と表示装置1000とを併せて立体画像表
示システムと言うことがある。
<Display system> The stereoscopic display device 1 shown in FIG.
FIG. 9 shows a configuration of a stereoscopic display system that realizes an optimal stereoscopic view by tracking the viewpoint position using 000. The viewpoint position detection device according to the present embodiment includes an imaging unit 300 and a viewpoint position detection unit 400, and includes a viewpoint position detection unit 40.
The controller 100 connected to the barrier mask display device 8 of the display device 1000 generates an optimal barrier mask according to the viewpoint position detected by the detection unit 400.
Display at 0. Hereinafter, the viewpoint position detection device 400, the controller 100, and the display device 1000 may be collectively referred to as a stereoscopic image display system.

【0087】撮影部300は、観察者の可視画像を撮影
するために、例えばビデオカメラによって構成されてい
る。
The photographing section 300 is constituted by, for example, a video camera for photographing a visible image of the observer.

【0088】視点位置検出部400は、画像記憶部40
1と、テンプレートマッチング判定部402と、テンプ
レート作成部406と、移動速度検出部403と、探索
範囲決定部404と、探索基点決定部405とから構成
されている。視点位置検出部400はたとえば撮影部3
00が出力する画像信号を記憶可能な、汎用パーソナル
コンピュータから構成することができる。
The viewpoint position detecting section 400 includes the image storing section 40
1, a template matching determination unit 402, a template creation unit 406, a moving speed detection unit 403, a search range determination unit 404, and a search base point determination unit 405. The viewpoint position detecting unit 400 is, for example, the photographing unit 3
A general-purpose personal computer capable of storing the image signal output by the 00 can be used.

【0089】画像記憶部401は撮影部300が撮影し
た画像データを記憶する手段として用いられ、RAMの
ような半導体メモリで構成しても、磁気ディスクや光デ
ィスクなどの記憶装置を用いて構成してもよい。
The image storage unit 401 is used as a means for storing image data captured by the image capturing unit 300. Even if the image storage unit 401 is configured by a semiconductor memory such as a RAM, it is configured by using a storage device such as a magnetic disk or an optical disk. Is also good.

【0090】テンプレートマッチング判定部402は、
テンプレート作成部406から供給されるテンプレート
を用いて、画像記憶部401に記憶された画像のうちテ
ンプレートとの相関が最も高い領域の位置情報を表示コ
ントローラ100へ出力する。コントローラ100はこ
の位置情報を用いて最適なバリアマスクを生成する。判
定部402は、検出した位置情報を、移動速度検出部4
03と探索基点決定部405にも出力する。これは、テ
ンプレートマッチング失敗時において、テンプレートマ
ッチングのための探索範囲を変更させるための契機を、
移動速度検出部403と探索基点決定部405とに与え
るためである。
The template matching judgment unit 402
Using the template supplied from the template creation unit 406, position information of an area having the highest correlation with the template in the image stored in the image storage unit 401 is output to the display controller 100. The controller 100 generates an optimal barrier mask using the position information. The judging unit 402 uses the detected position information as the moving speed detecting unit 4
03 and the search base point determination unit 405 are also output. This is an opportunity to change the search range for template matching when template matching fails,
This is for giving to the moving speed detecting unit 403 and the search base point determining unit 405.

【0091】テンプレート作成部406は、画像記憶部
401に記憶された画像データから、テンプレートマッ
チング判定部402で用いるパターンマッチング用のテ
ンプレートを作成するもので、このテンプレートは予め
決められたパターンであってもよい。
The template creation unit 406 creates a template for pattern matching used by the template matching determination unit 402 from the image data stored in the image storage unit 401. The template is a predetermined pattern. Is also good.

【0092】テンプレート作成部におけるテンプレート
の作成について説明する。ここで用いるテンプレートマ
ッチング用のテンプレートを、例えば2つの子テンプレ
ートと1つの親テンプレートとする。それぞれの種類の
テンプレートについて第10図の(a)及び(b)を用
いてさらに説明する。
The creation of a template in the template creation section will be described. The templates for template matching used here are, for example, two child templates and one parent template. Each type of template will be further described with reference to (a) and (b) of FIG.

【0093】第10図(a)及び第10図(b)は、本
実施形態で用いる子テンプレート及び親テンプレートを
それぞれ説明する図である。図に示すように、2つの子
テンプレートはそれぞれ右眼、左眼の視点位置を基点
(図中×で示す)とするテンプレート、親テンプレート
は右眼左眼の視点位置を含み、視点位置の中点を基点と
する1つのテンプレートである。ここで、テンプレート
における視点位置は、画像内座標の1点を指す座標であ
る。
FIGS. 10 (a) and 10 (b) are diagrams for explaining a child template and a parent template used in the present embodiment, respectively. As shown in the figure, the two child templates each have a viewpoint based on the viewpoint positions of the right eye and the left eye (indicated by X in the figure), and the parent template includes the viewpoint positions of the right eye and the left eye. One template is based on a point. Here, the viewpoint position in the template is a coordinate indicating one point of the coordinates in the image.

【0094】本実施形態において、テンプレートの作成
処理は子テンプレートの作成から行う。テンプレート作
成部406は、画像記憶部401に記憶された可視画像
から、右眼視点位置を基点とした子テンプレート1と、
左眼視点位置を基点とした子テンプレート2を作成す
る。子テンプレートの大きさは、右眼左眼視点位置間の
距離によって次式から決定する。
In the present embodiment, template creation processing is performed from the creation of a child template. The template creation unit 406 includes a child template 1 based on the right eye viewpoint position from the visible image stored in the image storage unit 401,
The child template 2 based on the left eye viewpoint position is created. The size of the child template is determined from the following equation based on the distance between the right-eye and left-eye viewpoint positions.

【0095】平均的な人間の右眼左眼視点位置間の距
離:測定された右眼左眼視点位置間の距離=平均的な人
間の眼と眉が入る程度の大きさ:子テンプレートの大き
Average distance between the right and left eye viewpoint positions of the human: Measured distance between the right and left eye viewpoint positions = size enough to include the average human eye and eyebrows: size of child template Sa

【0096】ここで、視点位置間距離及び眼と眉が入る
大きさの平均値は、たとえば統計的に求めた値を用いる
ことができる。ここで、テンプレート作成部406は、
テンプレート作成の基点となる左眼視点位置と右眼視点
位置をデフォルト値で記憶するものとする。即ち、テン
プレートを決定するためのユーザの顔面像を撮影部30
0が正確に捉えるように、テンプレート作成時点では、
ユーザは所定の位置に自己の顔をおいて、所定の範囲の
右目と左目の画像が撮影部300によって撮影されるよ
うにする。これにより、テンプレート作成の基となる撮
影部300が撮影し、記憶部401に記憶された画像
は、ユーザの左右眼の画像を正確に含むものとなる。
Here, as the average value of the distance between the viewpoint positions and the size of the eye and eyebrows, for example, a statistically determined value can be used. Here, the template creation unit 406
The left eye viewpoint position and the right eye viewpoint position, which are the base points for template creation, are stored with default values. That is, the user's face image for determining the template is
At the time of template creation, to capture 0 correctly,
The user places his or her face at a predetermined position, and the right and left eye images in a predetermined range are shot by the shooting unit 300. As a result, the image captured by the image capturing unit 300, which is the basis for creating the template, and the image stored in the storage unit 401 accurately includes the images of the left and right eyes of the user.

【0097】一旦テンプレートが作成されると、ユーザ
が視点位置を移動させても、テンプレートマッチング判
定部402が視点位置を追跡し、或いはテンプレートマ
ッチングに失敗しても、左右眼があるであろう位置に探
索範囲が移動されるように、探索範囲決定部404と探
索基点決定部405とが動作する。
Once the template is created, even if the user moves the viewpoint position, the template matching determination unit 402 tracks the viewpoint position, or the position where the left and right eyes will be located even if the template matching fails. The search range determination unit 404 and the search base point determination unit 405 operate so that the search range is moved to the range shown in FIG.

【0098】尚、テンプレートを作成するときは、視点
位置を正確に測定する必要があるが、このために、以下
のように変形してもよい。即ち、第11図のように、撮
影部300が撮影したユーザ顔面の画像を表示装置10
00に表示する。一方、作成部406は、コントローラ
100を介して、テンプレート画像の枠450を同じく
表示装置1000の所定位置に表示する。ユーザは、そ
の表示された枠内に、自己の左右眼がこの枠450内に
入るように顔位置を移動する。その枠内に左右眼が入っ
たことを確認したら、キーボード若しくはマウスなどを
用いて、OKアイコン451を操作することによって、そ
の旨をテンプレート作成部406に知らせる。テンプレ
ート作成部406は、その時点の記憶部401内の画像
データに従ってテンプレート画像を生成する。
When a template is created, it is necessary to accurately measure the viewpoint position. For this purpose, the viewpoint may be modified as follows. That is, as shown in FIG. 11, an image of the user's face taken by the photographing unit 300 is displayed on the display device 10.
Display at 00. On the other hand, the creating unit 406 also displays the frame 450 of the template image at a predetermined position on the display device 1000 via the controller 100. The user moves his or her face position within the displayed frame so that his or her left and right eyes enter this frame 450. After confirming that the left and right eyes are within the frame, the template creation unit 406 is notified by operating the OK icon 451 using a keyboard or a mouse. The template creation unit 406 creates a template image according to the image data in the storage unit 401 at that time.

【0099】テンプレート画像についての説明を続ける
と、親テンプレートは右眼左眼2つの視点位置の中点を
基点として、2つの視点位置を含むテンプレートであ
る。親テンプレートの大ききは、右眼左眼視点位置間の
距離によって次式から決定する。平均的な人間の右眼左
眼視点位置間の距離:測定された右眼左眼視点位置間の
距離=平均的な人間の顔が入る程度の大きさ:親テンプ
レートの大きさ
Continuing with the description of the template image, the parent template is a template that includes two viewpoint positions, starting from the middle point between the two viewpoint positions for the right eye and the left eye. The size of the parent template is determined from the following equation based on the distance between the right-eye and left-eye viewpoint positions. Average distance between the right and left eye viewpoint positions of a human: Measured distance between the right and left eye viewpoint positions = size enough to include an average human face: size of parent template

【0100】子テンプレート作成時と同様に、平均値に
は統計的に求めた値を用いることができる。テンプレー
ト作成部406が作成したテンプレートは、パターンマ
ッチング判定部402へ供給される。以上のようにし
て、テンプレート作成部406はテンプレートを作成す
る。
As in the case of creating the child template, a statistically determined value can be used for the average value. The template created by the template creation unit 406 is supplied to the pattern matching determination unit 402. As described above, the template creation unit 406 creates a template.

【0101】第12図は、実施形態に採用されているテ
ンプレートマッチングの手法を説明する。同図におい
て、テンプレート410は、作成部406が生成したテ
ンプレートである。ユーザ(観察者)は、位置413か
ら位置414に移動したとする。探索範囲決定部404
は、探索範囲411の大きさを決定する。探索基点決定
部414は、探索範囲の基点412を決定する。テンプ
レートマッチング判定部402は、基点位置412を基
点とする探索範囲411内を、テンプレート410を移
動させながら、テンプレートマッチングを行う。
FIG. 12 illustrates a template matching method employed in the embodiment. In the figure, a template 410 is a template generated by the creation unit 406. It is assumed that the user (observer) has moved from position 413 to position 414. Search range determining unit 404
Determines the size of the search range 411. The search base point determination unit 414 determines the base point 412 of the search range. The template matching determination unit 402 performs template matching while moving the template 410 within a search range 411 having the base point position 412 as a base point.

【0102】本実施形態では、探索基点を先に決定し、
決定された探索基点が中央に位置するように探索範囲を
配置する。第12図では、親テンプレートによるテンプ
レートマッチングを示したが、子テンプレートについて
も同様に行う。
In this embodiment, the search base point is determined first,
The search range is arranged so that the determined search base point is located at the center. FIG. 12 shows template matching using a parent template, but the same applies to a child template.

【0103】テンプレートマッチングはたとえば正規化
相関関数を用いて行うことができる。正規化相関関数を
用いたパターンマッチングについては例えば、「マトロ
ックスイメージングライブラリ バージョン5.1 ユ
ーザガイド(Matrox ImagingLibrary Version 5.1 User
Guide)」 第154〜155ページに記載されてい
る。正規化相関関数によって得られる値は0〜100
(%)として表され、100%が完全一致を意味する。
The template matching can be performed using, for example, a normalized correlation function. For the pattern matching using the normalized correlation function, for example, see “Matrox Imaging Library Version 5.1 User Guide (Matrox ImagingLibrary Version 5.1 User Guide)”.
Guide) "on pages 154-155. The value obtained by the normalized correlation function is 0 to 100
(%), 100% means perfect match.

【0104】本実施形態においては、例えば85%を超
える相関度が得られれば、パターンマッチングが成功し
たと見なす。テンプレート作成直後のパターンマッチン
グは、テンプレートの元になった画像とパターンマッチ
ングを行う画像データが同一であるため、基本的にほぼ
100%の相関度が得られるはずである。
In this embodiment, if a degree of correlation exceeding, for example, 85% is obtained, it is determined that the pattern matching has succeeded. In the pattern matching immediately after the template is created, since the image on which the template is based and the image data to be subjected to the pattern matching are the same, basically a correlation of almost 100% should be obtained.

【0105】〈視点位置の追従〉第13図は、本実施形
態に採用されている探索範囲の基点の決定方法を説明す
る。同図において、420,421,422は、夫々、
過去の時点でテンプレートマッチングが成功したテンプ
レートの基点位置を表す。即ち、n-3回目のテンプレー
トマッチングでは点420においてマッチングが取れた
こととなり、n-2回目のテンプレートマッチングでは点
421においてマッチングが取れたこととなり、n-1回
目のテンプレートマッチングでは点420においてマッ
チングが取れたこととなり、n回目のテンプレートマッ
チングのための探索範囲の基点をどこに設定するかを説
明する。この実施形態では、テンプレートマッチングが
取れた点を「マッチング点」と呼ぶ。第13図の例で
は、マッチング点421から422に移動した時点で、
速度ベクトルVn-1が求められる。すると、これから行お
うとする第n回目のテンプレートマッチングのための探
索範囲(便宜上、「基本探索範囲」と呼ぶ)の探索基点
423を、マッチング点422から、ベクトルVn-1と同
じ方向に、
<Following of Viewpoint Position> FIG. 13 illustrates a method of determining a base point of a search range employed in the present embodiment. In the figure, 420, 421, and 422 are, respectively,
Indicates the base point position of a template for which template matching was successful in the past. That is, in the (n-3) th template matching, matching was obtained at the point 420, in the (n-2) th template matching, matching was obtained at the point 421, and in the (n-1) th template matching, matching was performed at the point 420. , And where to set the base point of the search range for the n-th template matching will be described. In this embodiment, a point at which template matching is obtained is called a “matching point”. In the example of FIG. 13, when the matching point 421 moves to the matching point 422,
The speed vector V n-1 is obtained. Then, a search base point 423 of a search range (referred to as a “basic search range” for convenience) for the n-th template matching to be performed is shifted from the matching point 422 in the same direction as the vector V n−1 ,

【0106】[数1]距離k.Vn-1 だけ離間した点位置に設定する。ここで、kは所定の定
数である。
[Equation 1] Distance k.Vn-1  Is set to a point position that is separated only by Here, k is a predetermined constant.
Is a number.

【0107】通常、ユーザの視点位置は動かないことが
多い。もし、視点位置が点421から移動していなかっ
た(即ち、点421と422が一致)ならば、第n回目
のテンプレートマッチングにおける視点位置も移動して
いないことが予想される。この場合には、Vn-1=0である
ので、探索基点423はマッチング点421に重なって
設定される。従って、視点位置は、移動されていない基
本探索範囲内に確実に把握されることになる。
Normally, the user's viewpoint position often does not move. If the viewpoint position has not moved from the point 421 (that is, the points 421 and 422 match), it is expected that the viewpoint position in the n-th template matching has not moved. In this case, since V n−1 = 0, the search base point 423 is set to overlap the matching point 421. Therefore, the viewpoint position is surely grasped within the basic search range that has not been moved.

【0108】第13図の例で、この基本探索範囲内にお
いてマッチングが取れたならば、その位置を第n回目の
マッチング点424とする。
In the example of FIG. 13, if a match is obtained within this basic search range, the position is set as the n-th matching point 424.

【0109】第14図は、基本探索範囲内にマッチング
が得られなかった場合における、探索範囲の拡大の手法
を説明する。本実施形態では、基本探索範囲においてマ
ッチングが取れなかったばあいには、基本探索範囲より
も大きな探索範囲を設定する。拡大された探索範囲内で
マッチングが取れなかったならば更に大きな探索範囲を
設定する。第14図の例では、基本探索範囲(E0)を除
いて、全部でp個の拡大探索範囲(E1, E2, E3, E4,
...,Ep-1, Ep)が設定されている。一般的に、拡大探
索範囲Epは、マッチングが取れていた間に測定されてい
た最新の視点位置移動速度Vpの値に関連づけられて設定
されている。即ち、移動速度Vの色々な値が、
FIG. 14 illustrates a method of expanding the search range when no matching is obtained within the basic search range. In the present embodiment, if no matching is obtained in the basic search range, a search range larger than the basic search range is set. If no matching is obtained within the enlarged search range, a larger search range is set. In the example of Figure 14, except for the basic search range (E 0), p pieces of expanded search range in total (E 1, E 2, E 3, E 4,
..., E p-1 , E p ). Generally, larger search range E p is set associated with the value of the most recent viewpoint position movement velocity V p which has been measured during the matching was 0.00. That is, various values of the moving speed V

【0110】 V1 < V 2 < V 3 < V 4 <...< V p-1 < V p という順序であるならば、その速度値に対して、夫々、 E1 < E2 < E3 < E4 <...< Ep-1 < Ep という大きさの順序の拡大探索範囲が設定されている。
もし、テンプレートマッチングに失敗する直前までに測
定されていた移動速度の値がV3であったならば、拡大探
索範囲として最初に設定される探索範囲はE4である。も
しこの拡大探索範囲E4内でテンプレートマッチングに失
敗すれば、次の拡大探索範囲はE5に設定される。一般
に、テンプレートマッチングに失敗する直前までに測定
されていた移動速度の値がVkであったならば、拡大探索
範囲として最初に設定される探索範囲はEkであり、次の
拡大探索範囲はEk+1である。
V1<VTwo<VThree<VFour<... <Vp-1<Vp  In this order, for that speed value, E1<ETwo<EThree<EFour<... <Ep-1<Ep  The expanded search range is set in the order of magnitude.
If the measurement is done just before the template matching fails
The value of the specified moving speed is VThreeIf it was
The search range initially set as the search range is EFourIt is. Also
Enlarged search range EFourIn template matching within
If you lose, the next expanded search range is EFiveIs set to General
Before the failure of template matching
The value of the moving speed was VkIf it was, expanded search
The search range initially set as the range is EkAnd the following
Extended search range is Ek + 1It is.

【0111】第16図は、第14図の例で、基本探索範
囲においてテンプレートマッチングに失敗したために、
探索範囲が拡大され、その拡大探索範囲内でテンプレー
トマッチングに成功して、マッチング点424が得られ
たことを示している。
FIG. 16 is an example of FIG. 14, where template matching has failed in the basic search range.
This indicates that the search range has been expanded, template matching has been successful within the expanded search range, and a matching point 424 has been obtained.

【0112】第17図,第18図は、第9図の探索範囲
決定部404及び探索基点決定部405の動作を示すフ
ローチャートである。まず、ステップS100で、撮影
部300、視点位置検出部400及びコントローラ10
0の電源投入、初期化など、各部の起動を行う。次に、
ステップS102で、テンプレート作成部406は第1
0図に示したようなテンプレートを作成する。前述した
ように、テンプレート画像の作成は、ユーザ頭部を所定
位置においた場合における顔面中の所定位置の画像をテ
ンプレート画像とする手法(以下、「第1の方法」と呼
ぶ)と、ユーザが表示装置1000に表示される自分の
顔面の像が表示画面中の所定の枠内に収まるように、ユ
ーザ頭部を移動させてその時点で得られた画像をテンプ
レート画像とする方法(以下、「第2の方法」と呼ぶ)
がある。
FIGS. 17 and 18 are flowcharts showing the operation of the search range determining unit 404 and the search base point determining unit 405 in FIG. First, in step S100, the photographing unit 300, the viewpoint position detecting unit 400, and the controller 10
Start each unit such as turning on the power of 0 and initializing. next,
In step S102, the template creation unit 406
Create a template as shown in FIG. As described above, the template image is created by a method in which an image at a predetermined position on the face when the user's head is at a predetermined position is used as a template image (hereinafter, referred to as a “first method”). A method in which the user's head is moved so that the image of the user's face displayed on the display device 1000 falls within a predetermined frame on the display screen, and the image obtained at that time is used as a template image (hereinafter, referred to as “template image”). The second method is called)
There is.

【0113】ステップS104では探索基点を設定す
る。上記第1の方法では、探索基点はデフォルトの座標
位置である。一方、第2の方法では、上記枠の中心位置
に設定される。ステップS104で設定された探索基点
は初期探索基点であるから、S0とする。
In step S104, a search base point is set. In the first method, the search base point is a default coordinate position. On the other hand, in the second method, it is set at the center position of the frame. Since search base point set in step S104 is the initial search base point, and S 0.

【0114】ステップS106では、カウンタiを0に
初期化し、ステップS108では、探索範囲をE0(即
ち、基本探索範囲)に設定する。ステップS110で
は、ステップS104で設定した探索基点を基点とし、
ステップS108で設定した基本探索範囲E0を探索範囲
として、テンプレートマッチングを行う。ステップS1
12では、このように設定した探索範囲内に目的のテン
プレート画像が発見されたかを判断する。
In step S106, the counter i is initialized to 0, and in step S108, the search range is set to E 0 (that is, the basic search range). In step S110, the search base point set in step S104 is used as a base point,
As the search range the basic search range E 0 set in step S108, performs the template matching. Step S1
At 12, it is determined whether the target template image is found within the search range set in this way.

【0115】テンプレート画像が発見された位置をP0
すると、ステップS114では、次の探索基点S1を決定
する。ステップS106からステップS114に到るま
での経過時間をΔtとすると、視点位置がS0からP0に移
動する速度ベクトルV0は、
Assuming that the position where the template image is found is P 0 , the next search base point S 1 is determined in step S 114. When the elapsed time from the step S106 up to the step S114 to Delta] t, the velocity vector V 0 where the viewpoint position moves from S 0 to P 0, the

【0116】[数2] であり、第13図に従って、次の探索基点S1を、[Equation 2] According to FIG. 13, the next search base point S 1 is

【0117】[数3] [Equation 3]

【0118】に従って決定する。即ち、新たな探索基点
は、最後に認識されたマッチング位置から、更に、それ
までにテンプレートマッチングが成功して認識されたマ
ッチング位置の変化に基づいて計算された視点位置の移
動ベクトルVに平行な方向で、移動速度Vに比例する距離
だけずれた位置に設定される。ずらす理由は、それまで
に視点位置がずれているのであれば、次の視点位置位置
もずれた位置に発見されるであろうとの推測に基づいて
いる。反対に、移動がないときには、Vはゼロなので、
新たな探索基点はもとの探索基点に設定される。
Determined according to the following. That is, the new search base point is parallel to the movement vector V of the viewpoint position calculated from the last recognized matching position and further based on the change in the recognized matching position where the template matching has succeeded so far. The direction is set at a position shifted by a distance proportional to the moving speed V. The reason for shifting is based on the assumption that if the viewpoint position has been shifted by then, the next viewpoint position will also be found at the shifted position. Conversely, when there is no movement, V is zero,
The new search base point is set to the original search base point.

【0119】更にステップS116からステップS10
6に戻って、カウンタiを初期化し(このカウンタiは
テンプレートマッチングに失敗したときに用いる)、ス
テップS108で、探索範囲E0を用いる。即ち、テンプ
レートマッチングに失敗がない限りは、探索範囲として
E0が用いられる。そしてステップS110でテンプレー
トマッチングが行われて、その新たな探索基点位置での
探索範囲E0内にテンプレート画像を見つけたか否かを判
断する。
Further, steps S116 to S10
Returning to 6, a counter i is initialized (this counter i is used when failing to template matching), in step S108, using a search range E 0. That is, unless there is a failure in template matching,
E 0 is used. Then it is carried out template matching in step S110, it is determined whether find a template image within the search range E 0 at the new search base point position.

【0120】ステップS106乃至ステップS116の
操作を繰り返して、第16図に示すように、点422に
マッチング位置が見つかった場合を想定する。この場合
には移動速度Vn-1であるから、第16図のように、
It is assumed that the operations from step S106 to step S116 are repeated and a matching position is found at point 422 as shown in FIG. In this case, since the moving speed is V n−1 , as shown in FIG.

【0121】[数4] [Equation 4]

【0122】という探索基点に大きさE0を設定する。第
16図の例では、実際の視点位置は点424にあること
になるので、基本探索範囲におけるテンプレートマッチ
ングに失敗するから、ステップS112からステップS
200に進む。ステップS200乃至ステップS300
は、移動速度Vn-1を第15図の閾値速度と比較して、夫
々の速度閾値に合った探索範囲の大きさを決定する。即
ち、例えば、移動速度Vn-1が最大速度Vpを超えれば、ス
テップS202でカウンタiに引数pを格納して第18
図のステップS500に進む。移動速度Vn-1が閾値速度
Vp-1を超えればカウンタiに引数p-1を格納して第18
図のステップS500に進み、...、移動速度Vn-1が閾
値速度V2を超えれば、ステップS302で、カウンタi
に引数2を格納して第18図のステップS500に進
み、移動速度Vn-1が閾値速度V2未満であれば、ステップ
S400で、カウンタiに引数1を格納して第18図の
ステップS500に進む。
The magnitude E 0 is set at the search base point. In the example of FIG. 16, since the actual viewpoint position is at the point 424, template matching in the basic search range fails.
Go to 200. Step S200 to step S300
Compares the moving speed V n-1 with the threshold speed in FIG. 15 to determine the size of the search range that matches each speed threshold. That is, for example, if the moving speed V n-1 exceeds the maximum speed V p , the argument p is stored in the counter i in step S202 and the eighteenth
The process proceeds to step S500 in the figure. The moving speed V n-1 is the threshold speed
If V p-1 is exceeded, the argument p-1 is stored in the counter i and the
When the moving speed V n-1 exceeds the threshold speed V 2 , the process proceeds to step S500 in FIG.
The process proceeds to step S500 of FIG. 18 contains the argument 2, if the moving velocity V n-1 is less than the threshold speed V 2, in step S400, step 18 Figure stores argument 1 for a counter i Proceed to S500.

【0123】第18図のステップS500では、カウン
タiの値を用いて探索範囲EIを決定する。ステップS5
02ではステップS500で決定した探索範囲EI内をテ
ンプレートマッチングする。この探索範囲EIでのテンプ
レートマッチングに成功すれば、ステップS106に戻
って、探索範囲の大きさを基本探索範囲に戻すために、
カウンタiを“0”に戻す。
[0123] At step S500 of FIG. 18, to determine the search range E I with the value of the counter i. Step S5
The template matching 02 the search range E in I determined in step S500. A successful template matching in the search range E I, the process returns to step S106, the size of the search range in order to return to the basic search range,
The counter i is returned to “0”.

【0124】一方、ステップS504でテンプレートマ
ッチングに失敗していることが分かったならば、ステッ
プS500乃至ステップS502の操作を、拡大探索範
囲がEpを超えるまで繰り返す。
[0124] On the other hand, if it was found that we failed to template matching in step S504, the operation of steps S500 to step S502, expanded search range is repeated until more than E p.

【0125】拡大探索範囲Epは表示装置60の画面の大
きさに設定されている。このために、ステップS506
でYES、即ち、拡大探索範囲が画面の大きさに一致し
た場合には、ステップS506からステップS500に
戻ることにより、拡大探索範囲はそのEpの大きさ、即
ち、画面の大きさに維持される。画面の大きさに維持す
ることにより、視点位置が画面外に出た場合において再
度画面内に戻ってきた時点で直ちに追跡を再開すること
ができる。
[0125] expanding the search range E p is set to the size of the screen of the display device 60. For this purpose, step S506
In YES, that, when the enlarged search range matches the size of the screen, by returning from step S506 to step S500, expanded search range size of the E p, i.e., be maintained in the size of the screen You. By maintaining the size of the screen, when the viewpoint position goes out of the screen, the tracking can be resumed immediately when it returns to the inside of the screen again.

【0126】〈視点位置の追従方向〉第14図に示した
拡大探索範囲の生成順序は、視点位置の移動方向が上下
左右斜めのいずれの方向にあっても対処できるものであ
る。第14図の拡大探索範囲は、ユーザが画面上におい
て大きな範囲で移動しない場合に対処しやすい。
<Following Direction of Viewpoint Position> The generation order of the enlarged search range shown in FIG. 14 can be dealt with regardless of the moving direction of the viewpoint position in any of up, down, left and right directions. The enlarged search range in FIG. 14 is easy to cope with when the user does not move in a large range on the screen.

【0127】拡大探索範囲の順序は第14図に限定され
るものではなく、例えば、第19図のようであってもよ
い。斜め方向に高速で移動する場合に追従性が高い。ま
た、異なる第20図と第21図のパターンを使い分けて
もよい。即ち、視点位置の移動方向が右方向(例えば移
動速度ベクトルVの符号が正)のときには、第20図の
探索範囲拡大パターンを用い、視点位置の移動方向が左
方向(例えば移動速度ベクトルVの符号が負)のときに
は、第21図の探索範囲拡大パターンを用いる。このよ
うにすると、視点位置が左右に往復移動するような場合
に、最も高速に視点位置を追従することができる。
The order of the expanded search range is not limited to that shown in FIG. 14, and may be, for example, as shown in FIG. High followability when moving at high speed in an oblique direction. Further, different patterns shown in FIGS. 20 and 21 may be properly used. That is, when the moving direction of the viewpoint position is the right direction (for example, the sign of the moving speed vector V is positive), the moving direction of the viewpoint position is set to the left direction (for example, the moving speed vector V When the sign is negative, the search range expansion pattern shown in FIG. 21 is used. In this way, when the viewpoint position reciprocates left and right, the viewpoint position can be followed at the highest speed.

【0128】〈視点位置の追従〉上記第1実施例(第9
図)は、探索範囲を移動速度から、探索基点を、[数
4]に従ってテンプレートマッチングによるマッチング
位置に基づいて、夫々決定した。
<Following of Viewpoint Position> The first embodiment (ninth embodiment)
Fig.) Shows that the search base point is [number
According to [4], each was determined based on the matching position by template matching.

【0129】第22図に示した第2実施例は、探索基点
を、テンプレートマッチングによるマッチング位置に基
づいて決定するものである。即ち、第23図に示した第
2実施例に係る探索基点の決定は、最後に発見されたマ
ッチング位置(第23図の例では422)を基点にし
て、その周囲に、基本探索範囲、更には拡大探索範囲を
設定するものである。
In the second embodiment shown in FIG. 22, a search base point is determined based on a matching position by template matching. That is, the search base point according to the second embodiment shown in FIG. 23 is determined based on the last matching position (422 in the example of FIG. 23) as a base point, a basic search range, and a base search range. Sets an enlarged search range.

【0130】〈マッチングレベルの考慮〉第1実施例で
説明したように、テンプレートマッチング判定は、マッ
チング度を出力することができる。一方、第1実施例で
は、一旦、テンプレートマッチングに失敗すると探索範
囲を拡大するようにしていた。一般に、探索範囲を拡大
すると、誤判定の確率が高くなる。そこで、この第1実
施例の変形例では、第24図に示すように、受理レベル
決定部410を設け、設定した拡大探索範囲の大きさに
応じて受理レベルを変更するようにする。ここで受理レ
ベルとは、テンプレートマッチング判定部においてマッ
チングが取れたと判定する際の基準となる一致度合いで
あり、上記正規化相関関数を用いた例であれば、%で表
される。即ち、例えば、探索範囲決定部404が、最大
の大きさEPの探索範囲を設定しようとする場合には、受
理レベル決定部410は、テンプレートマッチング判定
部402に対して例えば85%より大きい90%を出力
する。これを受けた判定部402は、相関度が90%以
上の場合にのみマッチングが取れたと判定する。第25
図は、第2実施例に対する、上記受理レベル決定部を設
けた変形例を示す。
<Consideration of Matching Level> As described in the first embodiment, the template matching determination can output a matching degree. On the other hand, in the first embodiment, if the template matching fails once, the search range is expanded. Generally, when the search range is expanded, the probability of erroneous determination increases. Therefore, in the modification of the first embodiment, as shown in FIG. 24, an acceptance level determination unit 410 is provided to change the acceptance level according to the size of the set enlarged search range. Here, the acceptance level is a degree of coincidence serving as a criterion when the template matching determination unit determines that a match has been obtained, and is represented by% in the case of using the above-described normalized correlation function. Thus, for example, the search range determining section 404, when trying to set the search range of the maximum magnitude E P is receiving level determining unit 410, the template matching determination unit 90 is larger than for example 85% 402 Output%. Upon receiving this, the determination unit 402 determines that matching has been achieved only when the degree of correlation is 90% or more. 25th
The figure shows a modification of the second embodiment in which the above-mentioned acceptance level determination unit is provided.

【0131】〈探索範囲の設定方法に関する変形例〉第
1実施例の第17図,第18図に示した制御手順は、拡
大探索範囲の大きさを、テンプレートマッチングに失敗
する毎に1段ずつ上げていくものであった。この変形例
は、直前に検出された視点位置の移動速度が大きければ
大きいほど、拡大速度もより大きくするというものであ
る。
<Modification of Search Range Setting Method> In the control procedure shown in FIGS. 17 and 18 of the first embodiment, the size of the enlarged search range is determined by one step each time template matching fails. It was something to raise. This modification is such that the higher the moving speed of the viewpoint position detected immediately before is, the higher the enlargement speed is.

【0132】第26図,第27図はこの変形例に対応す
る制御手順を示し、第1実施例の第17図,第18図に
対応する。第26図の制御手順は、第17図の制御手順
に比して、後者のステップS202,ステップS30
2,ステップS400が、前者のステップS202’,
ステップS302’,ステップS400’において、夫
々、 i = p, j = p, i = 2, j = 2, i = 1, j = 1, で異なっているに過ぎない。このように設定して、第2
7図のステップS504でテンプレートマッチングに失
敗したことが検出されると、iがpを超えないうちは、
ステップS512において、 i = i + j を行い、このiを用いて、ステップS500で探索範囲
Eiを探索するものである。
FIGS. 26 and 27 show a control procedure corresponding to this modification, and correspond to FIGS. 17 and 18 of the first embodiment. The control procedure of FIG. 26 is different from the control procedure of FIG. 17 in the latter steps S202 and S30.
2. Step S400 is the former step S202 ′,
In steps S302 'and S400', only i = p, j = p, i = 2, j = 2, i = 1, j = 1, respectively. With this setting, the second
If it is detected in step S504 in FIG. 7 that the template matching has failed, while i does not exceed p,
In step S512, i = i + j is performed, and using this i, the search range is determined in step S500.
Ei is to be searched.

【0133】例えば、ステップS200,ステップS3
00などで、視点位置の移動速度がV5以上V6未満であれ
ば、i=5, j=5が設定され、ステップS512では、 i=5+5=10 が設定されて、E10が探索範囲となる。次に失敗してス
テップS512に戻ってきたときは、 i= 10 + 5=15 となるように、5段階飛びで拡大探索範囲を拡げてい
く。
For example, steps S200 and S3
00, etc., if V less than 6 moving speed V 5 or the viewpoint position, i = 5, j = 5 is set, in step S512, i = 5 + 5 = 10 is set, the E 10 The search range. Next, when the process fails and returns to step S512, the enlarged search range is expanded by five steps so that i = 10 + 5 = 15.

【0134】かくして、この変形例によれば、移動速度
がVkとして検出されれば、探索範囲の大きさは、k段階
ずつ大きくされていく。このような処理により、探索範
囲の拡大速度が、移動速度に応じて設定されるので、探
索範囲の追従性が高まる。
[0134] Thus, according to this modified example, if the moving speed is detected as V k, the size of the search range, will be incremented by k stages. By such processing, the speed of enlargement of the search range is set according to the moving speed, so that the followability of the search range is improved.

【0135】[0135]

【その他の実施形態】上述の実施形態においては、いず
れも探索範囲の再設定は視点位置検出のためのテンプレ
ートマッチングが失敗した場合に限られていたが、例え
ば画像表示部60を付加した立体画像表示システムとし
て使用する場合には、画像表示部60またはリモートコ
ントローラ(不図示)にユーザが操作できるボタン等を
設け、ユーザが立体表示を認識しにくくなった場合にこ
のボタンを押すことにより、探索範囲の基点位置や大き
さの再設定のための動作をやり直すように構成すること
もできる。このような構成とすることにより、的確なタ
イミングでテンプレートの更新が行われ、より高精度の
視点位置検出が可能となり、結果として立体視可能な範
囲が広い立体画像表示システムを実現することができ
る。前記第1実施例乃至第2実施例、及び変形例では、
次の探索基点位置は、[数3]または[数4]によって決
定された。この場合、kの値は探索基点位置に大きな影
響を与える。そこで、kの値をユーザが例えばキーボー
ドなどを通じて設定できる変形例を提案する。
[Other Embodiments] In the above-described embodiments, the resetting of the search range is limited to the case where template matching for detecting a viewpoint position has failed. When used as a display system, a button or the like that can be operated by a user is provided on the image display unit 60 or a remote controller (not shown), and when the user has difficulty in recognizing the stereoscopic display, the user can press this button to perform a search. An operation for resetting the base position and size of the range may be performed again. With such a configuration, the template is updated at an accurate timing, and the viewpoint position detection can be performed with higher accuracy. As a result, a stereoscopic image display system with a wide stereoscopic view range can be realized. . In the first and second embodiments and the modification,
The next search base point position was determined by [Equation 3] or [Equation 4]. In this case, the value of k has a great influence on the search base point position. Therefore, a modified example in which the user can set the value of k through, for example, a keyboard is proposed.

【0136】kの値を小さな値に設定すれば、そのよう
な設定は、ユーザの頭部が余り動かないようなアプリケ
ーションに適する。逆に、kの値を大きな値に設定すれ
ば、そのような設定は、ユーザの頭部が動くことが多い
アプリケーションに適する。
If the value of k is set to a small value, such a setting is suitable for an application in which the user's head does not move so much. Conversely, if the value of k is set to a large value, such a setting is suitable for an application in which the user's head often moves.

【0137】また、上述の実施形態では本発明による視
点位置検出装置の検出結果を立体画像表示装置に供給す
る場合を例にして説明したが、本発明による視点位置検
出装置は、任意の用途に用いることができる。
In the above-described embodiment, the case where the detection result of the viewpoint position detecting device according to the present invention is supplied to the stereoscopic image display device has been described as an example. Can be used.

【0138】また、上述の実施形態において説明した具
体的な手法、例えばパターンマッチングの方法、テンプ
レート作成の方法等は、実施形態において説明したもの
に限定されるものではなく、同等に適用可能な方法を用
いても良いことはいうまでもない。
Further, the specific methods described in the above embodiments, such as the pattern matching method and the template creation method, are not limited to those described in the embodiments, but may be equally applicable. It is needless to say that may be used.

【0139】上述の実施形態においては、ピンポイント
の座標である視点位置を出力するように構成されていた
が、例えば上述の実施形態のように最終的に得られる視
点位置を立体画像表示装置の制御に用いる場合であれ
ば、右眼と左眼の視点位置の中心位置がわかれば最低限
の制御は可能であるため、右眼用テンプレートと左眼用
テンプレートの中心位置を出力するようにしても良い。
In the above-described embodiment, the viewpoint position, which is the pinpoint coordinate, is configured to be output. However, for example, as in the above-described embodiment, the finally obtained viewpoint position is determined by the three-dimensional image display device. In the case of using for control, since the minimum control is possible if the center positions of the viewpoint positions of the right eye and the left eye are known, the center positions of the right eye template and the left eye template are output. Is also good.

【0140】更に上記実施例では、視点位置の移動速度
を検出する手段として、それまでにテンプレートマッチ
ングにより検出された視点位置の変化によって演算して
いたが、外部の頭部位置姿勢計測センサを用いて検出し
た視点位置の移動速度によって置き換えることも可能で
ある。
Further, in the above embodiment, as a means for detecting the moving speed of the viewpoint position, the calculation is performed based on the change of the viewpoint position detected by the template matching, but an external head position / posture measurement sensor is used. It is also possible to replace it with the detected moving speed of the viewpoint position.

【0141】上記実施形態若しくは実施例では、テンプ
レート画像は一旦取得されると固定的であった。しか
し、ユーザの視線方向が変われば、撮影装置300が撮
像する顔面像は、テンプレート画像を生成した時点と変
化する。そこで、この変形例では、第28図のように、
視線検出センサ461を設け、視点位置検出部400内
にテンプレートメモリ461を具備し、テンプレート作
成部をテンプレート演算作成部460に変更する。この
変形例では、初期的に作成するテンプレート画像は前記
実施形態若しくは実施例と変わるところはない。即ち、
そのテンプレート画像はメモリ461に格納されて、そ
の画像はテンプレートマッチング判定部402に送られ
る。
In the above embodiment or example, the template image is fixed once obtained. However, if the user's line of sight changes, the face image captured by the image capturing apparatus 300 changes from the time when the template image was generated. Therefore, in this modified example, as shown in FIG.
An eye-gaze detection sensor 461 is provided, a template memory 461 is provided in the viewpoint position detection unit 400, and the template creation unit is changed to a template calculation creation unit 460. In this modification, the template image initially created is not different from the embodiment or the example. That is,
The template image is stored in the memory 461, and the image is sent to the template matching determination unit 402.

【0142】その後に視線方向が変わると、その変化
は、カメラパラメータの変化として演算作成部460に
送られ、演算作成部460は、テンプレートメモリ46
1内のテンプレート画像を視線方向変化分だけ、カメラ
パラメータを用いて逆透視変換を行って補正(例えば第
29図)し、補正画像をメモリ461に格納する。この
ようにすると、視線方向が変化してもマッチング精度が
低下することはない。
Thereafter, when the line of sight direction changes, the change is sent to the calculation creating section 460 as a change in camera parameters, and the calculation creating section 460 sends the template memory 46
1 is corrected (for example, FIG. 29) by performing reverse perspective transformation using camera parameters by the amount of change in the line of sight direction, and stores the corrected image in the memory 461. In this way, the matching accuracy does not decrease even if the line of sight changes.

【0143】なお、本発明は、複数の機器(例えばホス
トコンピュータ、インタフェイス機器、リーダ、プリン
タなど)から構成されるシステムに適用しても、一つの
機器からなる装置(例えば、複写機、ファクシミリ装置
など)に適用してもよい。
Even if the present invention is applied to a system composed of a plurality of devices (for example, a host computer, an interface device, a reader, a printer, etc.), an apparatus (for example, a copying machine, a facsimile machine, etc.) Device).

【0144】また、本発明の目的は、前述した実施形態
の機能を実現するソフトウェアのプログラムコードを記
録した記憶媒体(または記録媒体)を、システムあるい
は装置に供給し、そのシステムあるいは装置のコンピュ
ータ(またはCPUやMPU)が記憶媒体に格納されたプログ
ラムコードを読み出し実行することによっても、達成さ
れることは言うまでもない。
An object of the present invention is to supply a storage medium (or a recording medium) in which a program code of software for realizing the functions of the above-described embodiments is recorded to a system or an apparatus, and to provide a computer (a computer) of the system or the apparatus. It is needless to say that the present invention can also be achieved by a CPU or an MPU) reading and executing the program code stored in the storage medium.

【0145】この場合、記憶媒体から読み出されたプロ
グラムコード自体が前述した実施形態の機能を実現する
ことになり、そのプログラムコードを記憶した記憶媒体
は本発明を構成することになる。また、コンピュータが
読み出したプログラムコードを実行することにより、前
述した実施形態の機能が実現されるだけでなく、そのプ
ログラムコードの指示に基づき、コンピュータ上で稼働
しているオペレーティングシステム(OS)などが実際の処
理の一部または全部を行い、その処理によって前述した
実施形態の機能が実現される場合も含まれることは言う
までもない。
In this case, the program code itself read from the storage medium implements the functions of the above-described embodiment, and the storage medium storing the program code constitutes the present invention. By executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also an operating system (OS) running on the computer based on the instruction of the program code. It goes without saying that a case where some or all of the actual processing is performed and the functions of the above-described embodiments are realized by the processing is also included.

【0146】さらに、記憶媒体から読み出されたプログ
ラムコードが、コンピュータに挿入された機能拡張カー
ドやコンピュータに接続された機能拡張ユニットに備わ
るメモリに書込まれた後、そのプログラムコードの指示
に基づき、その機能拡張カードや機能拡張ユニットに備
わるCPUなどが実際の処理の一部または全部を行い、そ
の処理によって前述した実施形態の機能が実現される場
合も含まれることは言うまでもない。
Further, after the program code read from the storage medium is written into the memory provided in the function expansion card inserted into the computer or the function expansion unit connected to the computer, the program code is read based on the instruction of the program code. Needless to say, the CPU included in the function expansion card or the function expansion unit performs part or all of the actual processing, and the processing realizes the functions of the above-described embodiments.

【0147】本発明を上記記憶媒体に適用する場合、そ
の記憶媒体には、先に説明したフローチャートに対応す
るプログラムコードが格納されることになる。
When the present invention is applied to the storage medium, the storage medium stores program codes corresponding to the flowcharts described above.

【0148】[0148]

【発明の効果】以上説明したように、本発明によれば、
テンプレートマッチングに失敗した後で、次の探索範囲
を決定するに際して、それまでの移動速度に応じた大き
さに設定することにより、その探索範囲内に顔面部位が
存在する確率を高めることができる。即ち、顔面部位の
検出速度を高めることができる。また、テンプレートマ
ッチングに失敗したときのみならず、テンプレートマッ
チングに成功している際にも、探索範囲の位置をそれま
での顔面部位の移動方向に略一致させることにより、そ
の探索範囲内に顔面部位が存在する確率を高めることが
できる。即ち、顔面部位の検出速度を高めることができ
る。
As described above, according to the present invention,
When the next search range is determined after the template matching has failed, by setting the size according to the moving speed up to that time, it is possible to increase the probability that a face part exists in the search range. That is, the detection speed of the face part can be increased. In addition, not only when the template matching has failed, but also when the template matching has succeeded, the position of the search range is substantially matched with the moving direction of the face part so far, so that the face part is within the search range. Can be increased. That is, the detection speed of the face part can be increased.

【図面の簡単な説明】[Brief description of the drawings]

【図1】従来の立体画像表示装置の基本構成図である。FIG. 1 is a basic configuration diagram of a conventional stereoscopic image display device.

【図2】従来の立体画像表示装置の基本構成図である。FIG. 2 is a basic configuration diagram of a conventional stereoscopic image display device.

【図3】実施形態の視点位置検出装置が適用されるべき
立体表示装置の構成図である。
FIG. 3 is a configuration diagram of a stereoscopic display device to which the viewpoint position detecting device of the embodiment is to be applied.

【図4】ユーザの両眼に左右の視差画像が水平方向に分
離して観察される原理を説明する図である。
FIG. 4 is a diagram illustrating the principle that left and right parallax images are horizontally separated and observed by both eyes of a user.

【図5】クロスレンチキュラ方式による立体画像表示装
置の上下方向の断面の側面略図を示す図である。
FIG. 5 is a schematic side view of a cross section in a vertical direction of a three-dimensional image display device based on a cross lenticular system.

【図6】実施形態の立体画像表示装置の上下方向の断面
の側面図である。
FIG. 6 is a side view of a vertical cross section of the stereoscopic image display device of the embodiment.

【図7】図3で示した立体表示装置による立体画像表示
方法を説明する図である。
FIG. 7 is a diagram illustrating a stereoscopic image display method by the stereoscopic display device shown in FIG.

【図8】図3で示した立体表示装置による3次元画像と
2次元画像の混在表示方法を説明する図である。
FIG. 8 is a diagram illustrating a method of displaying a three-dimensional image and a two-dimensional image in a mixed manner by the stereoscopic display device shown in FIG. 3;

【図9】実施形態の視点位置検出装置の第1実施例の構
成を示すブロック図。
FIG. 9 is a block diagram showing a configuration of a first example of the viewpoint position detecting device of the embodiment.

【図10】実施例の視点位置検出に用いられるテンプレ
ート画像の取得方法を説明する図。
FIG. 10 is a view for explaining a method of acquiring a template image used for detecting a viewpoint position according to the embodiment.

【図11】実施例の視点位置検出に用いられるテンプレ
ート画像の取得方法の他の例を説明する図。
FIG. 11 is a view for explaining another example of a method for acquiring a template image used for viewpoint position detection according to the embodiment.

【図12】本実施形態装置に採用されているテンプレー
トマッチングの原理を説明する図。
FIG. 12 is a view for explaining the principle of template matching employed in the apparatus of the embodiment.

【図13】実施例装置において、基本探索範囲を生成す
る原理を説明する図。
FIG. 13 is a view for explaining the principle of generating a basic search range in the apparatus according to the embodiment.

【図14】実施例装置において、拡大探索範囲を生成方
法の一例を説明する図。
FIG. 14 is an exemplary view for explaining an example of a method of generating an enlarged search range in the apparatus according to the embodiment.

【図15】図14の拡大探索範囲を生成方法の一例にお
いて、視点位置の移動速度と探索範囲の大きさとの関係
を説明する図
FIG. 15 is a view for explaining the relationship between the moving speed of the viewpoint position and the size of the search range in an example of the method for generating the enlarged search range in FIG. 14;

【図16】実施例装置において、拡大探索範囲を生成方
法の一例を説明する図。
FIG. 16 is a view for explaining an example of a method of generating an enlarged search range in the apparatus according to the embodiment.

【図17】第1実施例装置の制御手順を示すフローチャ
ート。
FIG. 17 is a flowchart showing a control procedure of the first embodiment.

【図18】第1実施例装置の制御手順を示すフローチャ
ート。
FIG. 18 is a flowchart illustrating a control procedure of the first embodiment apparatus.

【図19】実施例装置において、拡大探索範囲を生成方
法の他の例を説明する図。
FIG. 19 is a diagram illustrating another example of a method for generating an enlarged search range in the apparatus according to the embodiment.

【図20】実施例装置において、拡大探索範囲を生成方
法の更に他の例を説明する図。
FIG. 20 is a view for explaining still another example of a method of generating an enlarged search range in the apparatus according to the embodiment.

【図21】実施例装置において、拡大探索範囲を生成方
法の更に他の例を説明する図。
FIG. 21 is a view for explaining still another example of a method of generating an enlarged search range in the apparatus according to the embodiment.

【図22】第2実施例に係る装置の構成を示すブロック
図。
FIG. 22 is a block diagram showing a configuration of an apparatus according to a second embodiment.

【図23】第2実施例に関わる探索基点の決定方法を説
明する図。
FIG. 23 is a view for explaining a method of determining a search base point according to the second embodiment.

【図24】第1実施例の変形例装置の構成を示すブロッ
ク図。
FIG. 24 is a block diagram showing a configuration of a modification of the first embodiment.

【図25】第2実施例の変形例装置の構成を示すブロッ
ク図。
FIG. 25 is a block diagram showing a configuration of a modification of the second embodiment.

【図26】変形例の制御手順を示すフローチャート。FIG. 26 is a flowchart illustrating a control procedure according to a modification.

【図27】変形例の制御手順を示すフローチャート。FIG. 27 is a flowchart illustrating a control procedure according to a modification.

【図28】視線方向を考慮した変形例装置の構成を示す
ブロック図。
FIG. 28 is a block diagram illustrating a configuration of a modification example device in which a line-of-sight direction is considered.

【図29】視線方向が変化したときに、補正前後におけ
るテンプレート画像の変化を示す図。
FIG. 29 is a diagram showing a change in a template image before and after correction when a line-of-sight direction changes.

─────────────────────────────────────────────────────
────────────────────────────────────────────────── ───

【手続補正書】[Procedure amendment]

【提出日】平成13年2月7日(2001.2.7)[Submission date] February 7, 2001 (2001.2.7)

【手続補正1】[Procedure amendment 1]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】請求項1[Correction target item name] Claim 1

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【手続補正2】[Procedure amendment 2]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】請求項5[Correction target item name] Claim 5

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【手続補正3】[Procedure amendment 3]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】請求項9[Correction target item name] Claim 9

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【手続補正4】[Procedure amendment 4]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】請求項14[Correction target item name] Claim 14

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【手続補正5】[Procedure amendment 5]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】請求項18[Correction target item name] Claim 18

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【手続補正6】[Procedure amendment 6]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】請求項22[Correction target item name] Claim 22

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【手続補正7】[Procedure amendment 7]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】請求項27[Correction target item name] Claim 27

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【手続補正8】[Procedure amendment 8]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】請求項32[Correction target item name] Claim 32

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【手続補正9】[Procedure amendment 9]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】請求項34[Correction target item name] Claim 34

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【手続補正10】[Procedure amendment 10]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】請求項39[Correction target item name] Claim 39

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【手続補正11】[Procedure amendment 11]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0027[Correction target item name] 0027

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【0027】[0027]

【課題を解決するための手段】上記の目的を達成するた
めの本発明の顔面部位検出装置は、撮像手段と、前記撮
像手段によって撮像された所定画像内に設定された任意
探索範囲とテンプレートとのマッチングをとることによ
り、前記所定画像内において所定の特定部位の位置を検
出するテンプレートマッチング手段と、前記特定部位の
位置変化速度を検出する速度検出手段と、前記テンプレ
ートマッチング手段が前記特定部位を前記探索範囲内に
検出できなかった場合に前記探索範囲の大きさを変更す
る変更手段を具備し、前記変更手段は、前記特定部位に
ついて検出された位置変化速度が大きいほど、より大き
探索範囲を設定することにより、この探索範囲内にお
ける特定部位の検出速度を向上させることを特徴とす
る。
According to a first aspect of the present invention, there is provided a face part detecting apparatus, comprising: an image pickup means; and an optional part set in a predetermined image picked up by the image pickup means.
Template matching means for detecting a position of a predetermined specific part in the predetermined image by matching a search range with a template; speed detecting means for detecting a position change speed of the specific part; and the template matching means There comprising a changing means for changing the size of the search range if it can not detect the specific portion within the search range, the changing means, as a position change speed detected for the particular site is large, By setting a larger search range , the speed of detecting a specific part within the search range is improved.

【手続補正12】[Procedure amendment 12]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0028[Correction target item name] 0028

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【0028】特定部位の位置変化速度が大きいというこ
とは、それだけより大きな範囲内の領域にその部位が移
動している可能性が高いのであるから、より大きな探索
範囲を設定することにより、テンプレートマッチングの
失敗の可能性が減り、結果的に、特定部位位置の検出速
度を向上させることができる。
The fact that the position change rate of the specific portion large, since it is the likely to be moving the site in the region of correspondingly the greater range, greater search
By setting the range , the possibility of failure of template matching is reduced, and as a result, the detection speed of the specific site position can be improved.

【手続補正13】[Procedure amendment 13]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0043[Correction target item name] 0043

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【0043】上述の特定部位を高速に検出するという課
題は、以下の構成を有する請求項27の装置によっても
達成することができる。即ち、請求項27の画像検出装
置は、撮像手段と、前記撮像手段によって撮像された所
定画像内に設定された任意探索範囲とテンプレートとの
マッチングをとることにより、前記所定画像内において
所定の特定部位の位置を検出するテンプレートマッチン
グ手段と、前記特定部位の検出位置の変化から前記特定
部位の移動方向を検出する方向検出手段と、次回のテン
プレートマッチングのための探索範囲の位置を、前記方
向検出手段により検出された特定部位の移動方向に設定
する設定手段を設けたことを特徴とする。それまでの移
動方向に合致させて探索範囲の位置を設定すれば、その
ように設定された探索範囲内に特定部位が含まれる確率
が高まる。
The above-mentioned problem of detecting a specific portion at a high speed can also be achieved by the device according to claim 27 having the following configuration. That is, the image detection device according to claim 27, by performing matching between the template and the arbitrary search range set in the predetermined image captured by the imaging unit, the predetermined detection in the predetermined image. Template matching means for detecting the position of the part, direction detecting means for detecting the moving direction of the specific part from a change in the detection position of the specific part, and detecting the position of the search range for the next template matching. Setting means for setting the moving direction of the specific part detected by the means. If the position of the search range is set so as to match the moving direction up to that time, the probability that the specific part is included in the search range set as such increases.

【手続補正14】[Procedure amendment 14]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0048[Correction target item name] 0048

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【0048】探索範囲の位置を変更させる発明に、探索
範囲の大きさを変更させる機能を追加すると、更に、特
定部位の検出速度は向上する。そこで、請求項32のよ
うに、前記テンプレートマッチング手段が前記特定部位
を前記探索範囲内に検出できなかった場合に前記探索範
の大きさを変更する変更手段を更に具備し、
When a function for changing the size of the search range is added to the invention for changing the position of the search range, the speed of detecting a specific part is further improved. Therefore, as in claim 32, wherein the search range when the template matching unit can not find the specific portion within the search range
Further comprising changing means for changing the size of the enclosure ,

フロントページの続き Fターム(参考) 5B057 AA20 BA02 CA12 CA16 DA06 DB02 DC32 5C061 AA07 AB12 AB14 5L096 BA18 GA08 HA03 HA08 JA09 KA03 9A001 HH21 HH34 KK31 Continued on the front page F term (reference) 5B057 AA20 BA02 CA12 CA16 DA06 DB02 DC32 5C061 AA07 AB12 AB14 5L096 BA18 GA08 HA03 HA08 JA09 KA03 9A001 HH21 HH34 KK31

Claims (46)

【特許請求の範囲】[Claims] 【請求項1】 撮像手段と、 前記撮像手段によって撮像された所定画像内に設定され
た任意探索領域とテンプレートとのマッチングをとるこ
とにより、前記所定画像内において所定の特定部位の位
置を検出するテンプレートマッチング手段と、 前記特定部位の位置変化速度を検出する速度検出手段
と、 前記テンプレートマッチング手段が前記特定部位を前記
探索領域内に検出できなかった場合に前記探索領域の大
きさを変更する変更手段を具備し、 前記変更手段は、前記特定部位について検出された位置
変化速度が大きいほど、より大きな探索領域を設定する
ことにより、この探索領域内における特定部位の検出速
度を向上させることを特徴とする画像検出装置。
1. A position of a specific part in a predetermined image is detected by matching a template with an arbitrary search area set in a predetermined image picked up by the image pickup means. A template matching unit, a speed detecting unit that detects a position change speed of the specific region, and a change that changes a size of the search region when the template matching unit cannot detect the specific region in the search region. Means for setting, the larger the position change speed detected for the specific part, the larger the search area, thereby improving the detection speed of the specific part in the search area. Image detecting device.
【請求項2】 前記特定部位は顔面画像中の顔面部位で
あり、前記速度検出手段は、前記テンプレートマッチン
グ手段により検出された顔面部位位置の変化に基づいて
位置変化速度を検出することを特徴とする請求項1に記
載の画像検出装置。
2. The method according to claim 1, wherein the specific part is a facial part in a facial image, and the speed detecting unit detects a position change speed based on a change in the facial part position detected by the template matching unit. The image detection device according to claim 1.
【請求項3】 前記特定部位は前記顔面部位の視点位置
であることを特徴とする請求項1乃至請求項2のいずれ
かに記載の画像検出装置。
3. The image detection apparatus according to claim 1, wherein the specific part is a viewpoint position of the face part.
【請求項4】 前記変更手段は、前記テンプレートマッ
チング手段が、前記変更手段により変更された探索範囲
内に前記特定部位が検出された場合に、探索範囲の大き
さを小さくすることを特徴とする請求項1乃至請求項3
のいずれか1項に記載の画像検出装置。
4. The method according to claim 1, wherein the change unit decreases the size of the search range when the template matching unit detects the specific part in the search range changed by the change unit. Claims 1 to 3
The image detection device according to any one of the above.
【請求項5】 前記変更手段は、前記テンプレートマッ
チング手段が、前記変更手段により変更された探索範囲
内に前記特定部位が検出された場合に、探索範囲の大き
さを初期値に戻すことを特徴とする請求項1乃至請求項
4のいずれか1項に記載の画像検出装置。
5. The method according to claim 1, wherein the template matching unit returns the size of the search range to an initial value when the specific part is detected in the search range changed by the change unit. The image detection device according to any one of claims 1 to 4, wherein
【請求項6】 探索範囲は、最小値サイズから画面サイ
ズまで変更可能であることを特徴とする請求項1乃至請
求項5のいずれか1項に記載の画像検出装置。
6. The image detection apparatus according to claim 1, wherein the search range can be changed from a minimum value size to a screen size.
【請求項7】 前記テンプレートマッチング手段がテン
プレートマッチングに成功している限りは、探索範囲は
前記最小値サイズを維持されることを特徴とする請求項
6に記載の画像検出装置。
7. The image detection apparatus according to claim 6, wherein the search range is maintained at the minimum value size as long as the template matching unit succeeds in template matching.
【請求項8】 前記変更手段は、探索範囲の位置を移動
する移動手段を有し、 前記移動手段は、探索範囲の位置を、前記テンプレート
マッチング手段が検出したマッチング位置に移動させる
ことを特徴とする請求項1乃至7のいずれかに記載の画
像検出装置。
8. The method according to claim 1, wherein the changing unit includes a moving unit that moves a position of the search range, and the moving unit moves the position of the search range to a matching position detected by the template matching unit. The image detection device according to claim 1.
【請求項9】 前記変更手段は、探索範囲の位置を移動
する移動手段を有し、 前記移動手段は、探索範囲の位置を、前記テンプレート
マッチング手段が検出したマッチング位置に一致させる
ことを特徴とする請求項8に記載の画像検出装置。
9. The method according to claim 1, wherein the changing unit includes a moving unit that moves a position of the search range, and the moving unit matches the position of the search range with the matching position detected by the template matching unit. The image detection apparatus according to claim 8, wherein
【請求項10】 更に、前記テンプレートマッチング手
段が検出したマッチング位置の変化に基づいて視点位置
の変化を検出する手段を有し、 前記移動手段は、前回検出されたマッチング位置から、
今回検出された視点位置の変化量に応じた位置に次の探
索範囲を設定することにより、探索範囲を移動すること
を特徴とする請求項8または9のいずれかに記載の画像
検出装置。
10. The apparatus further comprises means for detecting a change in the viewpoint position based on a change in the matching position detected by the template matching means, wherein the moving means comprises:
10. The image detection apparatus according to claim 8, wherein the search range is moved by setting a next search range at a position corresponding to the amount of change in the viewpoint position detected this time.
【請求項11】 前記変更手段は、 テンプレートマッチング手段によるテンプレートマッチ
ングが成功している限りは、探索範囲の大きさを最小初
期値に維持する維持手段と、 テンプレートマッチングに初めて失敗したときは、探索
範囲の大きさを、前記速度検出手段により検出された位
置変化速度に応じた速度相当サイズに設定する手段と、 テンプレートマッチングに繰り返し失敗したときは、探
索範囲の大きさを、前記速度相当サイズよりも更に所定
値だけサイズを大きくする手段とを具備することを特徴
とする請求項1乃至10のいずれかに記載の画像検出装
置。
11. The change unit includes: a maintenance unit that maintains a size of a search range at a minimum initial value as long as the template matching by the template matching unit is successful; Means for setting the size of the range to a speed-equivalent size corresponding to the position change speed detected by the speed detecting means; and, when template matching is repeatedly failed, the size of the search range is set to be smaller than the speed-equivalent size. 11. The image detecting apparatus according to claim 1, further comprising: means for increasing the size by a predetermined value.
【請求項12】 前記変更手段は、 テンプレートマッチング手段によるテンプレートマッチ
ングが成功している限りは、探索範囲の大きさを最小初
期値に維持する維持手段と、 テンプレートマッチングに初めて失敗したときは、探索
範囲の大きさを、前記速度検出手段により検出された位
置変化速度に応じた速度相応サイズに設定する手段と、 テンプレートマッチングに繰り返し失敗したときは、探
索範囲の大きさを、前記速度相当サイズよりも更に、前
記速度検出手段により検出された移動速度に応じた速度
相応増分だけサイズを大きくする手段とを具備すること
を特徴とする請求項1乃至10のいずれかに記載の画像
検出装置。
12. The change unit includes: a maintenance unit that maintains a size of a search range at a minimum initial value as long as the template matching by the template matching unit is successful; and a search unit when the template matching fails for the first time. Means for setting the size of the range to a size corresponding to the speed corresponding to the position change speed detected by the speed detecting means; and, when template matching fails repeatedly, setting the size of the search range to be smaller than the speed equivalent size. The apparatus according to any one of claims 1 to 10, further comprising: means for increasing the size by an increment corresponding to a speed corresponding to the moving speed detected by said speed detecting means.
【請求項13】 前記テンプレートマッチング手段にお
いてはマッチング成功判断のための閾値を可変であり、
前記変更手段が探索範囲の大きさを大きくしたときは、
マッチング成功判断のための閾値を高くすることを特徴
とする請求項1乃至12のいずれかに記載の画像検出装
置。
13. The template matching means according to claim 1, wherein a threshold value for determining a matching success is variable.
When the changing unit increases the size of the search range,
The image detection device according to claim 1, wherein a threshold value for determining the success of the matching is increased.
【請求項14】 撮像工程と、 前記撮像手段によって撮像された所定画像内に設定され
た任意探索領域とテンプレートとのマッチングをとるこ
とにより、前記所定画像内において所定の特定部位の位
置を検出するテンプレートマッチング工程と、 前記特定部位の位置変化速度を検出する速度検出工程
と、 前記テンプレートマッチング工程が前記特定部位を前記
探索領域内に検出できなかった場合に前記探索領域の大
きさを変更する変更工程を具備し、 前記変更工程は、前記特定部位について検出された位置
変化速度が大きいほど、より大きな探索領域を設定する
ことにより、この探索領域内における特定部位の検出速
度を向上させることを特徴とする画像検出方法。
14. An image capturing step, and a position of a predetermined specific portion in the predetermined image is detected by matching a template with an arbitrary search area set in the predetermined image captured by the image capturing unit. A template matching step, a speed detection step of detecting a position change speed of the specific part, and a change of changing the size of the search area when the template matching step cannot detect the specific part in the search area. The method further comprises: setting a larger search area as the position change speed detected for the specific part is higher, thereby improving the detection speed of the specific part in the search area. Image detection method.
【請求項15】 前記特定部位は顔面画像中の顔面部位
であり、前記速度検出工程は、前記テンプレートマッチ
ング工程により検出された顔面部位位置の変化に基づい
て速度を検出することを特徴とする請求項14に記載の
画像検出方法。
15. The method according to claim 15, wherein the specific part is a facial part in a facial image, and the velocity detecting step detects a velocity based on a change in the facial part position detected in the template matching step. Item 15. The image detection method according to Item 14.
【請求項16】 前記特定部位は前記顔面部位の視点位
置であることを特徴とする請求項14乃至請求項15の
いずれか1項に記載の画像検出方法。
16. The image detection method according to claim 14, wherein the specific part is a viewpoint position of the face part.
【請求項17】 前記変更工程は、前記テンプレートマ
ッチング工程が、前記変更工程により変更された探索範
囲内に前記特定部位が検出された場合に、探索範囲の大
きさを小さくすることを特徴とする請求項14乃至請求
項16のいずれか1項に記載の画像検出方法。
17. The method according to claim 17, wherein the template matching step reduces the size of the search range when the specific part is detected within the search range changed by the change step. The image detection method according to claim 14.
【請求項18】 前記変更工程は、前記テンプレートマ
ッチング工程が、前記変更工程により変更された探索範
囲内に前記特定部位が検出された場合に、探索範囲の大
きさを初期値に戻すことを特徴とする請求項14乃至請
求項17のいずれか1項に記載の画像検出方法。
18. The method according to claim 18, wherein the template matching step returns the size of the search range to an initial value when the specific part is detected within the search range changed by the change step. The image detection method according to any one of claims 14 to 17, wherein
【請求項19】 探索範囲は、最小値サイズから画面サ
イズまで変更可能であることを特徴とする請求項14乃
至請求項18のいずれか1項に記載の画像検出方法。
19. The image detection method according to claim 14, wherein the search range can be changed from a minimum value size to a screen size.
【請求項20】 前記テンプレートマッチング工程がテ
ンプレートマッチングに成功している限りは、探索範囲
は前記最小値サイズに維持されることを特徴とする請求
項19に記載の画像検出方法。
20. The method according to claim 19, wherein the search range is maintained at the minimum size as long as the template matching step succeeds in template matching.
【請求項21】 前記変更工程は、探索範囲の位置を移
動する移動工程を有し、 前記移動工程は、探索範囲の位置を、前記テンプレート
マッチング工程が検出したマッチング位置に移動させる
ことを特徴とする請求項14乃至請求項20のいずれか
1項に記載の画像検出方法。
21. The changing step includes a moving step of moving a position of a search range, wherein the moving step moves a position of the search range to a matching position detected by the template matching step. The image detection method according to any one of claims 14 to 20, wherein
【請求項22】 前記変更工程は、探索範囲の位置を移
動する移動工程を有し、 前記移動工程は、探索範囲の位置を、前記テンプレート
マッチング工程が検出したマッチング位置に一致させる
ことを特徴とする請求項21に記載の画像検出方法。
22. The changing step includes a moving step of moving a position of a search range, wherein the moving step matches a position of the search range with a matching position detected by the template matching step. The image detection method according to claim 21, wherein
【請求項23】 更に、前記テンプレートマッチング工
程が検出したマッチング位置の変化に基づいて視点位置
の変化を検出する工程を有し、 前記移動工程は、前回検出されたマッチング位置から、
今回検出された視点位置の変化量に応じた位置に次の探
索範囲を設定することにより、探索範囲を移動すること
を特徴とする請求項21または請求項22に記載の画像
検出方法。
23. The method according to claim 23, further comprising the step of detecting a change in a viewpoint position based on a change in the matching position detected by the template matching step.
23. The image detection method according to claim 21, wherein the search range is moved by setting a next search range at a position corresponding to the amount of change in the viewpoint position detected this time.
【請求項24】 前記変更工程は、 テンプレートマッチング工程によるテンプレートマッチ
ングが成功している限りは、探索範囲の大きさを最小初
期値に維持する維持工程と、 テンプレートマッチングに初めて失敗したときは、探索
範囲の大きさを、前記速度検出工程により検出された位
置変化速度に応じた速度相当サイズに設定する工程と、 テンプレートマッチングに繰り返し失敗したときは、探
索範囲の大きさを、前記速度相当サイズよりも更に所定
値だけサイズを大きくする工程とを具備することを特徴
とする請求項14乃至請求項23のいずれか1項に記載
の画像検出方法。
24. The changing step includes a maintaining step of maintaining the size of the search range at the minimum initial value as long as the template matching in the template matching step is successful, and a searching step when the template matching fails for the first time. Setting the size of the range to a size corresponding to the speed corresponding to the position change speed detected in the speed detection step; and, if the template matching is repeatedly failed, set the size of the search range to be smaller than the speed equivalent size. 24. The image detecting method according to claim 14, further comprising: increasing a size by a predetermined value.
【請求項25】 前記変更工程は、 テンプレートマッチング工程によるテンプレートマッチ
ングが成功している限りは、探索範囲の大きさを最小初
期値に維持する維持工程と、 テンプレートマッチングに初めて失敗したときは、探索
範囲の大きさを、前記速度検出工程により検出された位
置変化速度に応じた速度相応サイズに設定する工程と、 テンプレートマッチングに繰り返し失敗したときは、探
索範囲の大きさを、前記速度相当サイズよりも更に、前
記速度検出工程により検出された移動速度に応じた速度
相応増分だけサイズを大きくする工程とを具備すること
を特徴とする請求項14乃至請求項23のいずれか1項
に記載の画像検出方法。
25. The changing step includes a maintaining step of maintaining the size of the search range at a minimum initial value as long as the template matching in the template matching step is successful, and a searching step when the template matching fails for the first time. Setting the size of the range to a size corresponding to the speed corresponding to the position change speed detected in the speed detection step; and, if the template matching fails repeatedly, set the size of the search range to be smaller than the speed equivalent size. The image according to any one of claims 14 to 23, further comprising a step of increasing a size by a speed corresponding increment according to the moving speed detected in the speed detecting step. Detection method.
【請求項26】 前記テンプレートマッチング工程にお
いてはマッチング成功判断のための閾値を可変であり、
前記変更工程が探索範囲の大きさを大きくしたときは、
マッチング成功判断のための閾値を高くすることを特徴
とする請求項14乃至請求項25のいずれか1項に記載
の画像検出方法。
26. In the template matching step, a threshold value for determining a successful match is variable,
When the change step increases the size of the search range,
The image detection method according to any one of claims 14 to 25, wherein a threshold value for determining the success of the matching is increased.
【請求項27】 撮像手段と、 前記撮像手段によって撮像された所定画像内に設定され
た任意探索領域とテンプレートとのマッチングをとるこ
とにより、前記所定画像内において所定の特定部位の位
置を検出するテンプレートマッチング手段と、 前記特定部位の検出位置の変化から前記特定部位の移動
方向を検出する方向検出手段と、 次回のテンプレートマッチングのための探索範囲の位置
を、前記方向検出手段により検出された特定部位の移動
方向に設定する設定手段を設けたことを特徴とする画像
検出装置。
27. A position of a predetermined specific part in the predetermined image is detected by matching the template with an arbitrary search area set in the predetermined image captured by the imaging unit. Template matching means, direction detecting means for detecting the moving direction of the specific part from a change in the detection position of the specific part, and specifying the position of the search range for the next template matching by the direction detecting means. An image detecting apparatus, comprising: setting means for setting a moving direction of a part.
【請求項28】 更に、前記特定部位の位置変化速度を
検出する速度検出手段を具備し、 前記設定手段は、次回のテンプレートマッチングのため
の探索範囲を、前記方向検出手段により検出された特定
部位の移動方向であって、前記速度検出手段により検出
された特定部位の位置変化速度に相応の距離だけ離間し
た位置に設定することを特徴とする請求項27に記載の
画像検出装置。
28. The apparatus according to claim 28, further comprising speed detection means for detecting a position change speed of the specific part, wherein the setting means determines a search range for the next template matching by the specific part detected by the direction detection means. 28. The image detecting apparatus according to claim 27, wherein the moving direction is set at a position separated by a distance corresponding to the position change speed of the specific part detected by the speed detecting means.
【請求項29】 前記特定部位は顔面画像中の顔面部位
であり、前記方向検出手段は、前記テンプレートマッチ
ング手段により検出された顔面部位位置の変化に基づい
て移動方向を検出することを特徴とする請求項27又は
請求項28に記載の画像検出装置。
29. The method according to claim 29, wherein the specific part is a facial part in a facial image, and the direction detecting means detects a moving direction based on a change in the facial part position detected by the template matching means. An image detection device according to claim 27 or claim 28.
【請求項30】 前記特定部位は顔面画像中の顔面部位
であり、前記速度検出手段は、前記テンプレートマッチ
ング手段により検出された顔面部位位置の変化に基づい
て位置変化速度を検出することを特徴とする請求項28
に記載の画像検出装置。
30. The specific part is a facial part in a facial image, and the velocity detecting means detects a position change velocity based on a change in the facial part position detected by the template matching means. Claim 28
The image detection device according to claim 1.
【請求項31】 前記特定部位は前記顔面部位の視点位
置であることを特徴とする請求項27乃至請求項30の
いずれか1項に記載の画像検出装置。
31. The image detection apparatus according to claim 27, wherein the specific part is a viewpoint position of the face part.
【請求項32】 前記テンプレートマッチング手段が前
記顔面部位を前記探索領域内に検出できなかった場合に
前記探索領域の大きさを変更する変更手段を更に具備
し、 前記設定手段は、次回のテンプレートマッチングのため
の探索範囲の位置を前記方向検出手段により検出された
顔面部位の移動方向に、前記変更手段により拡大された
大きさに従って設定することを特徴とする請求項27乃
至請求項31のいずれか1項に記載の画像検出装置。
32. The image processing apparatus according to claim 32, further comprising: changing means for changing a size of the search area when the template matching means cannot detect the face part in the search area; 32. The position of a search range is set in the moving direction of the facial part detected by the direction detecting means according to the size enlarged by the changing means. Item 2. The image detection device according to item 1.
【請求項33】 前記テンプレートマッチング手段がテ
ンプレートマッチングに成功している限りは、前記設定
手段は、探索範囲を固定サイズに維持することを特徴と
する請求項27乃至請求項32のいずれか1項に記載の
画像検出装置。
33. The apparatus according to claim 27, wherein the setting unit maintains the search range at a fixed size as long as the template matching unit succeeds in the template matching. The image detection device according to claim 1.
【請求項34】 撮像する工程と、 前記撮像手段によって撮像された所定画像内に設定され
た任意探索領域とテンプレートとのマッチングをとるこ
とにより、前記所定画像内において所定の特定部位の位
置を検出するテンプレートマッチング工程と、 前記特定部位の検出位置の変化から前記特定部位の移動
方向を検出する方向検出工程と、 次回のテンプレートマッチングのための探索範囲の位置
を、前記方向検出工程により検出された特定部位の移動
方向に設定する設定工程を設けたことを特徴とする画像
検出方法。
34. An image capturing step, and a position of a predetermined specific part in the predetermined image is detected by matching a template with an arbitrary search area set in the predetermined image captured by the image capturing unit. A template matching step, a direction detecting step of detecting a moving direction of the specific part from a change in a detection position of the specific part, and a position of a search range for the next template matching is detected by the direction detecting step. An image detecting method, comprising a setting step of setting a moving direction of a specific part.
【請求項35】 更に、前記顔面部位の位置変化速度を
検出する速度検出工程を具備し、 前記設定工程は、次回のテンプレートマッチングのため
の探索範囲を、前記方向検出工程により検出された特定
部位の移動方向であって、前記速度検出工程により検出
された特定部位の位置変化速度に相応の距離だけ離間し
た位置に設定することを特徴とする請求項34に記載の
画像検出方法。
35. A speed detecting step for detecting a position change speed of the face part, wherein the setting step sets a search range for a next template matching to a specific part detected by the direction detecting step. 35. The image detecting method according to claim 34, wherein the moving direction is set to a position separated by a distance corresponding to the position change speed of the specific part detected in the speed detecting step.
【請求項36】 前記特定部位は顔面画像中の顔面部位
であり、前記方向検出工程は、前記テンプレートマッチ
ング工程により検出された顔面部位位置の変化に基づい
て移動方向を検出することを特徴とする請求項34また
は35に記載の画像検出方法。
36. The method according to claim 36, wherein the specific part is a facial part in a facial image, and the direction detecting step detects a moving direction based on a change in the position of the facial part detected in the template matching step. The image detection method according to claim 34 or 35.
【請求項37】 前記特定部位は顔面画像中の顔面部位
であり、前記速度検出工程は、前記テンプレートマッチ
ング工程により検出された顔面部位位置の変化に基づい
て位置変化速度を検出することを特徴とする請求項35
に記載の画像検出方法。
37. The specific part is a facial part in a facial image, and the velocity detecting step detects a position change velocity based on a change in the facial part position detected in the template matching step. Claim 35
2. The image detection method according to 1.,
【請求項38】 前記特定部位は前記顔面部位の視点位
置であることを特徴とする請求項34乃至請求項37の
いずれか1項に記載の画像検出方法。
38. The image detection method according to claim 34, wherein the specific part is a viewpoint position of the face part.
【請求項39】 前記テンプレートマッチング工程が前
記顔面部位を前記探索領域内に検出できなかった場合に
前記探索領域の大きさを変更する変更工程を更に具備
し、 前記設定工程は、次回のテンプレートマッチングのため
の探索範囲の位置を前記方向検出工程により検出された
顔面部位の移動方向に、前記変更工程により拡大された
大きさに従って設定することを特徴とする請求項34乃
至請求項38のいずれか1項に記載の画像検出方法。
39. The method according to claim 39, further comprising a changing step of changing a size of the search area when the face matching part cannot be detected in the search area in the template matching step. 39. The position of a search range for the moving object is set in the moving direction of the facial part detected by the direction detecting step according to the size enlarged by the changing step. 2. The image detection method according to claim 1.
【請求項40】 前記テンプレートマッチング工程がテ
ンプレートマッチングに成功している限りは、前記設定
工程は探索範囲を固定サイズに維持することを特徴とす
る請求項34乃至請求項39のいずれか1項に記載の画
像検出方法。
40. The method according to claim 34, wherein the setting step maintains the search range at a fixed size as long as the template matching step succeeds in template matching. The image detection method described in the above.
【請求項41】 更に視線方向を検出する手段を具備
し、 前記テンプレートマッチング手段は、検出された視線方
向に応じてテンプレート画像を変形補正することを特徴
とする請求項1乃至請求項13のいずれか1項または2
7乃至請求項33のいずれか1項に記載の画像検出装
置。
41. The apparatus according to claim 1, further comprising: means for detecting a line-of-sight direction, wherein the template matching means corrects the deformation of the template image according to the detected line-of-sight direction. Or 1 or 2
The image detection device according to any one of claims 7 to 33.
【請求項42】 更に視線方向を検出する工程を具備
し、 前記テンプレートマッチング工程は、検出された視線方
向に応じてテンプレート画像を変形補正することを特徴
とする請求項14乃至請求項26のいずれか1項または
34乃至請求項40のいずれか1項に記載の画像検出方
法。
42. The method according to claim 14, further comprising a step of detecting a line-of-sight direction, wherein the template matching step deforms and corrects the template image in accordance with the detected line-of-sight direction. 41. The image detection method according to claim 1 or any one of claims 34 to 40.
【請求項43】 請求項14乃至請求項26または請求
項34乃至請求項40のいずれか1項に記載の画像検出
方法を実現するコンピュータプログラムを記憶するプロ
グラム記憶媒体。
43. A program storage medium for storing a computer program for realizing the image detection method according to any one of claims 14 to 26 or 34 to 40.
【請求項44】 請求項1乃至請求項13または請求項
27乃至請求項33のいずれか1項に記載の画像検出装
置が検出した視点位置に基づいて空間変調画像を生成す
る手段と、 前記空間変調画像を表示するバリア表示手段と、 前記バリア表示手段の前方にあり、左右の視差画像を表
示する画像表示手段とを具備することを特徴とする立体
表示装置。
44. A means for generating a spatially modulated image based on a viewpoint position detected by the image detection device according to any one of claims 1 to 13 or 27 to 33; A stereoscopic display device comprising: a barrier display unit that displays a modulated image; and an image display unit that is in front of the barrier display unit and that displays left and right parallax images.
【請求項45】 視点位置に基づいて空間変調画像を生
成する手段と、 前記空間変調画像を表示するバリア表示手段と、 前記バリア表示手段の前方にあり、左右の視差画像を表
示する画像表示手段とを具備する立体表示装置に接続さ
れた表示コントローラであって、 請求項1乃至請求項13または請求項27乃至請求項3
3のいずれか1項に記載の画像検出装置に接続され若し
くは内蔵されたことを特徴とする表示コントローラ。
45. A means for generating a spatially modulated image based on a viewpoint position; a barrier display means for displaying the spatially modulated image; and an image display means in front of the barrier display means for displaying left and right parallax images. A display controller connected to a three-dimensional display device comprising:
3. A display controller, which is connected to or built in the image detection device according to any one of 3.
【請求項46】 視点位置に基づいて空間変調画像を生
成する手段と、前記空間変調画像を表示するバリア表示
手段と、前記バリア表示手段の前方にあり、左右の視差
画像を表示する画像表示手段とを具備する立体表示装置
と、 請求項1乃至請求項13または請求項27乃至請求項3
3のいずれか1項に記載の画像検出装置に接続され若し
くは内蔵された表示コントローラとを具備することを特
徴とする立体表示システム。
46. A means for generating a spatially modulated image based on a viewpoint position, a barrier display means for displaying the spatially modulated image, and an image display means in front of the barrier display means for displaying left and right parallax images. And a stereoscopic display device comprising: a stereoscopic display device comprising:
3. A three-dimensional display system, comprising: a display controller connected to or incorporated in the image detection device according to any one of 3.
JP2000004069A 2000-01-12 2000-01-12 Device and method for detecting image, device and system for three-dimensional display, display controller, and program storage medium Pending JP2001195582A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000004069A JP2001195582A (en) 2000-01-12 2000-01-12 Device and method for detecting image, device and system for three-dimensional display, display controller, and program storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000004069A JP2001195582A (en) 2000-01-12 2000-01-12 Device and method for detecting image, device and system for three-dimensional display, display controller, and program storage medium

Publications (1)

Publication Number Publication Date
JP2001195582A true JP2001195582A (en) 2001-07-19

Family

ID=18532897

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000004069A Pending JP2001195582A (en) 2000-01-12 2000-01-12 Device and method for detecting image, device and system for three-dimensional display, display controller, and program storage medium

Country Status (1)

Country Link
JP (1) JP2001195582A (en)

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005121838A (en) * 2003-10-15 2005-05-12 Olympus Corp Camera
JP2007102286A (en) * 2005-09-30 2007-04-19 Seiko Epson Corp Specific image detection device, method, and program
JP2008299834A (en) * 2007-05-02 2008-12-11 Nikon Corp Photographic subject tracking program and photographic subject tracking device
JP2009141475A (en) * 2007-12-04 2009-06-25 Nikon Corp Camera
JP2010066863A (en) * 2008-09-09 2010-03-25 Fujifilm Corp Face detection device and method
US7734098B2 (en) 2004-01-27 2010-06-08 Canon Kabushiki Kaisha Face detecting apparatus and method
JP2010128961A (en) * 2008-11-28 2010-06-10 Toyota Motor Corp Image monitoring apparatus
JP2010191784A (en) * 2009-02-19 2010-09-02 Nikon Corp Imaging device
JP2010268109A (en) * 2009-05-13 2010-11-25 Keizo Ota Display control program and information processing device
JP2011212430A (en) * 2010-03-16 2011-10-27 Univ Of Tokyo System for developemental test of visual perception, training system, and support system
JP2011221800A (en) * 2010-04-09 2011-11-04 Toshiba Corp Video display device, video display method and video display program
JP2012080288A (en) * 2010-09-30 2012-04-19 Toshiba Corp Display device and display method
JP2012086285A (en) * 2010-10-15 2012-05-10 Seiko Epson Corp Tracking robot device, tracking robot control method, tracking robot control program, homography matrix acquisition device, homography matrix acquisition method, and homography matrix acquisition program
JP2012216953A (en) * 2011-03-31 2012-11-08 Toshiba Corp Information processing apparatus, display control method, and display controller
JP5143291B2 (en) * 2011-04-20 2013-02-13 株式会社東芝 Image processing apparatus, method, and stereoscopic image display apparatus
JP2015008394A (en) * 2013-06-25 2015-01-15 Kddi株式会社 Information terminal device
US9019261B2 (en) 2009-10-20 2015-04-28 Nintendo Co., Ltd. Storage medium storing display control program, storage medium storing library program, information processing system, and display control method
JPWO2013099270A1 (en) * 2011-12-28 2015-04-30 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America Light source control device and video display device
JP2018134549A (en) * 2018-06-11 2018-08-30 株式会社ユニバーサルエンターテインメント Game machine
JP2019022834A (en) * 2018-11-22 2019-02-14 株式会社ユニバーサルエンターテインメント Game machine
JP2019088965A (en) * 2019-03-22 2019-06-13 株式会社ユニバーサルエンターテインメント Game machine
JP2019088962A (en) * 2019-03-22 2019-06-13 株式会社ユニバーサルエンターテインメント Game machine
US11089290B2 (en) 2009-11-04 2021-08-10 Nintendo Co., Ltd. Storage medium storing display control program, information processing system, and storage medium storing program utilized for controlling stereoscopic display
WO2021201161A1 (en) * 2020-04-02 2021-10-07 京セラ株式会社 Detection device and image display module
WO2022091864A1 (en) * 2020-10-30 2022-05-05 京セラ株式会社 Detection device and image display system
WO2023189195A1 (en) * 2022-03-30 2023-10-05 キヤノン株式会社 Image processing device, image processing method, and program

Cited By (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005121838A (en) * 2003-10-15 2005-05-12 Olympus Corp Camera
US7734098B2 (en) 2004-01-27 2010-06-08 Canon Kabushiki Kaisha Face detecting apparatus and method
JP2007102286A (en) * 2005-09-30 2007-04-19 Seiko Epson Corp Specific image detection device, method, and program
JP2008299834A (en) * 2007-05-02 2008-12-11 Nikon Corp Photographic subject tracking program and photographic subject tracking device
JP2009141475A (en) * 2007-12-04 2009-06-25 Nikon Corp Camera
US8436900B2 (en) 2007-12-04 2013-05-07 Nikon Corporation Pattern matching camera
JP2010066863A (en) * 2008-09-09 2010-03-25 Fujifilm Corp Face detection device and method
JP2010128961A (en) * 2008-11-28 2010-06-10 Toyota Motor Corp Image monitoring apparatus
JP2010191784A (en) * 2009-02-19 2010-09-02 Nikon Corp Imaging device
JP2010268109A (en) * 2009-05-13 2010-11-25 Keizo Ota Display control program and information processing device
US9019261B2 (en) 2009-10-20 2015-04-28 Nintendo Co., Ltd. Storage medium storing display control program, storage medium storing library program, information processing system, and display control method
US11089290B2 (en) 2009-11-04 2021-08-10 Nintendo Co., Ltd. Storage medium storing display control program, information processing system, and storage medium storing program utilized for controlling stereoscopic display
JP2011212430A (en) * 2010-03-16 2011-10-27 Univ Of Tokyo System for developemental test of visual perception, training system, and support system
JP2011221800A (en) * 2010-04-09 2011-11-04 Toshiba Corp Video display device, video display method and video display program
US8644553B2 (en) 2010-04-09 2014-02-04 Kabushiki Kaisha Toshiba Image display device, image display method, and image display program
JP2012080288A (en) * 2010-09-30 2012-04-19 Toshiba Corp Display device and display method
JP2012086285A (en) * 2010-10-15 2012-05-10 Seiko Epson Corp Tracking robot device, tracking robot control method, tracking robot control program, homography matrix acquisition device, homography matrix acquisition method, and homography matrix acquisition program
JP2012216953A (en) * 2011-03-31 2012-11-08 Toshiba Corp Information processing apparatus, display control method, and display controller
US8599200B2 (en) 2011-03-31 2013-12-03 Kabushiki Kaisha Toshiba Information processing apparatus, display controlling method, and display controlling apparatus
JP5143291B2 (en) * 2011-04-20 2013-02-13 株式会社東芝 Image processing apparatus, method, and stereoscopic image display apparatus
JPWO2013099270A1 (en) * 2011-12-28 2015-04-30 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America Light source control device and video display device
JP2015008394A (en) * 2013-06-25 2015-01-15 Kddi株式会社 Information terminal device
JP2018134549A (en) * 2018-06-11 2018-08-30 株式会社ユニバーサルエンターテインメント Game machine
JP2019022834A (en) * 2018-11-22 2019-02-14 株式会社ユニバーサルエンターテインメント Game machine
JP2019088965A (en) * 2019-03-22 2019-06-13 株式会社ユニバーサルエンターテインメント Game machine
JP2019088962A (en) * 2019-03-22 2019-06-13 株式会社ユニバーサルエンターテインメント Game machine
WO2021201161A1 (en) * 2020-04-02 2021-10-07 京セラ株式会社 Detection device and image display module
EP4131158A4 (en) * 2020-04-02 2024-04-24 Kyocera Corp Detection device and image display module
WO2022091864A1 (en) * 2020-10-30 2022-05-05 京セラ株式会社 Detection device and image display system
JP7466687B2 (en) 2020-10-30 2024-04-12 京セラ株式会社 Detection device and image display system
WO2023189195A1 (en) * 2022-03-30 2023-10-05 キヤノン株式会社 Image processing device, image processing method, and program

Similar Documents

Publication Publication Date Title
JP2001195582A (en) Device and method for detecting image, device and system for three-dimensional display, display controller, and program storage medium
JP3647376B2 (en) Viewpoint position detection apparatus, viewpoint position detection method, and stereoscopic image display system
US6757422B1 (en) Viewpoint position detection apparatus and method, and stereoscopic image display system
JP3565707B2 (en) Observer tracking autostereoscopic display device, image tracking system, and image tracking method
RU2408162C2 (en) Method and apparatus for real-time detecting and tracking eyes of several viewers
JP3450801B2 (en) Pupil position detecting device and method, viewpoint position detecting device and method, and stereoscopic image display system
CN116126170A (en) Display device and control device
JP2001008235A (en) Image input method for reconfiguring three-dimensional data and multiple-lens data input device
TWI486631B (en) Head mounted display and control method thereof
TW201233141A (en) Scanning projectors and image capture modules for 3D mapping
US10747395B2 (en) Display device, program, display method and control device
JP6349660B2 (en) Image display device, image display method, and image display program
WO2022017447A1 (en) Image display control method, image display control apparatus, and head-mounted display device
JP2012015642A (en) Imaging device
JP2005198743A (en) Three-dimensional view point measuring device
US11458040B2 (en) Corneal topography mapping with dense illumination
WO2019021601A1 (en) Information processing device, information processing method, and program
JP2000278716A (en) Device and method for detecting view point position and stereoscopic picture display system
JP2000283721A (en) Three-dimensional input device
JP4451195B2 (en) Gaze detection device
CN111142660A (en) Display device, picture display method and storage medium
JP3192483B2 (en) Optical equipment
JP3416706B2 (en) Pupil position detecting device and method, viewpoint position detecting device and method, and stereoscopic image display system
JP2014102668A (en) Display device
JPH07220113A (en) Image recording/reproducing device

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20031024