JP2000132329A - Device and method for recognizing surface and virtual image solid synthesizer - Google Patents

Device and method for recognizing surface and virtual image solid synthesizer

Info

Publication number
JP2000132329A
JP2000132329A JP10306169A JP30616998A JP2000132329A JP 2000132329 A JP2000132329 A JP 2000132329A JP 10306169 A JP10306169 A JP 10306169A JP 30616998 A JP30616998 A JP 30616998A JP 2000132329 A JP2000132329 A JP 2000132329A
Authority
JP
Japan
Prior art keywords
image
observer
imaging
virtual
panning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP10306169A
Other languages
Japanese (ja)
Inventor
Shinichiro Gomi
信一郎 五味
Takeshi Hayakawa
健 早川
Tsukasa Yoshimura
司 吉村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP10306169A priority Critical patent/JP2000132329A/en
Publication of JP2000132329A publication Critical patent/JP2000132329A/en
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Position Input By Displaying (AREA)

Abstract

PROBLEM TO BE SOLVED: To pick up an image with best focus so as to move a light source in a prescribed image pickup direction, and to accurately recognize a reference surface based on the position of that light source. SOLUTION: A picture recognizing device 100 is provided with four light emitting diodes LEDi (i=1 to 4), which are attached at the desired positions of an arbitrary object 1, to be flickered so as to make flicker patterns different, panning CCD 23 for picking up images so as to move these light emitting diodes LEDi in the prescribed image pickup direction, arithmetic means 6 for finding the positions of light emitting diodes LEDi by performing image processing to a luminance signal SOUT of this flicker pattern and for finding the reference surface by linking these four light emitting positions later, camera 4 for scrutinized point detection for detecting a scrutinized point(p) of an observer, who gazes at the reference surface, by picking up the image of eyeball motion of that observer, and control means 5 for controlling the optical system of the panning CCD 23 based on a camera output signal S3. In this case, based on the motion of the pupils recognized from the eyeball motion of the observer, a focal distance Sc+Soff between the light emitting diode LEDi, that the observer gazes at, and the panning CCD 23 is corrected.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、仮想空間の基準
面上に仮想体の画像を合成する立体表示装置などに適用
して好適な面認識装置、面認識方法及び仮想画像立体合
成装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a surface recognition device, a surface recognition method, and a virtual image three-dimensional synthesis device suitable for application to a three-dimensional display device that synthesizes an image of a virtual body on a reference plane in a virtual space.

【0002】詳しくは、点滅パターンの異なる複数の光
源を撮像するための流し撮り用の撮像手段の焦点距離を
調整する制御手段を設け、観測者の眼球運動から認識さ
れた瞳孔の動きに基づいてその観察者が注視した光源と
その撮像手段との間の焦点距離を補正して、ベストフォ
ーカスで光源を所定の撮像方向に流すように撮像できる
ようにすると共に、その光源の発光位置による基準面を
精度良く認識できるようにしたものである。
More specifically, a control means for adjusting the focal length of a panning imaging means for imaging a plurality of light sources having different blinking patterns is provided, and the control means adjusts the focal length based on the pupil movement recognized from the eye movement of the observer. The focal length between the light source watched by the observer and the imaging means is corrected so that the light source can be imaged so as to flow in a predetermined imaging direction at the best focus, and the reference plane based on the light emission position of the light source Can be recognized with high accuracy.

【0003】[0003]

【従来の技術】近年、バーチャル・リアリティ(仮想現
実感)に基づく表示技術の向上に伴い、複数の画像表示
面に跨って仮想現実感を観察者に提供するための仮想画
像立体合成装置が出現している。
2. Description of the Related Art In recent years, with the improvement of display technology based on virtual reality, a virtual image three-dimensional synthesizing apparatus for providing a viewer with virtual reality over a plurality of image display surfaces has appeared. are doing.

【0004】この種の立体表示装置は、特開平9−23
7353号の技術文献に見られる。この技術文献によれ
ば、縦横数m程度の大きさの映写空間が設けられ、各々
の面に表示装置が配置され、各々の表示装置から恐竜、
怪獣や武器などの仮想体の画像が立体表示される。そし
て、観察者は液晶シャッター付きの眼鏡をかけ、その映
写空間に立つと、あたかも、各々の表示装置で表示され
た仮想体と同じ場所に居るようなされる。
[0004] This type of stereoscopic display device is disclosed in Japanese Unexamined Patent Publication No. 9-23.
7353 can be found in the technical literature. According to this technical document, a projection space of about several meters in length and width is provided, and a display device is arranged on each surface, and a dinosaur,
Images of virtual bodies such as monsters and weapons are displayed in three dimensions. Then, when the observer wears glasses with a liquid crystal shutter and stands in the projection space, it is as if he were at the same place as the virtual object displayed on each display device.

【0005】また、観察者が仮想空間上で手にする武器
がカメラによって撮像され、その武器の動きによって仮
想体が反応するように画像処理されている。これによ
り、観察者は数千年前の原始時代にタイムスリップし
て、恐竜退治などをゲーム感覚で行うことができる。
[0005] Further, a weapon that an observer holds in a virtual space is imaged by a camera, and image processing is performed so that a virtual body reacts according to the movement of the weapon. This allows the observer to slip back in time to the primitive era thousands of years ago, and perform dinosaur extermination, etc., as if playing a game.

【0006】[0006]

【発明が解決しようとする課題】ところで、従来方式の
立体表示装置によれば、映写空間が立体形状であること
を前提にして、その立体形状の重心が求められ、その重
心から映写空間の相対座標が求められる。そして、その
相対座標に基づいてカメラと、仮想体の位置関係とを求
め、仮想空間上に恐竜などの仮想体を合成表示してい
る。
However, according to the conventional three-dimensional display device, the center of gravity of the three-dimensional shape is obtained on the assumption that the projection space has a three-dimensional shape, and the center of gravity of the three-dimensional shape is determined from the center of gravity. The coordinates are determined. Then, based on the relative coordinates, the positional relationship between the camera and the virtual body is obtained, and a virtual body such as a dinosaur is displayed in a composite manner in the virtual space.

【0007】例えば、映写空間上のある基準面に恐竜な
どの仮想体を立たせようとしたときに、その仮想体と外
接する矩形領域が画像処理によって抽出され、その矩形
領域の四隅の画像上の位置が相対座標から求められ、透
視投影変換法などから得られたパラメータを用いてカメ
ラと、その仮想体の矩形領域の位置関係とが求められ
る。
For example, when a virtual body such as a dinosaur is to stand on a certain reference plane in the projection space, a rectangular area circumscribing the virtual body is extracted by image processing, and the four corners of the rectangular area are displayed on the image. The position is obtained from the relative coordinates, and the positional relationship between the camera and the rectangular area of the virtual body is obtained using the parameters obtained from the perspective projection conversion method or the like.

【0008】従って、観察者の属する実空間の基準面上
に、TV番組のキャラクタなどを仮想的に飛び出させ、
その仮想空間上の観察者の手のひらでそのキャラクタを
遊ばせる仮想画像立体合成装置を構成しようとしたとき
に、従来方式の装置をそのまま適用すると、立体表示装
置が大がかりとなったり、基準面の認識のための画像処
理が複雑になったり、その時の計算量が多くなったりし
て、ゲーム装置などのコストアップにつながるという問
題がある。
[0008] Therefore, a TV program character or the like virtually jumps out on the reference plane of the real space to which the observer belongs,
When trying to construct a virtual image stereoscopic synthesis device that allows the character to play with the palm of the observer in the virtual space, if the conventional system is applied as it is, the stereoscopic display device will become large-scale or the reference plane will be recognized. However, there is a problem that the image processing for the game becomes complicated or the amount of calculation at that time becomes large, which leads to an increase in the cost of a game device or the like.

【0009】そこで、本発明は上記の課題に鑑み創作さ
れたものであり、観察者の属する実空間上の基準面を、
簡易にかつ少ない計算量で、しかも、ベストフォーカス
で精度良く認識できるようにした面認識装置、面認識方
法及び仮想画像立体合成装置を提供することを目的とす
る。
Therefore, the present invention has been made in view of the above problems, and a reference plane in a real space to which an observer belongs is defined as:
It is an object of the present invention to provide a surface recognition device, a surface recognition method, and a virtual image three-dimensional composition device which can be easily and accurately recognized with the best focus with a small amount of calculation.

【0010】[0010]

【課題を解決するための手段】上述した課題は、任意の
物体の所望位置に取付けられた、少なくとも、点滅パタ
ーンが異なるように点滅する3点以上の光源と、この光
源を所定の撮像方向に流すように撮像する流し撮り用の
撮像手段と、この撮像手段による点滅パターンの輝度信
号を画像処理して光源の3点の位置を求め、その後、3
点の光源の位置を結んで基準面を求める演算手段と、基
準面を注視する観測者の眼球運動を撮像してその観測者
の注視点を検出する注視点検出用の撮像手段と、注視点
検出用の撮像手段の出力に基づいて流し撮り用の撮像手
段の光学系を調整する制御手段とを備え、制御手段は、
観測者の眼球運動から認識された瞳孔の動きに基づいて
その観測者が注視した光源と流し撮り用の撮像手段との
間の焦点距離を補正するようになされたことを特徴とす
る面認識装置によって解決される。
SUMMARY OF THE INVENTION An object of the present invention is to provide at least three or more light sources attached to a desired position of an arbitrary object and blinking at least in different blinking patterns, and disposing the light sources in a predetermined imaging direction. Panning imaging means for imaging so as to flow, and image processing of a luminance signal of a blinking pattern by the imaging means to obtain three positions of the light source.
Calculating means for obtaining the reference plane by connecting the positions of the light sources of the points; imaging means for detecting the point of interest of the observer who observes the reference plane and detecting the point of interest of the observer; Control means for adjusting the optical system of the imaging means for panning based on the output of the imaging means for detection, the control means,
A plane recognition apparatus characterized in that a focal length between a light source gazed at by the observer and an imaging means for panning is corrected based on the movement of the pupil recognized from the eye movement of the observer. Solved by

【0011】本発明の面認識装置によれば、注視点検出
用の撮像手段の出力に基づいて流し撮り用の撮像手段の
焦点距離が制御手段によって補正されるので、観測者の
眼球運動から認識された瞳孔の動きに基づいた最適な位
置に、その観察者が注視した光源と流し撮り用の撮像手
段との焦点距離を合わせ込むことができる。
According to the surface recognition apparatus of the present invention, since the focal length of the panning imaging means is corrected by the control means based on the output of the gazing point detection imaging means, recognition is made from the eye movement of the observer. The focal length between the light source watched by the observer and the imaging means for panning can be adjusted to an optimal position based on the pupil movement performed.

【0012】従って、観測者が注視した特定の光源に流
し撮り用の撮像手段の焦点が合わされるので、ベストフ
ォーカスで光源を所定の撮像方向に流すように撮像する
ことができると共に、その点滅パターンの輝度信号を最
適に画像処理することができる。
[0012] Therefore, since the panning imaging means is focused on a specific light source watched by the observer, it is possible to perform imaging with the light source flowing in a predetermined imaging direction at the best focus. Image processing can be optimally performed on the luminance signal of

【0013】本発明の面認識方法は、任意の物体の所望
位置に3点以上の光源を取付け、少なくとも、点滅パタ
ーンが異なるように光源を点滅し、その光源を所定の撮
像方向に流すように第1の撮像系によって撮像すると共
に、光源を注視する観測者の眼球運動を第2の撮像系に
よって撮像し、観測者の眼球運動から認識された瞳孔の
動きに基づいてその観察者が注視した光源と第1の撮像
系との間の焦点距離を補正し、その焦点距離を補正され
た第1の撮像系によって撮像された点滅パターンの輝度
信号を画像処理して光源の3点の位置を求め、その後、
3点の光源の位置を結んで基準面を求めることを特徴と
するものである。
According to the surface recognition method of the present invention, three or more light sources are attached to desired positions of an arbitrary object, and at least the light sources are blinked so as to have different blink patterns, and the light sources are caused to flow in a predetermined imaging direction. An image is taken by the first imaging system, and the eye movement of the observer watching the light source is taken by the second imaging system, and the observer gazes based on the movement of the pupil recognized from the eye movement of the observer. The focal length between the light source and the first imaging system is corrected, and the luminance signal of the blinking pattern captured by the first imaging system with the corrected focal length is subjected to image processing to determine the positions of three points of the light source. Asked, then
It is characterized in that a reference plane is obtained by connecting the positions of three light sources.

【0014】本発明の面認識方法によれば、観測者が注
視した特定の光源に流し撮り用の撮像手段の焦点を合わ
せ込むとができるので、ベストフォーカスで光源を所定
の撮像方向に流すように撮像することができると共に、
その点滅パターンの輝度信号を最適に画像処理すること
ができる。従って、基準面を精度良く認識することがで
きるので、この面認識方法を仮想画像立体合成装置の面
認識手段などに十分に応用することができる。
According to the surface recognition method of the present invention, it is possible to focus the panning imaging means on a specific light source watched by the observer, so that the light source is caused to flow in a predetermined imaging direction at the best focus. Can be taken at the same time,
The luminance signal of the blinking pattern can be optimally image-processed. Therefore, since the reference plane can be recognized with high accuracy, this plane recognition method can be sufficiently applied to the plane recognition means of the virtual image stereoscopic synthesis apparatus.

【0015】本発明の仮想画像立体合成装置は、観察者
の属する外界像に仮想体の画像を立体的に合成する装置
であって、観察者の属する実空間上で任意の基準面を認
識する面認識手段と、その面認識手段により認識された
基準面を表示する表示手段と、この表示手段によって表
示された仮想空間の基準面上に仮想体の画像を合成する
合成手段とを備え、面認識手段は、任意の物体の所望位
置に取付けられた、少なくとも、点滅パターンが異なる
ように点滅する3点以上の光源と、この光源を所定の撮
像方向に流すように撮像する流し撮り用の撮像手段と、
この撮像手段による点滅パターンの輝度信号を画像処理
して光源の3点の位置を求め、その後、3点の光源の位
置を結んで基準面を求める演算手段と、基準面を注視す
る観測者の眼球運動を撮像して該観測者の注視点を検出
する注視点検出用の撮像手段と、注視点検出用の撮像手
段の出力に基づいて流し撮り用の撮像手段の光学系を調
整する制御手段とを有し、制御手段は、観測者の眼球運
動から認識された瞳孔の動きに基づいて該観測者が注視
した光源と流し撮り用の撮像手段との間の焦点距離を補
正するようになされたことを特徴とするものである。
A three-dimensional virtual image synthesizing apparatus according to the present invention is an apparatus for stereoscopically synthesizing an image of a virtual body with an external image to which an observer belongs, and recognizes an arbitrary reference plane in a real space to which the observer belongs. Surface recognition means, display means for displaying the reference plane recognized by the surface recognition means, and synthesis means for synthesizing an image of the virtual body on the reference plane of the virtual space displayed by the display means, The recognizing means includes at least three or more light sources attached to a desired position of an arbitrary object and blinking so as to have different blinking patterns, and a panning imaging for imaging the light sources in a predetermined imaging direction. Means,
Image processing is performed on the luminance signal of the blinking pattern by the imaging means to determine the positions of three points of the light source, and thereafter, calculating means for determining the reference plane by connecting the positions of the three light sources, and an observer who observes the reference plane An image pickup means for detecting a point of gaze of the observer by imaging the eye movement, and a control means for adjusting an optical system of the image pickup means for panning based on an output of the image pickup means for detecting a point of gaze The control means is adapted to correct the focal length between the light source gazed at by the observer and the imaging means for panning based on the movement of the pupil recognized from the eye movement of the observer. It is characterized by having.

【0016】本発明の仮想画像立体合成装置によれば、
上述の面認識装置が応用されるので、観測者が注視した
特定の光源に流し撮り用の撮像手段の焦点を合わせ込む
ことができる。従って、ベストフォーカスで光源を所定
の撮像方向に流すように撮像することができると共に、
その点滅パターンの輝度信号を最適に画像処理すること
ができるので、基準面を精度良く認識することができ
る。
According to the virtual image three-dimensional composition device of the present invention,
Since the above-described surface recognition device is applied, it is possible to focus the panning imaging unit on a specific light source watched by the observer. Therefore, it is possible to image the light source in the predetermined imaging direction with the best focus, and
Since the luminance signal of the blinking pattern can be optimally image-processed, the reference plane can be recognized with high accuracy.

【0017】[0017]

【発明の実施の形態】以下、図面を参照しながら、この
発明の実施形態としての面認識装置、面認識方法及び仮
想画像立体合成装置について説明をする。 (1)実施形態としての面認識装置 図1は本発明に係る各実施形態としての面認識装置10
0の構成例を示す斜視図である。この実施形態では、点
滅パターンの異なる複数の光源を撮像するための流し撮
り用の撮像手段の焦点距離を調整する制御手段を設け、
観測者の眼球運動から認識された瞳孔の動きに基づいて
その観察者が注視した光源とその撮像手段との間の焦点
距離を自動補正して、ベストフォーカスで光源を所定の
撮像方向に流すように撮像できるようにすると共に、そ
の光源の発光位置による基準面を精度良く認識できるよ
うにしたものである。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS A surface recognition device, a surface recognition method and a virtual image three-dimensional synthesis device according to embodiments of the present invention will be described below with reference to the drawings. (1) Surface Recognition Device as Embodiment FIG. 1 shows a surface recognition device 10 as each embodiment according to the present invention.
FIG. 2 is a perspective view showing a configuration example of a No. 0. In this embodiment, a control unit for adjusting the focal length of the imaging unit for panning for imaging a plurality of light sources having different blinking patterns is provided,
Based on the movement of the pupil recognized from the eye movement of the observer, the focal length between the light source gazed at by the observer and the imaging means is automatically corrected so that the light source flows in a predetermined imaging direction at the best focus. In addition to this, it is possible to accurately recognize the reference plane based on the light emitting position of the light source.

【0018】この発明の面認識装置100には図1に示
す流し撮り用の撮像手段(第1の撮像系、以下、単に流
し撮りCCD装置23という)が設けられ、複数の光源
が所定の撮像方向に流すように流し撮りされる。ここ
で、流し撮りとは流し撮りCCD装置23において、同
一フィールド期間中に複数回、光電変換素子(フォトダ
イオードなど)から信号電荷を読み出す撮影モードをい
う。
The surface recognition apparatus 100 of the present invention is provided with a panning imaging means (first imaging system, hereinafter simply referred to as a panning CCD device 23) shown in FIG. She is shot as if shed in the direction. Here, the panning shot means a shooting mode in which signal charges are read out from the photoelectric conversion element (such as a photodiode) a plurality of times during the same field period in the panning CCD device 23.

【0019】この例では、任意の物体1の所望位置、例
えば、仮想画像立体合成装置などの基準面設定用のブレ
スレットの所定位置に、複数の光源として4個の発光ダ
イオードLEDi(i=1〜4)が取付けられ、少なく
とも、点滅パターンが異なるように点滅制御される。こ
こで、仮想画像立体合成装置とは仮想空間上で観察者の
属する外界像に仮想体の画像を立体的に合成するものを
いう。
In this example, four light-emitting diodes LEDi (i = 1 to 4) as a plurality of light sources are provided at a desired position of an arbitrary object 1, for example, a predetermined position of a bracelet for setting a reference plane such as a virtual image three-dimensional synthesizer. 4) is attached, and blinking control is performed so that at least the blinking pattern is different. Here, the virtual image three-dimensional synthesizing device refers to a device that stereoscopically synthesizes a virtual body image with an external image to which an observer belongs in a virtual space.

【0020】この流し撮りCCD装置23には演算手段
6が接続され、流し撮りCCD装置23から得られた点
滅パターンの輝度信号SOUTを画像処理して発光ダイオ
ードLED1〜4の4点の発光位置が求められ、その
後、その4点の発光ダイオードLEDの発光位置を結ん
で基準面が求められる。
The arithmetic unit 6 is connected to the panning CCD device 23. The luminance signal SOUT of the blinking pattern obtained from the panning CCD device 23 is image-processed to determine the four light emitting positions of the light emitting diodes LED1 to LED4. After that, a reference plane is obtained by connecting the light emitting positions of the four light emitting diodes LED.

【0021】一方、この面認識装置100には注視点検
出用の撮像手段(第2の撮像系、以下、注視点検出カメ
ラ4という)が設けられ、基準面を注視する観測者の眼
球運動を撮像してその観測者の注視点pが検出される。
この注視点検出カメラ4には制御手段5が接続され、こ
の注視点検出カメラ4から得られたカメラ出力信号S3
に基づいて流し撮りCCD装置23の焦点距離が調整さ
れる。例えば、制御手段5は、流し撮りCCD装置23
にズーム制御信号S0を出力して、観測者の眼球運動か
ら認識された瞳孔の動きに基づく発光ダイオードLED
iと流し撮りCCD装置23との間の焦点距離を補正す
るようになされる。
On the other hand, the plane recognition apparatus 100 is provided with an image pickup means (second image pickup system, hereinafter referred to as a gazing point detection camera 4) for detecting a gazing point, and detects an eye movement of an observer gazing at a reference plane. The image is picked up, and the gazing point p of the observer is detected.
Control means 5 is connected to the gazing point detection camera 4 and a camera output signal S3 obtained from the gazing point detection camera 4
, The focal length of the panning CCD device 23 is adjusted. For example, the control means 5 includes the panning CCD device 23
And outputs a zoom control signal S0 to the light emitting diode LED based on the movement of the pupil recognized from the eye movement of the observer.
The focal length between i and the panning CCD device 23 is corrected.

【0022】ここで、観察者の眼球表面から注視点pに
至る離隔距離をShとし、流し撮りCCD装置23のレ
ンズ表面から注視点pに至る焦点距離をScとし、観察
者の眼球表面と流し撮りCCD装置23のレンズ表面と
の間のオフセット距離をSoffとすると、その注視点p
に至る離隔距離Shが焦点距離Sc+Soffよりも多い
場合には、制御手段5がその焦点距離Scを長くするよ
うに流し撮りCCD装置23の光学系を調整する。反対
に、注視点pに至る離隔距離Shが焦点距離Sc+Sof
fよりも少ない場合には、制御手段5はその焦点距離S
cを短くするように流し撮りCCD装置23の光学系を
調整する。
Here, the separation distance from the surface of the observer's eyeball to the gazing point p is denoted by Sh, the focal length from the lens surface of the panning CCD device 23 to the gazing point p is Sc, and the distance from the observer's eyeball to the gazing point p. Assuming that the offset distance between the taking CCD device 23 and the lens surface is Soff, the gazing point p
Is larger than the focal length Sc + Soff, the control means 5 adjusts the optical system of the follow-up CCD device 23 so as to increase the focal length Sc. On the contrary, the separation distance Sh to the gazing point p is the focal length Sc + Sof
If it is less than f, the control means 5 determines that the focal length S
The optical system of the panning CCD device 23 is adjusted so as to shorten c.

【0023】図2は面認識装置100の動作例を示すフ
ローチャートである。この例では、予め基準面設定用の
ブレスレットなどの任意の物体1の所望位置に、例え
ば、4個の発光ダイオードLED1〜4が取付けられて
いることを前提とする。そして、図2に示したフローチ
ャートのステップA1で、まず、点滅パターンが異なる
ように発光ダイオードLED1〜4などの光源を点滅制
御する。
FIG. 2 is a flowchart showing an operation example of the surface recognition apparatus 100. In this example, it is assumed that, for example, four light emitting diodes LED1 to LED4 are attached to desired positions of an arbitrary object 1 such as a reference surface setting bracelet in advance. Then, in step A1 of the flowchart shown in FIG. 2, first, the light sources such as the light emitting diodes LED1 to LED4 are controlled to blink so that the blinking patterns are different.

【0024】その後、ステップA2でその発光ダイオー
ドLED1〜4を所定の撮像方向に流すように流し撮り
CCD装置23によって撮像する。これに並行して、ス
テップA3で例えば発光ダイオードLED3を注視する
観測者の眼球運動を注視点検出カメラ4によって撮像す
る。その後、ステップA4で観測者の眼球運動から認識
された瞳孔の動きに基づいてその観察者が注視した発光
ダイオードLED3と流し撮りCCD装置23との間の
焦点距離Sc+Soffを補正する。
Thereafter, in step A2, the light-emitting diodes LED1 to LED4 are photographed by the panning CCD device 23 so as to flow in a predetermined imaging direction. In parallel with this, in step A3, for example, the eye movement of the observer who gazes at the light emitting diode LED3 is imaged by the gaze point detection camera 4. Thereafter, in step A4, the focal length Sc + Soff between the light emitting diode LED3 and the panning CCD device 23 watched by the observer is corrected based on the pupil movement recognized from the eye movement of the observer.

【0025】例えば、観察者の眼球表面から注視点pに
至る離隔距離Shが焦点距離Sc+Soffよりも多い場
合には、制御手段5によってその焦点距離Scを長くす
るように流し撮りCCD装置23の絞りやレンズなどの
光学系が調整される。反対に、その注視点pに至る離隔
距離Shが焦点距離Sc+Soffよりも少ない場合に
は、制御手段5によって、その焦点距離Scを短くする
ように流し撮りCCD装置23の光学系が調整される。
これにより、観察者が注視した発光ダイオードLED3
と流し撮りCCD装置23の光学系との間の焦点距離S
c+Soffを自動補正することができる。
For example, if the separation distance Sh from the surface of the eyeball of the observer to the gazing point p is greater than the focal length Sc + Soff, the control means 5 controls the panning of the panning CCD device 23 to increase the focal length Sc. The optical system such as the lens and the lens is adjusted. Conversely, when the separation distance Sh to the point of gaze p is smaller than the focal length Sc + Soff, the control unit 5 adjusts the optical system of the panning CCD device 23 so as to shorten the focal length Sc.
Thereby, the light-emitting diode LED3
Distance S between the camera and the optical system of the panning CCD device 23
c + Soff can be automatically corrected.

【0026】その後、ステップA5でその焦点距離を自
動補正された流し撮りCCD装置23によって撮像され
る点滅パターンの輝度信号を画像処理して発光ダイオー
ドLED1〜4の4点の発光位置を求める。そして、ス
テップA6で4点の発光ダイオードLED1〜4の位置
を結んで基準面が求められる。
Thereafter, in step A5, the luminance signal of the blinking pattern imaged by the panning CCD device 23 whose focal length has been automatically corrected is subjected to image processing to determine four light emitting positions of the light emitting diodes LED1 to LED4. Then, in step A6, a reference plane is obtained by connecting the positions of the four light emitting diodes LED1 to LED4.

【0027】このように、本実施の形態としての面認識
装置100によれば、注視点検出カメラ4から得られた
カメラ出力信号S3に基づいて流し撮りCCD装置23
の焦点距離Sc+Soffが制御手段5によって補正され
るので、観測者の眼球運動から認識された瞳孔の動きに
基づいた最適な位置に、その観察者が注視した発光ダイ
オードLED3と流し撮りCCD装置23との焦点距離
Sc+Soffを合わせ込むことができる。
As described above, according to the surface recognition apparatus 100 of the present embodiment, the follow-up CCD device 23 based on the camera output signal S3 obtained from the gazing point detection camera 4.
Is corrected by the control means 5, so that the light-emitting diode LED3 and the panning CCD device 23 that the observer gazes at the optimal position based on the movement of the pupil recognized from the eye movement of the observer. Can be adjusted to the focal length Sc + Soff.

【0028】従って、観測者が注視した特定の発光ダイ
オードLED3に対して流し撮りCCD装置23の焦点
が最適に合わせ込まれるので、ベストフォーカスで発光
ダイオードLED1〜4を所定の撮像方向に流すように
撮像することができると共に、その点滅パターンの輝度
信号SOUTを最適に画像処理することができる。これに
より、基準面を精度良く認識することができるので、こ
の面認識装置100を仮想画像立体合成装置の面認識手
段などに十分に応用することができる。
Therefore, the panning CCD device 23 is optimally focused on the specific light emitting diode LED3 watched by the observer, so that the light emitting diodes LED1 to LED4 are caused to flow in a predetermined imaging direction with the best focus. It is possible to take an image and optimally process the luminance signal SOUT of the blinking pattern. Thus, since the reference plane can be recognized with high accuracy, the plane recognition apparatus 100 can be sufficiently applied to a plane recognition unit of a virtual image stereoscopic synthesis apparatus.

【0029】なお、発光ダイオードLEDを取り付けた
物体1内にジャイロスコープを設け、その物体1の姿勢
に基づく三次元の位置情報を制御手段5に出力するよう
にしてもよい。このジャイロスコープによる位置情報
と、注視点検出カメラ4によるカメラ出力信号S3とに
基づいてより一層高精度に観測者が注視した特定の発光
ダイオードLEDiと流し撮りCCD装置23との焦点
距離Sc+Soffを合わせ込むことができる。
A gyroscope may be provided in the object 1 on which the light emitting diode LED is mounted, and three-dimensional position information based on the posture of the object 1 may be output to the control means 5. Based on the position information by the gyroscope and the camera output signal S3 from the gazing point detection camera 4, the focal length Sc + Soff between the specific light emitting diode LEDi watched by the observer and the panning CCD device 23 with higher precision is adjusted. Can be included.

【0030】(2)第1の実施形態としての仮想画像立
体合成装置 図3は本発明に係る第1の実施形態としての仮想画像立
体合成装置200の構成例を示す斜視図である。この実
施形態では、観察者の属する実空間上で任意の基準面を
認識する面認識手段を設け、そこで認識された基準面の
属する仮想空間上で仮想体の画像を合成するようにし
て、その実空間上の基準面の属する位置に、あたかも、
キャラクタ画像などを飛び出させ、観察者の手のひらで
遊ばせる、いわゆるバーチャルキャラクタ育成ゲーム装
置などを安価かつコンパクトに構成できるようにしたも
のである。
(2) Three-dimensional virtual image synthesizing apparatus as first embodiment FIG. 3 is a perspective view showing a configuration example of a three-dimensional virtual image synthesizing apparatus 200 according to the first embodiment of the present invention. In this embodiment, a plane recognizing means for recognizing an arbitrary reference plane in the real space to which the observer belongs is provided, and an image of the virtual body is synthesized in the virtual space to which the recognized reference plane belongs. At the position where the reference plane belongs in space, as if
A so-called virtual character breeding game device that allows a character image or the like to jump out and play with the palm of an observer can be configured inexpensively and compactly.

【0031】図3に示す仮想画像立体合成装置200は
観察者の属する外界像に、TV番組のキャラクタなどの
仮想体画像を立体的に合成表示する装置である。この仮
想画像立体合成装置200は任意の物体としての基準面
設定用のブレスレット1、特殊グラストロン2及び画像
処理装置3を有している。このブレスレット1は例えば
観察者の左手に装着して使用される。この特殊グラスト
ロン2の本体部21にはベルト22が設けられ、眼鏡を
かけるように本体部21が観察者の顔面に装着されると
共に、その観察者の頭部外周部に沿ってベルト22が固
定される。
A three-dimensional virtual image synthesizing apparatus 200 shown in FIG. 3 is an apparatus for stereoscopically displaying a virtual body image such as a TV program character on an external image to which an observer belongs. The virtual image three-dimensional synthesis device 200 includes a bracelet 1 for setting a reference plane as an arbitrary object, a special glasstron 2, and an image processing device 3. The bracelet 1 is used, for example, mounted on the left hand of the observer. The main body 21 of the special glasstron 2 is provided with a belt 22. The main body 21 is attached to the face of the observer as if wearing glasses, and the belt 22 extends along the outer periphery of the observer's head. Fixed.

【0032】また、特殊グラストロン2には少なくとも
流し撮りCCD装置23及び表示手段24が設けられて
いる。特殊グラストロン2の機種によっては通常のCC
D撮像装置25が設けられる。この基準面設定用のブレ
スレット1、流し撮りCCD装置23及び画像処理装置
3によって面認識手段が構成され、観察者の属する実空
間上で任意の基準面を認識できるようになされている。
もちろん、この面認識手段には上述した自動補正機能付
きの面認識装置100を応用する。
The special glasstron 2 is provided with at least a panning CCD device 23 and display means 24. Normal CC depending on the model of Special Glasstron 2
A D imaging device 25 is provided. The bracelet 1 for setting the reference plane, the panning CCD device 23, and the image processing apparatus 3 constitute a plane recognition unit, and can recognize an arbitrary reference plane in the real space to which the observer belongs.
Of course, the surface recognition device 100 with the automatic correction function described above is applied to this surface recognition means.

【0033】この例で流し撮りCCD装置23として垂
直転送部を有するインターライン転送方式の二次元撮像
デバイスを使用した場合には、同一フィールド期間中に
複数回、光電変換素子から垂直転送部に信号電荷が読み
出される。また、流し撮りCCD装置23として電荷蓄
積部を有するフレーム転送方式の二次元撮像デバイスを
使用した場合には、同一フィールド期間中に複数回、光
電変換素子から電荷蓄積部に信号電荷が読み出される。
When an interline transfer type two-dimensional imaging device having a vertical transfer unit is used as the panning CCD device 23 in this example, a signal is sent from the photoelectric conversion element to the vertical transfer unit a plurality of times during the same field period. The charge is read. When a two-dimensional frame transfer type imaging device having a charge storage unit is used as the panning CCD device 23, signal charges are read from the photoelectric conversion element to the charge storage unit a plurality of times during the same field period.

【0034】更に、特殊グラストロン2には画像処理装
置3が接続され、流し撮りCCD装置23から出力され
た画像データに基づいて基準面などを認識する画像処理
がなされる。この画像処理装置3には表示手段24が接
続され、面認識手段により認識された基準面が表示され
る。この特殊グラストロン2内には偏光ビームスプリッ
タなどの光学手段が設けられる場合があり、表示手段2
4によって表示された仮想空間の基準面上で仮想体の画
像が合成される。この例では、実空間上の基準面の属す
る位置に、あたかも、仮想体として例えば3Dポリゴン
(雪だるま)10が存在するようになされている。
Further, an image processing device 3 is connected to the special glasstron 2, and image processing for recognizing a reference plane or the like is performed based on image data output from the panning CCD device 23. The display unit 24 is connected to the image processing apparatus 3 and displays the reference plane recognized by the plane recognition unit. The special glasstron 2 may be provided with optical means such as a polarizing beam splitter.
The image of the virtual body is synthesized on the reference plane of the virtual space displayed by 4. In this example, for example, a 3D polygon (snowman) 10 exists as a virtual body at the position to which the reference plane belongs in the real space.

【0035】この例で、基準面設定用のブレスレット1
は図4に示すプレート部11と、腕輪部12とを有して
いる。プレート部11は基準面を成すものであり、凹凸
の無い平坦状に形成される。プレート部11の大きさは
例えば腕時計程度であり、その一辺の長さは3cm程度
であり、大きくても、せいぜい5cm程度である。プレ
ート部11の表面四隅には、3点以上の光源としてそれ
ぞれ発光ダイオード(LED1〜4)が取付けられ、3
Dポリゴン10を飛び出せようとする基準面の4つの点
p1〜p4の座標として(x1,y1)、(x2,y
2)、(x3,y3)、(x4,y4)が与えられる
(仮想空間上では画像を合成しようとする基準面に相当
する)。
In this example, the reference surface setting bracelet 1
Has a plate portion 11 and a bracelet portion 12 shown in FIG. The plate portion 11 forms a reference surface, and is formed in a flat shape without irregularities. The size of the plate portion 11 is, for example, about the size of a wristwatch, and the length of one side thereof is about 3 cm, and at most about 5 cm. Light emitting diodes (LED1 to LED4) are attached to four corners of the surface of the plate portion 11 as three or more light sources, respectively.
(X1, y1), (x2, y) as coordinates of four points p1 to p4 on the reference plane from which the D polygon 10 is to pop out.
2), (x3, y3) and (x4, y4) are given (corresponding to a reference plane on which an image is to be synthesized in the virtual space).

【0036】この例では、4つの発光ダイオードLED
1〜4は長方形の各頂点に位置し、発光ダイオードLE
D1とLED3の間(x方向)の距離Lxが(x3−x
1)であり、発光ダイオードLED2とLED4の間の
距離もLxで、その距離Lxが(x4−x2)である。
また、発光ダイオードLED1とLED2の間(y方
向)の距離Lyが(y2−y1)であり、発光ダイオー
ドLED2とLED4の間の距離もLyで、その距離L
xが(y4−y3)である。これらの位置情報及び距離
情報は面認識の際に使用するために、予め画像処理系の
RAMなどに登録されている。
In this example, four light emitting diodes LED
1-4 are located at each vertex of the rectangle, and the light emitting diodes LE
The distance Lx between D1 and LED3 (x direction) is (x3-x
1), the distance between the light emitting diodes LED2 and LED4 is also Lx, and the distance Lx is (x4-x2).
The distance Ly between the light emitting diodes LED1 and LED2 (in the y direction) is (y2-y1), and the distance between the light emitting diodes LED2 and LED4 is also Ly.
x is (y4-y3). These position information and distance information are registered in advance in a RAM or the like of an image processing system in order to be used for surface recognition.

【0037】この4個の発光ダイオードLED1〜4
は、そのマーク部としての機能を発揮するために、つま
り、その取付け位置が明らかになるように、少なくと
も、点滅パターンが異なるように点滅される。この点滅
制御方法については、図13で説明する。また、発光ダ
イオードLED1〜4の発光は特殊グラストロン2内の
流し撮りCCD装置23により、所定の流し撮像方向に
流すように撮像される。この流し撮りは4個の発光ダイ
オードLED1〜4の取付け位置から基準面を特定する
ためである。この基準面の特定については図15〜図1
7で説明をする。
The four light emitting diodes LED1 to LED4
Is blinked so as to exhibit its function as a mark portion, that is, at least in a different blinking pattern so that its mounting position is clear. This blinking control method will be described with reference to FIG. The light emitted from the light emitting diodes LED1 to LED4 is imaged by the panning CCD device 23 in the special glasstron 2 so as to flow in a predetermined panning imaging direction. This panning is for specifying the reference plane from the mounting positions of the four light emitting diodes LED1 to LED4. The specification of the reference plane is shown in FIGS.
This will be described with reference to FIG.

【0038】この腕輪部12は観察者の手首にフィット
させるように伸縮自在である構造が好ましい。例えば、
バンド部材にマジックテープを設けて装着状態を加減で
きるようにしたものなどである。プレート部11は流し
撮りCCD装置23の撮影範囲内に入るように左手の甲
側に装着するとよい。
The bracelet 12 preferably has a structure that is extendable and contractable so as to fit the wrist of the observer. For example,
For example, a Velcro is provided on the band member so that the mounted state can be adjusted. The plate portion 11 is preferably mounted on the back side of the left hand so as to be within the shooting range of the panning CCD device 23.

【0039】図5に示す特殊グラストロン2は非透過型
のヘッドマウントディスプレイを構成しており、通常の
CCD撮像装置25と、上述した流し撮りCCD装置2
3と、第1の画像表示素子としての右眼表示用の液晶表
示装置(以下LCDという)26と、第2の画像表示素
子としての左眼表示用のLCD27と、図示しない注視
点検出用のカメラ4としてのフィルム状の電荷結合素子
(以下フィルムCCDという)4R、4Lとを有してい
る。
The special glasstron 2 shown in FIG. 5 constitutes a non-transmissive head-mounted display, and includes a normal CCD image pickup device 25 and the above-mentioned panning CCD device 2.
3, a liquid crystal display device (hereinafter referred to as LCD) 26 for right-eye display as a first image display element, an LCD 27 for left-eye display as a second image display element, and a not-shown gaze point detection It has film-shaped charge-coupled devices (hereinafter referred to as film CCDs) 4R and 4L as the camera 4.

【0040】つまり、観察者の眉間に相当する位置に
は、通常のCCD撮像装置25と、流し撮りCCD装置
23とが並べて配置され、前者によって観察者の属する
外界像が撮像され、後者によってブレスレット1の4個
の発光ダイオードLED1〜4が流し撮りされる。従っ
て、観察者が基準面設定用のブレスレット1に目を向け
ると、その基準面の方向に流し撮りCCD装置23が向
くようになる。
That is, a normal CCD image pickup device 25 and a panning CCD device 23 are arranged side by side at a position corresponding to the eyebrows of the observer, and the former captures an external image to which the observer belongs, and the latter captures a bracelet. One of the four light emitting diodes LED1 to LED4 is panned. Therefore, when the observer looks at the bracelet 1 for setting the reference plane, the panning CCD device 23 is directed toward the reference plane.

【0041】この例では、流し撮りCCD装置23に自
動ズーム機構が設けられ、任意の発光ダイオードLED
iを注視すると、画像処理装置3によって自動的にその
発光ダイオードLEDiにズームさせることができる。
この自動ズーム機構に関しては、例えば、技術文献であ
る特開平8−179193号公報の電子機器及びカメラ
の技術を応用することができる。
In this example, the panning CCD device 23 is provided with an automatic zoom mechanism, and an arbitrary light emitting diode LED
When the user gazes at i, the image processing apparatus 3 can automatically zoom the light emitting diode LEDi.
For this automatic zoom mechanism, for example, the technology of electronic equipment and camera disclosed in Japanese Patent Application Laid-Open No. HEI 8-179193 can be applied.

【0042】そして、特殊グラストロン2内の観察者の
右目に相対する位置にはLCD26が取付けられ、例え
ば、通常のCCD撮像装置25により撮影した観察者の
ブレスレット1と、予め準備されたコンピユータ・グラ
フィックス(CG)などによる3Dポリゴン10の画像
とを合成したステレオ画像の一方が表示される。また、
その観察者の左目に相対する位置にはLCD27が取付
けられ、上述のブレスレット1と、3Dポリゴン10の
画像と合成したステレオ画像の他方が表示される。
An LCD 26 is mounted in the special glasstron 2 at a position facing the right eye of the observer. For example, an observer's bracelet 1 photographed by a normal CCD image pickup device 25 and a computer One of the stereo images synthesized with the image of the 3D polygon 10 by graphics (CG) or the like is displayed. Also,
An LCD 27 is attached to a position facing the left eye of the observer, and the other of the bracelet 1 and the stereo image synthesized with the image of the 3D polygon 10 is displayed.

【0043】この例では、右眼表示用のLCD26と、
左眼表示用のLCD27の表示面内に、注視点検出用の
カメラ4として、図6に示すフィルムCCD4R
(右)、4L(左)が配置され、基準面を注視する観測
者の眼球運動を撮像してその観測者の注視点pが検出さ
れる。この例では、フィルムCCD4R、4Lは、観察
者の眼球に相対するLCD26及びLCD27上に分散
して配置されている。
In this example, an LCD 26 for displaying the right eye,
As a camera 4 for detecting the point of gaze, a film CCD 4R shown in FIG.
(Right), 4L (Left) are arranged, and an eye movement of an observer who gazes at the reference plane is imaged to detect a gaze point p of the observer. In this example, the film CCDs 4R and 4L are dispersedly arranged on the LCD 26 and the LCD 27 facing the eyeball of the observer.

【0044】このフィルムCCD4R、4Lでは、図7
Aに示す例えば、4×6画素のマトリクスの全体画素に
対して歯抜け状(斜線部分)に撮像素子4Aが配置され
ている。従って、白抜き部分には撮像素子4Aが配置さ
れておらず、LCD26及びLCD27による映像を通
すようになされる。注視点検出カメラ4R、4Lは、フ
ィルム上に部分的にシリコン膜を形成して光電変換素子
などのCCDを歯抜け状に作成し、このフィルムCCD
4R、4LをLCD26及びLCD27の前方に張り合
わせるなどして形成される。
In the film CCDs 4R and 4L, FIG.
For example, the image sensor 4A is arranged in a toothless manner (hatched portion) with respect to all the pixels of the matrix of 4 × 6 pixels shown in FIG. Therefore, the image pickup device 4A is not arranged in the white portion, and the images from the LCD 26 and the LCD 27 are passed. The gazing point detection cameras 4R and 4L partially form a silicon film on the film to form a CCD such as a photoelectric conversion element in a toothless shape.
4R and 4L are formed by attaching them in front of the LCD 26 and the LCD 27, for example.

【0045】なお、フィルムCCD4R、4Lは、サフ
ァイヤを基礎材料にして、シリコン膜を部分的に形成す
ることができるので、LCD26及びLCD27と歯抜
け状のフィルムCCD4R、4Lとを1チップ化するこ
ともできる。ただし、チップの透明性(光透過率)は薄
いサングラス程度となる。
Since the film CCDs 4R and 4L can be partially formed of a silicon film using sapphire as a base material, the LCDs 26 and 27 and the film CCDs 4R and 4L having a toothless shape are integrated into one chip. Can also. However, the transparency (light transmittance) of the chip is on the order of thin sunglasses.

【0046】このフィルムCCD4Rでは、図7Bに示
す観測者の左眼の瞳の動きや、その瞳孔の絞り状態が撮
像され、フィルムCCD4Lでは、同図に示す観測者の
右眼の瞳の動きや、その瞳孔の絞り状態が撮像される。
多少撮像性能は落ちるが、観測者の眼球運動を撮像する
分には支障はない。従って、フィルムCCD4R、4L
から得られたカメラ出力信号S3に基づいてピントが常
に一定になるように流し撮りCCD装置23の自動ズー
ム機構を制御することができる。
The film CCD 4R captures the pupil movement of the observer's left eye and the aperture state of the pupil shown in FIG. 7B, and the film CCD 4L captures the movement of the pupil of the observer's right eye shown in FIG. , The aperture state of the pupil is imaged.
Although the imaging performance is somewhat lowered, there is no problem in capturing the eye movement of the observer. Therefore, film CCD 4R, 4L
The automatic zoom mechanism of the panning CCD device 23 can be controlled based on the camera output signal S3 obtained from the camera so that the focus is always constant.

【0047】この特殊グラストロン2は図8に示す観察
者の顔面又は頭部に装着され、上述のLCD26のステ
レオ画像と、LCD27のステレオ画像とが観察者の眼
球に導くようになされている。図8において、特殊グラ
ストロン2を装着した観察者の両目の光軸が重なったと
ころが、注視点pである。この注視点pを基準にして、
観察者の属する背景像のステレオ画像と3Dポリゴン1
0のステレオ画像とが頭の中で合成される。ここで、観
察者の眼球表面から注視点pに至る離隔距離をShと
し、流し撮りCCD装置23のレンズ表面から注視点p
に至る焦点距離をScとし、観察者の眼球表面と流し撮
りCCD装置23のレンズ表面との間のオフセット距離
をSoffとする。
The special glasstron 2 is mounted on the face or head of the observer shown in FIG. 8, and the stereo image of the LCD 26 and the stereo image of the LCD 27 are guided to the observer's eyeball. In FIG. 8, the point where the optical axes of both eyes of the observer wearing the special glasstron 2 overlap is the gazing point p. Based on this point of gaze p,
Stereo image of background image to which observer belongs and 3D polygon 1
A stereo image of 0 is synthesized in the head. Here, the separation distance from the surface of the observer's eyeball to the gazing point p is defined as Sh, and the gazing point p is determined from the lens surface of the panning CCD device 23.
Is defined as Sc, and the offset distance between the surface of the eyeball of the observer and the lens surface of the panning CCD device 23 is defined as Soff.

【0048】この観察者の眼球映像は、上述したように
左右のLCD26、27の前面にフィルムCCD4R、
4Lを設ける場合に限られることはなく、左眼表示用の
LCD27から背景映像を出力し、右眼表示用のLCD
26上にフィルムCCD4R目を設け、そのCCD4R
によって眼球映像を取得してもよい。この逆の方法でも
よい。この例では、観察者の眼球運動から黒目と瞳孔の
位置関係及び瞳孔の形状を認識し、その認識情報から注
視点pの方向と離隔距離Shとを求め、その離隔距離S
hに基づいて特殊グラストロン2と発光ダイオードLE
Diとの間の焦点距離Sc+Soffを補正するようにな
される。
As described above, the eyeball image of the observer is provided on the front surfaces of the left and right LCDs 26 and 27 on the film CCD 4R,
The present invention is not limited to the case where 4L is provided, and outputs a background image from the left-eye display LCD 27 and outputs a right-eye display LCD.
26, a film CCD 4R eye is provided on
An eyeball image may be obtained by using The reverse method may be used. In this example, the positional relationship between the iris and the pupil and the shape of the pupil are recognized from the eye movements of the observer, the direction of the point of gaze p and the separation distance Sh are determined from the recognition information, and the separation distance S is determined.
h based on special glasstron 2 and light emitting diode LE
The focal length Sc + Soff with respect to Di is corrected.

【0049】図9に示す特殊グラストロン20は透過型
のヘッドマウントディスプレイを構成しており、通常の
CCD撮像装置25は搭載されていない。従って、透過
型のヘッドマウントディスプレイは、流し撮りCCD装
置23と、外界像取り込み用の液晶シャッタ28と、画
像表示素子としてのLCD29と、図示しないが上述の
フィルムCCD4R、4Lとを有している。
The special glasstron 20 shown in FIG. 9 constitutes a transmissive head-mounted display, and does not include a normal CCD image pickup device 25. Accordingly, the transmissive head-mounted display includes a panning CCD device 23, a liquid crystal shutter 28 for capturing an external image, an LCD 29 as an image display element, and the above-described film CCDs 4R and 4L (not shown). .

【0050】例えば、観察者の眉間に相当する位置に
は、流し撮りCCD装置23が配置され、観察者が基準
面設定用のブレスレット1に目を向けると、ブレスレッ
ト1の4個の発光ダイオードLED1〜4が流し撮りさ
れる。そして、観察者の左目及び右目に相当する位置に
は液晶シャッタ28が設けられ、例えば、液晶シャッタ
28が開かれると、その液晶シャッタ28を通過した観
察者のブレスレット1の実像が直接眼球に導かれる。こ
の例では、上述したフィルムCCD4R、4Lは観察者
の眼球に相対する位置であって液晶シャッタ28面上に
分散して配置されている。
For example, a panning CCD device 23 is arranged at a position corresponding to the observer's eyebrow. When the observer turns his / her eyes to the reference surface setting bracelet 1, the four light emitting diodes LED1 of the bracelet 1 are placed. 4 are panned. Liquid crystal shutters 28 are provided at positions corresponding to the left and right eyes of the observer. For example, when the liquid crystal shutter 28 is opened, the real image of the bracelet 1 of the observer passing through the liquid crystal shutter 28 is directly guided to the eyeball. I will In this example, the above-mentioned film CCDs 4R and 4L are located at positions facing the eyeball of the observer and dispersed on the surface of the liquid crystal shutter 28.

【0051】また、特殊グラストロン2内の観察者の左
目及び右目の脇に位置する部分には、LCD29が取付
けられ、上述の特殊グラストロン2と同様にしてキャラ
クタ画像が表示される。図示しないが、液晶シャッタ2
8と、LCD29との間には偏光ビームスプリッタなど
の光学手段が設けられ、観察者のブレスレット1の実像
と、3Dポリゴン10の画像とが観察者の眼球に導くよ
うになされている。これにより、観察者の属する背景像
と3Dポリゴン10とが頭の中で合成される。
An LCD 29 is attached to a portion of the special glasstron 2 located beside the left and right eyes of the observer, and a character image is displayed in the same manner as the special glasstron 2 described above. Although not shown, the liquid crystal shutter 2
Optical means such as a polarization beam splitter is provided between the LCD 8 and the LCD 29 so that the real image of the bracelet 1 of the observer and the image of the 3D polygon 10 are guided to the eyeball of the observer. Thus, the background image to which the observer belongs and the 3D polygon 10 are combined in the head.

【0052】続いて、インターライン転送方式の流し撮
りCCD装置23の内部構成について説明する。図10
に示す流し撮りCCD装置23は基板31を有してい
る。その基板31上には、1画素を構成する光電変換素
子としてフォトダイオードPHij(i=1〜n、j=
1〜m)がn列×m行のマトリクス状に配置されてい
る。
Next, the internal structure of the follow-up CCD device 23 of the interline transfer system will be described. FIG.
The panning CCD device 23 shown in FIG. On the substrate 31, photodiodes PHij (i = 1 to n, j =
1 to m) are arranged in a matrix of n columns × m rows.

【0053】この基板の列方向には電荷転送部としてm
本の垂直転送部32が設けられ、フォトダイオードPH
ijから読み出した信号電荷が垂直読み出し信号S1に
基づいて垂直方向(流し撮り方向)に転送される。この
垂直転送部32には水平転送部33が接続され、その信
号電荷が水平読み出し信号S2に基づいて水平方向に転
送されるので、出力端子34に流し撮り信号SOUTが出
力される。この例では、流し撮りをするために、少なく
とも、同一フィールド期間中に複数回、フォトダイオー
ドPHijから垂直転送部32に信号電荷が読み出され
る。
In the column direction of this substrate, m
Vertical transfer units 32 are provided, and the photodiodes PH
The signal charge read from ij is transferred in the vertical direction (follow-up direction) based on the vertical read signal S1. A horizontal transfer unit 33 is connected to the vertical transfer unit 32, and the signal charges are transferred in the horizontal direction based on the horizontal readout signal S2, so that a follow shot signal SOUT is output to the output terminal. In this example, the signal charge is read out from the photodiode PHij to the vertical transfer unit 32 at least a plurality of times during the same field period in order to perform a panning shot.

【0054】また、流し撮りCCD装置23は図11に
示す魚眼レンズ35を有している。魚眼レンズ35は例
えばCCD撮像素子36の光軸上に設けられる。この魚
眼レンズ35によって観察者の基準面設定用のブレスレ
ット1などを広範囲に撮像できるようになされている。
もちろん、通常のレンズでも構わないが、視野が狭くな
るので、観察者はブレスレット1に向けてより多く頭部
を傾けなければならない。
The panning CCD device 23 has a fisheye lens 35 shown in FIG. The fisheye lens 35 is provided on the optical axis of the CCD image sensor 36, for example. The fisheye lens 35 allows a wide range of images such as the bracelet 1 for setting the reference plane of the observer.
Of course, a normal lens may be used, but since the field of view is narrowed, the observer must tilt his head more toward the bracelet 1.

【0055】この例では、魚眼レンズ35の中央に一番
近い部分で発光ダイオードLEDiの点滅パターンが確
認されると、流し撮りCCD装置23の自動ズーム機構
によりそのピントが常に一定になるように焦点が合わせ
込まれる。従って、発光ダイオードLEDの点滅パター
ンの取得精度を向上させることができる。このピントが
合った状態で、4個の発光ダイオードLED1〜4の発
光位置が求められ、その位置を結んで基準面が認識され
る。その際に、観察者の注視する発光ダイオードLED
iと流し撮りCCD装置23との焦点距離Scが近すぎ
て、その発光ダイオードLEDによる輝度情報が取得で
きない場合には、ピントを通常に戻して広域の他の発光
ダイオードLEDiの点滅パターンを認識するようにす
る。
In this example, when the blinking pattern of the light emitting diode LEDi is confirmed at the portion closest to the center of the fisheye lens 35, the focus is controlled by the automatic zoom mechanism of the panning CCD device 23 so that the focus is always constant. Fit together. Therefore, it is possible to improve the accuracy of obtaining the blinking pattern of the light emitting diode LED. In this focused state, the light emitting positions of the four light emitting diodes LED1 to LED4 are obtained, and the reference plane is recognized by connecting the positions. At that time, the light-emitting diode LED
If the focal length Sc between i and the panning CCD device 23 is too short to obtain the luminance information of the light emitting diode LED, the focus is returned to normal and the blinking pattern of another light emitting diode LEDi in a wide area is recognized. To do.

【0056】続いて、仮想画像立体合成装置200の回
路構成について説明する。図12に示す仮想画像立体合
成装置200は大きく分けて3つの回路ブロックから成
る。第1の回路ブロックは基準面設定用のブレスレット
1であり、このブレスレット1には点滅制御回路13が
設けられ、4個の発光ダイオードLED1〜4に所定の
電圧が印加されて点滅制御される。点滅制御回路13で
は点滅パターンが異なるように発光ダイオードLED
1、LED2、LED3及びLED4が点滅間隔が制御
される。
Next, the circuit configuration of the virtual image three-dimensional composition device 200 will be described. The virtual image three-dimensional composition device 200 shown in FIG. 12 is roughly composed of three circuit blocks. The first circuit block is a bracelet 1 for setting a reference plane. The bracelet 1 is provided with a blinking control circuit 13, which controls blinking by applying a predetermined voltage to the four light emitting diodes LED1 to LED4. In the blinking control circuit 13, the light emitting diode LED
1, the blinking interval of LED2, LED3 and LED4 is controlled.

【0057】この例では、図13に示す点滅制御回路1
3が厚さ数百〜数千μm程度にICチップ化され、この
ICチップがプレート部11内に組込まれ、4個の発光
ダイオードLED1〜4に所定の電圧が印加されて点滅
制御される。この点滅制御回路13は例えばクロック発
生部61を有している。クロック発生部61には例え
ば、1/2分周回路62、1/3分周回路63、1/4
分周回路64が接続されており、所定周波数のクロック
信号CLK1と、このクロック信号CLK1を1/2分
周回路62で1/2分周したクロック信号CLK2と、
1/3分周回路63で1/3分周したクロック信号CL
K3と、1/4分周回路64で1/4分周したクロック
信号CLK4とが出力される。
In this example, the blink control circuit 1 shown in FIG.
The IC chip 3 is formed into an IC chip having a thickness of about several hundreds to several thousand μm. The IC chip is incorporated in the plate portion 11, and a predetermined voltage is applied to the four light emitting diodes LED1 to LED4 so that the light emitting diodes are controlled to blink. This blinking control circuit 13 has, for example, a clock generator 61. The clock generator 61 includes, for example, a 1/2 frequency divider 62, a 1/3 frequency divider 63, and a 1/4 frequency divider.
A frequency dividing circuit 64 is connected, and a clock signal CLK1 of a predetermined frequency, a clock signal CLK2 obtained by dividing the frequency of the clock signal CLK1 by 1/2 by a 1/2 frequency dividing circuit 62,
Clock signal CL frequency-divided by で in 1 / frequency dividing circuit 63
K3 and a clock signal CLK4 whose frequency has been divided by a quarter by the quarter frequency dividing circuit 64 are output.

【0058】各々のクロック信号CLK1〜CLK4は
安定化用の抵抗Rを通して各々の発光ダイオードLED
1、LED2、LED3及びLED4に供給されてい
る。このクロック発生部61には電源スイッチSWを介
在して直流電源Eが接続され、この電源Eには小型の乾
電池やボタン電池などが使用される。
Each of the clock signals CLK1 to CLK4 is supplied to each of the light emitting diodes LED through a stabilizing resistor R.
1, LED2, LED3 and LED4. The clock generator 61 is connected to a DC power supply E via a power switch SW, and a small dry cell or button cell is used as the power supply E.

【0059】図14は発光ダイオードLED1、LED
2、LED3及びLED4への電圧供給例を示す波形図
である。この例では、図13に示した電源スイッチSW
をオンすると、発光ダイオードLED1にはクロック信
号CLK1が供給され、発光ダイオードLED2にはク
ロック信号CLK2が供給され、発光ダイオードLED
3にはクロック信号CLK3が供給され、発光ダイオー
ドLED4にはクロック信号CLK4が供給される。従
って、4つの発光ダイオードLED1、LED2、LE
D3及びLED4の点滅パターンを異なるように点滅制
御をすることができる。
FIG. 14 shows a light emitting diode LED1, LED
FIG. 2 is a waveform diagram showing an example of voltage supply to LED3 and LED4. In this example, the power switch SW shown in FIG.
Is turned on, the clock signal CLK1 is supplied to the light emitting diode LED1, the clock signal CLK2 is supplied to the light emitting diode LED2, and the light emitting diode LED1 is turned on.
3 is supplied with the clock signal CLK3, and the light emitting diode LED4 is supplied with the clock signal CLK4. Therefore, four light emitting diodes LED1, LED2, LE
Blinking control can be performed so that the blinking patterns of D3 and LED4 are different.

【0060】図12に戻って、この例では、ブレスレッ
ト1内にジャイロスコープ9が設けられ、そのブレスレ
ット1の姿勢に基づく三次元の位置情報(以下位置検出
信号S4という)を画像処理装置3に出力するようにな
されている。画像処理装置3では、この位置検出信号S
4から発光ダイオードLEDiと特殊グラストロン2と
の間の焦点距離Scが算出される。この焦点距離Sc
と、フィルムCCD4R、4Lによるカメラ出力信号S
3とに基づいて、観測者が注視した特定の発光ダイオー
ドLEDiに対して流し撮りCCD装置23のピントを
より高精度に合わせ込むことができる。
Returning to FIG. 12, in this example, a gyroscope 9 is provided in the bracelet 1, and three-dimensional position information (hereinafter, referred to as a position detection signal S4) based on the posture of the bracelet 1 is sent to the image processing device 3. The output has been made. In the image processing device 3, the position detection signal S
From 4, the focal length Sc between the light emitting diode LEDi and the special glasstron 2 is calculated. This focal length Sc
And the camera output signal S by the film CCDs 4R and 4L
Based on 3 above, the follow-up CCD device 23 can be more precisely focused on the specific light emitting diode LEDi watched by the observer.

【0061】第2の回路ブロックは特殊グラストロン2
であり、非透過型の場合には上述した流し撮りCCD装
置23、通常のCCD撮像装置25、右眼表示用のLC
D26、左眼表示用のLCD27及び左右のフィルムC
CD4R、4L(以下総称して注視点検出用のカメラ4
という)を有している。
The second circuit block is a special glasstron 2
In the case of the non-transmissive type, the panning CCD device 23 described above, the normal CCD image capturing device 25, and the LC for displaying the right eye are used.
D26, LCD 27 for left eye display and left and right films C
CD4R, 4L (hereinafter collectively referred to as a camera 4
).

【0062】第3の回路ブロックは画像処理装置3であ
り、内部バス41を有している。内部バス41にはイン
タフェース(I/O)42、画像キャプチャ部43、画
像処理部44、CPU45、ROM46、RAM47及
びE2PROM(電気的な書き込み及び消去が可能な読
み出し専用メモリ)48が接続されている。流し撮りC
CD装置23、通常のCCD撮像装置25、右眼表示用
のLCD26、左眼表示用のLCD27、注視点検出用
のカメラ4及びジャイロスコープ9はインタフェース4
2を介して内部バス41に接続される。
The third circuit block is the image processing device 3 and has an internal bus 41. An interface (I / O) 42, an image capture unit 43, an image processing unit 44, a CPU 45, a ROM 46, a RAM 47, and an E 2 PROM (electrically writable and erasable read-only memory) 48 are connected to the internal bus 41. ing. Panning C
The CD device 23, the normal CCD imaging device 25, the LCD 26 for displaying the right eye, the LCD 27 for displaying the left eye, the camera 4 for detecting the gazing point, and the gyroscope 9
2 and connected to the internal bus 41.

【0063】この内部バス41には記録媒体としてE2
PROM48が接続され、観察者の属する外界像に3D
ポリゴン10の画像を立体的に合成するアルゴリズムが
格納されている。例えば、E2PROM48には、観察
者の属する実空間上で任意に設定された基準面を撮像し
て仮想空間上にその基準面を表示すると共に、その仮想
空間上に3Dポリゴン10の画像を重ね合わせて合成す
るアルゴリズムが格納される。従って、このアルゴリズ
ムを実行することによって、簡易に、しかも、少ない計
算量で実空間上の基準面を認識することができる。これ
により、実空間上の基準面の属する位置に、あたかも、
3Dポリゴン10が存在するように画像処理することが
できるので、バーチャルキャラクタ育成ゲーム装置など
の仮想画像立体合成装置200を再現性良く構成するこ
とができる。
The internal bus 41 has E 2 as a recording medium.
The PROM 48 is connected, and the 3D
An algorithm for three-dimensionally synthesizing the image of the polygon 10 is stored. For example, the E 2 PROM 48 captures an arbitrarily set reference plane in the real space to which the observer belongs, displays the reference plane in the virtual space, and displays an image of the 3D polygon 10 in the virtual space. An algorithm for superimposing and synthesizing is stored. Therefore, by executing this algorithm, the reference plane in the real space can be easily recognized with a small amount of calculation. As a result, as if the reference plane in the real space belongs to,
Since image processing can be performed so that the 3D polygon 10 exists, a virtual image three-dimensional composition device 200 such as a virtual character breeding game device can be configured with high reproducibility.

【0064】更に、内部バス41にはROM46が接続
され、この仮想画像立体合成装置200を制御するため
のシステムプログラムや、メモリの読み出し手順などの
制御情報などが格納される。内部バス41にはワーキン
グ用のRAM47が接続され、システムプログラムやキ
ャラクタ画像を表示する表示情報が一時記録される。
Further, a ROM 46 is connected to the internal bus 41, and stores a system program for controlling the virtual image stereoscopic synthesis apparatus 200, control information such as a memory readout procedure, and the like. A working RAM 47 is connected to the internal bus 41, and system information and display information for displaying a character image are temporarily recorded.

【0065】例えば、RAM47には、基準面設定用の
ブレスレット1の4つの発光ダイオードLED1〜4の
位置情報(x1,y1)、(x2,y2)、(x3,y
3)、(x4,y4)及び、4つの発光ダイオードLE
D1〜LED4間の距離情報Lx=(x3−x1)=
(x4−x2)や、距離情報Ly=(y2−y1)=
(y4−y3)が記憶されている。
For example, the RAM 47 stores position information (x1, y1), (x2, y2), (x3, y) of the four light emitting diodes LED1 to LED4 of the reference surface setting bracelet 1.
3), (x4, y4) and four light emitting diodes LE
Distance information Lx between D1 and LED4 = (x3-x1) =
(X4-x2) or distance information Ly = (y2-y1) =
(Y4-y3) are stored.

【0066】また、内部バス41には制御手段としてC
PU45が接続され、インタフェース42、画像キャプ
チャ部43、画像処理部44、ROM46、RAM47
及びE2PROM48の入出力の制御や、流し撮りCC
D装置23、CCD撮像装置25、LCD26、LCD
27、注視点検出用のカメラ4及びジャイロスコープ9
の入出力の制御が行われる。
The internal bus 41 has C
The PU 45 is connected, and the interface 42, the image capture unit 43, the image processing unit 44, the ROM 46, the RAM 47
And control of input and output of E 2 PROM 48 and panning CC
D device 23, CCD imaging device 25, LCD 26, LCD
27, camera 4 and gyroscope 9 for gaze point detection
Is controlled.

【0067】例えば、CPU45はカメラ出力信号S3
に基づいて流し撮りCCD装置23の焦点距離Scを調
整したり、観測者の眼球運動から認識された瞳孔の動き
に基づいてその観測者が注視した発光ダイオードLED
iと流し撮りCCD装置23との間の焦点距離Scを補
正するように動作する。他の例では、CPU45はカメ
ラ出力信号S3に基づいてLCD26、LCD27への
映像出力が制御される。例えば、観測者が注視した部分
の画像を所定の倍率で拡大してLCD26、LCD27
に表示するような表示制御が行われる。
For example, the CPU 45 outputs the camera output signal S3
The focal length Sc of the panning CCD device 23 is adjusted on the basis of the movement of the pupil recognized by the observer based on the eye movement of the observer.
It operates to correct the focal length Sc between i and the panning CCD device 23. In another example, the CPU 45 controls the video output to the LCD 26 and the LCD 27 based on the camera output signal S3. For example, the image of the part watched by the observer is enlarged at a predetermined magnification and the LCD 26, the LCD 27
Is displayed.

【0068】これに関連してインタフェース42には指
示手段として操作部8が設けられ、少なくとも、観測者
が注視した部分の画像を所定の大きさに戻して表示する
ような指示信号S5がインタフェース42を介してCP
U45に指示が与えるようになされている。
In this connection, the interface 42 is provided with an operation section 8 as an instruction means, and at least an instruction signal S5 for returning the image of the part watched by the observer to a predetermined size and displaying the image is displayed on the interface 42. Via CP
An instruction is given to U45.

【0069】このインタフェース42には画像処理部4
4が接続され、例えば、通常のCCD撮像装置25で撮
像された図15に示す基準面設定用の4つの発光ダイオ
ードLED1〜4の画像が、CPU45の制御命令と共
にインタフェース42を介して、画像処理部44に取り
込まれ、そこで所定の画像処理がなされ、再び、インタ
フェース42を介して特殊グラストロン2内のLCD2
6及びLCD27などに転送される。
The interface 42 has an image processing unit 4
For example, images of the four light-emitting diodes LED1 to LED4 for setting a reference plane shown in FIG. 15 taken by a normal CCD image pickup device 25 are processed together with a control instruction of the CPU 45 via the interface 42. The image is taken into the unit 44, where predetermined image processing is performed, and the LCD 2 in the special glasstron 2 is again transmitted via the interface 42.
6 and the LCD 27.

【0070】この例では、観察者が流し撮りCCD装置
23の撮像面に対してブレスレット1の基準面を垂直に
なるように傾けると、そのブレスレット1内のジャイロ
スコープ9の位置検出信号S4が画像処理装置3に取り
込まれる。画像処理装置3では、RAM47から読み出
された基準面設定用のブレスレット1の4つの発光ダイ
オードLED1〜4の位置情報及び距離情報Lx,Ly
を参照しながら、ジャイロスコープ9からの位置検出信
号S4に基づいて、流し撮りCCD装置23で撮像され
た実際の4つの発光ダイオードLED1〜4の位置情報
及び距離情報Lx,Lyが演算される。
In this example, when the observer tilts the reference surface of the bracelet 1 so as to be perpendicular to the imaging surface of the panning CCD device 23, the position detection signal S4 of the gyroscope 9 in the bracelet 1 becomes an image. It is taken into the processing device 3. In the image processing device 3, the position information and the distance information Lx, Ly of the four light emitting diodes LED1 to LED4 of the reference surface setting bracelet 1 read from the RAM 47.
Based on the position detection signal S4 from the gyroscope 9, the actual position information and distance information Lx and Ly of the four light emitting diodes LED1 to LED4 captured by the panning CCD device 23 are calculated with reference to FIG.

【0071】この実際の4つの発光ダイオードLED1
〜4の位置情報及び距離情報Lx,LyがRAM47に
よる発光ダイオードLED1〜4の位置情報及び距離情
報Lx,Lyにより一層近づくように、流し撮りCCD
装置23の焦点光学系が自動調節される。これにより、
図16に示す基準面設定用の4つの発光ダイオードLE
D1〜4の修正後の画像を画像処理部44に取り込むこ
とができる。修正後の画像は、4つの発光ダイオードL
ED1〜4の位置が、4つ輝点p1〜p4の位置座標
(x1,y1)、(x2,y2)、(x3,y3)、
(x4,y4)に近似し、しかも、4つの発光ダイオー
ドLED1〜LED4間の距離がLx=(x3−x1)
=(x4−x2)や、距離情報Ly=(y2−y1)=
(y4−y3に近似するようなイメージになされる。
The actual four light emitting diodes LED1
Panning CCD so that the position information and the distance information Lx and Ly of the light-emitting diodes LED1 to 4 by the RAM 47 are closer to the position information and the distance information Lx and Ly of the light-emitting diodes LED1 to LED4.
The focusing optics of the device 23 is automatically adjusted. This allows
Four light emitting diodes LE for setting a reference plane shown in FIG.
The corrected images of D1 to D4 can be taken into the image processing unit 44. The corrected image shows four light emitting diodes L
The positions of ED1 to ED4 are the position coordinates (x1, y1), (x2, y2), (x3, y3) of the four bright points p1 to p4,
(X4, y4), and the distance between the four light emitting diodes LED1 to LED4 is Lx = (x3−x1)
= (X4-x2) or distance information Ly = (y2-y1) =
(The image is made to approximate y4-y3.

【0072】また、図12に戻って、インタフェース4
2には画像キャプチャ部43が接続され、CPU45の
制御命令を受けて、流し撮りCCD装置23から入力し
た点滅パターンの画像データを獲得する所定のキャプチ
ャ処理がなされる。この点滅パターンの画像データは時
間経過に対応する輝度の変化として表現されている。画
像キャプチャ部43には演算手段としての画像処理部4
4が接続され、所定の画像処理が施された画像データに
関して、点滅パターンの同期ずれが補正されたり、観察
者の属する基準面が求められる。
Returning to FIG. 12, the interface 4
An image capture unit 43 is connected to 2, and receives a control command from the CPU 45 and performs a predetermined capture process of acquiring image data of a blinking pattern input from the panning CCD device 23. The image data of this blinking pattern is expressed as a change in luminance corresponding to the passage of time. The image capture unit 43 includes an image processing unit 4 as an arithmetic unit.
4 is connected, and for the image data on which the predetermined image processing has been performed, the synchronization deviation of the blinking pattern is corrected, or the reference plane to which the observer belongs is obtained.

【0073】例えば、画像処理部44では流し撮りCC
D装置23から出力された流し撮り信号(輝度信号)S
OUTの点滅パターンに関して、図17に示すウインドウ
Wにより画定された画像領域内で、4つの流し撮り輝点
p1〜p4を含むXY平面を成す空間的な配置パターン
に変換される。その後、その配置パターン上を走査し
て、少なくとも、4つの輝点p1〜p4の位置座標(X
1,Y1)、(X2,Y2)、(X3,Y3)、(X
4,Y4)が求められる。この4つの輝点p1〜p4は
観察者に装着されたブレスレット1の基準面設定用の4
つの発光ダイオードLED1〜4である。実空間上の4
つの発光ダイオードLED1〜4の位置座標は既知であ
り、その位置座標は(x1,y1)、(x2,y2)、
(x3,y3)、(x4,y4)である。
For example, in the image processing section 44, the panning CC
Panning signal (luminance signal) S output from D device 23
The blinking pattern of OUT is converted into a spatial arrangement pattern that forms an XY plane including four follow-up luminescent spots p1 to p4 in the image area defined by the window W shown in FIG. After that, the arrangement pattern is scanned, and at least the position coordinates (X
1, Y1), (X2, Y2), (X3, Y3), (X
4, Y4) are required. These four bright spots p1 to p4 are used for setting the reference surface of the bracelet 1 attached to the observer.
Three light emitting diodes LED1 to LED4. 4 in real space
The position coordinates of the two light emitting diodes LED1 to LED4 are known, and the position coordinates are (x1, y1), (x2, y2),
(X3, y3) and (x4, y4).

【0074】従って、上述の実空間上の基準面は4つの
発光ダイオードLED1〜4の取付け位置に射影する変
換行列を演算することにより得られる。ここで実空間の
平面上の点(xi,yi,0)をある並進・回転運動に
よって移動し、それを透視変換で画像座標系に射影した
点を(Xi,Yi)で示すと、両者の間には(1)式な
る関係がある。
Therefore, the above-mentioned reference plane in the real space can be obtained by calculating a conversion matrix projected onto the mounting positions of the four light emitting diodes LED1 to LED4. Here, the point (xi, yi, 0) on the plane of the real space is moved by a certain translation / rotational motion, and the point projected on the image coordinate system by the perspective transformation is represented by (Xi, Yi). There is a relationship represented by equation (1).

【0075】[0075]

【数1】 (Equation 1)

【0076】但し、a1・・・・a8は未知の係数でC
CD撮像装置25などの外部パラメータ(位置と方向)
及び焦点距離などの内部パラメータである。これらのパ
ラメータは実空間の既知の点の位置座標(x1,y
1)、(x2,y2)、(x3,y3)、(x4,y
4)と、それらに対応する4組の画像処理系の位置座標
(X1,Y1)、(Y2,Y2)、(X3,Y3)、
(X4,Y4)が存在すれば、(2)式の方程式を解く
ことにより得られる。
Where a1 ... a8 are unknown coefficients and C1
External parameters (position and direction) such as CD imaging device 25
And internal parameters such as focal length. These parameters are the position coordinates (x1, y) of a known point in the real space.
1), (x2, y2), (x3, y3), (x4, y
4) and four sets of position coordinates (X1, Y1), (Y2, Y2), (X3, Y3),
If (X4, Y4) exists, it can be obtained by solving the equation (2).

【0077】[0077]

【数2】 (Equation 2)

【0078】ここで得られた4点の位置座標(X1,Y
1)、(X2,Y2)、(X3,Y3)、(X4,Y
4)を結ぶことにより、図16に示した実空間上の基準
面が認識される。
The position coordinates (X1, Y
1), (X2, Y2), (X3, Y3), (X4, Y
By connecting 4), the reference plane in the real space shown in FIG. 16 is recognized.

【0079】具体的には、図17に示す配置パターン上
で流し撮像方向をY軸とし、そのY軸に直交する方向を
X軸としたときに、画像処理部44によって流し撮像方
向と同一方向又はその反対方向に輝度信号値が加算され
る。この加算値がX軸上にプロットされると、そのX軸
にプロットされた輝度信号値が最大となる4つの位置が
検出され、この4つの位置に対応するX座標値X1、X
2、X3、X4が求められる。また、その配置パターン
上で取得画像をY方向に走査したときに、そのY方向に
並んだ複数の輝点のうち、最初に発光した輝点位置が各
々X座標値に対応したY座標値Y1、Y2、Y3、Y4
として求められる。この4つの輝点間の距離情報はLx
=(X3−X1)=(X4−X2)及びLy=(Y2−
Y1)=(Y4−Y3)として求めることができる。
More specifically, when the moving image pickup direction is the Y axis on the arrangement pattern shown in FIG. 17 and the direction orthogonal to the Y axis is the X axis, the image processing unit 44 sets the same direction as the moving image pickup direction. Alternatively, the luminance signal values are added in the opposite direction. When this added value is plotted on the X axis, four positions where the luminance signal value plotted on the X axis is the maximum are detected, and X coordinate values X1, X corresponding to the four positions are detected.
2, X3 and X4 are determined. Further, when the acquired image is scanned in the Y direction on the arrangement pattern, among the plurality of luminescent points arranged in the Y direction, the luminescent spot position that first emits light has a Y coordinate value Y1 corresponding to the X coordinate value. , Y2, Y3, Y4
Is required. The distance information between these four bright points is Lx
= (X3-X1) = (X4-X2) and Ly = (Y2-
Y1) = (Y4-Y3).

【0080】ここで、実空間上の4つの発光ダイオード
LED1〜4の位置座標をwi(i=1〜4)とし、そ
の4つの発光ダイオードLED1〜4の位置座標wiの
カメラ座標系上での表現ベクトルをCiとし、その4つ
の発光ダイオードLED1〜4のLCD画面上での位置
座標をPiとし、流し撮りCCD装置23の回転マトリ
クスをR、その移動ベクトルをTとすると、(3)式、
すなわち、 Ci=R・wi+T ・・・(3) 但し、Ci=Pi・ki(kiはスカラー) という関係がある。従って、通常のCCD撮像装置25
の回転マトリクスRとその移動ベクトルTとを演算し、
これをパラメータとして実空間と仮想空間との間で座標
変換を容易に行うことができるので、仮想空間上の基準
面にキャラクタ画像を合成することができる。
Here, the position coordinates of the four light emitting diodes LED1 to LED4 in the real space are defined as wi (i = 1 to 4), and the position coordinates wi of the four light emitting diodes LED1 to LED4 on the camera coordinate system. Assuming that the expression vector is Ci, the position coordinates of the four light-emitting diodes LED1 to LED4 on the LCD screen are Pi, the rotation matrix of the panning CCD device 23 is R, and the movement vector is T, the following equation (3) is obtained.
That is, Ci = R · wi + T (3) where Ci = Pi · ki (ki is a scalar). Therefore, the normal CCD imaging device 25
Of the rotation matrix R and its movement vector T,
Using this as a parameter, coordinate conversion between the real space and the virtual space can be easily performed, so that a character image can be synthesized on a reference plane in the virtual space.

【0081】次に、本発明の仮想画像立体合成方法に関
して仮想画像立体合成装置200の動作を説明する。こ
の例では、仮想空間上で、観察者の属する外界像に3D
ポリゴン10の画像を立体的に合成する場合であって、
発光ダイオードLEDiの流し撮りと焦点距離の補正と
を並行処理する場合を想定して説明する。例えば、観察
者は図5に示した特殊グラストロン2を頭部に装着す
る。
Next, the operation of the virtual image three-dimensional image synthesizing apparatus 200 will be described with respect to the virtual image three-dimensional image synthesizing method of the present invention. In this example, in the virtual space, the 3D
In the case where the image of the polygon 10 is synthesized three-dimensionally,
The description will be made on the assumption that the panning of the light emitting diode LEDi and the correction of the focal length are performed in parallel. For example, the observer wears the special glasstron 2 shown in FIG. 5 on the head.

【0082】まず、図18に示すフローチャートのステ
ップB1で観察者の属する実空間上で任意の基準面を設
定するために、観察者は、例えば、プレート部11が上
に向くように、左腕に基準面設定用のブレスレット1を
装着する。その後、点滅制御部13をオンして4つの発
光ダイオードLED1〜4を所定の点滅パターンで点滅
する。
First, in step B1 of the flowchart shown in FIG. 18, in order to set an arbitrary reference plane in the real space to which the observer belongs, the observer places his or her left arm on the left arm, for example, so that the plate portion 11 faces upward. The reference surface setting bracelet 1 is mounted. Thereafter, the blinking control unit 13 is turned on to blink the four light emitting diodes LED1 to LED4 in a predetermined blinking pattern.

【0083】その後、特殊グラストロン2のオンし、一
方で、ステップB2で例えば発光ダイオードLED3を
注視する観測者の眼球運動が注視点検出カメラ4によっ
て撮像される。その後、ステップB3で観測者の眼球運
動から認識された瞳孔の動きに基づいてその観察者が注
視した発光ダイオードLED3と流し撮りCCD装置2
3との間の焦点距離Sc+Soffが補正される。
Thereafter, the special glasstron 2 is turned on, while the eye movement of the observer watching the light emitting diode LED 3 is imaged by the watching point detection camera 4 in step B 2. Thereafter, based on the pupil movement recognized from the eye movements of the observer in step B3, the observer gazes at the light emitting diode LED3 and the panning CCD device 2
3, the focal length Sc + Soff is corrected.

【0084】例えば、図19のサブルーチンのステップ
C1をコールして、観察者の注視点pが図7Aに示した
歯抜けのフィルムCCD4R、4Lなどの注視点検出用
のカメラ4で検出される。その後、ステップC2で観察
者の眼球表面から注視点pに至る離隔距離Shと、その
観察者が注視した発光ダイオードLEDiと流し撮りC
CD装置23との間の焦点距離Sc+SoffとがCPU
45よって比較される。ここで、注視点pに至る離隔距
離Shと流し撮りCCD装置23の焦点距離Sc+Sof
fとが一致している場合には、光学系の調整は不要なの
で、ステップC8に移行して、観察者の眼球運動の監視
を継続する。この注視点pに至る離隔距離Shと流し撮
りCCD装置23の焦点距離Sc+Soffとが不一致の
場合には、ステップC3に移行する。
For example, by calling the step C1 of the subroutine of FIG. 19, the gazing point p of the observer is detected by the gazing point detecting camera 4 such as the missing film CCD 4R or 4L shown in FIG. 7A. Thereafter, in step C2, the separation distance Sh from the surface of the eyeball of the observer to the gazing point p, the light emitting diode LEDi gazed by the observer, and the panning C
The focal length Sc + Soff with the CD device 23 is determined by the CPU.
45 are compared. Here, the separation distance Sh to the gazing point p and the focal length Sc + Sof of the panning CCD device 23.
If the value f coincides, the adjustment of the optical system is not necessary, and the process shifts to step C8 to continue monitoring the eye movement of the observer. If the distance Sh to the gazing point p does not match the focal length Sc + Soff of the panning CCD device 23, the process proceeds to step C3.

【0085】このステップC3では、注視点pに至る離
隔距離Shが流し撮りCCD装置23の焦点距離Sc+
Soffよりも多い(A)か、少ない(B)かが判定され
る。例えば、注視点pに至る離隔距離Shが流し撮りC
CD装置23の焦点距離Sc+Soffよりも多い場合に
は、ステップC4に移行してCPU45によってその焦
点距離Scを増加するように流し撮りCCD装置23の
絞りやレンズなどの光学系が調整される。
In this step C3, the separation distance Sh to the gazing point p is determined by the focal length Sc + of the panning CCD device 23.
It is determined whether it is larger (A) or smaller (B) than Soff. For example, the separation distance Sh to the gazing point p is a panning shot C
If it is longer than the focal length Sc + Soff of the CD device 23, the process proceeds to step C4, where the CPU 45 adjusts the optical system such as the aperture and lens of the follow-up CCD device 23 so as to increase the focal length Sc.

【0086】この際に、画像処理装置3では、RAM4
7から読み出された基準面設定用のブレスレット1の4
つの発光ダイオードLED1〜4の位置情報及び距離情
報Lx,Lyを参照しながら、ジャイロスコープ9から
の位置検出信号S4に基づいて、流し撮りCCD装置2
3で撮像された実際の4つの発光ダイオードLED1〜
4の位置情報及び距離情報Lx,Lyが演算される。
At this time, in the image processing apparatus 3, the RAM 4
Reference surface setting bracelet 1-4 read from 7
The panning CCD device 2 based on the position detection signal S4 from the gyroscope 9 while referring to the position information and the distance information Lx and Ly of the two light emitting diodes LED1 to LED4.
3 actual four light emitting diodes LED1 to
4, the position information and the distance information Lx and Ly are calculated.

【0087】そして、実際に撮像された4つの発光ダイ
オードLED1〜4の位置及び距離Lx,LyがRAM
47による発光ダイオードLED1〜4の位置情報及び
距離情報Lx,Lyにより一層近づくように、流し撮り
CCD装置23の焦点光学系が自動調整される。この調
整結果で、ステップC5で離隔距離Shと焦点距離Sc
+Soffとが一致した場合には、ステップC8に移行
し、一致しない場合はステップC4に戻って調整を継続
する。
The positions and distances Lx and Ly of the four light emitting diodes LED1 to LED4 actually imaged are stored in the RAM.
The focus optical system of the follow-up CCD device 23 is automatically adjusted so that the position information and the distance information Lx and Ly of the light emitting diodes LED1 to LED4 by the image pickup device 47 become even closer. As a result of this adjustment, in step C5, the separation distance Sh and the focal length Sc
If + Soff matches, the process proceeds to step C8, and if not, the process returns to step C4 to continue the adjustment.

【0088】反対に、観察者の眼球表面から注視点pに
至る離隔距離Shが焦点距離Sc+Soffよりも少ない
場合には、ステップC6に移行してCPU45により、
その焦点距離Scを減少するように流し撮りCCD装置
23の光学系が調整される。その調整結果で、ステップ
C7で離隔距離Shと焦点距離Sc+Soffとが一致し
た場合には、ステップC8に移行し、一致しない場合は
ステップC6に戻って調整を継続する。これにより、観
察者が注視した発光ダイオードLED3と流し撮りCC
D装置23の光学系との間の焦点距離Sc+Soffを自
動補正することができる。
On the other hand, if the separation distance Sh from the observer's eyeball surface to the point of gaze p is smaller than the focal length Sc + Soff, the process proceeds to step C6, where the CPU 45
The optical system of the panning CCD device 23 is adjusted so as to reduce the focal length Sc. As a result of the adjustment, if the separation distance Sh and the focal length Sc + Soff match in step C7, the process proceeds to step C8. If not, the process returns to step C6 to continue the adjustment. Thereby, the light emitting diode LED3 and the panning CC that the observer gazes at
The focal length Sc + Soff with the optical system of the D device 23 can be automatically corrected.

【0089】この流し撮りCCD装置23の焦点距離S
c+Soffの自動補正処理に並行して、図18のメイン
ルーチンのステップB4において、通常のCCD撮像装
置25を使用して実空間上の基準面を撮影してLCD2
6及びLCD27にステレオ画像を表示する。他方で、
流し撮りCCD装置23を使用して実空間上の基準面を
流し撮りする。例えば、3Dポリゴン10の画像を合成
させようとする位置に取付けられた4つの発光ダイオー
ドLED1〜4が、点滅パターンが異なるように点滅さ
れるので、その点滅パターンが所定の撮像方向に流すよ
うに撮像される。
The focal length S of the panning CCD device 23
In parallel with the automatic correction process of c + Soff, in step B4 of the main routine in FIG.
6 and the LCD 27 display a stereo image. On the other hand,
A panning shot of a reference plane in real space is performed using the panning CCD device 23. For example, the four light emitting diodes LED1 to LED4 attached to the position where the image of the 3D polygon 10 is to be synthesized are blinked so that the blinking patterns are different, so that the blinking patterns flow in a predetermined imaging direction. It is imaged.

【0090】その後、ステップB5で観察者の属する実
空間上に任意に設定された基準面を認識するために画像
処理する。画像処理部44では、例えば、図20に示す
サブルーチンをコールしてステップD1でビデオキャプ
チャ処理を実行する。その後、ステップD2で四隅の発
光ダイオードLED1〜4を認識する。具体的には、流
し撮りCCD装置23で撮像された4つの発光ダイオー
ドLED1〜4による輝度信号の点滅パターンが、4つ
の輝点p1〜p4を含むXY平面を成す空間的な配置パ
ターンに変換される。
Thereafter, in step B5, image processing is performed to recognize an arbitrarily set reference plane in the real space to which the observer belongs. In the image processing unit 44, for example, a subroutine shown in FIG. 20 is called to execute a video capture process in step D1. Then, the light emitting diodes LED1 to LED4 at the four corners are recognized in step D2. More specifically, the blinking pattern of the luminance signal by the four light emitting diodes LED1 to LED4 captured by the panning CCD device 23 is converted into a spatial arrangement pattern forming an XY plane including four luminescent points p1 to p4. You.

【0091】その後、その配置パターン上を走査して、
少なくとも、4つの輝点p1〜p4の位置座標(X1,
Y1)、(X2,Y2)、(X3,Y3)、(X4,Y
4)が求められ、上述した(1)式及び(2)式が演算
され、実空間上の4つの発光ダイオードLED1〜4の
取付け位置と、画像処理系の4点の位置座標(X1,Y
1)、(X2,Y2)、(X3,Y3)、(X4,Y
4)との関係が求められ、この4点を結ぶことにより基
準面が求められる。そして、ステップD3で画像処理部
44では上述の(3)式に基づいて演算処理が行われ、
流し撮りCCD装置23と基準面との位置関係が検出さ
れる。
After that, the arrangement pattern is scanned, and
At least the position coordinates (X1,
Y1), (X2, Y2), (X3, Y3), (X4, Y
4) is calculated, and the above-described expressions (1) and (2) are calculated, and the mounting positions of the four light emitting diodes LED1 to LED4 in the real space and the position coordinates (X1, Y) of the four points of the image processing system.
1), (X2, Y2), (X3, Y3), (X4, Y
4) is obtained, and a reference plane is obtained by connecting these four points. Then, in step D3, the image processing unit 44 performs an arithmetic process based on the above equation (3),
The positional relationship between the panning CCD device 23 and the reference plane is detected.

【0092】その後、図18のメインルーチンのステッ
プB4にリターンして仮想空間の基準面上に3Dポリゴ
ン10の画像を重ね合わせて合成する。このとき、観察
者が装着した特殊グラストロン2では、LCD26によ
る実空間の外界像と3Dポリゴン10の画像とを合成し
たステレオ画像の一方が観察者の右の眼球に導くように
なされる。LCD27による実空間の外界像と3Dポリ
ゴン10の画像とを合成したステレオ画像の他方が観察
者の左の眼球に導くようになされる。
Thereafter, the process returns to step B4 of the main routine in FIG. 18 to superimpose and synthesize the image of the 3D polygon 10 on the reference plane of the virtual space. At this time, in the special glasstron 2 worn by the observer, one of the stereo images obtained by synthesizing the external world image in the real space and the image of the 3D polygon 10 by the LCD 26 is guided to the right eyeball of the observer. The other stereo image obtained by synthesizing the external world image in the real space by the LCD 27 and the image of the 3D polygon 10 is guided to the left eyeball of the observer.

【0093】従って、図21Aに示す実空間上では基準
面上に3Dポリゴン10が出現していないのに、図21
Bに示す仮想空間ではその基準面上に3Dポリゴン10
を出現させることができる。これにより、観察者の属す
る実空間上の背景画像と、仮想空間上に出現した3Dポ
リゴン10とが頭の中で合成されるので、実空間上の基
準面の属する位置に、あたかも、3Dポリゴン10が存
在するようにできる。
Therefore, although the 3D polygon 10 does not appear on the reference plane in the real space shown in FIG.
In the virtual space shown in FIG.
Can appear. As a result, the background image in the real space to which the observer belongs and the 3D polygon 10 appearing in the virtual space are synthesized in the head, and it is as if the 3D polygon is located at the position to which the reference plane in the real space belongs. 10 can be present.

【0094】このように、本実施形態としての面認識装
置100を応用した仮想画像立体合成装置200によれ
ば、観測者が注視した特定の発光ダイオードLEDiに
流し撮りCCD装置23の焦点を精度良く合わせ込むこ
とができる。従って、ベストフォーカスで4つの発光ダ
イオードLED1〜4を所定の撮像方向に流すように撮
像することができる。これと共に、その点滅パターンの
輝度信号を画像処理装置3で最適に画像処理することが
できるので、ブレスレット1の基準面を精度良く認識す
ることができる。しかも、観察者の属する実空間上の基
準面を簡易に、しかも、少ない計算量で認識することが
できる。
As described above, according to the virtual image three-dimensional synthesizing apparatus 200 to which the plane recognition apparatus 100 according to the present embodiment is applied, the focus of the panning CCD device 23 on the specific light-emitting diode LEDi watched by the observer is accurately determined. Can be adjusted. Therefore, it is possible to image the four light emitting diodes LED1 to LED4 at the best focus so as to flow in the predetermined imaging direction. At the same time, the luminance signal of the blinking pattern can be optimally image-processed by the image processing device 3, so that the reference surface of the bracelet 1 can be recognized with high accuracy. Moreover, the reference plane in the real space to which the observer belongs can be easily recognized with a small amount of calculation.

【0095】従って、観察者の属する実空間上の基準面
の属する位置に、あたかも、TV番組のキャラクタなど
を飛び出させ、観察者の手のひらで遊ばせるバーチャル
キャラクタ育成ゲーム装置やその他のゲーム装置を構成
することができる。また、従来方式に比べて画像処理部
44における演算負担を軽減できると共に、これらのバ
ーチャルキャラクタ育成ゲーム装置などのコストダウン
を図ることができる。
Therefore, a virtual character breeding game device or other game device that allows a TV program character or the like to jump out to the position of the reference plane in the real space to which the observer belongs and to play with the observer's palm is constructed. can do. Further, the calculation load on the image processing unit 44 can be reduced as compared with the conventional method, and the cost of these virtual character breeding game devices and the like can be reduced.

【0096】(2)第2の実施形態 図22は第2の実施形態としての仮想画像立体合成装置
で使用する基準面設定用の二次元バーコード50の例を
示す図である。この実施形態では4つの発光ダイオード
LED1〜4に代わって、図22に示す白黒の市松模様
状のバーコード90の中央部に、二次元バーコード50
が予め配置されている。そして、通常のCCD撮像装置
25がそのバーコード90をズームアップすることによ
り、その中央部の二次元バーコード50が認識され、そ
の後、この二次元バーコード50が基準面として使用さ
れるものである。
(2) Second Embodiment FIG. 22 is a diagram showing an example of a two-dimensional barcode 50 for setting a reference plane used in a virtual image three-dimensional composition device as a second embodiment. In this embodiment, instead of the four light emitting diodes LED1 to LED4, a two-dimensional barcode 50 is provided at the center of a black and white checkered barcode 90 shown in FIG.
Are arranged in advance. Then, the normal CCD image pickup device 25 zooms up the barcode 90, thereby recognizing the two-dimensional barcode 50 at the center thereof, and thereafter, the two-dimensional barcode 50 is used as a reference plane. is there.

【0097】この例では、観測者が図22に示す市松模
様状のバーコード90の中央部分を注視すると、図12
に示したCPU45が、注視点検出用のカメラ4から得
られたカメラ出力信号S3に基づいて、その中央部分の
画像を所定の倍率で拡大してLCD26、LCD27に
表示するような表示制御が行われる。なお、ズームアッ
プされた画像を元に戻すときは、先に述べた操作部8を
操作すると、指示信号S5がCPU45に出力され、観
測者が注視した中央部分の画像を所定の大きさに戻して
表示するようにされている。
In this example, when the observer gazes at the central part of the checkered bar code 90 shown in FIG.
Based on the camera output signal S3 obtained from the camera 4 for detecting the point of gaze, the CPU 45 performs a display control such that the image at the center is enlarged at a predetermined magnification and displayed on the LCD 26 and the LCD 27. Will be When returning the zoomed-up image to its original state, by operating the operation unit 8 described above, an instruction signal S5 is output to the CPU 45, and the image of the central portion watched by the observer is returned to a predetermined size. To be displayed.

【0098】この2次元マトリクスコード50は、少な
くとも、図23に示す白地に黒で印刷されたn行×n列
の白黒マトリクスと、その白黒マトリクスと同じ太さの
黒枠部51から成る。この例では黒枠部51で囲まれた
5×5画素がコード領域部52であり、この25画素の
うち、図23に示す12画素が黒で塗りつぶされてい
る。
The two-dimensional matrix code 50 includes at least an n-row × n-column black-and-white matrix printed in black on a white background shown in FIG. 23, and a black frame portion 51 having the same thickness as the black-and-white matrix. In this example, 5 × 5 pixels surrounded by a black frame portion 51 are the code region portion 52, and of these 25 pixels, 12 pixels shown in FIG. 23 are painted black.

【0099】このバーコード50は3Dポリゴン10の
画像を合成しようとする位置、例えば、図2に示したブ
レスレット1のプレート11上に設けられる。この二次
元マトリクスコード50は流し撮りCCD装置23に代
わって通常のCCD撮像装置25で撮像される。この撮
像装置25の出力段には、図12で説明したような画像
処理装置3が接続される。その画像処理装置3には演算
手段が設けられ、CCD撮像装置25から出力された撮
像信号(輝度信号)を画像処理して二次元マトリクスコ
ード50から基準面が求められる。
The barcode 50 is provided at a position where an image of the 3D polygon 10 is to be synthesized, for example, on the plate 11 of the bracelet 1 shown in FIG. The two-dimensional matrix code 50 is imaged by the ordinary CCD imaging device 25 instead of the panning CCD device 23. The image processing device 3 described with reference to FIG. 12 is connected to the output stage of the imaging device 25. The image processing device 3 is provided with arithmetic means, and performs image processing on an image pickup signal (luminance signal) output from the CCD image pickup device 25 to obtain a reference plane from the two-dimensional matrix code 50.

【0100】例えば、画像処理部44では前処理が施さ
れる。この処理では、まず、取得画像が適当な閾値で2
値化される。バーコード部分は白地に黒で印刷されてい
るので、固定閾値によって、かなり安定的に背景画像と
コード領域とを分離することができる。次に、黒ピクセ
ルの連結領域毎にラベル付けが施される。2次元バーコ
ード50の黒枠部51はラベル付けされた連結領域のい
ずれかに含まれることとなる。従って、連結領域の外接
四角形の大きさと縦横比を考慮して、コード領域部52
が含まれている可能性の低い背景画像(領域)は除去す
るようになされる。
For example, the image processing section 44 performs preprocessing. In this process, first, the acquired image is set at 2 with an appropriate threshold.
Valued. Since the barcode portion is printed in black on a white background, the background image and the code area can be separated quite stably by the fixed threshold value. Next, labeling is performed for each connected region of black pixels. The black frame portion 51 of the two-dimensional barcode 50 is included in any of the labeled connection regions. Therefore, considering the size and aspect ratio of the circumscribed rectangle of the connection area, the code area 52
The background image (region) that is unlikely to include the symbol is removed.

【0101】その後、前処理の結果得られた連結領域の
各要素に対してバーコード枠の当てはめを行う。例え
ば、外接四角形の各辺から内側に向かって、黒領域を探
索し、コー黒枠部51の点列を得る。この点列に対して
最小二乗法で線分を当てはめる。その後、当該二次元バ
ーコード50に与えられたコード領域部52を認識す
る。
Thereafter, a barcode frame is applied to each element of the connected area obtained as a result of the preprocessing. For example, a black area is searched from each side of the circumscribed rectangle toward the inside, and a point sequence of the black frame part 51 is obtained. A line segment is applied to this point sequence by the least squares method. After that, the code area section 52 given to the two-dimensional barcode 50 is recognized.

【0102】上述の基準面は黒枠部51の4頂点を正方
形の頂点に射影する変換行列を演算することにより得ら
れる。ここで実空間の平面上の点(xi,yi,0)を
ある並進・回転運動によって移動し、それを透視変換で
画像座標系に射影した点を(Xi,Yi)で示すと、両
者の間には第1の実施形態で説明した(1)式と同様な
関係がある。
The above-mentioned reference plane is obtained by calculating a transformation matrix for projecting the four vertices of the black frame 51 to the vertices of a square. Here, the point (xi, yi, 0) on the plane of the real space is moved by a certain translation / rotational motion, and the point projected on the image coordinate system by the perspective transformation is represented by (Xi, Yi). There is a similar relationship between the expressions (1) described in the first embodiment.

【0103】従って、これらのパラメータは実空間の既
知の点の位置座標(x1,y1)、(x2,y2)、
(x3,y3)、(x4,y4)と、それらに対応する
4組の画像処理系の位置座標(X1,Y1)、(Y2,
Y2)、(X3,Y3)、(X4,Y4)が存在すれ
ば、先に説明した(2)式の方程式を解くことにより得
られる。
Therefore, these parameters are the position coordinates (x1, y1), (x2, y2),
(X3, y3), (x4, y4) and their corresponding four sets of position coordinates (X1, Y1), (Y2,
If (Y2), (X3, Y3) and (X4, Y4) exist, they can be obtained by solving the equation of the above-described equation (2).

【0104】ここで得られた位置座標(x1,y1)、
(x2,y2)、(x3,y3)、(x4,y4)に関
して、一辺の長さを「1」とする正方形の4頂点とする
と、この4頂点を結ぶ面が実空間上の基準面となる。な
お、画面上の黒枠部51はCCD撮像装置25の姿勢
や、透視投影によって歪んでいるが、外部パラメータ及
び内部パラメータによって、画面上の矩形頂点を正方形
の各頂点に射影することができる。従って、図23に示
す仮想空間上の二次元バーコード50の四隅の位置座標
から正立方体53を作成することができるので、その正
立方体53に3Dポリゴン10などを合成することがで
きる。
The position coordinates (x1, y1) obtained here,
Regarding (x2, y2), (x3, y3), and (x4, y4), assuming that four vertices of a square whose side length is “1”, a plane connecting these four vertices is a reference plane in the real space. Become. Although the black frame portion 51 on the screen is distorted by the attitude of the CCD imaging device 25 and perspective projection, a rectangular vertex on the screen can be projected to each square vertex by an external parameter and an internal parameter. Therefore, since the cubic cube 53 can be created from the position coordinates of the four corners of the two-dimensional barcode 50 in the virtual space shown in FIG. 23, the 3D polygon 10 and the like can be combined with the cubic cube 53.

【0105】このように、本実施形態としての仮想画像
立体合成装置によれば、白黒の市松模様コードの中に予
め二次元バーコード50が配置され、その市松模様コー
ドを通常のCCD撮像装置25でズームアップすること
により、その二次元バーコード50を認識することがで
きる。第1の実施形態と同様に観察者の属する実空間上
の基準面を簡易に、しかも、少ない計算量で認識するこ
とができる。更に、仮想空間で、この二次元バーコード
50を基準面とする位置に3Dポリゴン10の画像を再
現性良く立体的に合成することができる。
As described above, according to the three-dimensional virtual image synthesizing apparatus of the present embodiment, the two-dimensional barcode 50 is arranged in advance in the black and white checkerboard code, and the checkerboard code is stored in the normal CCD image pickup device 25. By zooming in with, the two-dimensional barcode 50 can be recognized. As in the first embodiment, the reference plane in the real space to which the observer belongs can be easily recognized with a small amount of calculation. Furthermore, in the virtual space, an image of the 3D polygon 10 can be three-dimensionally synthesized with good reproducibility at a position using the two-dimensional barcode 50 as a reference plane.

【0106】従って、第1の実施形態と同様に観察者の
属する実空間上の基準面の属する位置に、あたかも、T
V番組のキャラクタなどを飛び出させ、観察者の手のひ
らで遊ばせるバーチャルキャラクタ育成ゲーム装置やそ
の他のゲーム装置を構成することができる。
Therefore, as in the first embodiment, the position of the reference plane in the real space to which the observer belongs is as if T
It is possible to configure a virtual character training game device or another game device that allows characters of a V program to jump out and play with the palm of the observer.

【0107】なお、各実施形態では非透過型の特殊グラ
ストロン2又は透過型の特殊グラストロン20を使用す
る場合について説明したが、これに限られることはな
く、透過型と非透過型を切換え可能な兼用タイプの特殊
グラストロンを用いても、もちろん構わない。
In each embodiment, the case where the non-transmission type special glasstron 2 or the transmission type special glasstron 20 is used has been described. However, the present invention is not limited to this, and the transmission type and the non-transmission type can be switched. Of course, it is possible to use a special type of glasstron which can be used for both purposes.

【0108】また、各実施形態では、単に3Dポリゴン
10を基準面上に仮想的に飛び出させる場合について説
明したが、これに限られることはなく、特殊グラストロ
ン2や、特殊グラストロン20にスピーカーを取り付
け、3Dポリゴン10が基準面上に飛び出すときに擬声
音などを鳴らしたり、その後、3Dポリゴン10が何か
を喋るようにしてもよい。
In each embodiment, the case where the 3D polygon 10 is simply projected virtually on the reference plane has been described. However, the present invention is not limited to this, and the speaker may be connected to the special glasstron 2 or the special glasstron 20. May be attached, when the 3D polygon 10 jumps out on the reference plane, an onomatopoeic sound may be sounded, or thereafter, the 3D polygon 10 may speak something.

【0109】この実施形態の仮想画像立体合成装置20
0は、特開平10−123453号、特開平9−304
727号、特開平9−304730号、特開平9−21
1374号、特開平8−160348号、特開平8−9
4960号、特開平7−325265号、特開平7−2
70714号及び特開平7−67055号に記載される
透過型のヘッドマウントディスプレイに適用することが
できる。
The virtual image three-dimensional synthesizing apparatus 20 of this embodiment
0 is JP-A-10-123453, JP-A-9-304
727, JP-A-9-304730, JP-A-9-21
1374, JP-A-8-160348, JP-A-8-9
4960, JP-A-7-325265, JP-A-7-2
The present invention can be applied to a transmission type head mounted display described in Japanese Patent No. 70714 and JP-A-7-67055.

【0110】この実施形態では流し撮りCCD23に関
してインターライン転送方式の二次元撮像デバイスを使
用する場合について説明したが、これに限られることは
なく、フレーム転送方式の二次元撮像デバイスを使用す
る場合であっても同様な効果が得られる。
In this embodiment, the case in which the two-dimensional imaging device of the interline transfer system is used for the panning CCD 23 has been described. However, the present invention is not limited to this, and the case in which the two-dimensional imaging device of the frame transfer system is used. Even if there is, the same effect can be obtained.

【0111】この実施形態では、3Dポリゴン10を基
準面上に表示する場合について説明したが、これに限ら
れることはなく、その基準面から外れた仮想空間上に3
Dポリゴン10を表示することもできる。例えば、基準
面を構成する発光ダイオードLEDiの1つを原点Oと
する3次元座標軸x、y、z上に3Dポリゴン10を出
現させることができる。従って、観察者が基準面の一部
を覆うようなしぐさをした場合であっても、例えば、基
準面を見渡す周辺領域に(その3次元座標空間の円軌道
上、あるいは、ランダムな軌道上)に3Dポリゴン10
を出現させることができる。
In this embodiment, the case where the 3D polygon 10 is displayed on the reference plane has been described. However, the present invention is not limited to this.
The D polygon 10 can also be displayed. For example, the 3D polygon 10 can appear on the three-dimensional coordinate axes x, y, and z with one of the light emitting diodes LEDi constituting the reference plane as the origin O. Therefore, even when the observer takes a gesture to cover a part of the reference plane, for example, the surrounding area overlooking the reference plane (on a circular orbit in the three-dimensional coordinate space or on a random orbit) 3D polygon 10
Can appear.

【0112】この実施形態では、仮想体画像に関して雪
だるまの3Dポリゴン10の場合について説明したが、
これに限られることはなく、台座ポリゴンや、光、炎、
あるいは、氷のポリゴンであっても、更に、鎧のような
ポリゴンであってもよい。
In this embodiment, the case of the 3D polygon 10 of the snowman has been described with respect to the virtual body image.
It is not limited to this, but pedestal polygons, lights, flames,
Alternatively, it may be an ice polygon or a polygon like armor.

【0113】(3)第3の実施形態 図25〜図27は第3の実施形態としての仮想画像立体
合成装置を応用したバーチャル美術館の構成例を示すイ
メージ図である。
(3) Third Embodiment FIGS. 25 to 27 are image diagrams showing a configuration example of a virtual art museum to which a virtual image three-dimensional composition device as a third embodiment is applied.

【0114】この実施形態では、ほぼ平坦な壁面に複数
の発光ダイオードのブロックBLi(i=1〜n)を予
め定めらた間隔で配置し、このブロックBLiを流し撮
りして画像処理系に認識させた後に、そのブロック内の
発光ダイオードLEDj(j=1〜4)を更に流し撮り
して基準面を認識させ、その基準面を含む仮想空間上に
3枚の絵画映像を表示し、この3枚のうちの1枚の絵画
映像に観察者が注視すると、その画像がズームアップさ
れて特殊グラストロン2などに表示されるようにしたも
のである。
In this embodiment, a plurality of light emitting diode blocks BLi (i = 1 to n) are arranged at a predetermined interval on a substantially flat wall surface, and the blocks BLi are shot and shot and recognized by an image processing system. After that, the light-emitting diodes LEDj (j = 1 to 4) in the block are further shot to make the reference plane recognized, and three painting images are displayed in a virtual space including the reference plane. When the observer gazes at one of the painting images, the image is zoomed up and displayed on the special glasstron 2 or the like.

【0115】この例では、観察者の属する実空間の、例
えば、間口(幅)が4m×高さが2.5m程度の大きさ
の壁面に、8個の発光ダイオードのブロックBL1〜B
L8が予め定められた間隔で、図25に示す位置に配さ
れている。各々の発光ダイオードのブロックBLiは、
図4に示したブレスレット1のプレート部11のような
形状を有しており、点滅パターンの異なる4つの発光ダ
イオードLED1〜4が設けられている。
In this example, blocks BL1 to BL8 of eight light-emitting diodes are mounted on a wall of a real space to which the observer belongs, for example, a frontage (width) of about 4 m × height of about 2.5 m.
L8 are arranged at predetermined intervals at the positions shown in FIG. The block BLi of each light emitting diode is
It has a shape like the plate portion 11 of the bracelet 1 shown in FIG. 4, and is provided with four light emitting diodes LED1 to LED4 having different blinking patterns.

【0116】もちろん、絵画映像を合成しようとする各
々のブロックBLiの発光ダイオードLED1〜4の4
つの点p1〜p4の座標として(x1,y1)、(x
2,y2)、(x3,y3)、(x4,y4)が与えら
れる。この例でも、4つの発光ダイオードLED1〜4
は長方形の各頂点に位置し、発光ダイオードLED1と
LED3の間の距離Lxが(x3−x1)であり、発光
ダイオードLED2とLED4の間の距離もLxで、そ
の距離Lxが(x4−x2)である。
Of course, the four light emitting diodes LED1 to LED4 of each block BLi for which a picture image is to be synthesized.
(X1, y1), (x
2, y2), (x3, y3), (x4, y4). Also in this example, four light emitting diodes LED1 to LED4
Is located at each vertex of the rectangle, the distance Lx between the light emitting diodes LED1 and LED3 is (x3-x1), the distance between the light emitting diodes LED2 and LED4 is also Lx, and the distance Lx is (x4-x2) It is.

【0117】また、発光ダイオードLED1とLED2
の間の距離Lyが(y2−y1)であり、発光ダイオー
ドLED2とLED4の間の距離もLyで、その距離L
xが(y4−y3)である。これらの位置情報及び距離
情報は壁面を認識させる際に使用するために、予め、図
12に示した画像処理系のRAM47などに登録されて
いる。この例では、発光ダイオードのブロックBLiを
識別するために図示しない所定データフォーマットが用
意されている。このデータフォーマットは2つの領域に
分かれている。一方の領域には、各ブロックBLiを識
別するために、各々のブロックBLi毎に割り当てられ
たブロックNo識別コードが書き込まれ、他の領域には
各ブロックBLi内の発光ダイオードLED1〜LED
4の位置情報及び距離情報Lx,Lyが書き込まれてい
る。このブロックNo識別コード、発光ダイオードLE
D1〜4の位置情報及び距離情報を総称してブロック識
別情報という。このデータフォーマットに基づいた8個
の発光ダイオードのブロックBL1〜BL8に係るブロ
ック識別情報がRAM47に格納されている。
The light emitting diodes LED1 and LED2
Is (y2-y1), the distance between the light emitting diodes LED2 and LED4 is also Ly, and the distance L
x is (y4-y3). These position information and distance information are registered in advance in the RAM 47 of the image processing system shown in FIG. 12 for use in recognizing the wall surface. In this example, a predetermined data format (not shown) is prepared to identify the light emitting diode block BLi. This data format is divided into two areas. In one area, a block No. identification code assigned to each block BLi is written to identify each block BLi, and in the other area, the light emitting diodes LED1 to LED1 in each block BLi are written.
4, position information and distance information Lx and Ly are written. This block No. identification code, light emitting diode LE
The position information and the distance information of D1 to D4 are collectively called block identification information. Block identification information on eight light emitting diode blocks BL1 to BL8 based on this data format is stored in the RAM 47.

【0118】ここで、観測者は図5に示した特殊グラス
トロンを装着する。そして、図26に示すフローチャー
トのステップE1で、まず、流し撮りCCD装置23が
最大望遠状態になされる。この最大望遠状態は通常の視
野で遠くの物を見た場合である。このように遠くから物
を見た状態にすると、流し撮りCCD装置23では8個
のブロックBL1〜BL8のブロックNo識別コードが
認識されるが、各ブロックBL1〜BL8の発光ダイオ
ードLED1〜4の点滅パターンまで識別することがで
きない。ここで、画像処理系では各ブロックBL1〜B
L8が同期して点滅していると認識される。しかし、R
AM47のブロックNo識別コードによってブロックB
L1〜BL8の存在位置を画像処理系によって認識させ
ることができる。
Here, the observer wears the special glasstron shown in FIG. Then, in step E1 of the flowchart shown in FIG. 26, first, the panning CCD device 23 is set to the maximum telephoto state. This maximum telephoto state is when a distant object is viewed in a normal field of view. When an object is viewed from a distance in this manner, the panning CCD device 23 recognizes the block No. identification codes of the eight blocks BL1 to BL8, but the light emitting diodes LED1 to LED4 of each of the blocks BL1 to BL8 blink. Unable to identify patterns. Here, in the image processing system, each of the blocks BL1 to BLB
It is recognized that L8 is flashing synchronously. But R
Block B according to the block number identification code of AM47
The locations of L1 to BL8 can be recognized by the image processing system.

【0119】つまり、ステップE2に移行して、その壁
面に配置された8個の発光ダイオードのブロックBL1
〜BL8が全部、流し撮りCCD装置23の撮像範囲に
収まったか否かが画像処理系で判別される。この際の判
別ではパターン認識などを利用して行ってもよい。その
8個のブロックBL1〜BL8が撮像範囲に収まらない
場合には、ステップE3に移行して流し撮りCCD装置
23の焦点調整機構がパーン(螺旋回転)された後に、
ステップE4に移行して8個のブロックBL1〜BL8
が画像処理系で認識処理される。
In other words, the process proceeds to step E2, where the block BL1 of eight light-emitting diodes arranged on the wall surface is set.
It is determined by the image processing system whether or not all of BL8 are within the imaging range of the panning CCD device 23. The determination at this time may be performed using pattern recognition or the like. If the eight blocks BL1 to BL8 do not fall within the imaging range, the process proceeds to step E3, and after the focus adjustment mechanism of the panning CCD device 23 is panned (spiral-rotated),
Proceeding to the step E4, the eight blocks BL1 to BL8
Is subjected to recognition processing by the image processing system.

【0120】この際に、画像処理装置3では、RAM4
7から読み出された8個の発光ダイオードのブロックB
L1〜BL8のブロックNo識別コード、位置情報及び
距離情報を参照しながら、流し撮りCCD装置23で撮
像された実際の8個のブロックBL1〜BL8の位置座
標及び距離情報Lx,Lyが演算される。その後、ステ
ップE2に戻って、その壁面に配置された8個のブロッ
クBL1〜BL8が全部撮像範囲に収まったか否かが再
度、画像処理系で判別される。
At this time, in the image processing apparatus 3, the RAM 4
Block B of 8 light-emitting diodes read from 7
The actual position coordinates and distance information Lx and Ly of the eight blocks BL1 to BL8 imaged by the panning CCD device 23 are calculated with reference to the block No. identification codes, position information, and distance information of L1 to BL8. . Thereafter, returning to step E2, the image processing system determines again whether or not all the eight blocks BL1 to BL8 arranged on the wall surface fall within the imaging range.

【0121】この処理が繰り返されることで、ステップ
E5で8個のブロックBL1〜BL8が全部、流し撮り
CCD装置23の撮像範囲に収まった場合には、ステッ
プE5に移行して各々のブロックBL1〜BL8に発光
ダイオードLED1〜LED4が存在するか否かが検出
される。このとき、第1の実施形態で説明したように観
測者が注目したブロックBLiにステップE6でズーム
アップされる。
By repeating this process, if all the eight blocks BL1 to BL8 fall within the imaging range of the follow-up CCD device 23 in step E5, the process proceeds to step E5, where each of the blocks BL1 to BL8 is moved. It is detected whether or not the light emitting diodes LED1 to LED4 exist in BL8. At this time, as described in the first embodiment, the block BLi to which the observer pays attention is zoomed up in step E6.

【0122】この際に、画像処理装置3では、4つの発
光ダイオードLED1〜4の位置情報及び距離情報L
x,LyがRAM47による発光ダイオードLED1〜
4の位置情報及び距離情報Lx,Lyにより一層近づく
ように、流し撮りCCD装置23の焦点光学系が自動調
節される。その後、ステップE5に戻る。従って、ステ
ップE5で観察者が注目したブロックBLiに4個の発
光ダイオードLED1〜LED4が存在することが認識
されると、ステップE7に移行して画像処理系では面認
識処理がなされる。この処理については、図15及び図
16で説明した通りである。
At this time, in the image processing apparatus 3, the position information and the distance information L of the four light emitting diodes LED1 to LED4 are obtained.
x and Ly are the light emitting diodes LED1 to LED1 by the RAM 47.
The focus optical system of the panning CCD device 23 is automatically adjusted so as to be closer to the position information and the distance information Lx and Ly of No. 4. Thereafter, the process returns to step E5. Therefore, when it is recognized in step E5 that four light emitting diodes LED1 to LED4 are present in the block BLi to which the observer pays attention, the process proceeds to step E7, where the image processing system performs surface recognition processing. This processing is as described with reference to FIGS.

【0123】その後、ステップE8に移行して壁面が認
識できたか否かが判別される。この壁面が認識できた場
合には、この面認識処理を終了して他のデータ処理が実
行される。この壁面が認識できない場合には、ステップ
E9に移行して4つの輝点の距離情報Lx、Lyが、図
12に示したRAM47から読み出された距離情報(基
準値)Lx、Lyよりも小さいかが検出される。RAM
47による距離情報Lx、Lyよりも演算された距離情
報Lx、Lyが小さい場合には、ステップE10に移行
してズームアップされる。その後、ステップE7に戻っ
て面認識処理が行われる。
Thereafter, the flow shifts to step E8, where it is determined whether or not the wall surface has been recognized. When the wall surface can be recognized, the surface recognition processing is terminated and another data processing is executed. If the wall surface cannot be recognized, the process proceeds to step E9, in which the distance information Lx, Ly of the four bright points is smaller than the distance information (reference value) Lx, Ly read from the RAM 47 shown in FIG. Is detected. RAM
If the calculated distance information Lx, Ly is smaller than the distance information Lx, Ly calculated by 47, the process proceeds to step E10 to zoom up. Thereafter, the process returns to step E7 to perform the surface recognition processing.

【0124】また、ステップE9でRAM47による距
離情報Lx、Lyよりも演算された距離情報Lx、Ly
が大きい場合には、ステップE11に移行して再度、4
つの輝点の距離情報Lx、LyがRAM47に格納され
た距離情報(基準値)Lx、Lyよりも大きいかが検出
される。RAM47による距離情報Lx、Lyよりも演
算された距離情報Lx、Lyが大きい場合には、ステッ
プE12に移行してズームダウンされる。
In step E9, the distance information Lx, Ly calculated from the distance information Lx, Ly from the RAM 47.
If is larger, the process goes to step E11 and again
It is detected whether the distance information Lx, Ly of the two bright points is larger than the distance information (reference values) Lx, Ly stored in the RAM 47. If the calculated distance information Lx, Ly is larger than the distance information Lx, Ly from the RAM 47, the process proceeds to step E12 to zoom down.

【0125】そして、ステップE12でズームダウンし
た後、及び、ステップE11でRAM47による距離情
報Lx、Lyよりも演算された距離情報Lx、Lyが大
きくない場合には、ステップE7に戻って面認識処理が
行われる。その後、ステップE8に移行して壁面が認識
できたか否かが判別される。
After the zoom-down in step E12, and when the distance information Lx, Ly calculated by the RAM 47 is not larger than the distance information Lx, Ly in step E11, the process returns to step E7 to perform the surface recognition processing. Is performed. Thereafter, the process proceeds to step E8, where it is determined whether the wall surface has been recognized.

【0126】以上の処理を繰り返すことで、観察者が注
視した特定のブロックBLiを、再現性よく画像処理系
に認識させることができる。従って、画像処理系で壁面
が認識されると、この面認識処理を終了して、この特定
のブロックBLiを基準面とする仮想空間上で、3Dポ
リゴン10や仮想絵画などを合成することができる。
By repeating the above process, the specific block BLi watched by the observer can be recognized by the image processing system with good reproducibility. Therefore, when the wall surface is recognized by the image processing system, the surface recognition processing is terminated, and the 3D polygon 10 and the virtual painting can be synthesized in the virtual space using the specific block BLi as the reference plane. .

【0127】この例では、壁面の認識原理を応用すると
共に、図12に示したE2PROMなどに予め用意され
た、例えば、図27に示すような肖像画P1、船の絵画
P2及び山の絵画P3のステレオ画像がその特殊グラス
トロン2内の右眼表示用のLCD26及び左表示用のL
CD27に表示される。もちろん、注視点検出用のカメ
ラ4が観察者の眼球運動を監視している。
In this example, the principle of wall surface recognition is applied, and for example, a portrait P1, a ship picture P2, and a mountain picture as shown in FIG. 27 prepared in advance in an E 2 PROM or the like shown in FIG. The stereo image of P3 is displayed on the LCD 26 for right eye display and the L for left display in the special glasstron 2.
Displayed on CD27. Of course, the camera 4 for gaze point detection monitors the eye movement of the observer.

【0128】そして、観察者が左側の肖像画P1に注視
すると、注視点検出用のカメラ4からCPU45へ「肖
像画に注視している」旨のカメラ出力信号S3が出力さ
れるので、画像処理装置3では、発光ダイオードのブロ
ックBL1、BL2、BL3、又はBL4のいずれかを
基準面として、その肖像画P1が拡大表示する処理がな
される。従って、右眼表示用のLCD26及び左表示用
のLCD27に肖像画P1を拡大したステレオ画像を表
示することができる。なお、ズームアップされた肖像画
P1を元に戻すときは、先に述べた操作部8を操作する
と、指示信号S5がCPU45に出力され、観測者が注
視した肖像画P1を所定の大きさに戻した表示がなされ
る。
When the observer gazes at the portrait P1 on the left side, a camera output signal S3 indicating that "they are gazing at the portrait" is output from the camera 4 for gazing point detection to the CPU 45. Then, a process of enlarging and displaying the portrait P1 is performed using any one of the light emitting diode blocks BL1, BL2, BL3, or BL4 as a reference plane. Therefore, a stereo image in which the portrait P1 is enlarged can be displayed on the LCD 26 for right eye display and the LCD 27 for left display. When returning the zoomed-up portrait P1 to its original state, by operating the operation unit 8 described above, the instruction signal S5 is output to the CPU 45, and the portrait P1 watched by the observer is returned to a predetermined size. The display is made.

【0129】このように、本実施の形態としての仮想画
像立体合成装置を応用したバーチャル美術館によれば、
仮想空間上で、図27に示した肖像画P1、船の絵画P
2及び山の絵画P3の3枚の画像のうち、観察者が注視
した1枚の画像に通常のCCD撮像装置25の焦点を合
わせ込むとができるので、その画像をズームアップして
表示することができる。
As described above, according to the virtual art museum to which the virtual image three-dimensional synthesizing apparatus according to the present embodiment is applied,
In the virtual space, the portrait P1 and the ship painting P shown in FIG.
Since the normal CCD imaging device 25 can focus on one of the three images of the image 2 and the painting P3 of the mountain, the image is zoomed in and displayed. Can be.

【0130】従って、観察者が注視した画像を忠実に画
像表示することができるので、実空間の壁面には4個の
発光ダイオードLED1〜4を設け、その映像ソフトは
CD−ROMなどから供給すればよいので、バーチャル
美術館などを再現性よく構成することができる。
Therefore, since the image watched by the observer can be faithfully displayed, the four light emitting diodes LED1 to LED4 are provided on the wall surface of the real space, and the image software is supplied from a CD-ROM or the like. For this reason, a virtual museum or the like can be configured with high reproducibility.

【0131】[0131]

【発明の効果】以上説明したように、本発明の面認識装
置によれば、注視点検出用の撮像手段の出力に基づいて
流し撮り用の撮像手段の光学系を調整する制御手段が設
けられ、観測者の眼球運動から認識された瞳孔の動きに
基づいてその観察者が注視した光源と流し撮り用の撮像
手段との焦点距離を補正するようになされたものであ
る。
As described above, according to the surface recognition apparatus of the present invention, there is provided the control means for adjusting the optical system of the follow-up imaging means based on the output of the imaging means for detecting the gazing point. The focal length between the light source watched by the observer and the imaging means for panning is corrected based on the movement of the pupil recognized from the eye movement of the observer.

【0132】この構成によって、観測者が注視した特定
の光源に流し撮り用の撮像手段の焦点を合わせ込むこと
ができるので、ベストフォーカスで光源を所定の撮像方
向に流すように撮像することができると共に、その点滅
パターンの輝度信号を最適に画像処理することができる
ので、基準面を精度良く認識することができる。
With this configuration, it is possible to focus the panning imaging means on the specific light source watched by the observer, so that it is possible to perform imaging with the light source flowing in a predetermined imaging direction at the best focus. In addition, since the luminance signal of the blinking pattern can be optimally image-processed, the reference plane can be accurately recognized.

【0133】本発明の面認識方法によれば、観測者の眼
球運動から認識された瞳孔の動きに基づいてその観察者
が注視した光源と第1の撮像系との間の焦点距離を補正
し、その焦点距離を補正された第1の撮像系によって撮
像された点滅パターンの輝度信号を画像処理して光源の
3点の位置を求め、その後、3点の光源の位置を結んで
基準面を求めるものである。
According to the surface recognition method of the present invention, the focal length between the light source watched by the observer and the first image pickup system is corrected based on the movement of the pupil recognized from the eye movement of the observer. The luminance signal of the blinking pattern captured by the first imaging system whose focal length has been corrected is subjected to image processing to obtain three positions of the light source, and thereafter, the reference surface is connected by connecting the three light source positions. Is what you want.

【0134】この構成によって、観測者が注視した特定
の光源に流し撮り用の撮像手段の焦点を合わせ込むこと
ができるので、ベストフォーカスで光源を所定の撮像方
向に流すように撮像することができると共に、その点滅
パターンの輝度信号を最適に画像処理することができる
ので、基準面を精度良く認識することができる。従っ
て、この面認識方法を仮想画像立体合成装置の面認識手
段に十分に応用することができる。
With this configuration, it is possible to focus the panning imaging means on a specific light source watched by the observer, so that it is possible to perform imaging with the light source flowing in a predetermined imaging direction at the best focus. In addition, since the luminance signal of the blinking pattern can be optimally image-processed, the reference plane can be accurately recognized. Therefore, this surface recognition method can be sufficiently applied to the surface recognition means of the virtual image three-dimensional composition device.

【0135】本発明の仮想画像立体合成装置によれば、
上述の面認識装置が応用されるので、観測者が注視した
特定の光源に流し撮り用の撮像手段の焦点を合わせ込む
とができる。従って、ベストフォーカスで光源を所定の
撮像方向に流すように撮像することができると共に、そ
の点滅パターンの輝度信号を最適に画像処理することが
できるので、基準面を精度良く認識することができる。
According to the virtual image three-dimensional composition device of the present invention,
Since the above-described surface recognition apparatus is applied, it is possible to focus the panning imaging unit on a specific light source watched by the observer. Therefore, the light source can be imaged so as to flow in the predetermined imaging direction at the best focus, and the luminance signal of the blinking pattern can be optimally image-processed, so that the reference plane can be recognized with high accuracy.

【0136】この発明は、仮想空間の基準面上に仮想体
の画像を合成する立体表示装置などに適用して極めて好
適である。
The present invention is extremely suitable when applied to a three-dimensional display device or the like that synthesizes an image of a virtual body on a reference plane in a virtual space.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明に係る実施形態としての面認識装置10
0の構成例を示すブロック図である。
FIG. 1 is a plane recognition apparatus 10 according to an embodiment of the present invention.
FIG. 4 is a block diagram showing an example of the configuration of 0.

【図2】その面認識装置100の動作例を示すフローチ
ャートである。
FIG. 2 is a flowchart showing an operation example of the surface recognition device 100.

【図3】第1の実施形態としての面認識装置100を応
用した仮想画像立体合成装置200の構成例を示す斜視
図である。
FIG. 3 is a perspective view illustrating a configuration example of a virtual image three-dimensional composition device 200 to which the surface recognition device 100 according to the first embodiment is applied.

【図4】第1の実施形態で使用する基準面設定用のブレ
スレット1の構成例を示す斜視図である。
FIG. 4 is a perspective view showing a configuration example of a reference surface setting bracelet 1 used in the first embodiment.

【図5】各実施形態で使用する特殊グラストロン2の構
成例を示す正面から見た概念図である。
FIG. 5 is a conceptual diagram viewed from the front showing a configuration example of a special glasstron 2 used in each embodiment.

【図6】その特殊グラストロン2の内部構成例を示す一
部破砕の上面から見た概念図である。
FIG. 6 is a conceptual view showing an example of the internal configuration of the special glasstron 2 as viewed from the top of a partially crushed state.

【図7】そのフィルムCCD4R、4Lの構成例を示す
上面から見た概念図である。
FIG. 7 is a conceptual diagram showing a configuration example of the film CCDs 4R and 4L as viewed from above.

【図8】その特殊グラストロン2の装着時の注視点pの
位置関係例を示す概念図である。
FIG. 8 is a conceptual diagram showing an example of a positional relationship of a gazing point p when the special glasstron 2 is mounted.

【図9】各実施形態で使用する他の特殊グラストロン2
0の構成例を示す正面から見た概念図である。
FIG. 9 shows another special glasstron 2 used in each embodiment.
It is the conceptual diagram seen from the front which shows the example of a 0 structure.

【図10】その特殊グラストロン2の流し撮りCCD装
置23の内部構成例を示す平面図である。
FIG. 10 is a plan view showing an example of the internal configuration of the panning CCD device 23 of the special glasstron 2.

【図11】その流し撮りCCD装置23の光学系の構成
例を示す断面図である。
FIG. 11 is a sectional view showing a configuration example of an optical system of the panning CCD device 23.

【図12】仮想画像立体合成装置200の回路ブロック
例を示す図である。
FIG. 12 is a diagram illustrating an example of a circuit block of the virtual image three-dimensional composition device 200.

【図13】その点滅制御回路13の内部構成例を示すブ
ロック図である。
FIG. 13 is a block diagram showing an example of the internal configuration of the blink control circuit 13.

【図14】その4つの発光ダイオードLED1〜4の電
圧供給例を示す波形図である。
FIG. 14 is a waveform diagram showing a voltage supply example of the four light emitting diodes LED1 to LED4.

【図15】その基準面を成すプレート部11の通常画像
例を示すイメージ図である。
FIG. 15 is an image diagram showing an example of a normal image of the plate section 11 forming the reference plane.

【図16】ジャイロスコープによる画像の修正例を示す
イメージ図である。
FIG. 16 is an image diagram showing an example of correction of an image by a gyroscope.

【図17】その基準面の位置座標の算出例を示す模式図
である。
FIG. 17 is a schematic diagram showing an example of calculating the position coordinates of the reference plane.

【図18】仮想画像立体合成装置200の動作例(その
1)を示すメインルーチンのフローチャートである。
FIG. 18 is a flowchart of a main routine illustrating an operation example (part 1) of the virtual image three-dimensional composition device 200.

【図19】仮想画像立体合成装置200の動作例(その
2)を示すサブルーチンのフローチャートである。
FIG. 19 is a flowchart of a subroutine showing an operation example (part 2) of the virtual image three-dimensional composition device 200.

【図20】仮想画像立体合成装置200の動作例(その
3)を示すサブルーチンのフローチャートである。
FIG. 20 is a flowchart of a subroutine showing an operation example (part 3) of the virtual image three-dimensional composition device 200.

【図21】Aは、実空間上のプレート部11の実像であ
り、Bは、仮想空間における基準面上の3Dポリゴンの
合成例を示すイメージ図である。
21A is a real image of a plate unit 11 in a real space, and FIG. 21B is an image diagram showing an example of a combination of 3D polygons on a reference plane in a virtual space.

【図22】第2の実施形態で使用する市松模様状のバー
コード90内の2次元バーコード50の配置例を示す平
面図である。
FIG. 22 is a plan view showing an example of the arrangement of two-dimensional barcodes 50 in a checkered barcode 90 used in the second embodiment.

【図23】その2次元バーコード50の構成例を示す平
面図である。
FIG. 23 is a plan view showing a configuration example of the two-dimensional barcode 50.

【図24】その2次元バーコード50上の3Dポリゴン
10の合成例を示す斜視図である。
FIG. 24 is a perspective view showing a synthesis example of the 3D polygon 10 on the two-dimensional barcode 50.

【図25】第3の実施形態としての面認識方法に係る発
光ダイオードのブロックBL1〜BL8の配置例を示す
イメージ図である。
FIG. 25 is an image diagram showing an arrangement example of light emitting diode blocks BL1 to BL8 according to the surface recognition method as the third embodiment.

【図26】その壁面の認識例を示すフローチャートであ
る。
FIG. 26 is a flowchart showing an example of recognition of the wall surface.

【図27】その面認識原理を応用したバーチャル美術館
の構成例を示すイメージ図である。
FIG. 27 is an image diagram showing a configuration example of a virtual museum applying the surface recognition principle.

【符号の説明】[Explanation of symbols]

1・・・基準面設定用のブレスレット(物体)、2,2
0・・・特殊グラストロン、3・・・画像処理装置、4
・・・注視点検出用のカメラ(注視点検出用の撮像手
段)、5・・・制御手段、6・・・演算手段、8・・・
操作部(指示手段)、9・・・ジャイロスコープ、10
・・・3Dポリゴン、11・・・プレート部、12・・
・腕輪部、13・・・点滅制御回路、23・・・流し撮
りCCD装置(流し撮り用の撮像手段)、24・・・表
示手段、25・・・CCD撮像装置、26・・・右眼表
示用のLCD、27・・・左眼表示用のLCD、32・
・・垂直転送部(電荷転送部)、33・・・水平転送
部、LED1〜4・・・発光ダイオード(光源)、50
・・・二次元バーコード、90・・・バーコード、10
0・・・面認識装置、200・・・仮想画像立体合成装
1 ... Bracelet (object) for reference plane setting, 2, 2
0 ... Special glasstron, 3 ... Image processing device, 4
... Camera for gazing point detection (imaging means for gazing point detection), 5 ... Control means, 6 ... Calculating means, 8 ...
Operation unit (instruction means), 9 ... gyroscope, 10
... 3D polygon, 11 ... plate part, 12 ...
Bracelet part, 13 blinking control circuit, 23 panning CCD device (imaging means for panning), 24 display means, 25 CCD imaging device, 26 right eye LCD for display, 27 ... LCD for left eye display, 32
..Vertical transfer section (charge transfer section), 33... Horizontal transfer section, LEDs 1 to 4... Light emitting diode (light source), 50
... 2D barcode, 90 ... Barcode, 10
0: surface recognition device, 200: virtual image stereoscopic synthesis device

───────────────────────────────────────────────────── フロントページの続き (72)発明者 吉村 司 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 Fターム(参考) 5B050 BA09 DA01 EA07 EA19 EA28 FA02 FA06 FA08 5B087 AA07 AE00 BC05 BC12 BC13 BC16 BC26 BC32 DD03 DJ00 ────────────────────────────────────────────────── ─── Continuing on the front page (72) Inventor Tsukasa Yoshimura 6-35 Kita Shinagawa, Shinagawa-ku, Tokyo Sony Corporation F-term (reference) 5B050 BA09 DA01 EA07 EA19 EA28 FA02 FA06 FA08 5B087 AA07 AE00 BC05 BC12 BC13 BC16 BC26 BC32 DD03 DJ00

Claims (12)

【特許請求の範囲】[Claims] 【請求項1】 任意の物体の所望位置に取付けられた、
少なくとも、点滅パターンが異なるように点滅する3点
以上の光源と、 前記光源を所定の撮像方向に流すように撮像する流し撮
り用の撮像手段と、 前記撮像手段による点滅パターンの輝度信号を画像処理
して前記光源の3点の位置を求め、その後、前記3点の
光源の位置を結んで基準面を求める演算手段と、 前記基準面を注視する観測者の眼球運動を撮像して該観
測者の注視点を検出する注視点検出用の撮像手段と、 前記注視点検出用の撮像手段の出力に基づいて前記流し
撮り用の撮像手段の光学系を調整する制御手段とを備
え、 前記制御手段は、 前記観測者の眼球運動から認識された瞳孔の動きに基づ
いて該観測者が注視した前記光源と流し撮り用の撮像手
段との間の焦点距離を補正するようになされたことを特
徴とする面認識装置。
1. An object mounted at a desired position on an arbitrary object.
At least three or more light sources that blink so that the blinking patterns are different, an image pickup unit for taking a picture so that the light source is caused to flow in a predetermined imaging direction, and image processing of a luminance signal of the blinking pattern by the image pickup unit Calculating means for determining the position of three points of the light source and then connecting the positions of the three light sources to obtain a reference plane; and capturing the eye movement of an observer who gazes at the reference plane to obtain the observer An image pickup unit for detecting a point of interest for detecting the point of interest, and a control unit for adjusting an optical system of the image pickup unit for following shot based on an output of the image pickup unit for detecting the point of interest. Is characterized in that the focal length between the light source and the imaging means for panning is corrected based on the movement of the pupil recognized from the eye movements of the observer, Surface recognition device.
【請求項2】 前記光源を取付けた物体が設けられる場
合であって、 前記物体の姿勢に基づいて三次元の位置情報を出力する
ジャイロスコープが設けられることを特徴とする請求項
1に記載の面認識装置。
2. The gyroscope according to claim 1, wherein an object to which the light source is attached is provided, and a gyroscope that outputs three-dimensional position information based on the posture of the object is provided. Surface recognition device.
【請求項3】 任意の物体の所望位置に3点以上の光源
を取付け、少なくとも、点滅パターンが異なるように前
記光源を点滅し、 前記光源を所定の撮像方向に流すように第1の撮像系に
よって撮像すると共に、前記光源を注視する観測者の眼
球運動を第2の撮像系によって撮像し、 前記観測者の眼球運動から認識された瞳孔の動きに基づ
いてその観察者が注視した光源と第1の撮像系との間の
焦点距離を補正し、 前記焦点距離を補正された前記第1の撮像系によって撮
像された点滅パターンの輝度信号を画像処理して前記光
源の3点の位置を求め、その後、前記3点の光源の位置
を結んで基準面を求めることを特徴とする面認識方法。
3. A first imaging system in which three or more light sources are attached to desired positions of an arbitrary object, at least the light sources are blinked so as to have different blinking patterns, and the light sources are caused to flow in a predetermined imaging direction. A second imaging system captures the eye movement of the observer who gazes at the light source with the second light source, and the light source gazes at the observer based on the movement of the pupil recognized from the eye movement of the observer. Correcting the focal length between the light source and the first imaging system; and performing image processing on the luminance signal of the blinking pattern imaged by the first imaging system with the corrected focal length, to obtain three positions of the light source. And a step of connecting the positions of the three light sources to obtain a reference plane.
【請求項4】 観察者の属する外界像に仮想体の画像を
立体的に合成する装置であって、 前記観察者の属する実空間上で任意の基準面を認識する
面認識手段と、 前記面認識手段により認識された仮想空間の基準面上に
仮想体の画像を合成する合成手段とを備え、 前記面認識手段は、 任意の物体の所望位置に取付けられた、少なくとも、点
滅パターンが異なるように点滅する3点以上の光源と、 前記光源を所定の撮像方向に流すように撮像する流し撮
り用の撮像手段と、 前記撮像手段による点滅パターンの輝度信号を画像処理
して前記光源の3点の位置を求め、その後、前記3点の
光源の位置を結んで基準面を求める演算手段と、 前記基準面を注視する観測者の眼球運動を撮像して該観
測者の注視点を検出する注視点検出用の撮像手段と、 前記注視点検出用の撮像手段の出力に基づいて前記流し
撮り用の撮像手段の光学系を調整する制御手段とを有
し、 前記制御手段は、 前記観測者の眼球運動から認識された瞳孔の動きに基づ
いて該観測者が注視した前記光源と流し撮り用の撮像手
段との間の焦点距離を補正するようになされたことを特
徴とする仮想画像立体合成装置。
4. An apparatus for stereoscopically combining an image of a virtual body with an external image to which an observer belongs, a plane recognition means for recognizing an arbitrary reference plane in a real space to which the observer belongs, and the plane Synthesizing means for synthesizing the image of the virtual body on the reference plane of the virtual space recognized by the recognizing means, wherein the surface recognizing means is attached to a desired position of an arbitrary object, and at least a blinking pattern is different. Three or more light sources that blink on and off; an imaging means for panning to image the light source so as to flow in a predetermined imaging direction; Calculating means for obtaining the reference plane by connecting the positions of the three light sources, and detecting the gaze point of the observer by imaging the eye movements of the observer watching the reference plane. Imaging means for viewpoint detection; Control means for adjusting the optical system of the imaging means for panning based on the output of the imaging means for note point detection, the control means of the pupil recognized from the eye movement of the observer A virtual image three-dimensional composition apparatus, wherein a focal length between the light source watched by the observer and a panning imaging unit is corrected based on a movement.
【請求項5】 前記合成手段及び注視点検出用の撮像手
段が設けられる場合であって、 前記注視点検出用の撮像手段の出力に基づいて前記合成
手段への映像出力を制御する制御手段が設けられ、 前記制御手段は、 少なくとも、前記観測者が注視した部分の画像を所定の
倍率で拡大して表示するように前記合成手段を制御する
ことを特徴とする請求項4記載の仮想画像立体合成装
置。
5. The image processing apparatus according to claim 1, wherein said synthesizing unit and the image capturing unit for detecting a point of interest are provided, and a control unit for controlling a video output to the combining unit based on an output of the image capturing unit for detecting the point of interest is provided. 5. The virtual image stereoscopic device according to claim 4, wherein the control unit controls the synthesizing unit so that at least an image of a part watched by the observer is enlarged and displayed at a predetermined magnification. 6. Synthesizer.
【請求項6】 前記合成手段が設けられる場合であっ
て、 少なくとも、前記観測者が注視した部分の画像を所定の
大きさに戻して表示するように前記合成手段に指示を与
える指示手段が設けられることを特徴とする請求項4記
載の仮想画像立体合成装置。
6. A case in which the combining means is provided, and at least an instruction means for giving an instruction to the combining means to return an image of a part watched by the observer to a predetermined size and display the image is provided. 5. The virtual image three-dimensional composition device according to claim 4, wherein:
【請求項7】 前記流し撮り用の撮像手段には、 各画素を構成する複数の光電変換素子を有した二次元撮
像デバイスが使用され、 前記光電変換素子から得られ
た信号電荷を所定の方向に転送するときに、 少なくとも、同一フィールド期間中に複数回、前記光電
変換素子から前記信号電荷を読み出すようになされたこ
とを特徴とする請求項4記載の仮想画像立体合成装置。
7. A two-dimensional imaging device having a plurality of photoelectric conversion elements constituting each pixel is used as the panning imaging means, and the signal charges obtained from the photoelectric conversion elements are transferred in a predetermined direction. 5. The virtual image three-dimensional composition device according to claim 4, wherein the signal charge is read from the photoelectric conversion element at least a plurality of times during the same field period.
【請求項8】 前記撮像手段及び演算手段が設けられる
場合であって、 前記演算手段は、 前記撮像手段による輝度信号の点滅パターンに関して、
3つの輝点を含むXY平面を成す空間的な配置パターン
に変換し、 前記配置パターン上を走査して、少なくとも、3つの輝
点の位置座標を求め、 前記3点の位置座標を結ぶことにより前記基準面を認識
するようになされたことを特徴とする請求項4記載の仮
想画像立体合成装置。
8. The method according to claim 1, wherein the imaging unit and the calculation unit are provided, wherein the calculation unit determines a blinking pattern of a luminance signal by the imaging unit.
By converting into a spatial arrangement pattern forming an XY plane including three luminescent points, scanning the arrangement pattern to obtain at least the position coordinates of three luminescent points, and connecting the position coordinates of the three points 5. The virtual image three-dimensional composition apparatus according to claim 4, wherein the reference plane is recognized.
【請求項9】 前記演算手段は、 3つの輝点を含むXY平面を成す配置パターン上で流し
撮像方向をY軸とし、該Y軸に直交する軸をX軸とした
ときに、 前記流し撮像方向に輝度信号値を加算してX軸上にプロ
ットし、 前記X軸上にプロットされた輝度信号値が最大となる位
置を検出して3つのX座標値を求め、かつ、 前記配置パターン上でY軸方向に走査したときに、 前記流し撮像方向に並んだ複数の輝点のうち、最初に発
光した輝点位置を各々X座標値に対応したY座標値とし
て求めることを特徴とする請求項8記載の仮想画像立体
合成装置。
9. The panning imaging, wherein the panning imaging direction is set to a Y axis on an arrangement pattern forming an XY plane including three bright points, and an axis orthogonal to the Y axis is set to an X axis. The luminance signal values are added in the directions and plotted on the X-axis. The position where the luminance signal value plotted on the X-axis is maximum is detected to obtain three X-coordinate values. When scanning in the Y-axis direction in (1), among the plurality of bright spots arranged in the panning imaging direction, the position of the bright spot that first emits light is obtained as a Y coordinate value corresponding to the X coordinate value. Item 10. A virtual image three-dimensional composition device according to Item 8.
【請求項10】 前記面認識手段は、 仮想体の画像を合成しようとする位置に取付けられた、
少なくとも、白地に黒で印刷されたn行×n列の白黒マ
トリクスと、該白黒マトリクスと同じ太さの黒枠から成
る2次元マトリクスコードと、 前記二次元マトリクスコードを撮像する撮像手段と、 前記撮像手段による輝度信号を画像処理して前記二次元
マトリクスコードから基準面を求める演算手段とを有す
ることを特徴とする請求項4記載の仮想画像立体合成装
置。
10. The surface recognition means is attached to a position where an image of a virtual body is to be synthesized.
At least an n-row x n-column black-and-white matrix printed in black on a white background, a two-dimensional matrix code including a black frame having the same thickness as the black-and-white matrix, imaging means for imaging the two-dimensional matrix code, and imaging 5. The virtual image three-dimensional composition apparatus according to claim 4, further comprising calculation means for processing a luminance signal by the means to obtain a reference plane from the two-dimensional matrix code.
【請求項11】 前記合成手段及び注視点検出用の撮像
手段が設けられる場合であって、 前記合成手段は、 観察者の属する外界像を撮像する撮像手段と、 前記撮像手段による外界像と予め準備された仮想体の画
像と合成したステレオ画像の一方を表示する第1の画像
表示素子と、 前記ステレオ画像の他方を表示する第2の画像表示素子
とを有し、 前記注視点検出用の撮像手段が、前記観察者の眼球に相
対する位置であって前記第1及び第2の画像表示素子の
表示面内に分散して配置されることを特徴とする請求項
4記載の仮想画像立体合成装置。
11. A case in which the synthesizing unit and the imaging unit for detecting a gazing point are provided, wherein the synthesizing unit includes: an imaging unit that captures an external image to which an observer belongs; A first image display element for displaying one of a stereo image synthesized with the prepared image of the virtual body; and a second image display element for displaying the other of the stereo images. 5. The virtual image stereoscopic device according to claim 4, wherein the image pickup means is arranged at a position facing the eyeball of the observer and dispersed in display surfaces of the first and second image display elements. Synthesizer.
【請求項12】 前記合成手段及び注視点検出用の撮像
手段が設けられる場合であって、 前記合成手段は、 観察者の属する外界像を取り込むために入射光の開閉を
する液晶シャッタと、 前記外界像に合成するための仮想体の画像を表示する画
像表示素子と、 前記画像表示素子による仮想体の画像と、前記液晶シャ
ッタを通過した観察者の属する外界像とをその観察者の
眼球に導く光学手段とを有し、 前記注視点検出用の撮像手段が、前記観察者の眼球に相
対する位置であって前記液晶シャッタ面上に分散して配
置されることを特徴とする請求項4記載の仮想画像立体
合成装置。
12. The liquid crystal shutter according to claim 12, wherein the combining means and the imaging means for detecting a gazing point are provided, wherein the combining means opens and closes incident light to capture an external image to which an observer belongs; An image display element for displaying an image of the virtual object for synthesis with the external image, an image of the virtual object by the image display element, and an external image to which the observer who has passed the liquid crystal shutter belongs to the observer's eyeball. 5. An optical device for guiding, wherein the imaging device for detecting the gazing point is disposed at a position facing the eyeball of the observer and dispersed on the liquid crystal shutter surface. The three-dimensional virtual image synthesizing apparatus according to claim 1.
JP10306169A 1998-10-27 1998-10-27 Device and method for recognizing surface and virtual image solid synthesizer Pending JP2000132329A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10306169A JP2000132329A (en) 1998-10-27 1998-10-27 Device and method for recognizing surface and virtual image solid synthesizer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10306169A JP2000132329A (en) 1998-10-27 1998-10-27 Device and method for recognizing surface and virtual image solid synthesizer

Publications (1)

Publication Number Publication Date
JP2000132329A true JP2000132329A (en) 2000-05-12

Family

ID=17953879

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10306169A Pending JP2000132329A (en) 1998-10-27 1998-10-27 Device and method for recognizing surface and virtual image solid synthesizer

Country Status (1)

Country Link
JP (1) JP2000132329A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004042548A1 (en) * 2002-11-07 2004-05-21 Olympus Corporation Movement detection device
WO2004068326A1 (en) * 2003-01-31 2004-08-12 Olympus Corporation Motion detection device and communication device
JP2005172851A (en) * 2003-12-05 2005-06-30 Sony Corp Image display apparatus
WO2007023447A1 (en) * 2005-08-22 2007-03-01 Koninklijke Philips Electronics N.V. Communication system and method, and mobile device
JP2009211718A (en) * 2002-11-12 2009-09-17 Namco Bandai Games Inc Image forming system, image forming method, program, and information storage medium
JP2013206365A (en) * 2012-03-29 2013-10-07 Casio Comput Co Ltd Image processor, image processing method and program
JP2014010838A (en) * 2012-06-29 2014-01-20 Disney Enterprises Inc Augmented reality simulation continuum
JPWO2012049795A1 (en) * 2010-10-12 2014-02-24 パナソニック株式会社 Display processing apparatus, display method, and program

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004042548A1 (en) * 2002-11-07 2004-05-21 Olympus Corporation Movement detection device
JP2004157850A (en) * 2002-11-07 2004-06-03 Olympus Corp Motion detector
US7489806B2 (en) 2002-11-07 2009-02-10 Olympus Corporation Motion detection apparatus
JP2009211718A (en) * 2002-11-12 2009-09-17 Namco Bandai Games Inc Image forming system, image forming method, program, and information storage medium
WO2004068326A1 (en) * 2003-01-31 2004-08-12 Olympus Corporation Motion detection device and communication device
US7405725B2 (en) 2003-01-31 2008-07-29 Olympus Corporation Movement detection device and communication apparatus
JP2005172851A (en) * 2003-12-05 2005-06-30 Sony Corp Image display apparatus
WO2007023447A1 (en) * 2005-08-22 2007-03-01 Koninklijke Philips Electronics N.V. Communication system and method, and mobile device
JPWO2012049795A1 (en) * 2010-10-12 2014-02-24 パナソニック株式会社 Display processing apparatus, display method, and program
JP2013206365A (en) * 2012-03-29 2013-10-07 Casio Comput Co Ltd Image processor, image processing method and program
JP2014010838A (en) * 2012-06-29 2014-01-20 Disney Enterprises Inc Augmented reality simulation continuum
CN103530495A (en) * 2012-06-29 2014-01-22 迪士尼企业公司 Augmented reality simulation continuum

Similar Documents

Publication Publication Date Title
CN108292489B (en) Information processing apparatus and image generating method
CN107408314B (en) Mixed reality system
CN103984097B (en) Head-mounted display apparatus, the control method of head-mounted display apparatus and image display system
KR100519864B1 (en) Image information input device and method
CN108535868B (en) Head-mounted display device and control method thereof
CN110275297B (en) Head-mounted display device, display control method, and recording medium
EP2305358B1 (en) Portable type game device and method for controlling portable type game device
US20170324899A1 (en) Image pickup apparatus, head-mounted display apparatus, information processing system and information processing method
JP6349660B2 (en) Image display device, image display method, and image display program
JP2000172431A (en) Information input device and game device
JP2018160735A (en) Transmission type display apparatus, display control method, and computer program
JP4281139B2 (en) Position recognition apparatus, position recognition method, and virtual image stereoscopic composition apparatus
US10992928B1 (en) Calibration system for concurrent calibration of device sensors
JP4264601B2 (en) Information input device, information input method, and game device
JP2000184398A (en) Virtual image stereoscopic synthesis device, virtual image stereoscopic synthesis method, game machine and recording medium
CN206378680U (en) 3D cameras based on 360 degree of spacescans of structure light multimode and positioning
JP2002354505A (en) Stereoscopic system
JP2004205711A (en) Display device
JP2009200691A (en) Head-mounted video display device
EP3548956B1 (en) Imaging system and method of producing context and focus images
JP2000132329A (en) Device and method for recognizing surface and virtual image solid synthesizer
WO2021221341A1 (en) Augmented reality device and control method for same
JP2000098871A (en) Virtual image stereoscopic compositing device, virtual image stereoscopic compositing method, game device and recording medium
US20230412778A1 (en) Projector with field lens
JP2000222116A (en) Position recognition method for display image, position recognition device therefor and virtual image stereoscopic synthesis device