JP2000098871A - Virtual image stereoscopic compositing device, virtual image stereoscopic compositing method, game device and recording medium - Google Patents

Virtual image stereoscopic compositing device, virtual image stereoscopic compositing method, game device and recording medium

Info

Publication number
JP2000098871A
JP2000098871A JP27397698A JP27397698A JP2000098871A JP 2000098871 A JP2000098871 A JP 2000098871A JP 27397698 A JP27397698 A JP 27397698A JP 27397698 A JP27397698 A JP 27397698A JP 2000098871 A JP2000098871 A JP 2000098871A
Authority
JP
Japan
Prior art keywords
image
virtual
reference plane
observer
belongs
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP27397698A
Other languages
Japanese (ja)
Inventor
Takeshi Hayakawa
健 早川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP27397698A priority Critical patent/JP2000098871A/en
Publication of JP2000098871A publication Critical patent/JP2000098871A/en
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Position Input By Displaying (AREA)
  • Studio Circuits (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To make it possible to easily recognize the virtual movements of an object existing on a reference plane of a real space with a small calculation quantity from the position informations of the object and to control the expression of the image of the virtual object composited on the reference plane of the virtual space in accordance with the position information thereof. SOLUTION: This device has a bracelet 1 for setting the reference plane which is used for recognizing the arbitrary reference plane on the real space, to which the observer belongs, a special glass 2 for compositing the image of a three-dimensional polygon 10 on the reference plane of the virtual space as if the three-dimensional polygon 10 exists in the position, to which the reference plane in the real space recognized by the bracelet 1 belongs, and at least a position detecting mechanism 4 for detecting the position information of an implement 30A for playing with a kitten composited in the position including the three-dimensional polygon 10 on the virtual space. Image processing is executed in such a manner that the character image in the virtual space in changed in accordance with the position information of the implement 30A for playing with a kitten obtained from the position detecting mechanism 4.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、TV番組のキャ
ラクタを仮想空間上の手のひらで育成するバーチャルキ
ャラクタ育成ゲーム装置などの製造に適用して好適な仮
想画像立体合成装置、仮想画像立体合成方法、ゲーム装
置及び記憶媒体に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a virtual image three-dimensional synthesizing apparatus and a virtual image three-dimensional synthesizing method suitable for manufacturing a virtual character breeding game apparatus for growing TV program characters with palms in a virtual space. The present invention relates to a game device and a storage medium.

【0002】詳しくは、観察者の属する実空間上に位置
検出手段を設け、その実空間の基準面上に存在する物体
の位置情報から、簡易に、しかも、少ない計算量で仮想
空間上の物体の仮想的な接近、接触又は押圧などを認識
できるようにすると共に、仮想空間の基準面上で合成さ
れた仮想体の画像の表情をその位置情報に基づいて制御
できるようにしたものである。
More specifically, a position detecting means is provided in the real space to which the observer belongs, and the position information of the object existing on the reference plane of the real space can be simply and with a small amount of calculation. It is possible to recognize virtual approach, contact or pressure, and to control the expression of the image of the virtual object synthesized on the reference plane of the virtual space based on the position information.

【0003】[0003]

【従来の技術】近年、バーチャル・リアリティ(仮想現
実感)に基づく表示技術の向上に伴い、複数の画像表示
面に跨って仮想現実感を観察者に提供するための仮想画
像立体表示装置が出現している。
2. Description of the Related Art In recent years, with the improvement of display technology based on virtual reality, a virtual image stereoscopic display device for providing a viewer with virtual reality over a plurality of image display surfaces has appeared. are doing.

【0004】この種の立体表示装置は、特開平9−23
7353号の技術文献に見られる。この技術文献によれ
ば、縦横数m程度の大きさの映写空間が設けられ、各々
の面に表示装置が配置され、各々の表示装置から恐竜、
怪獣や武器などの仮想体の画像が立体表示される。そし
て、観察者は液晶シャッタ付きの眼鏡をかけ、その映写
空間に立つと、あたかも、各々の表示装置で表示された
仮想体と同じ場所に居るようなされる。
[0004] This type of stereoscopic display device is disclosed in Japanese Unexamined Patent Publication No. 9-23.
7353 can be found in the technical literature. According to this technical document, a projection space of about several meters in length and width is provided, and a display device is arranged on each surface, and a dinosaur,
Images of virtual bodies such as monsters and weapons are displayed in three dimensions. Then, when the observer wears glasses with a liquid crystal shutter and stands in the projection space, it is as if he were at the same place as the virtual body displayed on each display device.

【0005】また、観察者が仮想空間上で手にする武器
がカメラによって撮像され、その武器の動きによって仮
想体が反応するように画像処理されている。これによ
り、観察者は数千年前の原始時代にタイムスリップし
て、恐竜退治などをゲーム感覚で行うことができる。
[0005] Further, a weapon that an observer holds in a virtual space is imaged by a camera, and image processing is performed so that a virtual body reacts according to the movement of the weapon. This allows the observer to slip back in time to the primitive era thousands of years ago, and perform dinosaur extermination, etc., as if playing a game.

【0006】[0006]

【発明が解決しようとする課題】ところで、従来方式の
立体表示装置によれば、映写空間が立体形状であること
を前提にして、その立体形状の重心が求められ、その重
心から映写空間の相対座標が求められる。そして、その
相対座標に基づいてカメラと、仮想体の位置関係とを求
め、仮想空間上に恐竜などの仮想体を合成表示してい
る。
However, according to the conventional three-dimensional display device, the center of gravity of the three-dimensional shape is obtained on the assumption that the projection space has a three-dimensional shape, and the center of gravity of the three-dimensional shape is determined from the center of gravity. The coordinates are determined. Then, based on the relative coordinates, the positional relationship between the camera and the virtual body is obtained, and a virtual body such as a dinosaur is displayed in a composite manner in the virtual space.

【0007】例えば、映写空間上のある基準面に仮想的
に立たせた恐竜などの仮想体に物体を近づけた場合であ
って、その基準面上の仮想体への物体の接近、接触又は
押圧を識別しようとしたときに、まず、その仮想体と外
接する矩形領域が画像処理によって抽出される。
[0007] For example, when an object is brought close to a virtual body such as a dinosaur virtually standing on a certain reference plane in the projection space, the approach, contact or pressing of the object to the virtual body on the reference plane is considered. When trying to identify, first, a rectangular area circumscribing the virtual body is extracted by image processing.

【0008】その後、矩形領域の四隅の画像上の位置が
相対座標から求められ、透視投影変換法などから得られ
たパラメータを用いてカメラと、その仮想体の矩形領域
の位置関係とが求められる。そして、矩形領域に対する
物体の位置座標を算出し、基準面上の仮想体への物体の
接近、接触又は押圧を識別している。
Thereafter, the positions of the four corners of the rectangular area on the image are obtained from the relative coordinates, and the camera and the positional relationship between the rectangular area of the virtual body are obtained using the parameters obtained by the perspective projection transformation method or the like. . Then, the position coordinates of the object with respect to the rectangular area are calculated, and the approach, contact or press of the object to the virtual body on the reference plane is identified.

【0009】従って、観察者の属する実空間の基準面上
に、例えば、TV番組のキャラクタなどを仮想的に飛び
出させ、その仮想空間上の観察者の手のひらでそのキャ
ラクタを遊ばせる仮想画像立体合成装置を構成しようと
したときに、従来方式の立体表示装置をそのまま適用す
ると、その装置が大がかりとなったり、基準面上の仮想
体への物体の接近、接触又は押圧を演算するための画像
処理が複雑になったり、その時の計算量が多くなったり
して、ゲーム装置などのコストアップにつながるという
問題がある。
[0009] Therefore, for example, a virtual image stereoscopic composition in which, for example, a TV program character or the like virtually jumps out onto the reference plane of the real space to which the observer belongs and the character plays with the palm of the observer in the virtual space. If a conventional stereoscopic display device is applied as it is when configuring the device, the device becomes large-scale, or image processing for calculating the approach, contact, or pressing of an object to a virtual object on a reference plane. Is complicated or the amount of calculation at that time is increased, leading to an increase in the cost of a game device or the like.

【0010】そこで、本発明は上記の課題に鑑み創作さ
れたものであり、実空間の基準面上に存在する物体の位
置情報から簡易に、しかも、少ない計算量でその物体の
仮想的な動きを認識できるようにすると共に、仮想空間
の基準面上で合成された仮想体の画像の表情をその位置
情報に基づいて制御できるようにした仮想画像立体合成
装置、仮想画像立体合成方法、ゲーム装置及び記録媒体
を提供することを目的とする。
Accordingly, the present invention has been made in view of the above-described problems, and is intended to simplify the virtual motion of an object from the position information of the object existing on the reference plane in the real space with a small amount of calculation. Virtual image three-dimensional composition device, virtual image three-dimensional composition method, and game device capable of recognizing an image and controlling the expression of a virtual body image synthesized on a reference plane in a virtual space based on the position information thereof And a recording medium.

【0011】[0011]

【課題を解決するための手段】上述した課題は、観察者
の属する外界像に仮想体の画像を立体的に合成する装置
であって、観察者の属する実空間上で任意の基準面を認
識する面認識手段と、その面認識手段により認識された
実空間上の基準面の属する位置に、あたかも、仮想体が
存在するように仮想空間の基準面上で仮想体の画像を合
成する合成手段と、少なくとも、仮想空間上では仮想体
を包含する位置に合成される物体であって、実空間上で
は基準面から離れた位置にある物体の位置を検出する位
置検出手段とを備え、その位置検出手段から得られた物
体の位置情報に基づいて仮想空間上で仮想体の画像が変
化するように画像処理されることを特徴とする仮想画像
立体合成装置によって解決される。
An object of the present invention is to provide an apparatus for stereoscopically combining an image of a virtual object with an external image to which an observer belongs, and recognizing an arbitrary reference plane in a real space to which the observer belongs. Combining means for combining an image of a virtual body on a reference plane of a virtual space such that a virtual body exists at a position to which the reference plane in the real space belongs, which is recognized by the surface recognition means. And at least a position detecting means for detecting a position of an object synthesized in a position including the virtual body in the virtual space and located at a position distant from the reference plane in the real space, According to another aspect of the present invention, there is provided a virtual image three-dimensional composition device that performs image processing so that an image of a virtual body changes in a virtual space based on position information of an object obtained from a detection unit.

【0012】本発明の仮想画像立体合成装置によれば、
観察者の属する外界像に仮想体の画像を立体的に合成す
る際に、面認識手段によって実空間上の基準面が求めら
れる。その後、面認識手段で認識された基準面が合成手
段によって表示されると共に、その基準面の属する仮想
空間上で仮想体の画像が合成される。その表示画面上で
任意に仮想体を触れる位置に合成された、例えば、観察
者の手などの物体に関して、位置検出手段によって、実
空間上でその物体の位置が検出される。この物体の位置
情報に基づいて仮想空間上で仮想体の画像が変化するよ
うに画像処理される。
According to the virtual image three-dimensional synthesizing apparatus of the present invention,
When stereoscopically combining an image of a virtual body with an external image to which an observer belongs, a reference plane in a real space is obtained by a plane recognition unit. Then, the reference plane recognized by the plane recognition unit is displayed by the synthesis unit, and an image of the virtual body is synthesized in the virtual space to which the reference plane belongs. For an object such as an observer's hand, for example, synthesized at a position where the virtual body is arbitrarily touched on the display screen, the position of the object is detected in real space by the position detecting means. Image processing is performed so that the image of the virtual body changes in the virtual space based on the position information of the object.

【0013】従って、位置検出手段による実空間上の物
体の位置情報から簡易に、しかも、少ない計算量で仮想
空間上の物体の仮想的な接近、接触又は押圧などの変位
情報を取得することができるので、本発明の仮想画像立
体合成装置をバーチャルキャラクタ育成ゲーム装置など
に十分応用することができる。
Therefore, it is possible to easily obtain the displacement information such as the virtual approach, contact or press of the object in the virtual space from the position information of the object in the real space by the position detecting means with a small amount of calculation. Therefore, the virtual image three-dimensional composition device of the present invention can be sufficiently applied to a virtual character breeding game device and the like.

【0014】本発明の仮想画像立体合成方法は、観察者
の属する外界像に仮想体の画像を立体的に合成する方法
であって、観察者の属する実空間上で任意の基準面を設
定し、ここで設定された基準面を撮像して実空間上の基
準面の属する位置に、あたかも、仮想体が存在するよう
に仮想空間の基準面上で仮想体の画像を合成し、少なく
とも、仮想空間上では仮想体を包含する位置に合成され
る物体であって、実空間上では基準面から離れた位置に
ある物体の位置情報を検出し、そこで検出された物体の
位置情報に基づいて仮想空間上で仮想体の画像が変化す
るように画像処理されることを特徴とするものである。
The virtual image stereoscopic synthesis method of the present invention is a method for stereoscopically synthesizing an image of a virtual body with an external image to which an observer belongs, and sets an arbitrary reference plane in a real space to which the observer belongs. By capturing the reference plane set here and synthesizing the image of the virtual body on the reference plane of the virtual space so that the virtual body exists at the position to which the reference plane in the real space belongs, at least the virtual In space, an object is synthesized at the position that includes the virtual body.In real space, the position information of the object located at a position distant from the reference plane is detected, and based on the position information of the detected object, the virtual The image processing is performed so that the image of the virtual object changes in space.

【0015】本発明の仮想画像立体合成方法によれば、
実空間上の物体の位置変化から、簡易に、しかも、少な
い計算量で仮想空間上の物体の仮想的な接近、接触又は
押圧などの変位情報を取得することができる。
According to the virtual image three-dimensional synthesis method of the present invention,
Displacement information such as virtual approach, contact or pressure of the object in the virtual space can be easily acquired from the position change of the object in the real space with a small amount of calculation.

【0016】本発明のゲーム装置は、観察者の属する外
界像に任意のキャラクタ画像を立体的に合成する装置で
あって、観察者の属する実空間上で任意の基準面を認識
する面認識手段と、その面認識手段により認識された実
空間上の基準面の属する位置に、あたかも、キャラクタ
が存在するように仮想空間の基準面上でキャラクタの画
像を合成する合成手段と、少なくとも、仮想空間上では
キャラクタを包含する位置に合成される観察者の身体部
位の一部に装着される物体又は観察者が保持する物体で
あって、実空間上では基準面から離れた位置にある物体
の位置情報を検出する位置検出手段とを備え、その位置
検出手段から得られた物体の位置情報に基づいて仮想空
間上のキャラクタ画像が変化するように画像処理される
ことを特徴とするものである。
A game device according to the present invention is a device for stereoscopically combining an arbitrary character image with an external image to which an observer belongs, and a plane recognition means for recognizing an arbitrary reference plane in a real space to which the observer belongs. Synthesizing means for synthesizing an image of the character on the reference plane of the virtual space so that the character exists at the position to which the reference plane in the real space belongs, which is recognized by the plane recognition means; Above, an object attached to a part of the body part of the observer or an object held by the observer to be combined with the position including the character, and the position of the object in the real space that is away from the reference plane Position detecting means for detecting information, wherein image processing is performed so that a character image in a virtual space changes based on position information of the object obtained from the position detecting means. Than it is.

【0017】本発明のゲーム装置によれば、上述した仮
想画像立体合成装置が応用されるので、位置検出手段に
よる実空間上の観察者の身体部位の一部に装着された例
えばデータグローブ又は観察者が保持するじゃらし具な
どの位置情報から簡易に、しかも、少ない計算量で仮想
空間上のデータグローブ又はじゃらし具の仮想的な接
近、接触又は押圧などの変位情報を取得することができ
る。
According to the game apparatus of the present invention, since the above-described virtual image three-dimensional composition apparatus is applied, for example, a data glove or an observation device attached to a part of the body part of the observer in the real space by the position detection means Displacement information such as virtually approaching, touching, or pressing a data glove or a clasp in a virtual space can be easily acquired from positional information of a clasp and the like held by the user with a small amount of calculation.

【0018】従って、その実空間上の基準面の属する位
置に、あたかも、TV番組のキャラクタなどを飛び出さ
せ、その観察者の一方の手のひらに載せたキャラクタな
どを他方の手に装着したデータグローブや、手に持った
じゃらし具を近づけて撫でたときに、そのキャラクタを
笑わせたり、泣かせたり、又は、怒らせたりすることが
できる。これにより、実空間上の基準面の属する位置に
あたかも出現したキャラクタを観察者が育成するような
バーチャルキャラクタ育成ゲーム装置などを安価に構成
することができる。
Therefore, a data glove in which a character or the like of a TV program jumps out to the position to which the reference plane in the real space belongs, and a character or the like placed on one palm of the observer is mounted on the other hand, The character can be made to laugh, cry, or be angry when the pet is brought close to the stirrer and stroked. This makes it possible to inexpensively configure a virtual character breeding game device or the like in which the observer breeds a character that appears as if it appeared at the position to which the reference plane belongs in the real space.

【0019】本発明の記録媒体は、観察者の属する外界
像に仮想体の画像を立体的に合成するアルゴリズムを格
納した記録媒体であって、その記録媒体には、観察者の
属する実空間上で任意の基準面を設定し、ここで設定さ
れた基準面を撮像して仮想空間上に表示すると共に、仮
想空間上に仮想体の画像を重ね合わせて合成し、少なく
とも、仮想空間上では仮想体を包含する位置に合成され
る物体であって、実空間上では基準面から離れた位置に
ある物体の位置情報を検出し、そこで検出された物体の
位置情報に基づいて仮想空間上の仮想体の画像が変化す
るように画像処理するためのアルゴリズムが格納される
ことを特徴とするものである。
The recording medium of the present invention is a recording medium storing an algorithm for stereoscopically combining an image of a virtual object with an external image to which an observer belongs, and the recording medium has a structure in real space to which the observer belongs. An arbitrary reference plane is set, and the reference plane set here is imaged and displayed in the virtual space, and the image of the virtual body is superimposed and synthesized on the virtual space. Detects the position information of an object that is synthesized at the position that encompasses the body and is located away from the reference plane in the real space, and based on the detected position information of the object, the virtual information in the virtual space is detected. An algorithm for performing image processing such that a body image changes is stored.

【0020】本発明の記録媒体によれば、上述した仮想
画像立体合成方法を実行するアルゴリズムが格納される
ので、そのアルゴリズムを実行することによって、実空
間上の物体の位置情報から簡易に、しかも、少ない計算
量で仮想空間上の物体の仮想的な接近、接触又は押圧な
どを認識することができる。従って、上述したバーチャ
ルキャラクタ育成ゲーム装置などを再現性良く構成する
ことができる。
According to the recording medium of the present invention, the algorithm for executing the above-described virtual image three-dimensional synthesis method is stored. By executing the algorithm, the position information of the object in the real space can be easily obtained. Thus, it is possible to recognize a virtual approach, contact or pressure of an object in a virtual space with a small amount of calculation. Therefore, the above-described virtual character breeding game device and the like can be configured with good reproducibility.

【0021】[0021]

【発明の実施の形態】以下、図面を参照しながら、この
発明の実施形態としての仮想画像立体合成装置、仮想画
像立体合成方法、ゲーム装置及び記録媒体について説明
をする。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, a virtual image three-dimensional composition device, a virtual image three-dimensional composition method, a game device, and a recording medium according to embodiments of the present invention will be described with reference to the drawings.

【0022】(1)第1の実施形態 図1は本発明に係る第1の実施形態としての仮想画像立
体合成装置を応用したゲーム装置100の構成例を示す
斜視図である。
(1) First Embodiment FIG. 1 is a perspective view showing a configuration example of a game apparatus 100 to which a virtual image stereoscopic synthesis apparatus according to a first embodiment of the present invention is applied.

【0023】この実施形態では、仮想空間上ではキャラ
クタなどの仮想体を触れる位置に合成される物体であっ
て、実空間上では基準面から離れた位置にある上記物体
の位置を検出する位置検出手段を設け、ここで検出され
た物体の位置情報に基づいて仮想空間上の仮想体の画像
が変化するように画像処理して、その実空間上の基準面
の属する位置に、あたかも、TV番組のキャラクタなど
を飛び出させ、その観察者の一方の手のひらに載せたキ
ャラクタなどを他方の手を近づけて撫でたときに、その
キャラクタを笑わせたり、泣かせたり、又は、怒らせた
りするバーチャルキャラクタ育成ゲーム装置などを安価
かつコンパクトに構成できるようにする。
In this embodiment, a position detection is performed to detect a position of an object which is synthesized at a position touching a virtual body such as a character in a virtual space, and which is located at a position distant from a reference plane in a real space. Means for performing image processing so that the image of the virtual body in the virtual space changes based on the position information of the object detected here, and as if the TV program is located at the position to which the reference plane in the real space belongs. A virtual character nurturing game device that makes a character laugh, cry, or angry when a character or the like jumps out and strokes a character placed on one palm of the observer with the other hand approached. And so on can be configured inexpensively and compactly.

【0024】図1に示すゲーム装置100は観察者の属
する外界像に、TV番組のキャラクタなどの仮想体画像
を立体的に合成する装置である。このゲーム装置100
は基準面設定用のブレスレット1、特殊グラストロン
2、画像処理装置3及び位置検出機構4を有している。
このブレスレット1は例えば観察者の左手に装着して使
用される。この例ではブレスレット1上に物体30を近
づけたときに、位置検出機構4によって、ブレスレット
1の基準面と物体30との間の距離Sxが検出される。
The game apparatus 100 shown in FIG. 1 is an apparatus for stereoscopically combining a virtual body image such as a TV program character with an external image to which an observer belongs. This game device 100
Has a reference surface setting bracelet 1, a special glasstron 2, an image processing device 3, and a position detection mechanism 4.
The bracelet 1 is used, for example, mounted on the left hand of the observer. In this example, when the object 30 is brought close to the bracelet 1, the position detection mechanism 4 detects the distance Sx between the reference surface of the bracelet 1 and the object 30.

【0025】この例で物体30は観察者の右手に保持さ
れたじゃらし具などを想定しているが、これに限られる
ことはなく、データグローブのようなものであってもよ
い。このじゃらし具には2点以上の光源として、2つの
発光ダイオードLED11及びLED12が任意の位置
に取付けられ、点滅パターンが異なるように点滅され
る。
In this example, the object 30 is assumed to be a jig held by the right hand of the observer, but is not limited to this, and may be a data glove. Two light-emitting diodes LED11 and LED12 are mounted at arbitrary positions as two or more light sources on this baffle, and are blinked in different blinking patterns.

【0026】また、特殊グラストロン2は合成手段を構
成し、その本体部21にはベルト22が設けられ、眼鏡
をかけるように本体部21が観察者の顔面に装着される
と共に、その観察者の頭部外周部に沿ってベルト22が
固定される。特殊グラストロン2には、少なくとも、流
し撮りCCD装置23及び表示手段24が設けられてい
る。特殊グラストロン2の機種によっては通常のCCD
撮像装置25が設けられる。上述のじゃらし具などの物
体30及び流し撮りCCD装置23によって位置検出機
構4が構成され、ブレスレット1の基準面から物体30
に至る距離Sxが検出される。
The special glasstron 2 constitutes a synthesizing means. A belt 22 is provided on the main body 21 of the special glasstron 2. The main body 21 is attached to the face of the observer as if wearing glasses, The belt 22 is fixed along the outer periphery of the head. The special glasstron 2 is provided with at least a panning CCD device 23 and a display unit 24. Normal CCD depending on the model of special glasstron 2
An imaging device 25 is provided. The position detecting mechanism 4 is constituted by the object 30 such as the above-mentioned buzzer and the panning CCD device 23, and the object 30
Is detected.

【0027】更に、ブレスレット1、流し撮りCCD装
置23及び画像処理装置3によって面認識手段が構成さ
れ、観察者の属する実空間上で任意の基準面を認識でき
るようになされている。ここで、流し撮りとは、流し撮
りCCD装置23において、同一フィールド期間中に複
数回、光電変換素子(フォトダイオードなど)から信号
電荷を読み出す撮影モードを言うものとする。
Further, the bracelet 1, the panning CCD device 23 and the image processing device 3 constitute a surface recognizing means so that an arbitrary reference plane can be recognized in the real space to which the observer belongs. Here, the follow shot means a shooting mode in which signal charges are read out from a photoelectric conversion element (such as a photodiode) a plurality of times in the same field period in the follow shot CCD device 23.

【0028】この例で流し撮りCCD装置23として垂
直転送部を有するインターライン転送方式の二次元撮像
デバイスを使用した場合には、同一フィールド期間中に
複数回、光電変換素子から垂直転送部に信号電荷が読み
出される。また、流し撮りCCD装置23として電荷蓄
積部を有するフレーム転送方式の二次元撮像デバイスを
使用した場合には、同一フィールド期間中に複数回、光
電変換素子から電荷蓄積部に信号電荷が読み出される。
従って、この例では位置検出機構4及び面認識手段で流
し撮りCCD装置23を兼用することになる。
In this example, when a two-dimensional imaging device of an interline transfer system having a vertical transfer unit is used as the panning CCD device 23, a signal is sent from the photoelectric conversion element to the vertical transfer unit a plurality of times during the same field period. The charge is read. When a two-dimensional frame transfer type imaging device having a charge storage unit is used as the panning CCD device 23, signal charges are read from the photoelectric conversion element to the charge storage unit a plurality of times during the same field period.
Therefore, in this example, the panning CCD device 23 is shared by the position detection mechanism 4 and the surface recognition means.

【0029】更に、特殊グラストロン2には画像処理装
置3が接続され、少なくとも、位置検出機構4から得ら
れた物体30の位置情報に基づいて仮想空間上で仮想体
の画像が変化するように画像処理される。また、画像処
理装置3では流し撮りCCD装置23から出力された画
像データに基づいて基準面などを認識する画像処理がな
される。この画像処理装置3には表示手段24が接続さ
れ、面認識手段により認識された基準面が表示される。
Further, an image processing device 3 is connected to the special glasstron 2 so that the image of the virtual body changes in the virtual space based on at least the position information of the object 30 obtained from the position detection mechanism 4. Image processing is performed. The image processing device 3 performs image processing for recognizing a reference plane or the like based on image data output from the panning CCD device 23. The display unit 24 is connected to the image processing apparatus 3 and displays the reference plane recognized by the plane recognition unit.

【0030】この特殊グラストロン2内には偏光ビーム
スプリッタなどの光学手段が設けられる場合があり、表
示手段24によって表示された仮想空間の基準面上で仮
想体の画像が合成される。この例では、実空間上の基準
面の属する位置に、あたかも、仮想体としての3Dポリ
ゴン(雪だるま)10が存在するようになされる。
An optical means such as a polarizing beam splitter may be provided in the special glasstron 2, and an image of a virtual body is synthesized on a reference plane of a virtual space displayed by the display means 24. In this example, a 3D polygon (snowman) 10 as a virtual body is present at the position to which the reference plane in the real space belongs.

【0031】この例で、基準面設定用のブレスレット1
は図2に示すプレート部11と、腕輪部12とを有して
いる。プレート部11は基準面を成すものであり、凹凸
の無い平坦状に形成される。プレート部11の大きさは
例えば腕時計程度であり、その一辺の長さは3cm程度
であり、大きくても、せいぜい5cm程度である。プレ
ート部11の表面四隅には、3点以上の光源としてそれ
ぞれ発光ダイオード(LED1〜4)が取付けられ、3
Dポリゴン10を飛び出せようとする基準面の4つの点
P1〜P4の座標として(x1,y1)、(x2,y
2)、(x3,y3)、(x4,y4)が与えられる
(仮想空間上では画像を合成しようとする基準面に相当
する)。
In this example, a reference surface setting bracelet 1
Has a plate portion 11 and a bracelet portion 12 shown in FIG. The plate portion 11 forms a reference surface, and is formed in a flat shape without irregularities. The size of the plate portion 11 is, for example, about the size of a wristwatch, and the length of one side thereof is about 3 cm, and at most about 5 cm. Light emitting diodes (LED1 to LED4) are attached to four corners of the surface of the plate portion 11 as three or more light sources, respectively.
(X1, y1), (x2, y) as coordinates of four points P1 to P4 of the reference plane from which the D polygon 10 is to be protruded.
2), (x3, y3) and (x4, y4) are given (corresponding to a reference plane on which an image is to be synthesized in the virtual space).

【0032】この4個の発光ダイオードLED1〜4
は、そのマーク部としての機能を発揮するために、つま
り、その取付け位置が明らかになるように、少なくと
も、点滅パターンが異なるように点滅される。この発光
ダイオードLED1〜4の発光は特殊グラストロン2内
の流し撮りCCD装置23により、所定の撮像方向に流
すように撮像される。この流し撮りは4個の発光ダイオ
ードLED1〜4の取付け位置から基準面を特定するた
めである。この基準面の特定については図9及び図11
で説明をする。
The four light emitting diodes LED1 to LED4
Is blinked so as to exhibit its function as a mark portion, that is, at least in a different blinking pattern so that its mounting position is clear. The light emitted from the light emitting diodes LED1 to LED4 is imaged by the panning CCD device 23 in the special glasstron 2 so as to flow in a predetermined imaging direction. This panning is for specifying the reference plane from the mounting positions of the four light emitting diodes LED1 to LED4. This reference plane is specified in FIGS. 9 and 11.
The explanation is given below.

【0033】この腕輪部12は観察者の手首にフィット
させるように伸縮自在である構造が好ましい。例えば、
バンド部材にマジックテープを設けて装着状態を加減で
きるようにしたものなどである。プレート部11は流し
撮りCCD装置23の撮影範囲内に入るように左手の甲
側に装着するとよい。
The bracelet 12 preferably has a structure that can be extended and contracted so as to fit the wrist of the observer. For example,
For example, a Velcro is provided on the band member so that the mounted state can be adjusted. The plate portion 11 is preferably mounted on the back side of the left hand so as to be within the shooting range of the panning CCD device 23.

【0034】図3に示す特殊グラストロン2は非透過型
のヘッドマウントディスプレイを構成しており、通常の
CCD撮像装置25と、上述した流し撮りCCD装置2
3と、第1の画像表示素子としての右眼表示用の液晶表
示装置(以下LCDという)26と、第2の画像表示素
子としての左眼表示用のLCD27とを有している。
The special glasstron 2 shown in FIG. 3 constitutes a non-transmissive head mounted display, and includes a normal CCD image pickup device 25 and the above-mentioned panning CCD device 2.
3, a right-eye display liquid crystal display (hereinafter referred to as LCD) 26 as a first image display element, and a left-eye display LCD 27 as a second image display element.

【0035】つまり、観察者の眉間に相当する位置の本
体部21には、通常のCCD撮像装置25と、流し撮り
CCD装置23とが並べて配置され、前者によって観察
者の属する外界像が撮像され、後者によってブレスレッ
ト1の4個の発光ダイオードLED1〜4が流し撮りさ
れる。従って、観察者が上述のブレスレット1に目を向
けると、その基準面の方向に流し撮りCCD装置23及
びCCD撮像装置25が向くようになる。そして、特殊
グラストロン2内の観察者の右目に相対する位置にはL
CD26が取付けられ、例えば、通常のCCD撮像装置
25により撮影した観察者のブレスレット1と、観察者
が持った物体30と、予め準備されたコンピユータ・グ
ラフィックス(CG)による3Dポリゴン10の画像と
を合成したステレオ画像の一方が表示される。
That is, a normal CCD image pickup device 25 and a panning CCD device 23 are arranged side by side on the main body 21 at a position corresponding to the eyebrows of the observer, and the former captures an external image to which the observer belongs. Then, the four light emitting diodes LED1 to LED4 of the bracelet 1 are shot by the latter. Therefore, when the observer looks at the above-mentioned bracelet 1, the panning CCD device 23 and the CCD imaging device 25 are oriented in the direction of the reference plane. In addition, L is located at a position facing the right eye of the observer in the special glasstron 2.
A CD 26 is attached, for example, an observer's bracelet 1 photographed by a normal CCD image pickup device 25, an object 30 held by the observer, and an image of a 3D polygon 10 prepared by computer graphics (CG) prepared in advance. Is displayed.

【0036】また、その観察者の左目に相対する位置に
はLCD27が取付けられ、上述のステレオ画像の他方
が表示される。この特殊グラストロン2は観察者の顔面
又は頭部に装着され、LCD26によるステレオ画像
と、LCD27によるステレオ画像とを重ね合わせて観
察者の眼球に導くようになされている。これにより、観
察者の属する背景像と3Dポリゴン10とは頭の中で合
成される。
An LCD 27 is attached at a position facing the left eye of the observer, and the other of the above-mentioned stereo images is displayed. The special glasstron 2 is mounted on the face or head of the observer, and superimposes the stereo image on the LCD 26 and the stereo image on the LCD 27 so as to guide the stereo image to the eyeball of the observer. Thus, the background image to which the observer belongs and the 3D polygon 10 are combined in the head.

【0037】図4に示す特殊グラストロン20は透過型
のヘッドマウントディスプレイを構成しており、通常の
CCD撮像装置25は搭載されていない。従って、透過
型のヘッドマウントディスプレイは、流し撮りCCD装
置23と、外界像取り込み用の液晶シャッタ28と、画
像表示素子としてのLCD29から構成される。
The special glasstron 20 shown in FIG. 4 constitutes a transmission type head mounted display, and does not have a normal CCD image pickup device 25 mounted thereon. Accordingly, the transmissive head-mounted display includes the panning CCD device 23, a liquid crystal shutter 28 for capturing an external image, and an LCD 29 as an image display element.

【0038】例えば、観察者の眉間に相当する位置の本
体部21には、流し撮りCCD装置23が配置され、観
察者が上述のブレスレット1に目を向けると、基準面上
の物体の位置が検出されると共に、ブレスレット1の4
個の発光ダイオードLED1〜4が流し撮りされる。そ
して、観察者の左目及び右目に相当する位置には液晶シ
ャッタ28が設けられ、例えば、液晶シャッタ28が開
かれると、その液晶シャッタ28を通過した観察者のブ
レスレット1の実像が直接眼球に導かれる。
For example, a panning CCD device 23 is disposed in the main body 21 at a position corresponding to the eyebrow of the observer. When the observer turns his / her eyes to the bracelet 1, the position of the object on the reference plane is determined. Detected and 4 of bracelet 1
The light-emitting diodes LED1 to LED4 are panned. Liquid crystal shutters 28 are provided at positions corresponding to the left and right eyes of the observer. For example, when the liquid crystal shutter 28 is opened, the real image of the bracelet 1 of the observer passing through the liquid crystal shutter 28 is directly guided to the eyeball. I will

【0039】また、特殊グラストロン2内の観察者の左
目又は右目の脇に位置する部分には、LCD29が取付
けられ、上述の特殊グラストロン2と同様にしてキャラ
クタ画像が表示される。図示しないが、液晶シャッタ2
8と、LCD29との間には偏光ビームスプリッタなど
の光学手段が設けられ、観察者のブレスレット1の実像
と、3Dポリゴン10の画像とが観察者の眼球に導くよ
うになされている。これにより、観察者の属する背景像
と3Dポリゴン10とが頭の中で合成される。
An LCD 29 is attached to a portion of the special glasstron 2 located beside the left or right eye of the observer, and a character image is displayed in the same manner as the special glasstron 2 described above. Although not shown, the liquid crystal shutter 2
Optical means such as a polarization beam splitter is provided between the LCD 8 and the LCD 29 so that the real image of the bracelet 1 of the observer and the image of the 3D polygon 10 are guided to the eyeball of the observer. Thus, the background image to which the observer belongs and the 3D polygon 10 are combined in the head.

【0040】続いて、インターライン転送方式の流し撮
りCCD装置23の内部構成について説明する。図5に
示す流し撮りCCD装置23は基板31を有している。
その基板31上には、1画素を構成する光電変換素子と
してフォトダイオードPHij(i=1〜n、j=1〜
m)がn列×m行のマトリクス状に配置されている。
Next, the internal structure of the follow-up CCD device 23 of the interline transfer system will be described. The panning CCD device 23 shown in FIG.
On the substrate 31, photodiodes PHij (i = 1 to n, j = 1 to 1) as photoelectric conversion elements forming one pixel are provided.
m) are arranged in a matrix of n columns × m rows.

【0041】この基板の列方向には電荷転送部としてm
本の垂直転送部32が設けられ、フォトダイオードPH
ijから読み出した信号電荷が垂直読み出し信号S1に
基づいて垂直方向(流し撮り方向)に転送される。この
垂直転送部32には水平転送部33が接続され、その信
号電荷が水平読み出し信号S2に基づいて水平方向に転
送されるので、出力端子34に流し撮り信号SOUTが出
力される。この例では、流し撮りをするために、少なく
とも、同一フィールド期間中に複数回、フォトダイオー
ドPHijから垂直転送部32に信号電荷が転送され
る。
In the column direction of this substrate, m
Vertical transfer units 32 are provided, and the photodiodes PH
The signal charge read from ij is transferred in the vertical direction (follow-up direction) based on the vertical read signal S1. A horizontal transfer unit 33 is connected to the vertical transfer unit 32, and the signal charges are transferred in the horizontal direction based on the horizontal readout signal S2, so that a follow shot signal SOUT is output to the output terminal. In this example, the signal charge is transferred from the photodiode PHij to the vertical transfer unit 32 at least a plurality of times during the same field period in order to perform a panning shot.

【0042】また、流し撮りCCD装置23は図6に示
す魚眼レンズ35を有している。魚眼レンズ35は例え
ばCCD撮像素子36の光軸上に設けられる。この魚眼
レンズ35によって観察者の上述のブレスレット1など
を広範囲に撮像できるようになる。もちろん、通常のレ
ンズでも構わないが、視野が狭くなるので、観察者はブ
レスレット1に向けてより多く頭部を傾けなければなら
ない。
The panning CCD device 23 has a fisheye lens 35 shown in FIG. The fisheye lens 35 is provided on the optical axis of the CCD image sensor 36, for example. The fisheye lens 35 allows the observer to image the above-mentioned bracelet 1 and the like in a wide range. Of course, a normal lens may be used, but since the field of view is narrowed, the observer must tilt his head more toward the bracelet 1.

【0043】続いて、物体30としてのじゃらし具30
A、30B、データグローブ30C及び力覚提示グロー
ブ30Dの構成例を説明する。図7Aはじゃらし具30
Aを示す正面図である。このじゃらし具30Aは樹脂を
例えば射出成形した蒲の穂状部301及びハンド部30
2を有している。この蒲の穂状部301の任意の位置Q
1には発光ダイオードLED11が取り付けられ、その
位置Q2に発光ダイオードLED12が取り付けられ
る。
Subsequently, the shaver 30 as the object 30
Configuration examples of A, 30B, data glove 30C, and force sense glove 30D will be described. FIG. 7A shows a jig 30
It is a front view which shows A. The clasp 30A includes a spike-shaped portion 301 and a hand portion 30 formed by injection molding a resin, for example.
Two. Arbitrary position Q of spike 301
A light emitting diode LED11 is attached to 1 and a light emitting diode LED12 is attached to the position Q2.

【0044】また、蒲の穂状部301には図示しない点
滅制御回路が設けられ、流し撮りするために、2個の発
光ダイオードLED11及びLED12に所定の電圧が
印加されて点滅制御される。この点滅制御では点滅パタ
ーンが異なるように、例えば、発光ダイオードLED1
1及びLED12の点滅間隔が制御される。発光ダイオ
ードLED11及びLED12の電源には図示しない小
型の乾電池やボタン電池などが使用される。
A flashing control circuit (not shown) is provided in the spike portion 301 of the bat, and a predetermined voltage is applied to the two light emitting diodes LED11 and LED12 to perform a flashing control for panning. In this blinking control, for example, the light emitting diode LED1
1 and the blinking interval of the LED 12 are controlled. A small dry cell or button cell (not shown) is used as a power source for the light emitting diodes LED11 and LED12.

【0045】図7Bは鳥の羽根状のじゃらし具30Bを
示す正面図である。このじゃらし具30Bも、樹脂成形
部材から成り、2個の発光ダイオードLED13及びL
ED14が取り付けられ、じゃらし具30Aと同様にし
て流し撮りするために、所定の電圧が印加されて点滅制
御される。
FIG. 7B is a front view showing a bird feather-like baffle 30B. The baffle 30B is also made of a resin molded member and has two light emitting diodes LED13 and L
The ED 14 is attached, and a predetermined voltage is applied and blinking control is performed for panning in the same manner as the hanger 30A.

【0046】図8は光ファイバを使用したじゃらし具3
0Aの内部構成例を示す概念図である。図8に示すじゃ
らし具30Aは筐体311を有している。筐体311の
右側にはプリント基板312が設けられ、この基板31
2には3つの発光ダイオードLED0〜LED2と点滅
制御回路を構成するドライバIC313が取付けられて
いる。
FIG. 8 shows a jig 3 using an optical fiber.
It is a conceptual diagram which shows the example of an internal structure of 0A. The harness 30A shown in FIG. A printed board 312 is provided on the right side of the housing 311.
2 is provided with a driver IC 313 constituting a blinking control circuit with three light emitting diodes LED0 to LED2.

【0047】この筐体311の中央付近には発光窓部3
15が形成され、数十本程度の光ファイバ316が露出
している。光ファイバ316の他端には発光ダイオード
LED0が接続され、ドライバIC313によって常時
点灯され、イルミネーション効果が得られるようになさ
れている。
Near the center of the housing 311, the light emitting window 3
15 are formed, and about several tens of optical fibers 316 are exposed. The light emitting diode LED0 is connected to the other end of the optical fiber 316, and is constantly lit by the driver IC 313 so that an illumination effect can be obtained.

【0048】また、筐体311には位置Q1を成す発光
窓部314が設けられ、数本程度の光ファイバ317の
先端が露出している。光ファイバ317の他端には発光
ダイオードLED11が接続され、ドライバIC313
によって点滅パターンが制御される。更に、この筐体3
11には位置Q2を成す発光窓部316が設けられ、数
本程度の光ファイバ318の先端が露出している。光フ
ァイバ318の他端には発光ダイオードLED12が接
続され、ドライバIC313によって発光ダイオードL
ED11と点滅パターンが異なるように制御される。
The housing 311 is provided with a light emitting window 314 at the position Q1, and the ends of several optical fibers 317 are exposed. A light emitting diode LED11 is connected to the other end of the optical fiber 317, and a driver IC 313 is provided.
Controls the blinking pattern. Furthermore, this case 3
A light emitting window 316 at a position Q2 is provided at 11, and the ends of several optical fibers 318 are exposed. The other end of the optical fiber 318 is connected to the light emitting diode LED12, and the driver IC 313 controls the light emitting diode L12.
Control is performed so that the blinking pattern differs from that of the ED 11.

【0049】このような光ファイバ316〜318を使
用すると、ジャラシ具30Aをコンパクトに形成するこ
とができると共に、光学的にきらきら輝いてきれいなジ
ャラシ具30Aを作成することができる。じゃらし具3
0Bについても、同様にして構成することができる。
When such optical fibers 316 to 318 are used, it is possible to form the jig 30A compactly and to make the jig 30A that is optically brilliant and beautiful. Shroud 3
0B can be similarly configured.

【0050】図9はデータグローブ30Cを示す正面図
である。このデータグローブ30Cは、物に触れたとき
の圧力分布情報を出力するものであり、例えば、右手を
象った手袋部303を有している。この例では、7個の
発光ダイオードLED21〜LED27が手袋部303
の甲側に沿って取り付けられる。このデータグローブ3
0Cには図示しない点滅制御回路が接続され、流し撮り
するために、各々の発光ダイオードLED21〜LED
27に所定の電圧が印加されて点滅制御される。この点
滅制御では点滅パターンが異なるように点滅間隔が制御
される。発光ダイオードLED21〜LED27の電源
には図示しない小型の乾電池やボタン電池などが使用さ
れる。
FIG. 9 is a front view showing the data glove 30C. The data glove 30C is for outputting pressure distribution information when the object is touched, and has, for example, a glove part 303 shaped like a right hand. In this example, seven light emitting diodes LED21 to LED27 are connected to the glove part 303.
Attached along the instep side. This data glove 3
A blinking control circuit (not shown) is connected to 0C, and each of the light emitting diodes LED21 to LED21 is used for panning.
A predetermined voltage is applied to 27 to perform blink control. In this blink control, the blink interval is controlled so that the blink pattern is different. A small dry cell or button cell (not shown) is used as a power source for the light emitting diodes LED21 to LED27.

【0051】図10は力覚提示グローブ30Dを示す正
面図である。この力覚提示グローブ30Dは物にさわっ
たときの接触感覚を力覚提示信号S0として出力するよ
うになされており、例えば、右手を象ったグローブ部3
04を有している。この例では、20個程度の発光ダイ
オードLEDがグローブ部304の五指及び甲側に沿っ
て取り付けられる。このグローブ30Dには図示しない
点滅制御回路が接続され、流し撮りするために、各々の
発光ダイオードLEDに所定の電圧が印加されて点滅制
御される。
FIG. 10 is a front view showing a force sense presentation glove 30D. The force sense presentation glove 30D is configured to output a touch sense when touching an object as a force sense presentation signal S0.
04. In this example, about 20 light emitting diodes LED are attached along the five fingers and the back side of the glove part 304. A blink control circuit (not shown) is connected to the globe 30D, and a predetermined voltage is applied to each of the light emitting diodes LED to perform blink control for panning.

【0052】このようなデータグローブ30Cや力覚提
示グローブ30Dを使用すると、圧力分布情報や力覚提
示信号S0を直接取得して、これらの情報及び信号S0
に基づいて3Dポリゴン10の表情を変化させる画像処
理を行うことができる。
When such a data glove 30C or a haptic presentation glove 30D is used, pressure distribution information and a haptic presentation signal S0 are directly obtained, and the information and the signal S0 are obtained.
Image processing for changing the expression of the 3D polygon 10 based on the

【0053】続いて、ゲーム装置100の回路構成につ
いて説明する。図11に示すゲーム装置100は大きく
分けて3つの回路ブロックから成る。第1の回路ブロッ
クは上述のブレスレット1であり、このブレスレット1
には点滅制御回路5が設けられ、4個の発光ダイオード
LED1〜4に所定の電圧が印加されて点滅制御され
る。点滅制御回路5では点滅パターンが異なるように、
例えば、発光ダイオードLED1、LED2、LED3
及びLED4の点滅間隔が制御される。発光ダイオード
LED1〜4の電源には図示しない小型の乾電池やボタ
ン電池などが使用される。
Next, the circuit configuration of the game device 100 will be described. The game device 100 shown in FIG. 11 is roughly composed of three circuit blocks. The first circuit block is the above-described bracelet 1, and this bracelet 1
Is provided with a blink control circuit 5, and a predetermined voltage is applied to the four light emitting diodes LED1 to LED4 to perform blink control. In the blinking control circuit 5, the blinking patterns are different.
For example, light emitting diodes LED1, LED2, LED3
And the blinking interval of the LED 4 is controlled. A small dry battery or button battery (not shown) is used as a power source for the light emitting diodes LED1 to LED4.

【0054】第2の回路ブロックは特殊グラストロン2
であり、非透過型の場合には上述した流し撮りCCD装
置23、通常のCCD撮像装置25、右眼表示用のLC
D26及び左眼表示用のLCD27を有している。
The second circuit block is a special glasstron 2
In the case of the non-transmissive type, the panning CCD device 23 described above, the normal CCD image capturing device 25, and the LC for displaying the right eye are used.
D26 and LCD 27 for left eye display.

【0055】第3の回路ブロックは画像処理装置3であ
り、内部バス41を有している。内部バス41にはイン
タフェース(I/O)42、画像キャプチャ部43、画
像処理部44、CPU45、ROM46、RAM47及
びE2PROM(電気的な情報の書き込み及び消去が可
能な読み出し専用メモリ)48が接続されている。流し
撮りCCD装置23、通常のCCD撮像装置25、右眼
表示用のLCD26及び左眼表示用のLCD27はイン
タフェース42を介して内部バス41に接続される。
The third circuit block is the image processing device 3 and has an internal bus 41. The internal bus 41 includes an interface (I / O) 42, an image capture unit 43, an image processing unit 44, a CPU 45, a ROM 46, a RAM 47, and an E 2 PROM (read only memory capable of writing and erasing electrical information) 48. It is connected. The panning CCD device 23, the normal CCD imaging device 25, the LCD 26 for right-eye display, and the LCD 27 for left-eye display are connected to the internal bus 41 via the interface 42.

【0056】この内部バス41には記録媒体としてE2
PROM48が接続され、観察者の属する外界像に3D
ポリゴン10の画像を立体的に合成するアルゴリズムが
格納されている。
The internal bus 41 has E 2 as a recording medium.
The PROM 48 is connected, and the 3D
An algorithm for three-dimensionally synthesizing the image of the polygon 10 is stored.

【0057】例えば、E2PROM48には、観察者の
属する実空間上で任意に設定された基準面を撮像して仮
想空間上にその基準面を表示すると共に、その仮想空間
上に3Dポリゴン10の画像を合成し、その後、仮想空
間上では3Dポリゴン10を包含する位置に合成され、
その実空間上では基準面から離れた位置にある物体30
に関して、その実空間で基準面上の物体30の位置を検
出し、そこで検出された物体30の位置情報Sxに基づ
いて仮想空間上の3Dポリゴン10の画像が変化するよ
うに画像処理するアルゴリズムが格納される。
For example, the E 2 PROM 48 captures an arbitrarily set reference plane in the real space to which the observer belongs, displays the reference plane in the virtual space, and displays the 3D polygon 10 in the virtual space. Are synthesized at the position including the 3D polygon 10 in the virtual space.
In the real space, the object 30 located at a position away from the reference plane
, An algorithm for detecting the position of the object 30 on the reference plane in the real space and performing image processing such that the image of the 3D polygon 10 in the virtual space changes based on the position information Sx of the detected object 30 is stored. Is done.

【0058】従って、このアルゴリズムを実行すること
によって、観察者の属する実空間の基準面上の物体30
の位置情報を簡易に、しかも、少ない計算量で認識する
ことができる。これにより、実空間上の基準面の属する
位置に、あたかも、3Dポリゴン10が存在するように
画像処理ができるので、実空間の基準面上にあたかも出
現したキャラクタなどを観察者の指示に従って動くよう
にしたバーチャルキャラクタ育成ゲーム装置などを再現
性良く構成することができる。
Therefore, by executing this algorithm, the object 30 on the reference plane of the real space to which the observer belongs
Can be easily recognized with a small amount of calculation. Accordingly, image processing can be performed as if the 3D polygon 10 exists at the position to which the reference plane in the real space belongs, so that a character or the like that appears on the reference plane in the real space moves according to the instruction of the observer. It is possible to configure the virtual character breeding game device and the like with good reproducibility.

【0059】更に、内部バス41にはROM46が接続
され、このゲーム装置100を制御するためのシステム
プログラムや、メモリの読み出し手順などの制御情報な
どが格納される。内部バス41にはワーキング用のRA
M47が接続され、システムプログラムやキャラクタ画
像を表示する表示情報が一時記録される。また、内部バ
ス41にはCPU45が接続され、インタフェース4
2、画像キャプチャ部43、画像処理部44、ROM4
6、RAM47及びE2PROM48の入出力の制御
や、流し撮りCCD装置23、CCD撮像装置25、L
CD26及びLCD27の入出力の制御が行われる。
Further, a ROM 46 is connected to the internal bus 41, and stores a system program for controlling the game apparatus 100, control information such as a memory reading procedure, and the like. The internal bus 41 has a working RA
M47 is connected, and display information for displaying a system program and a character image is temporarily recorded. A CPU 45 is connected to the internal bus 41,
2. Image capture unit 43, image processing unit 44, ROM4
6, control of the input and output of the RAM 47 and the E 2 PROM 48, the panning CCD device 23, the CCD imaging device 25, the L
Input / output control of the CD 26 and the LCD 27 is performed.

【0060】このインタフェース42には画像処理部4
4が接続され、通常のCCD撮像装置25で撮像された
図12に示す上述のブレスレット1の画像が、CPU4
5の制御命令と共にインタフェース42を介して、画像
処理部44に取り込まれ、そこで所定の画像処理がなさ
れ、再び、インタフェース42を介して特殊グラストロ
ン2内のLCD26に転送される。
The interface 42 has an image processing unit 4
4 is connected, and the image of the above-described bracelet 1 shown in FIG.
The image data is taken into the image processing unit 44 via the interface 42 together with the control command of No. 5, where predetermined image processing is performed, and is transferred to the LCD 26 in the special glasstron 2 via the interface 42 again.

【0061】また、インタフェース42には画像キャプ
チャ部43が接続され、CPU45の制御命令を受け
て、流し撮りCCD装置23から入力した4つの発光ダ
イオードLED1〜4の点滅パターンと、2つの発光ダ
イオードLED11及びLED12の点滅パターンとに
関する画像データを獲得する所定のキャプチャ処理がな
される。この点滅パターンの画像データは時間経過に対
応する輝度の変化として表されている。画像キャプチャ
部43には内部バス41を介して画像処理部44が接続
され、所定の画像処理が施された画像データに関して、
上述の点滅パターンの同期ずれが補正されたり、観察者
の属する基準面が求められる。
An image capture unit 43 is connected to the interface 42. The control unit 45 receives a control command from the CPU 45 and blinks the four light emitting diodes LED1 to LED4 input from the panning CCD device 23 and the two light emitting diodes LED11. A predetermined capture process is performed to acquire image data relating to and the blink pattern of the LED 12. The image data of this blinking pattern is represented as a change in luminance corresponding to the passage of time. An image processing unit 44 is connected to the image capturing unit 43 via the internal bus 41, and regarding image data on which predetermined image processing has been performed,
The synchronization deviation of the blinking pattern described above is corrected, or a reference plane to which the observer belongs is obtained.

【0062】例えば、画像処理部44では流し撮りCC
D装置23から出力された流し撮り信号(輝度信号)S
OUTの点滅パターンに関して、図12に示すウインドウ
Wにより画定された画像領域内で、4つの流し撮り輝点
P1〜P4を含むXY平面と、そのXY平面上で2つの
流し撮り輝点Q1及びQ2を成す空間的な配置パターン
に変換される。その後、その配置パターン上を走査し
て、少なくとも、4つの輝点P1〜P4の位置座標(X
1,Y1)、(X2,Y2)、(X3,Y3)、(X
4,Y4)と、2つの輝点Q1及びQ2の位置座標(X
5,Y5)、(X6,Y6)とが求められる。
For example, in the image processing section 44, the panning CC
Panning signal (luminance signal) S output from D device 23
Regarding the blinking pattern of OUT, in the image area defined by the window W shown in FIG. 12, an XY plane including four follow-up luminous points P1 to P4, and two follow-up luminous points Q1 and Q2 on the XY plane. Is converted to a spatial arrangement pattern Then, by scanning the arrangement pattern, at least the position coordinates (X
1, Y1), (X2, Y2), (X3, Y3), (X
4, Y4) and the position coordinates (X) of the two bright points Q1 and Q2.
5, Y5) and (X6, Y6).

【0063】この4つの輝点P1〜P4は観察者に装着
されたブレスレット1の上述の4つの発光ダイオードL
ED1〜4であり、2つの輝点Q1及びQ2は観察者が
保持したじゃらし具30Aの2つの発光ダイオードLE
D11及びLED12である。この輝点Q1及びQ2の
位置座標(X5,Y5)、(X6,Y6)が位置情報S
xとなる。実空間上の4つの発光ダイオードLED1〜
4の位置座標は既知であり、その位置座標は(x1,y
1)、(x2,y2)、(x3,y3)、(x4,y
4)である。
The four bright points P1 to P4 correspond to the four light emitting diodes L of the bracelet 1 attached to the observer.
ED1 to ED4, and the two bright spots Q1 and Q2 correspond to the two light emitting diodes LE of the harness 30A held by the observer.
D11 and LED12. The position coordinates (X5, Y5) and (X6, Y6) of the bright spots Q1 and Q2 are the position information S.
x. Four light emitting diodes LED1 through real space
4 is known, and its position coordinates are (x1, y
1), (x2, y2), (x3, y3), (x4, y
4).

【0064】従って、上述の実空間上の基準面は、4つ
の発光ダイオードLED1〜4の取付け位置に射影する
変換行列を演算することにより得られる。ここで実空間
の平面上の点(xi,yi,0)をある並進・回転運動
によって移動し、それを透視変換で画像座標系に射影し
た点を(Xi,Yi)で示すと、両者の間には次の
(1)式の関係がある。
Therefore, the above-mentioned reference plane in the real space can be obtained by calculating a conversion matrix projected onto the mounting positions of the four light emitting diodes LED1 to LED4. Here, the point (xi, yi, 0) on the plane of the real space is moved by a certain translation / rotational motion, and the point projected on the image coordinate system by the perspective transformation is represented by (Xi, Yi). The following equation (1) holds between them.

【0065】[0065]

【数1】 (Equation 1)

【0066】但し、a1・・・・a8は未知の係数でC
CD撮像装置25などの外部パラメータ(位置と方向)
及び焦点距離などの内部パラメータである。これらのパ
ラメータは実空間の既知の点の位置座標(x1,y
1)、(x2,y2)、(x3,y3)、(x4,y
4)と、それらに対応する4組の画像処理系の位置座標
(X1,Y1)、(Y2,Y2)、(X3,Y3)、
(X4,Y4)が存在すれば、次の(2)式の方程式を
解くことにより得られる。
Where a1... A8 are unknown coefficients and C
External parameters (position and direction) such as CD imaging device 25
And internal parameters such as focal length. These parameters are the position coordinates (x1, y) of a known point in the real space.
1), (x2, y2), (x3, y3), (x4, y
4) and four sets of position coordinates (X1, Y1), (Y2, Y2), (X3, Y3),
If (X4, Y4) exists, it can be obtained by solving the following equation (2).

【0067】[0067]

【数2】 (Equation 2)

【0068】ここで得られた4点の位置座標(X1,Y
1)、(X2,Y2)、(X3,Y3)、(X4,Y
4)を結ぶことにより、図12に示した実空間上の基準
面が認識される。基準面上のじゃらし具30Aは、輝点
Q1及びQ2の位置座標(X5,Y5)、(X6,Y
6)を結ぶ線分として認識される。
The position coordinates (X1, Y
1), (X2, Y2), (X3, Y3), (X4, Y
By connecting 4), the reference plane in the real space shown in FIG. 12 is recognized. The buzzer 30A on the reference plane has the position coordinates (X5, Y5), (X6, Y5) of the bright spots Q1 and Q2.
It is recognized as a line segment connecting 6).

【0069】具体的には、図13に示す配置パターン上
で流し撮像方向をY軸とし、そのY軸に直交する方向を
X軸としたときに、画像処理部44によって流し撮像方
向と同一方向又は反対方向に輝度信号値が加算される。
この加算値がX軸上にプロットされると、そのX軸にプ
ロットされた輝度信号値が最大となる6つの位置が検出
され、この6つの位置に対応したX座標値X1、X2、
X3、X4、X5、X6が求められる。また、その配置
パターン上で取得画像をY方向に走査したときに、その
Y方向に並んだ複数の輝点のうち、最初に発光した輝点
位置が各々X座標値に対応したY座標値Y1、Y2、Y
3、Y4、Y5、Y6として求められる。
More specifically, when the moving image pickup direction is the Y axis on the arrangement pattern shown in FIG. 13 and the direction orthogonal to the Y axis is the X axis, the image processing unit 44 sets the same direction as the moving image pickup direction. Alternatively, the luminance signal values are added in the opposite direction.
When this added value is plotted on the X axis, six positions where the luminance signal value plotted on the X axis is maximum are detected, and X coordinate values X1, X2, and X corresponding to the six positions are detected.
X3, X4, X5 and X6 are determined. Further, when the acquired image is scanned in the Y direction on the arrangement pattern, among the plurality of luminescent points arranged in the Y direction, the luminescent spot position that first emits light has a Y coordinate value Y1 corresponding to the X coordinate value. , Y2, Y
3, Y4, Y5, and Y6.

【0070】ここで、実空間上の4つの発光ダイオード
LED1〜4の位置座標をwi(i=1〜4)とし、そ
の4つの発光ダイオードLED1〜4の位置座標wiの
カメラ座標系上での表現ベクトルをCiとし、その4つ
の発光ダイオードLED1〜4のLCD画面上での位置
座標をPiとし、流し撮りCCD装置23の回転マトリ
クスをR、その移動ベクトルをTとすると、(3)式、
すなわち、 Ci=R・wi+T ・・・(3) 但し、Ci=Pi・ki(kiはスカラー) という関係がある。従って、通常のCCD撮像装置25
の回転マトリクスRとその移動ベクトルTとを演算し、
これをパラメータとして実空間と仮想空間との間で座標
変換を容易に行うことができるので、仮想空間上の基準
面にキャラクタ画像を合成することができる。
Here, the position coordinates of the four light emitting diodes LED1 to LED4 in the real space are defined as wi (i = 1 to 4), and the position coordinates wi of the four light emitting diodes LED1 to LED4 on the camera coordinate system. Assuming that the expression vector is Ci, the position coordinates of the four light-emitting diodes LED1 to LED4 on the LCD screen are Pi, the rotation matrix of the panning CCD device 23 is R, and the movement vector is T, the following equation (3) is obtained.
That is, Ci = R · wi + T (3) where Ci = Pi · ki (ki is a scalar). Therefore, the normal CCD imaging device 25
Of the rotation matrix R and its movement vector T,
Using this as a parameter, coordinate conversion between the real space and the virtual space can be easily performed, so that a character image can be synthesized on a reference plane in the virtual space.

【0071】更に、この例の画像処理部44では、位置
検出機構4による位置情報Sxに基づいて画像処理がな
される。例えば、上述のROM46、RAM47又はE
2PROM48に、予め参照位置情報〜に対する3
Dポリゴン10の画像を動かす表示情報D1〜D3を格
納しておき、上述の位置検出機構4によって検出された
位置情報Sxに基づいてROM46、RAM47又はE
2PROM48から表示情報D1〜D3を読み出すよう
にするとよい。
Further, the image processing section 44 in this example performs image processing based on the position information Sx by the position detecting mechanism 4. For example, the above-described ROM 46, RAM 47 or E
2 In the PROM 48, 3
Display information D1 to D3 for moving the image of the D polygon 10 is stored, and based on the position information Sx detected by the position detection mechanism 4, the ROM 46, the RAM 47, or the E
2 The display information D1 to D3 may be read from the PROM 48.

【0072】図14は、E2PROM48に格納された
表示情報例を示す概念図である。この例では、少なくと
も、E2PROM48には第1〜第3の参照位置情報
〜が格納される。
FIG. 14 is a conceptual diagram showing an example of display information stored in the E 2 PROM 48. In this example, at least the first to third reference position information is stored in the E 2 PROM 48.

【0073】ここで、画像処理部44では例えば基準面
からじゃらし具30Aの位置Q1及びQ2を結ぶ線分ま
での距離Sxが演算される。この例では、輝点Q1及び
Q2の位置座標(X5,Y5)、(X6,Y6)が位置
情報Sxとなる。従って、3Dポリゴン10の高さhと
すると、参照位置情報に包含される位置情報Sxとし
てSx>hが検出されたときは、じゃらし具30Aが3
Dポリゴン10に接近するような状態が想定できるの
で、その3Dポリゴンを泣かせるような表示情報D1が
読み出される。
Here, the image processing unit 44 calculates a distance Sx from the reference plane to a line connecting the positions Q1 and Q2 of the buzzer 30A, for example. In this example, the position coordinates (X5, Y5) and (X6, Y6) of the bright points Q1 and Q2 are the position information Sx. Accordingly, assuming that the height h of the 3D polygon 10 is Sx> h as the position information Sx included in the reference position information, the baffle 30A is set to 3
Since a state in which the 3D polygon approaches the D polygon 10 can be assumed, display information D1 that makes the 3D polygon cry is read.

【0074】また、第2の参照位置情報に包含される
位置情報SxとしてSx=hが検出されたときは、じゃ
らし具30Aが3Dポリゴン10に接触するような状態
が想定できるので、3Dポリゴン10を笑わせるような
表示情報D2が読み出される。そして、第3の参照位置
情報に包含される位置情報SxとしてSx<hが検出
されたときは、じゃらし具30Aが3Dポリゴン10に
押圧するような状態が想定できるので、3Dポリゴン1
0を怒らせるような表示情報D3が読み出される。これ
らの表示情報D1〜D3により、基準面上の3Dポリゴ
ン10の表情を変えることができる。
When Sx = h is detected as the position information Sx included in the second reference position information, it is possible to assume a state in which the buzzer 30A comes into contact with the 3D polygon 10. Is read out so as to laugh. When Sx <h is detected as the position information Sx included in the third reference position information, a state in which the buzzer 30A presses the 3D polygon 10 can be assumed.
The display information D3 that makes 0 angry is read. With the display information D1 to D3, the expression of the 3D polygon 10 on the reference plane can be changed.

【0075】次に、本発明の仮想画像立体合成方法に関
してゲーム装置100の動作を説明する。この例では、
観察者の属する外界像に立体的に合成された3Dポリゴ
ン10の画像の表情を変化させる場合を想定する。この
際に、3Dポリゴン10に近づける物体30は観察者が
右手に保持したじゃらし具30Aとする。
Next, the operation of the game apparatus 100 with respect to the virtual image stereoscopic composition method of the present invention will be described. In this example,
It is assumed that the expression of the image of the 3D polygon 10 that is three-dimensionally synthesized with the external image to which the observer belongs is changed. At this time, the object 30 to be brought close to the 3D polygon 10 is a flap 30A held by the observer in the right hand.

【0076】例えば、観察者は図3に示した特殊グラス
トロン2を頭部に装着する。まず、図13に示すフロー
チャートのステップA1で観察者の属する実空間上で任
意の基準面を設定するために、観察者は、例えば、プレ
ート部11が上に向くように、左腕に基準面設定用のブ
レスレット1を装着する。その後、点滅制御回路5をオ
ンして4つの発光ダイオードLED1〜4を所定の点滅
パターンで点滅する。
For example, the observer wears the special glasstron 2 shown in FIG. 3 on the head. First, in step A1 of the flowchart shown in FIG. 13, in order to set an arbitrary reference plane in the real space to which the observer belongs, the observer, for example, sets the reference plane on the left arm so that the plate unit 11 faces upward. The bracelet 1 for use. Thereafter, the blink control circuit 5 is turned on to blink the four light emitting diodes LED1 to LED4 in a predetermined blink pattern.

【0077】次に、ステップA2において、一方で通常
のCCD撮像装置25を使用して実空間上の基準面を撮
影してLCD26に表示する。他方で、流し撮りCCD
装置23を使用して実空間上の基準面を流し撮りする。
例えば、3Dポリゴン10の画像を合成させようとする
位置に取付けられた4つの発光ダイオードLED1〜4
が、点滅パターンが異なるように点滅されるので、その
点滅パターンが所定の撮像方向に流すように撮像され
る。
Next, in step A 2, on the other hand, the reference plane in the real space is photographed using the ordinary CCD image pickup device 25 and displayed on the LCD 26. On the other hand, panning CCD
Using the device 23, a reference plane in the real space is shot.
For example, four light emitting diodes LED1 to LED4 attached at positions where images of the 3D polygon 10 are to be synthesized.
Are blinked so that the blinking pattern is different, so that the blinking pattern is imaged so as to flow in a predetermined imaging direction.

【0078】その後、ステップA3で観察者の属する実
空間上に任意に設定された基準面を認識するために画像
処理する。画像処理部44では、例えば、図16に示す
サブルーチンをコールしてステップB1でビデオキャプ
チャ処理を実行する。そして、ステップB2で四隅の発
光ダイオードLED1〜4を認識する。具体的には、流
し撮りCCD装置23で撮像された4つの発光ダイオー
ドLED1〜4による輝度信号の点滅パターンが、4つ
の輝点P1〜P4を含むXY平面を成す空間的な配置パ
ターンに変換される。
Thereafter, in step A3, image processing is performed to recognize an arbitrarily set reference plane in the real space to which the observer belongs. In the image processing unit 44, for example, a subroutine shown in FIG. 16 is called, and a video capture process is executed in step B1. Then, in step B2, the light emitting diodes LED1 to LED4 at the four corners are recognized. Specifically, the blinking pattern of the luminance signal by the four light emitting diodes LED1 to LED4 captured by the panning CCD device 23 is converted into a spatial arrangement pattern forming an XY plane including the four bright points P1 to P4. You.

【0079】その後、その配置パターン上を走査して、
少なくとも、4つの輝点P1〜P4の位置座標(X1,
Y1)、(X2,Y2)、(X3,Y3)、(X4,Y
4)が求められ、上述した(1)式及び(2)式が演算
され、実空間上の4つの発光ダイオードLED1〜4の
取付け位置と、画像処理系の4点の位置座標(X1,Y
1)、(X2,Y2)、(X3,Y3)、(X4,Y
4)との関係が求められ、この4点を結ぶことにより基
準面が求められる。そして、ステップB3で画像処理部
44では上述の(3)式に基づいて演算処理が行われ、
流し撮りCCD装置23と基準面との位置関係が検出さ
れる。上述の(3)式に基づいて、仮想空間の基準面上
に3Dポリゴン10の画像が合成される。
After that, the arrangement pattern is scanned, and
At least the position coordinates (X1,
Y1), (X2, Y2), (X3, Y3), (X4, Y
4) is calculated, and the above-described expressions (1) and (2) are calculated, and the mounting positions of the four light emitting diodes LED1 to LED4 in the real space and the position coordinates (X1, Y) of the four points of the image processing system.
1), (X2, Y2), (X3, Y3), (X4, Y
4) is obtained, and a reference plane is obtained by connecting these four points. Then, in step B3, the image processing unit 44 performs an arithmetic process based on the above equation (3).
The positional relationship between the panning CCD device 23 and the reference plane is detected. Based on the above equation (3), the image of the 3D polygon 10 is synthesized on the reference plane in the virtual space.

【0080】このとき、観察者が装着した特殊グラスト
ロン2では、LCD26による実空間の外界像と3Dポ
リゴン10の画像とを合成したステレオ画像の一方が観
察者の右の眼球に導くようになされる。LCD27によ
るそのステレオ画像の他方が観察者の左の眼球に導くよ
うになされる。これにより、観察者の属する実空間上の
背景画像と、仮想空間上に出現した3Dポリゴン10と
が頭の中で合成されるので、実空間上の基準面の属する
位置に、あたかも、3Dポリゴン10が存在するように
できる。
At this time, in the special glasstron 2 worn by the observer, one of the stereo images obtained by synthesizing the external world image in the real space by the LCD 26 and the image of the 3D polygon 10 is guided to the right eyeball of the observer. You. The other of the stereo images by the LCD 27 is directed to the left eyeball of the observer. As a result, the background image in the real space to which the observer belongs and the 3D polygon 10 appearing in the virtual space are synthesized in the head, and it is as if the 3D polygon is located at the position to which the reference plane in the real space belongs. 10 can be present.

【0081】その後、観察者が基準面上に右手に保持し
たじゃらし具30Aを近づけると、図15のメインルー
チンにリターンしてそのステップA4で、特殊グラスト
ロン2の位置検出機構4により、基準面上のじゃらし具
30Aの位置情報Sxが検出される。もちろん、図示し
ない点滅制御回路によって、2つの発光ダイオードLE
D11及びLED12が所定の点滅パターンで点滅す
る。この点滅パターンは画像処理部44に入力される。
画像処理部44では、図16に示すサブルーチンをコー
ルしてステップB1でビデオキャプチャ処理が実行され
る。
Thereafter, when the observer approaches the brace 30A held by the right hand on the reference surface, the process returns to the main routine of FIG. 15, and in step A4, the position detection mechanism 4 of the special glasstron 2 causes The position information Sx of the upper baffle 30A is detected. Of course, the two light emitting diodes LE are controlled by a blink control circuit (not shown).
D11 and LED 12 blink in a predetermined blink pattern. This blinking pattern is input to the image processing unit 44.
The image processing unit 44 calls a subroutine shown in FIG. 16 and executes a video capture process in step B1.

【0082】そして、ステップB2では先の4隅のLE
Dの認識処理と同様して、じゃらし具30Aの2つの発
光ダイオードLED11及びLED12を認識する。具
体的には、流し撮りCCD装置23で撮像された2つの
発光ダイオードLED11〜LED12による輝度信号
の点滅パターンが、2つの輝点Q1及びQ2を含むXY
平面を成す空間的な配置パターンに変換される。
Then, in step B2, the LEs at the previous four corners are set.
Similarly to the recognition process of D, the two light emitting diodes LED11 and LED12 of the shroud 30A are recognized. Specifically, the blinking pattern of the luminance signal by the two light emitting diodes LED11 to LED12 captured by the panning CCD device 23 is XY including two bright points Q1 and Q2.
It is converted into a spatial arrangement pattern that forms a plane.

【0083】その後、その配置パターン上を走査して、
2つの輝点Q1及びQ2の位置座標(X5,Y5)、
(X6,Y6)が求められ、この2点の位置座標(X
5,Y5)、(X6,Y6)がじゃらし具30Aの位置
情報Sxとして求められる。
Thereafter, the arrangement pattern is scanned, and
Position coordinates (X5, Y5) of the two bright points Q1 and Q2,
(X6, Y6) are obtained, and the position coordinates (X
5, Y5) and (X6, Y6) are obtained as position information Sx of the buzzer 30A.

【0084】その後、図15のメインルーチンにリター
ンしてそのステップA5で位置情報Sxに基づいて仮想
空間の基準面上に3Dポリゴン10の画像を合成する。
例えば、観察者の右手を上下に動かしてじゃらし具30
Aを動かすことによって、そのじゃらし具30Aの位置
情報Sxが仮想空間上で3Dポリゴン10に接近するよ
うな距離にある場合には、図14に示した参照位置情報
に包含される位置情報としてSx>hが検出されるの
で、E2PROM48から表示情報D1が読み出され、
LCD27ではその表示情報D1に基づいて3Dポリゴ
ンを泣かせるような表情に変化させることができる。
Thereafter, the process returns to the main routine of FIG. 15, and in step A5, an image of the 3D polygon 10 is synthesized on the reference plane of the virtual space based on the position information Sx.
For example, by moving the observer's right hand up and down,
By moving A, if the position information Sx of the baffle 30A is at a distance close to the 3D polygon 10 in the virtual space, Sx is used as the position information included in the reference position information shown in FIG. > H is detected, the display information D1 is read from the E 2 PROM 48,
The LCD 27 can change the expression to make the 3D polygon cry based on the display information D1.

【0085】また、図17Bに示すじゃらし具30Aが
仮想空間上で3Dポリゴン10に接触するような距離に
ある場合には、図14に示した参照位置情報に包含さ
れる位置情報としてSx=hが検出されるので、E2
ROM48から表示情報D2が読み出され、LCD2
6、LCD27ではその表示情報D2に基づいて3Dポ
リゴン10を笑わせるような表情に変化させることがで
きる。
When the buzzer 30A shown in FIG. 17B is at a distance such that it comes into contact with the 3D polygon 10 in the virtual space, Sx = h is used as the position information included in the reference position information shown in FIG. Is detected, E 2 P
The display information D2 is read from the ROM 48 and
6. The LCD 27 can change the 3D polygon 10 into an expression that makes it laugh based on the display information D2.

【0086】更に、観察者の右手に保持したじゃらし具
30Aが仮想空間上で3Dポリゴン10を押圧するよう
な距離にある場合には、図14に示した参照位置情報
に包含される位置情報としてSx<hが検出されるの
で、E2PROM48から表示情報D3が読み出され、
LCD26、LCD27ではその表示情報D3に基づい
て3Dポリゴン10を怒らせるような表情に変化させる
ことができる。従って、図17Aに示す実空間上では基
準面上に3Dポリゴン10が出現していないのに、図1
7Bに示す仮想空間ではその基準面上に出現した3Dポ
リゴン10を観察者の右手に保持したじゃらし具30A
で愛玩することができる。
Further, when the jig 30A held by the right hand of the observer is at a distance that presses the 3D polygon 10 in the virtual space, the position information included in the reference position information shown in FIG. Since Sx <h is detected, the display information D3 is read from the E 2 PROM 48,
The LCD 26 and the LCD 27 can change the 3D polygon 10 to an angry expression based on the display information D3. Therefore, although the 3D polygon 10 does not appear on the reference plane in the real space shown in FIG.
In the virtual space shown in FIG. 7B, a jig 30A holding the 3D polygon 10 appearing on the reference plane in the right hand of the observer.
Can be petted.

【0087】このように、第1の実施形態としての仮想
画像立体合成装置を応用したゲーム装置100によれ
ば、TV番組のキャラクタ画像を観察者の属する外界像
などに立体的に合成する際に、その仮想空間上で3Dポ
リゴン10を包含する位置に合成された、例えば、観察
者の右手に保持したじゃらし具30Aなどの位置情報S
xが、位置検出機構4によって、簡易に、しかも、少な
い計算量で取得することができる。
As described above, according to the game apparatus 100 to which the virtual image three-dimensional synthesizing apparatus according to the first embodiment is applied, when the character image of the TV program is stereoscopically synthesized with the external image to which the observer belongs. The position information S, such as a buzzer 30A held in the right hand of the observer, synthesized at a position including the 3D polygon 10 in the virtual space.
x can be easily acquired by the position detection mechanism 4 with a small amount of calculation.

【0088】従って、その位置検出機構4から得られた
位置情報Sxに基づいて仮想空間上で3Dポリゴン10
が変化するように画像処理することができるので、その
実空間上の基準面の属する位置に、あたかも、TV番組
のキャラクタなどを飛び出させ、その観察者の一方の手
のひらに載せたキャラクタなどを他方の手を近づけて撫
でたときに、そのキャラクタを笑わせたり、泣かせた
り、又は、怒らせたりすることができる。これにより、
仮想空間上でキャラクタなどを育成するバーチャルキャ
ラクタ育成ゲーム装置などを安価に構成することができ
る。
Therefore, based on the position information Sx obtained from the position detecting mechanism 4, the 3D polygon 10
Can be changed so that a TV program character or the like jumps out to the position to which the reference plane in the real space belongs, and a character or the like placed on one palm of the observer on the other hand. When the user strokes the character close to the hand, the character can be made to laugh, cry, or make the character angry. This allows
A virtual character breeding game device for breeding characters and the like in a virtual space can be configured at low cost.

【0089】(2)第2の実施形態 図18は第2の実施形態としてのゲーム装置に使用する
基準面設定用の二次元バーコード50の例を示す図であ
る。この実施形態では4つの発光ダイオードLED1〜
4に代わって、図18に示す二次元バーコード50を使
用して基準面が認識されるものである。
(2) Second Embodiment FIG. 18 is a diagram showing an example of a two-dimensional barcode 50 for setting a reference plane used in a game device according to a second embodiment. In this embodiment, four light emitting diodes LED1 to
The reference plane is recognized using a two-dimensional barcode 50 shown in FIG.

【0090】この例の面認識手段は2次元マトリクスコ
ード50を有しており、実空間上の基準面を認識するた
めに使用される。2次元バーコード50は少なくとも、
白地に黒で印刷されたn行×n列の白黒マトリクスと、
その白黒マトリクスと同じ太さの黒枠部51から成る。
この例では黒枠部51で囲まれた5×5画素がコード領
域部52であり、この25画素のうち、図18に示す1
2画素が黒で塗りつぶされている。
The surface recognizing means of this example has a two-dimensional matrix code 50 and is used for recognizing a reference plane in a real space. The two-dimensional barcode 50 is at least
A black and white matrix of n rows × n columns printed in black on a white background,
It is composed of a black frame part 51 having the same thickness as the black and white matrix.
In this example, 5 × 5 pixels surrounded by a black frame portion 51 are a code region portion 52, and among the 25 pixels, one shown in FIG.
Two pixels are painted black.

【0091】このバーコード50は3Dポリゴン10の
画像を合成しようとする位置、例えば、図2に示したブ
レスレット1のプレート部11の表面などに張り付けら
れる。この二次元マトリクスコード50は流し撮りCC
D装置23に代わって通常のCCD撮像装置25で撮像
される。この撮像装置25の出力段には、図11で説明
したような画像処理装置3が接続される。その画像処理
装置3には演算手段が設けられ、CCD撮像装置25か
ら出力された通常の撮像信号(輝度信号)を画像処理し
て二次元マトリクスコード50から基準面が求められ
る。
The bar code 50 is attached to a position where an image of the 3D polygon 10 is to be synthesized, for example, the surface of the plate portion 11 of the bracelet 1 shown in FIG. This two-dimensional matrix code 50 is panning CC
The image is picked up by a normal CCD image pickup device 25 instead of the D device 23. The image processing device 3 described with reference to FIG. 11 is connected to the output stage of the imaging device 25. The image processing device 3 is provided with arithmetic means, and performs image processing on a normal image pickup signal (luminance signal) output from the CCD image pickup device 25 to obtain a reference plane from the two-dimensional matrix code 50.

【0092】例えば、画像処理部44では前処理が施さ
れる。この処理では、まず、取得画像が適当な閾値で2
値化される。バーコード部分は白地に黒で印刷されてい
るので、固定閾値によって、かなり安定的に背景画像と
コード領域とを分離することができる。次に、黒ピクセ
ルの連結領域毎にラベル付けが施される。2次元バーコ
ード50の黒枠部51はラベル付けされた連結領域のい
ずれかに含まれることとなる。従って、連結領域の外接
四角形の大きさと縦横比を考慮して、コード領域部52
が含まれている可能性の低い背景画像(領域)は除去す
るようになされる。
For example, the image processing section 44 performs preprocessing. In this process, first, the acquired image is set at 2 with an appropriate threshold.
Valued. Since the barcode portion is printed in black on a white background, the background image and the code area can be separated quite stably by the fixed threshold value. Next, labeling is performed for each connected region of black pixels. The black frame portion 51 of the two-dimensional barcode 50 is included in any of the labeled connection regions. Therefore, considering the size and aspect ratio of the circumscribed rectangle of the connection area, the code area 52
The background image (region) that is unlikely to include the symbol is removed.

【0093】その後、前処理の結果得られた連結領域の
各要素に対してバーコード枠の当てはめを行う。例え
ば、外接四角形の各辺から内側に向かって、黒領域を探
索し、この黒枠部51の点列を得る。この点列に対して
最小二乗法で線分を当てはめる。そして、当該二次元バ
ーコード50に与えられたコード領域部52を認識す
る。
Thereafter, a barcode frame is applied to each element of the connected area obtained as a result of the preprocessing. For example, a black region is searched from each side of the circumscribed rectangle toward the inside, and a point sequence of the black frame portion 51 is obtained. A line segment is applied to this point sequence by the least squares method. Then, the code area section 52 given to the two-dimensional barcode 50 is recognized.

【0094】上述の基準面は黒枠部51の4頂点を正方
形の頂点に射影する変換行列を演算することにより得ら
れる。ここで実空間の平面上の点(xi,yi,0)を
ある並進・回転運動によって移動し、それを透視変換で
画像座標系に射影した点を(Xi,Yi)で示すと、両
者の間には第1の実施形態で説明した(1)式と同様な
関係がある。
The above-mentioned reference plane is obtained by calculating a transformation matrix for projecting the four vertices of the black frame 51 to the vertices of a square. Here, the point (xi, yi, 0) on the plane of the real space is moved by a certain translation / rotational motion, and the point projected on the image coordinate system by the perspective transformation is represented by (Xi, Yi). There is a similar relationship between the expressions (1) described in the first embodiment.

【0095】従って、それらのパラメータは実空間の既
知の点の位置座標(x1,y1)、(x2,y2)、
(x3,y3)、(x4,y4)と、それらに対応する
4組の画像処理系の位置座標(X1,Y1)、(Y2,
Y2)、(X3,Y3)、(X4,Y4)が存在すれ
ば、先に説明した(2)式の方程式を解くことにより得
られる。
Accordingly, those parameters are the position coordinates (x1, y1), (x2, y2),
(X3, y3), (x4, y4) and their corresponding four sets of position coordinates (X1, Y1), (Y2,
If (Y2), (X3, Y3) and (X4, Y4) exist, they can be obtained by solving the equation of the above-described equation (2).

【0096】ここで得られた位置座標(x1,y1)、
(x2,y2)、(x3,y3)、(x4,y4)に関
して、一辺の長さを「1」とする正方形の4頂点とする
と、この4頂点を結ぶ面が実空間上の基準面となる。な
お、画面上の黒枠部51はCCD撮像装置25の姿勢
や、透視投影によって歪んでいるが、外部パラメータ及
び内部パラメータによって、画面上の矩形頂点を正方形
の各頂点に射影することができる。従って、図19に示
す仮想空間上の二次元バーコード50の四隅の位置座標
から正立方体53を作成することができるので、その正
立方体53に3Dポリゴン10などを合成することがで
きる。
The position coordinates (x1, y1) obtained here,
Regarding (x2, y2), (x3, y3), and (x4, y4), assuming that four vertices of a square whose side length is “1”, a plane connecting these four vertices is a reference plane in the real space. Become. Although the black frame portion 51 on the screen is distorted by the attitude of the CCD imaging device 25 and perspective projection, a rectangular vertex on the screen can be projected to each square vertex by an external parameter and an internal parameter. Therefore, since the cubic 53 can be created from the position coordinates of the four corners of the two-dimensional barcode 50 in the virtual space shown in FIG. 19, the 3D polygon 10 and the like can be combined with the cubic 53.

【0097】このように、本実施形態としてのゲーム装
置によれば、観察者の属する外界像に3Dポリゴン10
の画像を立体的に合成する際に、二次元バーコード50
を通常撮影することによっても、第1の実施形態と同様
に観察者の属する実空間上の基準面を簡易に、しかも、
少ない計算量で認識することができる。また、位置検出
機構4によって得られた位置情報Sxに基づいて仮想空
間上で3Dポリゴン10の画像が変化するように画像処
理することができる。
As described above, according to the game device of the present embodiment, the 3D polygon 10
When the three-dimensional image is synthesized three-dimensionally, the two-dimensional bar code 50
Can be easily photographed, as in the first embodiment, by simply taking a reference plane in the real space to which the observer belongs.
It can be recognized with a small amount of calculation. Further, based on the position information Sx obtained by the position detection mechanism 4, image processing can be performed so that the image of the 3D polygon 10 changes in the virtual space.

【0098】従って、第1の実施形態と同様に観察者の
属する実空間上の基準面の属する位置に、あたかも、T
V番組のキャラクタなどを飛び出させ、観察者の手のひ
らで遊ばせるバーチャルキャラクタ域性ゲーム装置やそ
の他のゲーム装置を構成することができる。
Therefore, similarly to the first embodiment, the position of the reference plane in the real space to which the observer belongs is as if T
It is possible to configure a virtual character area-based game device or another game device that allows characters of a V program to jump out and play with the palm of the observer.

【0099】なお、各実施形態では非透過型の特殊グラ
ストロン2又は透過型の特殊グラストロン20を使用す
る場合について説明したが、これに限られることはな
く、透過型と非透過型を切換え可能な兼用タイプの特殊
グラストロンを用いても、もちろん構わない。
In each embodiment, the case where the non-transmission type special glasstron 2 or the transmission type special glasstron 20 is used has been described. However, the present invention is not limited to this, and the transmission type and the non-transmission type can be switched. Of course, it is possible to use a special type of glasstron which can be used for both purposes.

【0100】各実施形態では、単に3Dポリゴン10を
基準面上に仮想的に飛び出させる場合について説明した
が、これに限られることはなく、特殊グラストロン2
や、20にスピーカーを取り付け、3Dポリゴン10が
基準面上に飛び出すときに擬声音などを鳴らしたり、そ
の後、3Dポリゴン10が何かを喋るようにしてもよ
い。
In each embodiment, the case where the 3D polygon 10 is simply projected virtually on the reference plane has been described. However, the present invention is not limited to this.
Alternatively, a speaker may be attached to 20, and an onomatopoeic sound may be sounded when the 3D polygon 10 jumps out onto the reference plane, or the 3D polygon 10 may then speak something.

【0101】この実施形態のゲーム装置100は、特開
平10−123453号、特開平9−304727号、
特開平9−304730号、特開平9−211374
号、特開平8−160348号、特開平8−94960
号、特開平7−325265号、特開平7−27071
4号及び特開平7−67055号に記載される透過型の
ヘッドマウントディスプレイに適用することができる。
The game device 100 of this embodiment is disclosed in Japanese Patent Application Laid-Open Nos. 10-123453 and 9-304727,
JP-A-9-304730, JP-A-9-21374
JP-A-8-160348, JP-A-8-94960
JP-A-7-325265, JP-A-7-27071
4 and JP-A-7-67055.

【0102】この実施形態では流し撮りCCD23に関
してインターライン転送方式の二次元撮像デバイスを使
用する場合について説明したが、これに限られることは
なく、フレーム転送方式の二次元撮像デバイスを使用す
る場合であっても同様な効果が得られる。
In this embodiment, the case where the two-dimensional imaging device of the interline transfer system is used for the panning CCD 23 has been described. However, the present invention is not limited to this, and the case where the two-dimensional imaging device of the frame transfer system is used. Even if there is, the same effect can be obtained.

【0103】[0103]

【発明の効果】以上説明したように、本発明の仮想画像
立体合成装置によれば、仮想空間上では仮想体を包含す
る位置に合成される物体であって、実空間上では基準面
から離れた位置にある物体に関して、実空間上でその物
体の位置を検出する位置検出手段が設けられ、その物体
の位置情報に基づいて仮想空間上で仮想体の画像が変化
するように画像処理されるものである。
As described above, according to the virtual image three-dimensional composition device of the present invention, an object to be composed at a position that includes a virtual body in a virtual space, and is separated from a reference plane in a real space. Position detection means for detecting the position of the object in the real space with respect to the object at the position, and performing image processing such that the image of the virtual body changes in the virtual space based on the position information of the object Things.

【0104】この構成によって、位置検出手段による実
空間上の物体の位置変化から、簡易に、しかも、少ない
計算量で仮想空間上の物体の仮想的な接近、接触又は押
圧などの変位情報を取得することができる。従って、本
発明の仮想画像立体合成装置をバーチャルキャラクタ育
成ゲーム装置などに十分応用することができる。
With this configuration, from the position change of the object in the real space by the position detecting means, the displacement information such as the virtual approach, contact or press of the object in the virtual space can be easily obtained with a small amount of calculation. can do. Therefore, the virtual image three-dimensional composition device of the present invention can be sufficiently applied to a virtual character breeding game device and the like.

【0105】また、本発明の仮想画像立体合成方法によ
れば、少なくとも、仮想空間上では仮想体を包含する位
置に合成される物体であって、実空間上では基準面から
離れた位置にある物体に関して、実空間上でその物体の
位置を検出し、その後、その物体の位置情報に基づいて
仮想体の画像が変化するように画像処理されるものであ
る。
Further, according to the virtual image three-dimensional synthesis method of the present invention, at least an object to be synthesized at a position including a virtual body in a virtual space and at a position distant from a reference plane in a real space. Regarding an object, the position of the object is detected in a real space, and then image processing is performed so that the image of the virtual body changes based on the position information of the object.

【0106】この構成によって、実空間上の物体の位置
変化から、簡易に、しかも、少ない計算量で仮想空間上
の物体の仮想的な接近、接触又は押圧などの変位情報を
取得することができるので、従来方式に比べて画像処理
部における演算負担を軽減できると共に、本発明の仮想
画像立体合成方法を応用してバーチャルキャラクタ育成
ゲーム装置などを構成した場合に、そのコストダウンを
図ることができる。
With this configuration, it is possible to easily obtain the displacement information such as the virtual approach, contact, or press of the object in the virtual space from the position change of the object in the real space with a small amount of calculation. Therefore, the calculation load on the image processing unit can be reduced as compared with the conventional method, and the cost can be reduced when a virtual character breeding game device or the like is configured by applying the virtual image three-dimensional synthesis method of the present invention. .

【0107】更に、本発明のゲーム装置によれば、上述
した仮想画像立体合成装置が応用されるので、位置検出
手段による物体の位置情報から簡易に、しかも、少ない
計算量で仮想空間上の物体の仮想的な接近、接触又は押
圧などを認識することができる。
Further, according to the game apparatus of the present invention, since the above-described virtual image three-dimensional synthesizing apparatus is applied, the object in the virtual space can be easily obtained from the position information of the object by the position detecting means with a small amount of calculation. Virtual contact, contact or pressing of the user can be recognized.

【0108】従って、その実空間上の基準面の属する位
置に、あたかも、TV番組のキャラクタなどを飛び出さ
せ、その観察者の一方の手のひらに載せたキャラクタな
どを他方の手で撫でたときに、そのキャラクタを笑わせ
たり、泣かせたり、又は、怒らせたりすることができ
る。これにより、バーチャルキャラクタ育成ゲーム装置
などを容易に構成することができ、しかも、それを低廉
価格で提供することができる。
Therefore, as if a TV program character or the like jumps out to the position to which the reference plane in the real space belongs, and a character or the like placed on one palm of the observer is stroked with the other hand, You can make the character laugh, cry, or offend. This makes it possible to easily configure a virtual character breeding game device and the like, and to provide it at a low price.

【0109】また、本発明の記録媒体によれば、上述し
た仮想画像立体合成方法を実行するアルゴリズムが格納
されるので、そのアルゴリズムを実行することによっ
て、実空間上の物体の位置情報に基づいてをキャラクタ
画像を動かすことができる。従って、上述したバーチャ
ルキャラクタ育成ゲーム装置などを再現性良く構成する
ことができる。
Further, according to the recording medium of the present invention, an algorithm for executing the above-described virtual image three-dimensional composition method is stored. Can move the character image. Therefore, the above-described virtual character breeding game device and the like can be configured with good reproducibility.

【0110】この発明は、TV番組のキャラクタなどを
仮想空間上の手のひらで育成するバーチャルキャラクタ
育成ゲーム装置などの製造に適用して極めて好適であ
る。
The present invention is extremely suitable when applied to the production of a virtual character breeding game device for breeding TV program characters and the like with palms in a virtual space.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明に係る実施形態としての仮想画像立体合
成装置を応用したゲーム装置100の構成例を示す斜視
図である。
FIG. 1 is a perspective view showing a configuration example of a game device 100 to which a virtual image three-dimensional composition device as an embodiment according to the present invention is applied.

【図2】第1の実施形態で使用する基準面設定用のブレ
スレット1の構成例を示す斜視図である。
FIG. 2 is a perspective view showing a configuration example of a reference surface setting bracelet 1 used in the first embodiment.

【図3】ゲーム装置100で使用する特殊グラストロン
2の構成例を示す正面から見た概念図である。
FIG. 3 is a conceptual diagram illustrating a configuration example of a special glasstron 2 used in the game apparatus 100 as viewed from the front.

【図4】ゲーム装置100で使用する他の特殊グラスト
ロン20の構成例を示す正面から見た概念図である。
FIG. 4 is a conceptual diagram illustrating a configuration example of another special glasstron 20 used in the game apparatus 100 as viewed from the front.

【図5】その特殊グラストロン2の流し撮りCCD装置
23の内部構成例を示す平面図である。
FIG. 5 is a plan view showing an example of the internal configuration of the panning CCD device 23 of the special glasstron 2.

【図6】その流し撮りCCD装置23の光学系の構成例
を示す断面図である。
FIG. 6 is a cross-sectional view showing a configuration example of an optical system of the panning CCD device 23.

【図7】Aは、物体30としてのじゃらし具30Aの構
成例、Bはその他のじゃらし具30Bの構成例を示す正
面図である。
7A is a front view illustrating a configuration example of a baffle 30A as an object 30, and FIG. 7B is a front view illustrating a configuration example of another baffle 30B.

【図8】そのじゃらし具30Aの内部構成例を示す概念
図である。
FIG. 8 is a conceptual diagram showing an example of the internal configuration of the clasp 30A.

【図9】物体30としてのデータグローブ30Cの構成
例を示す正面図である。
FIG. 9 is a front view showing a configuration example of a data glove 30C as an object 30.

【図10】物体30としての力覚提示グローブ30Dの
構成例を示す正面図である。
FIG. 10 is a front view showing a configuration example of a force sense presentation glove 30D as an object 30.

【図11】ゲーム装置100の回路ブロック例を示す図
である。
FIG. 11 is a diagram showing an example of a circuit block of the game device 100.

【図12】その基準面を成すプレート部11上のじゃら
し具30Aの通常画像例を示すイメージ図である。
FIG. 12 is an image diagram showing an example of a normal image of the baffle 30A on the plate portion 11 forming the reference plane.

【図13】その基準面及びじゃらし具30Aの位置座標
の算出例を示す模式図である。
FIG. 13 is a schematic view showing an example of calculating the position coordinates of the reference plane and the buzzer 30A.

【図14】E2PROM48に格納された表示情報例を
示す概念図である。
FIG. 14 is a conceptual diagram showing an example of display information stored in the E 2 PROM 48.

【図15】ゲーム装置100の動作例(その1)を示す
メインルーチンのフローチャートである。
FIG. 15 is a flowchart of a main routine showing an operation example (No. 1) of the game apparatus 100.

【図16】ゲーム装置100の動作例(その2)を示す
サブルーチンのフローチャートである。
FIG. 16 is a flowchart of a subroutine showing an operation example (part 2) of the game apparatus 100.

【図17】Aは、実空間上のプレート部11の実像例で
あり、Bは、仮想空間における基準面上の3Dポリゴン
10の合成例を示すイメージ図である。
17A is an example of a real image of the plate unit 11 in the real space, and FIG. 17B is an image diagram illustrating an example of the synthesis of the 3D polygon 10 on the reference plane in the virtual space.

【図18】第2の実施形態で使用する基準面設定用の2
次元バーコード50の例を示す平面図である。
FIG. 18 shows a reference plane setting 2 used in the second embodiment.
FIG. 4 is a plan view illustrating an example of a dimensional barcode 50.

【図19】その2次元バーコード50上の3Dポリゴン
10の合成例を示す斜視図である。
FIG. 19 is a perspective view showing a synthesis example of the 3D polygon 10 on the two-dimensional barcode 50.

【符号の説明】[Explanation of symbols]

1・・・基準面設定用のブレスレット(面認識手段)、
2,20・・・特殊グラストロン、3・・・画像処理装
置、4・・・位置検出機構(位置検出手段)、10・・
・3Dポリゴン、23・・・流し撮りCCD装置、24
・・・表示手段、25・・・CCD撮像装置、26・・
・右眼表示用のLCD(第1の画像表示素子)、27・
・・左眼表示用のLCD(第2の画像表示素子)、30
A,30B・・・じゃらし具(物体)、30C・・・デ
ータグローブ、30D・・・力覚提示グローブ、32・
・・垂直転送部(電荷転送部)、33・・・水平転送
部、50・・・2次元バーコード、100・・・ゲーム
装置
1. Bracelet for setting reference surface (surface recognition means),
2, 20 special glasstron, 3 image processing device, 4 position detection mechanism (position detection means), 10
・ 3D polygon, 23: Panning CCD device, 24
... Display means, 25 ... CCD imaging device, 26 ...
LCD for right eye display (first image display element), 27
..LCD for displaying left eye (second image display element), 30
A, 30B: Jig (object), 30C: Data glove, 30D: Force glove, 32
..Vertical transfer unit (charge transfer unit), 33... Horizontal transfer unit, 50... Two-dimensional barcode, 100.

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G06T 17/40 H04N 5/272 H04N 5/272 13/02 13/02 13/04 13/04 A63F 9/22 B // A63F 13/00 G06F 15/62 350K ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) G06T 17/40 H04N 5/272 H04N 5/272 13/02 13/02 13/04 13/04 A63F 9 / 22 B // A63F 13/00 G06F 15/62 350K

Claims (15)

【特許請求の範囲】[Claims] 【請求項1】 観察者の属する外界像に仮想体の画像を
立体的に合成する装置であって、 前記観察者の属する実空間上で任意の基準面を認識する
面認識手段と、 前記面認識手段により認識された前記実空間上の基準面
の属する位置に、あたかも、仮想体が存在するように仮
想空間上の基準面の属する位置に仮想体の画像を合成す
る合成手段と、 少なくとも、前記仮想空間上では仮想体を包含する位置
に合成される物体であって、前記実空間上では基準面か
ら離れた位置にある前記物体の位置情報を検出する位置
検出手段とを備え、 前記位置検出手段から得られた前記物体の位置情報に基
づいて仮想空間上で前記仮想体の画像が変化するように
画像処理されることを特徴とする仮想画像立体合成装
置。
An apparatus for stereoscopically combining an image of a virtual body with an external world image to which an observer belongs, a plane recognition means for recognizing an arbitrary reference plane in a real space to which the observer belongs, and the plane Synthesizing means for synthesizing an image of the virtual body at a position to which the reference plane in the virtual space belongs so that the virtual body exists at a position to which the reference plane in the real space belongs, which is recognized by the recognition means. Position detecting means for detecting position information of the object synthesized on a position including the virtual body in the virtual space, the position information being located at a position distant from a reference plane in the real space; A virtual image three-dimensional composition apparatus, wherein image processing is performed such that an image of the virtual body changes in a virtual space based on position information of the object obtained from a detection unit.
【請求項2】 観察者の属する外界像に仮想体の画像を
立体的に合成する方法であって、 前記観察者の属する実空間上で任意の基準面を設定し、 前記設定された基準面を撮像して前記実空間上の基準面
の属する位置に、あたかも、仮想体が存在するように前
記仮想空間の基準面上で仮想体の画像を合成し、 少なくとも、前記仮想空間上では仮想体を包含する位置
に合成される物体であって、前記実空間上では基準面か
ら離れた位置にある前記物体の位置情報を検出し、 前記検出された前記物体の位置情報に基づいて仮想空間
上で前記仮想体の画像が変化するように画像処理される
ことを特徴とする仮想画像立体合成方法。
2. A method of stereoscopically combining an image of a virtual body with an external image to which an observer belongs, wherein an arbitrary reference plane is set in a real space to which the observer belongs, and wherein the set reference plane is set. And synthesizes an image of the virtual body on the reference plane of the virtual space so that the virtual body exists at the position to which the reference plane in the real space belongs, at least a virtual body on the virtual space. Detecting the position information of the object located at a position distant from the reference plane in the real space on the virtual space based on the detected position information of the object. Wherein the image processing is performed so that the image of the virtual body changes.
【請求項3】 観察者の属する外界像に任意のキャラク
タ画像を立体的に合成する装置であって、 前記観察者の属する実空間上で任意の基準面を認識する
面認識手段と、 前記面認識手段により認識された前記実空間上の基準面
の属する位置に、あたかも、キャラクタが存在するよう
に仮想空間の基準面上でキャラクタの画像を合成する合
成手段と、 少なくとも、前記仮想空間上ではキャラクタを包含する
位置に合成される観察者の身体部位の一部に装着される
物体又は観察者が保持する物体であって、前記実空間上
では基準面から離れた位置にある前記物体の位置情報を
検出する位置検出手段とを備え、 前記位置検出手段から得られた前記物体の位置情報に基
づいて前記仮想空間上のキャラクタ画像が変化するよう
に画像処理されることを特徴とするゲーム装置。
3. An apparatus for stereoscopically combining an arbitrary character image with an external world image to which an observer belongs, a plane recognizing means for recognizing an arbitrary reference plane in a real space to which the observer belongs; Synthesizing means for synthesizing an image of the character on the reference plane of the virtual space as if the character is present at the position to which the reference plane in the real space belongs, which is recognized by the recognition means; The position of the object attached to a part of the body part of the observer or the object held by the observer combined with the position including the character, and located at a position away from the reference plane in the real space. Position detecting means for detecting information, wherein image processing is performed so that a character image in the virtual space changes based on position information of the object obtained from the position detecting means. Game device for the butterflies.
【請求項4】 前記物体の位置を検出する位置検出手段
が設けられる場合であって、 前記位置検出手段は、 前記物体の任意の位置に取付けられた、少なくとも、点
滅パターンが異なるように点滅する2点以上の光源と、 前記光源を所定の撮像方向に流すように撮像する撮像手
段と、 前記撮像手段による輝度信号を画像処理して前記基準面
に対する位置を求める演算手段とを有することを特徴と
する請求項3記載のゲーム装置。
4. A case in which position detection means for detecting a position of the object is provided, wherein the position detection means is attached to an arbitrary position of the object and blinks at least in a different blinking pattern. It has two or more light sources, imaging means for imaging the light source so as to flow in a predetermined imaging direction, and arithmetic means for processing a luminance signal by the imaging means to obtain a position with respect to the reference plane. The game device according to claim 3, wherein
【請求項5】 前記位置検出手段が設けられる場合であ
って、 前記位置検出手段による位置情報を画像処理する画像処
理手段が設けられ、前記画像処理手段は、 予め取得した参照位置情報に対する前記仮想体の画像を
動かす表示情報を格納したメモリを有し、 前記位置検出手段によって検出された位置情報に基づい
て前記メモリから表示情報を読み出すようになされたこ
とを特徴とする請求項3記載のゲーム装置。
5. When the position detecting means is provided, an image processing means for performing image processing of the position information by the position detecting means is provided, and the image processing means is configured to execute the virtual processing on the reference position information acquired in advance. 4. The game according to claim 3, further comprising a memory storing display information for moving a body image, wherein the display information is read from the memory based on the position information detected by the position detecting means. apparatus.
【請求項6】 前記2点以上の光源が設けられた物体
は、観察者の身体部位の一部に装着されるグローブ又は
観察者が保持するじゃらし具であることを特徴とする請
求項3記載のゲーム装置。
6. The object provided with the two or more light sources is a glove worn on a part of a body part of the observer or a jig held by the observer. Game equipment.
【請求項7】 前記画像処理手段にメモリが設けられる
場合であって、 少なくとも、前記メモリには第1〜第3の参照位置情報
が格納され、 前記第1の参照位置情報に包含される位置情報が検出さ
れたときは、前記仮想体を泣かせるような表示情報が読
み出され、 前記第2の参照位置情報に包含される位置情報が検出さ
れたときは、前記仮想体を笑わせるような表示情報が読
み出され、 前記第3の参照位置情報に包含される位置情報が検出さ
れたときは、前記仮想体を怒らせるような表示情報が読
み出されることを特徴とする請求項5記載のゲーム装
置。
7. A case in which a memory is provided in said image processing means, wherein at least first to third reference position information is stored in said memory, and a position included in said first reference position information. When information is detected, display information that makes the virtual body cry is read, and when position information included in the second reference position information is detected, a display that makes the virtual body laugh. 6. The game according to claim 5, wherein information is read, and when position information included in the third reference position information is detected, display information that makes the virtual body angry is read. apparatus.
【請求項8】 前記面認識手段は、 仮想体の画像を合成しようとする位置に取付けられた、
少なくとも、点滅パターンが異なるように点滅する3点
以上の光源と、 前記光源を所定の流し撮像方向に流すように撮像する撮
像手段と、 前記撮像手段による輝度信号を画像処理して前記光源の
3点の位置を求め、その後、前記3点の光源の位置を結
んで前記基準面を求める演算手段とを有することを特徴
とする請求項3記載のゲーム装置。
8. The surface recognition means is attached to a position where an image of a virtual body is to be synthesized.
At least three or more light sources that blink so as to have different blink patterns, imaging means for imaging the light source so as to flow in a predetermined flowing imaging direction, and image processing of a luminance signal by the imaging means for the light source. 4. The game apparatus according to claim 3, further comprising: calculating means for obtaining a position of a point, and thereafter connecting the positions of the three light sources to obtain the reference plane.
【請求項9】 前記撮像手段は、 各画素を構成する複数の光電変換素子を有した二次元撮
像デバイスが使用され、 前記光電変換素子から得られた信号電荷を所定の方向に
転送するときに、 少なくとも、同一フィールド期間中に複数回、前記光電
変換素子から前記信号電荷を読み出すようになされたこ
とを特徴とする請求項8記載のゲーム装置。
9. The image pickup means uses a two-dimensional image pickup device having a plurality of photoelectric conversion elements constituting each pixel, and transfers a signal charge obtained from the photoelectric conversion element in a predetermined direction. 9. The game device according to claim 8, wherein the signal charge is read from the photoelectric conversion element at least a plurality of times during the same field period.
【請求項10】 前記撮像手段及び演算手段が設けられ
る場合であって、 前記演算手段は、 前記撮像手段による輝度信号の点滅パターンに関して、
3つの輝点を含むXY平面を成す空間的な配置パターン
に変換し、 前記配置パターン上を走査して、少なくとも、3つの輝
点の位置座標を求め、 前記3点の位置座標を結ぶことにより前記基準面を認識
するようになされたことを特徴とする請求項8記載のゲ
ーム装置。
10. The apparatus according to claim 1, wherein said imaging unit and said calculation unit are provided, wherein said calculation unit is configured to:
By converting into a spatial arrangement pattern forming an XY plane including three luminescent points, scanning the arrangement pattern to obtain at least the position coordinates of three luminescent points, and connecting the position coordinates of the three points 9. The game device according to claim 8, wherein the reference plane is recognized.
【請求項11】 前記演算手段は、 3つの輝点を含む配置パターン上で流し撮像方向をY軸
とし、該Y軸に直交する軸をX軸としたときに、 前記流し撮像方向と反対の方向に輝度信号値を加算して
X軸上にプロットし、 前記X軸上にプロットされた輝度信号値が最大となる位
置を検出して3つのX座標値を求め、かつ、 前記配置パターン上でX軸方向に走査したときに、 前記流し撮像方向に並んだ複数の輝点のうち、最初に発
光した輝点位置を各々X座標値に対応したY座標値とし
て求めることを特徴とする請求項8記載のゲーム装置。
11. The moving means, when the moving image pickup direction is an Y axis on an arrangement pattern including three bright points and an axis orthogonal to the Y axis is an X axis, The luminance signal values are added in the directions and plotted on the X-axis. The position where the luminance signal value plotted on the X-axis is maximum is detected to obtain three X-coordinate values. When scanning in the X-axis direction in (1), among the plurality of bright points arranged in the panning imaging direction, the position of the bright point that first emits light is obtained as a Y coordinate value corresponding to the X coordinate value. Item 10. The game device according to item 8.
【請求項12】 前記面認識手段は、 仮想体の画像を合成しようとする位置に取付けられた、
少なくとも、白地に黒で印刷されたn行×n列の白黒マ
トリクスと、該白黒マトリクスと同じ太さの黒枠から成
る2次元マトリクスコードと、 前記二次元マトリクスコードを撮像する撮像手段と、 前記撮像手段による輝度信号を画像処理して前記二次元
マトリクスコードから基準面を求める演算手段とを有す
ることを特徴とする請求項3記載のゲーム装置。
12. The surface recognition means is attached to a position where an image of a virtual body is to be synthesized.
At least an n-row x n-column black-and-white matrix printed in black on a white background, a two-dimensional matrix code including a black frame having the same thickness as the black-and-white matrix, imaging means for imaging the two-dimensional matrix code, and imaging 4. The game apparatus according to claim 3, further comprising: an arithmetic unit for performing image processing on the luminance signal by the unit to obtain a reference plane from the two-dimensional matrix code.
【請求項13】 前記合成手段は、 観察者の属する外界像を撮像する撮像手段と、 前記撮像手段による外界像と予め準備された仮想体の画
像と合成したステレオ画像の一方を表示する第1の画像
表示素子と、 前記ステレオ画像の他方を表示する第2の画像表示素子
とを有したヘッドマウントディスプレイであり、 前記ヘッドマウントディスプレイは、観察者の顔面又は
頭部に装着され、 前記第1の画像表示素子によるステレオ画像と、前記第
2の画像表示素子によるステレオ画像とを重ね合わせて
観察者の眼球に導くようになされたことを特徴とする請
求項3記載のゲーム装置。
13. An image capturing means for capturing an external image to which an observer belongs, and a first image for displaying one of a stereo image obtained by combining the external image by the image capturing means and an image of a virtual object prepared in advance. And a second image display element for displaying the other of the stereo images. The head mounted display is mounted on a face or a head of an observer, and the first 4. The game apparatus according to claim 3, wherein the stereo image by the image display element and the stereo image by the second image display element are superimposed and guided to an observer's eyeball.
【請求項14】 前記合成手段は、 観察者の属する外界像を取り込むために入射光の開閉を
する液晶シャッタと、 前記外界像に合成するための仮想体の画像を表示する画
像表示素子と、 前記画像表示素子による仮想体の画像と、前記液晶シャ
ッタを通過した観察者の属する外界像とをその観察者の
眼球に導く光学手段とを有したヘッドマウントディスプ
レイであり、 前記ヘッドマウントディスプレイは、観察者の顔面又は
頭部に装着され、 前記液晶シャッタを開いたときは、 前記液晶シャッタを通過した観察者の属する実空間上の
外界像に、前記画像表示素子による仮想体の画像を重ね
合わせて観察者の眼球に導くようになされたことを特徴
とする請求項3記載のゲーム装置。
14. A liquid crystal shutter for opening and closing incident light to capture an external image to which an observer belongs, an image display element for displaying an image of a virtual body to be combined with the external image, An image of the virtual body by the image display element, and a head mounted display having an optical unit that guides an external image to which the observer who has passed through the liquid crystal shutter belongs to the observer's eyeball, wherein the head mount display includes: When mounted on the face or head of the observer and the liquid crystal shutter is opened, the image of the virtual body by the image display element is superimposed on the external image in real space to which the observer who has passed through the liquid crystal shutter belongs. 4. The game device according to claim 3, wherein the game device is guided to an eyeball of an observer.
【請求項15】 観察者の属する外界像に仮想体の画像
を立体的に合成するアルゴリズムを格納した記録媒体で
あって、 前記記録媒体には、 前記観察者の属する実空間上で任意の基準面を設定し、 前記設定された基準面を撮像して仮想空間上に合成する
と共に、前記仮想空間上に仮想体の画像を重ね合わせて
合成し、 少なくとも、前記仮想空間上では仮想体を包含する位置
に合成される物体であって、前記実空間上では基準面か
ら離れた位置にある前記物体の位置を検出し、 前記検出された物体の位置情報に基づいて前記仮想空間
上の仮想体の画像が変化するように画像処理するための
アルゴリズムが格納されることを特徴とする記録媒体。
15. A recording medium storing an algorithm for stereoscopically combining an image of a virtual body with an external image to which an observer belongs, wherein the recording medium has an arbitrary reference in a real space to which the observer belongs. Setting a plane, imaging the set reference plane and synthesizing it in the virtual space, and superimposing and synthesizing the image of the virtual body on the virtual space, at least including the virtual body in the virtual space A virtual object in the virtual space based on position information of the detected object, wherein the virtual object in the virtual space is detected based on position information of the detected object. A recording medium storing an algorithm for performing image processing so that the image changes.
JP27397698A 1998-09-28 1998-09-28 Virtual image stereoscopic compositing device, virtual image stereoscopic compositing method, game device and recording medium Pending JP2000098871A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP27397698A JP2000098871A (en) 1998-09-28 1998-09-28 Virtual image stereoscopic compositing device, virtual image stereoscopic compositing method, game device and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP27397698A JP2000098871A (en) 1998-09-28 1998-09-28 Virtual image stereoscopic compositing device, virtual image stereoscopic compositing method, game device and recording medium

Publications (1)

Publication Number Publication Date
JP2000098871A true JP2000098871A (en) 2000-04-07

Family

ID=17535208

Family Applications (1)

Application Number Title Priority Date Filing Date
JP27397698A Pending JP2000098871A (en) 1998-09-28 1998-09-28 Virtual image stereoscopic compositing device, virtual image stereoscopic compositing method, game device and recording medium

Country Status (1)

Country Link
JP (1) JP2000098871A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003220180A (en) * 2002-01-30 2003-08-05 Aruze Corp Game machine and method of providing information thereof
US6937255B2 (en) 2003-03-20 2005-08-30 Tama-Tlo, Ltd. Imaging apparatus and method of the same
JP2006277367A (en) * 2005-03-29 2006-10-12 Mazda Motor Corp Vehicle planning support system
WO2007018111A1 (en) * 2005-08-05 2007-02-15 Pioneer Corporation Image display device
JP2007521559A (en) * 2003-06-23 2007-08-02 アフィネオン・テクノロジーズ・ピーティーイー・リミテッド Computer input device for entering wake of 6 degrees of freedom
JP2014032646A (en) * 2012-04-26 2014-02-20 Bank Of Tokyo-Mitsubishi Ufj Ltd Information processing device, electronic apparatus, and program
JP2014206990A (en) * 2014-06-09 2014-10-30 富士フイルム株式会社 Head-mounted augmented reality video presentation device and virtual display object operation method
JP2016154044A (en) * 2016-04-28 2016-08-25 富士フイルム株式会社 Head mount type augmented reality video presentation device and virtual display object operation method thereof
JP2018136950A (en) * 2014-03-14 2018-08-30 株式会社ソニー・インタラクティブエンタテインメント Gaming device with freely rotatable camera
CN109753981A (en) * 2017-11-06 2019-05-14 彼乐智慧科技(北京)有限公司 A kind of method and device of image recognition
CN109902541A (en) * 2017-12-10 2019-06-18 彼乐智慧科技(北京)有限公司 A kind of method and system of image recognition

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003220180A (en) * 2002-01-30 2003-08-05 Aruze Corp Game machine and method of providing information thereof
US6937255B2 (en) 2003-03-20 2005-08-30 Tama-Tlo, Ltd. Imaging apparatus and method of the same
JP2007521559A (en) * 2003-06-23 2007-08-02 アフィネオン・テクノロジーズ・ピーティーイー・リミテッド Computer input device for entering wake of 6 degrees of freedom
JP4687957B2 (en) * 2005-03-29 2011-05-25 マツダ株式会社 Vehicle planning support system
JP2006277367A (en) * 2005-03-29 2006-10-12 Mazda Motor Corp Vehicle planning support system
US8264477B2 (en) 2005-08-05 2012-09-11 Pioneer Corporation Image display apparatus
JP4651672B2 (en) * 2005-08-05 2011-03-16 パイオニア株式会社 Image display device
JPWO2007018111A1 (en) * 2005-08-05 2009-02-19 パイオニア株式会社 Image display device
WO2007018111A1 (en) * 2005-08-05 2007-02-15 Pioneer Corporation Image display device
JP2014032646A (en) * 2012-04-26 2014-02-20 Bank Of Tokyo-Mitsubishi Ufj Ltd Information processing device, electronic apparatus, and program
JP2018136950A (en) * 2014-03-14 2018-08-30 株式会社ソニー・インタラクティブエンタテインメント Gaming device with freely rotatable camera
JP2014206990A (en) * 2014-06-09 2014-10-30 富士フイルム株式会社 Head-mounted augmented reality video presentation device and virtual display object operation method
JP2016154044A (en) * 2016-04-28 2016-08-25 富士フイルム株式会社 Head mount type augmented reality video presentation device and virtual display object operation method thereof
CN109753981A (en) * 2017-11-06 2019-05-14 彼乐智慧科技(北京)有限公司 A kind of method and device of image recognition
CN109753981B (en) * 2017-11-06 2020-12-22 彼乐智慧科技(北京)有限公司 Image recognition method and device
CN109902541A (en) * 2017-12-10 2019-06-18 彼乐智慧科技(北京)有限公司 A kind of method and system of image recognition
CN109902541B (en) * 2017-12-10 2020-12-15 彼乐智慧科技(北京)有限公司 Image recognition method and system

Similar Documents

Publication Publication Date Title
US11693242B2 (en) Head-mounted display for virtual and mixed reality with inside-out positional, user body and environment tracking
US9662583B2 (en) Portable type game device and method for controlling portable type game device
US9740298B2 (en) Adaptive projector for projecting content into a three-dimensional virtual space
US7606392B2 (en) Capturing and processing facial motion data
JP2000172431A (en) Information input device and game device
US20120075484A1 (en) Computer-readable storage medium having image processing program stored therein, image processing apparatus, image processing system, and image processing method
JP4264601B2 (en) Information input device, information input method, and game device
JP2000098871A (en) Virtual image stereoscopic compositing device, virtual image stereoscopic compositing method, game device and recording medium
JP2000184398A (en) Virtual image stereoscopic synthesis device, virtual image stereoscopic synthesis method, game machine and recording medium
JP4281139B2 (en) Position recognition apparatus, position recognition method, and virtual image stereoscopic composition apparatus
CN206378680U (en) 3D cameras based on 360 degree of spacescans of structure light multimode and positioning
JP2000098300A (en) Device and method for stereoscopically synthesizing virtual image, game device and recording medium
JP2000132329A (en) Device and method for recognizing surface and virtual image solid synthesizer
JP2020181320A (en) Information processing device and device information derivation method
US11454816B1 (en) Segmented illumination display
JP2000098870A (en) Virtual image stereoscopic compositing device virtual image stereoscopic compositing method, game device and recording medium
JP2000184397A (en) Virtual image stereoscopic synthesis communication system and virtual image stereoscopic synthesis communication method
JP2000196955A (en) Device and method for recognizing plane, and device for spectroscopically composing virtual picture
JP2000131017A (en) Self-position indicating object, its position recognition device and method
JP2000172430A (en) Information input device, device and method for position recognition thereof, virtual image stereoscopic composition device, and storage medium
CN210109742U (en) Head-mounted virtual-real interaction device