JP2000172430A - Information input device, device and method for position recognition thereof, virtual image stereoscopic composition device, and storage medium - Google Patents

Information input device, device and method for position recognition thereof, virtual image stereoscopic composition device, and storage medium

Info

Publication number
JP2000172430A
JP2000172430A JP10350493A JP35049398A JP2000172430A JP 2000172430 A JP2000172430 A JP 2000172430A JP 10350493 A JP10350493 A JP 10350493A JP 35049398 A JP35049398 A JP 35049398A JP 2000172430 A JP2000172430 A JP 2000172430A
Authority
JP
Japan
Prior art keywords
image
information input
virtual
virtual image
touch panel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP10350493A
Other languages
Japanese (ja)
Inventor
Takeshi Hayakawa
健 早川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP10350493A priority Critical patent/JP2000172430A/en
Publication of JP2000172430A publication Critical patent/JP2000172430A/en
Pending legal-status Critical Current

Links

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

PROBLEM TO BE SOLVED: To easily recognize the position of an information input tool such as a touch panel by an image processing system and to put a virtual image of an image display device, etc., together with a virtual image of the information input tool. SOLUTION: The touch panel 1 with a reference surface setting function capable of picking up an image is equipped with four light emitting diodes LED1 to LED4 which are fitted at specific positions in the peripheral area of its information input surface and a blink control circuit 13 which controls the input and output of the light emitting diodes LED1 to LED4, and this blink control circuit 13 performs blink control so that the blink patterns of the light emitting diodes LED1 to LED4 are different. When an image of the touch panel 1 is picked up by a special photography device like a panning CCD device, this constitution makes it easy to specify the positions of the light emitting diodes LED1 to LED4 as compared with a case when the illumination patterns of the light emitting diodes LED1 to LED4 are brought under non-blinking control.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、タッチパネルな
どの存在位置を画像処理系などに認識させる情報入力ツ
ール位置認識機構及びこれを応用した仮想画像処理装置
などに適用して好適な情報入力装置、その位置認識装
置、その位置認識方法、仮想画像立体合成装置及び記憶
媒体に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an information input tool position recognition mechanism that allows an image processing system or the like to recognize the location of a touch panel or the like, and an information input device suitable for use in a virtual image processing apparatus or the like using the same. The present invention relates to a position recognizing device, a position recognizing method, a virtual image three-dimensional composition device, and a storage medium.

【0002】詳しくは、撮像可能なタッチパネルなどの
情報入力ツールの特定の位置に点滅パターンの異なる複
数の光源を取付け、その光源に基づいてその情報入力ツ
ールの位置を画像処理系で容易に認識できるようにする
と共に、その情報入力ツールの仮想画像に画像表示装置
などの仮想画像を合成できるようにしたものである。
More specifically, a plurality of light sources having different blinking patterns are attached to specific positions of an information input tool such as a touch panel capable of imaging, and the position of the information input tool can be easily recognized by an image processing system based on the light sources. In addition, a virtual image of an image display device or the like can be combined with the virtual image of the information input tool.

【0003】[0003]

【従来の技術】近年、バーチャル・リアリティ(仮想現
実感)に基づく表示技術の向上に伴い、複数の画像表示
面に跨って仮想現実感を操作者に提供するための仮想画
像立体合成装置が出現している。
2. Description of the Related Art In recent years, with the improvement of display technology based on virtual reality, a virtual image three-dimensional synthesizing apparatus for providing an operator with virtual reality over a plurality of image display surfaces has appeared. are doing.

【0004】この種の立体表示装置は、特開平9−23
7353号の技術文献に見られる。この技術文献によれ
ば、縦横数m程度の大きさの映写空間が設けられ、各々
の面に表示装置が配置され、各々の表示装置から恐竜、
怪獣や武器などの仮想体の画像が立体表示される。そし
て、操作者は液晶シャッター付きの眼鏡をかけ、その映
写空間に立つと、あたかも、各々の表示装置で表示され
た仮想体と同じ場所に居るようなされる。
[0004] This type of stereoscopic display device is disclosed in Japanese Unexamined Patent Publication No. 9-23.
7353 can be found in the technical literature. According to this technical document, a projection space of about several meters in length and width is provided, and a display device is arranged on each surface, and a dinosaur,
Images of virtual bodies such as monsters and weapons are displayed in three dimensions. Then, when the operator puts on glasses with a liquid crystal shutter and stands in the projection space, it is as if he were at the same place as the virtual body displayed on each display device.

【0005】また、操作者が仮想空間上で手にする武器
がカメラによって撮像され、その武器の動きによって仮
想体が反応するように画像処理されている。これによ
り、操作者は数千年前の原始時代にタイムスリップし
て、恐竜退治などをゲーム感覚で行うことができる。
[0005] In addition, a weapon picked up by an operator in a virtual space is imaged by a camera, and image processing is performed so that a virtual body responds to the movement of the weapon. As a result, the operator can slip back in time to the primitive age several thousand years ago and perform dinosaur extermination, etc., as if playing a game.

【0006】[0006]

【発明が解決しようとする課題】ところで、従来方式の
情報入力装置の認識方法によれば、操作者が実空間上で
手にする武器などの情報入力装置を画像処理系に認識さ
せようとした場合に、その情報入力装置を含む背景画像
を撮像してその情報入力装置の輪郭部を抽出し、予め格
納されたその情報入力装置に関する基準パターンとその
情報入力装置の輪郭パターンとを比較している。
According to the conventional method of recognizing an information input device, an image processing system attempts to recognize an information input device such as a weapon that an operator holds in real space. In such a case, a background image including the information input device is captured, a contour portion of the information input device is extracted, and a reference pattern for the information input device stored in advance and a contour pattern of the information input device are compared. I have.

【0007】従って、その情報入力装置だけを画像処理
系で認識させて、仮想空間上の情報入力装置に仮想体画
像などの合成しようとした場合に、その画像処理系のパ
ターン認識に係る計算量が多くなったり、その演算器の
負担が重くなる。
Therefore, when only the information input device is recognized by the image processing system and an attempt is made to synthesize a virtual body image or the like with the information input device in the virtual space, the amount of calculation for pattern recognition of the image processing system is required. And the load on the arithmetic unit increases.

【0008】これにより、例えば、操作者の属する実空
間のタッチパネルなどの情報入力ツール上に、画像表示
装置としての液晶ディスプレイや、CRT装置などを仮
想的に存在させ、その実空間上の情報入力ツールの操作
に基づいて仮想空間上の画像表示装置の表示制御をする
ような仮想画像立体合成装置を構成しようとした場合
に、従来方式のパターン認識方法をそのまま適用する
と、画像処理系で情報入力装置を容易に認識することが
困難なことから、そのパターン認識処理が大がかりとな
ったり、基準面を認識するための画像処理が複雑になっ
たり、その時の計算量が多くなったりして、仮想画像立
体合成装置などのコストアップにつながるという問題が
ある。
Thus, for example, a liquid crystal display or a CRT device as an image display device virtually exists on an information input tool such as a touch panel in the real space to which the operator belongs, and the information input tool in the real space is provided. If it is attempted to configure a virtual image stereoscopic synthesis device that controls display of an image display device in a virtual space based on the above operation, if the conventional pattern recognition method is applied as it is, an information input device in an image processing system Because it is difficult to easily recognize the virtual image, the pattern recognition processing becomes large, the image processing for recognizing the reference plane becomes complicated, and the calculation amount at that time increases, There is a problem that this leads to an increase in the cost of a three-dimensional synthesis device and the like.

【0009】そこで、本発明は上記の課題に鑑み創作さ
れたものであり、タッチパネルなどの撮像可能な情報入
力ツールの位置を画像処理系で容易に認識できるように
すると共に、その情報入力ツールの仮想画像に画像表示
装置などの仮想画像を合成できるようにした情報入力装
置、その位置認識装置、その位置認識方法、仮想画像立
体合成装置及び記憶媒体を提供することを目的とする。
Accordingly, the present invention has been made in view of the above-mentioned problems, and enables an image processing system to easily recognize the position of an information input tool such as a touch panel, which can be imaged. An object of the present invention is to provide an information input device capable of synthesizing a virtual image such as an image display device with a virtual image, a position recognition device thereof, a position recognition method thereof, a virtual image three-dimensional synthesis device, and a storage medium.

【0010】[0010]

【課題を解決するための手段】上述した課題は、情報入
力面を有した撮像可能な情報入力装置であって、少なく
とも、その情報入力面の周辺領域の特定位置に取付けら
れた複数の光源と、その光源の入出力を制御する制御手
段とを備え、その制御手段は光源の点滅パターンが異な
るように点滅制御することを特徴とする情報入力装置に
よって解決する。
An object of the present invention is to provide an image capturing information input device having an information input surface, comprising at least a plurality of light sources mounted at specific positions in a peripheral area of the information input surface. Control means for controlling the input / output of the light source, and the control means performs the blinking control so that the blinking pattern of the light source is different.

【0011】本発明の情報入力装置によれば、情報入力
面の周辺領域の特定位置に取付けられた複数の光源が、
制御手段によって点滅パターンを異ならせるように点滅
制御されるので、流し撮りCCD装置のような特殊撮影
装置でその情報入力装置を撮像した場合に、複数の光源
の点灯パターンを非点滅制御した場合に比べてその光源
の位置を容易に特定することができる。
According to the information input device of the present invention, the plurality of light sources attached to specific positions in the peripheral area of the information input surface include:
Since the blinking control is performed by the control means so as to make the blinking pattern different, when the information input device is imaged by a special photographing device such as a panning CCD device, the lighting pattern of a plurality of light sources is non-blinking controlled. In comparison, the position of the light source can be easily specified.

【0012】従って、その光源の位置から情報入力装置
の位置を画像処理系に容易に認識させることができるの
で、仮想空間上で情報入力装置に任意の画像表示装置の
イメージ画像を合成するような仮想画像立体合成装置な
どに十分に応用することができる。
Therefore, since the position of the information input device can be easily recognized by the image processing system from the position of the light source, it is possible to combine an image of an arbitrary image display device with the information input device in a virtual space. It can be sufficiently applied to a virtual image three-dimensional synthesis device and the like.

【0013】本発明に係る情報入力装置の位置認識装置
は、点滅パターンが異なる複数の光源を特定位置に取付
けた情報入力装置の位置を認識する装置であって、その
情報入力装置の光源を所定の撮像方向に流すように撮像
する撮像手段と、その撮像手段による光源の輝度信号を
画像処理してその光源の各々の位置を求める演算手段と
を備えることを特徴とするものである。
A position recognition device for an information input device according to the present invention is a device for recognizing the position of an information input device in which a plurality of light sources having different blinking patterns are attached to a specific position. And an arithmetic unit for performing image processing of a luminance signal of a light source by the imaging unit to obtain a position of each of the light sources.

【0014】本発明に係る情報入力装置の位置認識装置
によれば、所定の撮像方向に流すように撮像された情報
入力装置の光源の点滅パターンに関して、その点滅パタ
ーンに係る輝度情報が演算手段によって画像処理されて
光源の位置が求められるので、情報入力装置に取付けら
れた光源の位置を容易に特定することができる。
According to the position recognition device of the information input device according to the present invention, with respect to the blinking pattern of the light source of the information input device which is imaged so as to flow in a predetermined imaging direction, the luminance information relating to the blinking pattern is calculated by the arithmetic means. Since the position of the light source is obtained by the image processing, the position of the light source attached to the information input device can be easily specified.

【0015】従って、その光源の位置から情報入力装置
の位置を画像処理系に容易に認識させることができるの
で、仮想空間上で情報入力装置に関してキーボードなど
の任意の入力ツール機能を与えたり、その情報入力装置
に対するモニタとして任意のCRT装置や、液晶ディス
プレイなどの仮想画像を合成するような仮想画像立体合
成装置などに十分に応用することができる。
Therefore, since the position of the information input device can be easily recognized by the image processing system from the position of the light source, an arbitrary input tool function such as a keyboard can be provided for the information input device in the virtual space. The present invention can be sufficiently applied to an arbitrary CRT device as a monitor for an information input device, a virtual image three-dimensional synthesizing device for synthesizing a virtual image such as a liquid crystal display, and the like.

【0016】本発明に係る情報入力装置の位置認識方法
は、撮像可能な情報入力装置の特定の面に点滅パターン
が異なる複数の光源を取付け、その点滅パターンの異な
った光源を所定の撮像方向に流すように撮像し、そこで
撮像された光源の輝度情報を画像処理してその光源の各
々の位置情報を求めることを特徴とするものである。
In the position recognition method for an information input device according to the present invention, a plurality of light sources having different blinking patterns are attached to a specific surface of an information input device capable of capturing an image, and the light sources having different blinking patterns are provided in a predetermined imaging direction. An image is taken so as to flow, and brightness information of the imaged light source is processed to obtain positional information of each of the light sources.

【0017】本発明の情報入力装置の位置認識方法によ
れば、点滅パターンの異なった光源を所定の撮像方向に
流すように撮像されるので、光源の点灯パターンを非点
滅制御した場合に比べてその光源の位置を容易に特定す
ることができる。従って、その光源の位置から情報入力
装置の位置を画像処理系に容易に認識させることができ
るので、仮想空間上の情報入力装置でキャラクタや、画
像表示装置などの仮想画像を合成するような画像処理を
再現性良く行うことができる。
According to the position recognition method of the information input device of the present invention, light sources having different blinking patterns are imaged so as to flow in a predetermined photographing direction. The position of the light source can be easily specified. Therefore, since the position of the information input device can be easily recognized by the image processing system from the position of the light source, an image in which a virtual image such as a character or an image display device is synthesized by the information input device in the virtual space. Processing can be performed with good reproducibility.

【0018】本発明に係る仮想画像立体合成装置は、操
作者の属する外界像に仮想体の画像を立体的に合成する
装置であって、情報入力面を有した撮像可能な情報入力
手段と、その操作者の属する実空間上で情報入力手段を
認識する位置認識手段と、その位置認識手段により認識
された情報入力手段の仮想空間上の画像に任意の仮想画
像を合成する合成手段とを備え、位置認識手段はその情
報入力手段の特定の位置に取付けられた、少なくとも、
点滅パターンが異なるように点滅する3点以上の光源
と、その光源を所定の撮像方向に流すように撮像する流
し撮り用の撮像手段と、その撮像手段による点滅パター
ンの輝度信号を画像処理してその光源の3点の位置を求
め、その後、その3点の光源の位置を結んで基準面を求
める演算手段とを有することを特徴とするものである。
A virtual image three-dimensional synthesizing device according to the present invention is a device for stereoscopically synthesizing an image of a virtual body with an external image to which an operator belongs. Position recognition means for recognizing the information input means in the real space to which the operator belongs, and synthesis means for synthesizing an arbitrary virtual image with an image in the virtual space of the information input means recognized by the position recognition means. , The position recognition means is attached to a specific position of the information input means, at least,
Three or more light sources that blink so that the blinking patterns are different, an imaging means for panning to image the light sources so as to flow in a predetermined imaging direction, and image processing of a luminance signal of the blinking pattern by the imaging means. And calculating means for obtaining the reference plane by connecting the positions of the three light sources, and thereafter connecting the positions of the three light sources.

【0019】本発明に係る仮想画像立体合成装置によれ
ば、上述の情報入力装置、その位置認識装置及びその位
置認識方法が応用され、情報入力面の周辺領域の特定位
置に取付けられた光源の位置から情報入力装置の位置を
画像処理系に容易に認識させることができるので、仮想
空間上で情報入力手段に対して任意のキー配列のキーボ
ードのような入力ツール機能を与えたり、その情報入力
手段に対するモニタとして任意のCRT装置や、液晶デ
ィスプレイなどの仮想画像を合成したりして映像加工を
行えるようなバーチャル映像加工処理装置などを構成す
ることができる。
According to the virtual image three-dimensional synthesizing device of the present invention, the above-described information input device, its position recognizing device and its position recognizing method are applied, and the light source attached to a specific position in the peripheral area of the information input surface is applied. Since the position of the information input device can be easily recognized by the image processing system from the position, the input tool function such as a keyboard having an arbitrary key arrangement can be given to the information input means in the virtual space, or the information input can be performed. An arbitrary CRT device as a monitor for the means, a virtual image processing device capable of synthesizing a virtual image such as a liquid crystal display or the like to perform image processing can be configured.

【0020】本発明に係る記録媒体は、操作者の属する
外界像に仮想体の画像を立体的に合成するアルゴリズム
を格納した記録媒体であって、少なくとも、その記録媒
体には、その操作者の属する実空間上で撮像可能な情報
入力手段を認識し、そこで認識された情報入力手段の仮
想空間上の画像に任意の画像表示装置の仮想画像を合成
するようなアルゴリズムが格納されることを特徴とする
ものである。
A recording medium according to the present invention is a recording medium storing an algorithm for stereoscopically combining an image of a virtual body with an external image to which an operator belongs, and at least the recording medium has at least the recording medium of the operator. An algorithm for recognizing information input means capable of being imaged in the real space to which the information input means belongs and storing a virtual image of an arbitrary image display device with an image in the virtual space of the recognized information input means is stored. It is assumed that.

【0021】本発明に係る記憶媒体によれば、例えば、
仮想画像立体合成装置を制御する際に、当該アルゴリズ
ムが読み出され、操作者の属する実空間上で撮像可能な
情報入力手段が認識され、そこで認識された仮想空間上
の情報入力手段に任意の画像表示装置などの仮想画像が
合成されるので、仮想空間の情報入力手段上にキャラク
タや、画像表示装置などの仮想画像を合成するような仮
想画像立体合成装置を再現性良く構成することができ
る。
According to the storage medium of the present invention, for example,
When controlling the virtual image three-dimensional synthesis device, the algorithm is read, information input means capable of being imaged in the real space to which the operator belongs is recognized, and any information input means in the recognized virtual space is recognized. Since a virtual image such as an image display device is synthesized, a virtual image three-dimensional synthesis device that synthesizes a character or a virtual image such as an image display device on information input means in a virtual space can be configured with high reproducibility. .

【0022】[0022]

【発明の実施の形態】以下、図面を参照しながら、この
発明の実施形態としての情報入力装置、その位置認識装
置、その位置認識方法、仮想画像立体合成装置及び記憶
媒体について説明をする。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, an information input device, a position recognizing device, a position recognizing method, a virtual image three-dimensional synthesizing device, and a storage medium according to embodiments of the present invention will be described with reference to the drawings.

【0023】(1)実施形態としての情報入力装置 図1は本発明に係る実施形態としての情報入力装置の構
成例を示す斜視図である。この実施形態では撮像可能な
タッチパネルなどの情報入力ツールの特定の位置に点滅
パターンの異なる複数の光源を取付け、その光源に基づ
いてその情報入力ツールの位置を画像処理系で容易に認
識できるようにすると共に、その情報入力ツールの仮想
画像に画像表示装置などの仮想画像を合成できるように
したものである。
(1) Information Input Device as an Embodiment FIG. 1 is a perspective view showing a configuration example of an information input device as an embodiment according to the present invention. In this embodiment, a plurality of light sources having different blinking patterns are attached to specific positions of an information input tool such as a touch panel capable of imaging, and the position of the information input tool can be easily recognized by an image processing system based on the light sources. In addition, a virtual image of an image display device or the like can be combined with the virtual image of the information input tool.

【0024】この発明に係る情報入力装置は情報入力面
を有した撮像可能な入力ツールであって、操作者の属す
る外界像に仮想体の画像を立体的に合成する仮想画像立
体合成装置などの画像処理系で認識し易くしたものであ
る。ここで、撮像可能な情報入力装置1とは、空間を仕
切る形状を有するタッチパネルなどであって、流し撮り
CCD装置などの特殊撮像装置で流し撮りできるものを
いう。この流し撮りとは、流し撮りCCD装置におい
て、同一フィールド期間中に複数回、光電変換素子(フ
ォトダイオードなど)から信号電荷を読み出す撮影モー
ドをいう。
An information input device according to the present invention is an image-capturable input tool having an information input surface, such as a virtual image three-dimensional synthesizing device for stereoscopically synthesizing a virtual body image with an external image to which an operator belongs. It is easy to recognize in an image processing system. Here, the image capturing information input device 1 is a touch panel or the like having a shape that partitions a space, and is a device that can be panned with a special imaging device such as a panning CCD device. This panning shot refers to a shooting mode in which a signal charge is read out from a photoelectric conversion element (such as a photodiode) a plurality of times during the same field period in a panning CCD device.

【0025】この情報入力装置としてのタッチパネル1
の大きさは横の長さが30cm程度であり、縦の長さが
20〜25cm程度である。このタッチパネル1は図1
に示す筐体1Aを有している。筐体1Aの上面には情報
入力面を構成するタッチプレート部11が設けられ、そ
の情報入力面に触れると接触位置情報が出力される。こ
のタッチプレート部11には例えば図示しないマトリッ
クス状のタッチスイッチアレイ6が取付けられ、タッチ
した位置のスイッチがオンすると、その接触位置情報が
読み出せるようになされている。
Touch panel 1 as this information input device
Has a horizontal length of about 30 cm and a vertical length of about 20 to 25 cm. This touch panel 1 is shown in FIG.
1A. A touch plate portion 11 constituting an information input surface is provided on an upper surface of the housing 1A, and when the information input surface is touched, contact position information is output. For example, a matrix-like touch switch array 6 (not shown) is attached to the touch plate portion 11 so that when a switch at a touched position is turned on, the contact position information thereof can be read.

【0026】また、筐体1Aの側面にはジョグダイヤル
12が設けられ、接触位置情報以外の操作情報が入力で
きるようになされている。筐体1Aの上面には送信部1
4が設けられ、タッチプレート部11による接触位置情
報や、ジョグダイヤル12による操作情報が所定の伝送
信号に変調されて送信できるようになされている。送信
部14には無線送信器や赤外線発光器などが使用され
る。
A jog dial 12 is provided on the side of the housing 1A so that operation information other than the contact position information can be input. The transmitter 1 is provided on the upper surface of the housing 1A
4 is provided so that contact position information by the touch plate unit 11 and operation information by the jog dial 12 can be modulated and transmitted to a predetermined transmission signal. As the transmission unit 14, a wireless transmitter, an infrared light emitter, or the like is used.

【0027】このタッチプレート部11は基準面を成す
ものであり、好ましくは凹凸の無い平坦状に形成され
る。タッチプレート部11の表面四隅には、複数の光源
としてそれぞれ発光ダイオードLED1〜LED4が取
付けられ、基準面を設定するための4つの点P1〜P4
の座標として(x1,y1)、(x2,y2)、(x
3,y3)、(x4,y4)が与えられる(仮想空間上
では液晶ディスプレイ5や、CRT装置などの仮想画像
を合成しようとする基準面に相当する)。
The touch plate portion 11 forms a reference surface, and is preferably formed in a flat shape without irregularities. At the four corners of the surface of the touch plate section 11, light-emitting diodes LED1 to LED4 are respectively attached as a plurality of light sources, and four points P1 to P4 for setting a reference plane are provided.
(X1, y1), (x2, y2), (x
(3, y3) and (x4, y4) (corresponding to a reference plane in the virtual space where a virtual image such as the liquid crystal display 5 or a CRT device is to be synthesized).

【0028】この4個の発光ダイオードLED1〜LE
D4は、そのマーク部としての機能を発揮するために、
つまり、その取付け位置が明らかになるように、少なく
とも、点滅パターンが異なるように点滅制御される。こ
の発光ダイオードLED1〜LED4の点滅パターンは
特殊グラストロンと呼ばれる仮想画像立体合成装置など
に取付けられた流し撮りCCD装置により、所定の撮像
方向に流すように撮像される。この流し撮りは4個の発
光ダイオードLED1〜LED4の取付け位置から上述
の基準面を特定するためである。この基準面の特定につ
いては図10及び図11で説明をする。
The four light emitting diodes LED1 to LE
D4 has a function as a mark part.
That is, blinking control is performed so that at least the blinking pattern is different so that the mounting position is clear. The blinking patterns of the light emitting diodes LED1 to LED4 are imaged so as to flow in a predetermined imaging direction by a panning CCD device attached to a virtual image stereoscopic synthesis device called a special glasstron. This panning is for specifying the above-mentioned reference plane from the mounting positions of the four light emitting diodes LED1 to LED4. The specification of the reference plane will be described with reference to FIGS.

【0029】この筐体1A内には制御手段として点滅制
御回路13が設けられ、発光ダイオードLED1〜LE
D4の入出力が制御される。例えば、図2に示す点滅制
御回路13では、画像処理系に当該タッチパネル1の位
置を再現性良く認識させるために、発光ダイオードLE
D1〜LED4の点滅パターンが異なるように点滅制御
される。
A blinking control circuit 13 is provided in the housing 1A as control means, and the light emitting diodes LED1 to LE
The input / output of D4 is controlled. For example, in the blinking control circuit 13 shown in FIG. 2, in order to make the image processing system recognize the position of the touch panel 1 with good reproducibility, the light emitting diode LE is used.
Blinking control is performed so that the blinking patterns of D1 to LED4 are different.

【0030】この例では、点滅制御回路13がICチッ
プ化され、このICチップが筐体1A内に組込まれ、4
個の発光ダイオードLED1〜LED4に所定の電圧が
印加されて点滅制御される。この点滅制御回路13は例
えばクロック発生部61を有している。クロック発生部
61には1/2分周回路62、1/3分周回路63、1
/4分周回路64が接続されており、所定周波数のクロ
ック信号CLK1と、このクロック信号CLK1を1/
2分周回路62で1/2分周したクロック信号CLK2
と、1/3分周回路63で1/3分周したクロック信号
CLK3と、1/4分周回路64で1/4分周したクロ
ック信号CLK4とが出力される。
In this example, the flicker control circuit 13 is formed as an IC chip, and this IC chip is incorporated in the housing 1A.
A predetermined voltage is applied to each of the light emitting diodes LED1 to LED4 to perform blink control. This blinking control circuit 13 has, for example, a clock generator 61. The clock generator 61 includes a 1/2 frequency divider 62, a 1/3 frequency divider 63, 1
A / 4 frequency dividing circuit 64 is connected, and a clock signal CLK1 of a predetermined frequency and this clock signal CLK1 are divided by 1 /.
Clock signal CLK2 that has been frequency-divided by で in frequency divider circuit 62
And a clock signal CLK3 frequency-divided by 1/3 in the 1/3 frequency dividing circuit 63 and a clock signal CLK4 frequency-divided by the 1/4 frequency dividing circuit 64.

【0031】各々のクロック信号CLK1〜CLK4は
安定化用の抵抗Rを通して各々の発光ダイオードLED
1、LED2、LED3及びLED4に供給される。こ
の例でクロック発生部61にはタッチパネル1の駆動電
源から電源が供給するようになされる。
Each of the clock signals CLK1 to CLK4 is supplied to each light emitting diode LED through a stabilizing resistor R.
1, LED2, LED3 and LED4. In this example, power is supplied to the clock generator 61 from the drive power supply of the touch panel 1.

【0032】図3は発光ダイオードLED1、LED
2、LED3及びLED4の点滅パターン例を示す波形
図である。この例では、発光ダイオードLED1には非
分周のクロック信号CLK1が供給され、発光ダイオー
ドLED2にはクロック信号CLK1を1/2分周した
クロック信号CLK2が供給され、発光ダイオードLE
D3にはクロック信号CLK1を1/3分周したクロッ
ク信号CLK3が供給され、発光ダイオードLED4に
はクロック信号CLK1を1/4分周したクロック信号
CLK4が供給される。従って、4つの発光ダイオード
LED1、LED2、LED3及びLED4の点滅パタ
ーンを異なるように制御することができる。
FIG. 3 shows a light emitting diode LED1, LED
FIG. 2 is a waveform diagram showing an example of a blinking pattern of LED3 and LED4. In this example, the non-divided clock signal CLK1 is supplied to the light emitting diode LED1, the clock signal CLK2 obtained by dividing the clock signal CLK1 by 1 / is supplied to the light emitting diode LED2, and the light emitting diode LE
A clock signal CLK3 obtained by dividing the clock signal CLK1 by 1/3 is supplied to D3, and a clock signal CLK4 obtained by dividing the clock signal CLK1 by 1/4 is supplied to the light emitting diode LED4. Therefore, the blinking patterns of the four light emitting diodes LED1, LED2, LED3, and LED4 can be controlled differently.

【0033】このように、本実施の形態としてのタッチ
パネル1によれば、タッチプレート部11の表面四隅に
取付けられた4つの発光ダイオードLED1〜LED4
が、点滅制御回路13によって点滅パターンを異ならせ
るように点滅制御されるので、流し撮りCCD装置のよ
うな特殊撮影装置でそのタッチパネル1を撮像した場合
に、複数の光源の点灯パターンを非点滅制御した場合に
比べてその4つの発光ダイオードLED1〜LED4の
位置を容易に特定することができる。
As described above, according to the touch panel 1 of the present embodiment, the four light emitting diodes LED1 to LED4 attached to the four corners of the surface of the touch plate 11
Is controlled by the blinking control circuit 13 so as to make the blinking pattern different, so that when the touch panel 1 is imaged by a special photographing device such as a panning CCD device, the lighting pattern of the plurality of light sources is not blinked. The positions of the four light emitting diodes LED1 to LED4 can be easily specified as compared with the case where the above operation is performed.

【0034】従って、その4つの発光ダイオードLED
1〜LED4の位置からタッチパネル1の位置を画像処
理系に容易に認識させることができるので、仮想空間上
でタッチパネル1に液晶ディスプレイ5や、CRT装置
などの任意の画像表示装置のイメージ画像を合成するよ
うな仮想画像立体合成装置に十分に応用することができ
る。
Therefore, the four light emitting diodes LED
Since the position of the touch panel 1 can be easily recognized by the image processing system from the positions of the LEDs 1 to 4, the image of a liquid crystal display 5 or an arbitrary image display device such as a CRT device is synthesized on the touch panel 1 in a virtual space. The present invention can be sufficiently applied to such a virtual image three-dimensional synthesis apparatus.

【0035】(2)情報入力装置の位置認識装置を応用
した第1の実施形態としての仮想画像立体合成装置 図4は本発明に係る第1の実施形態としての仮想画像立
体合成装置100の構成例を示す斜視図である。この実
施形態では、撮像可能な情報入力装置の特定の面に、点
滅パターンが異なる複数の光源を取付け、その情報入力
装置の光源を所定の撮像方向に流すように撮像し、この
流し撮像による光源の輝度信号を画像処理して光源の位
置を求め、この光源の位置を仮想空間上で結んだ情報入
力装置の基準面に画像表示装置の仮想画像を合成するよ
うになされたものである。
(2) A virtual image three-dimensional synthesizing apparatus as a first embodiment to which a position recognition device of an information input device is applied FIG. 4 shows a configuration of a virtual image three-dimensional synthesizing apparatus 100 as a first embodiment according to the present invention. It is a perspective view showing an example. In this embodiment, a plurality of light sources having different blinking patterns are attached to a specific surface of an information input device capable of imaging, and an image is taken so that the light source of the information input device flows in a predetermined imaging direction. Is processed by image processing to obtain the position of the light source, and the virtual image of the image display device is synthesized on the reference plane of the information input device connecting the position of the light source in the virtual space.

【0036】図4に示す仮想画像立体合成装置100は
操作者の属する外界像に、液晶ディスプレイ5や、CR
T装置などの任意の画像表示装置のイメージ画像を立体
的に合成表示する装置である。この仮想画像立体合成装
置100は基準面設定機能付きのタッチパネル1、特殊
グラストロン2及び画像処理装置3を有している。
The virtual image three-dimensional synthesizing apparatus 100 shown in FIG.
This is a device that stereoscopically combines and displays image images of an arbitrary image display device such as a T device. The virtual image three-dimensional composition device 100 includes a touch panel 1 with a reference plane setting function, a special glasstron 2, and an image processing device 3.

【0037】この情報入力装置としてのタッチパネル1
は、例えば、操作者の前に置いて使用される。この例で
は、タッチプレート部11が特殊グラストロン2の撮影
範囲内に入るようにタッチパネル1を操作者の前の机上
などに置くとよい。この特殊グラストロン2の本体部2
1にはベルト22が設けられ、眼鏡をかけるように本体
部21が操作者の顔面に装着されると共に、その操作者
の頭部外周部に沿ってベルト22が固定される。
Touch panel 1 as this information input device
Is used, for example, in front of an operator. In this example, the touch panel 1 may be placed on a desk or the like in front of the operator such that the touch plate unit 11 falls within the imaging range of the special glasstron 2. The body 2 of this special glasstron 2
1, a belt 22 is provided, and the main body 21 is worn on the face of the operator like wearing glasses, and the belt 22 is fixed along the outer periphery of the operator's head.

【0038】また、特殊グラストロン2には少なくとも
流し撮りCCD装置23及び表示手段24が設けられて
いる。特殊グラストロン2の機種によっては通常のCC
D撮像装置25が設けられる。このタッチパネル1、流
し撮りCCD装置23及び画像処理装置3によって位置
認識装置としての位置認識機構4が構成され、操作者の
属する実空間上でそのタッチパネル1の基準面を認識で
きるようになされている。
The special glasstron 2 is provided with at least a panning CCD device 23 and a display means 24. Normal CC depending on the model of Special Glasstron 2
A D imaging device 25 is provided. The touch panel 1, the panning CCD device 23, and the image processing device 3 constitute a position recognition mechanism 4 as a position recognition device, and can recognize a reference surface of the touch panel 1 in a real space to which an operator belongs. .

【0039】この例で流し撮りCCD装置23として垂
直転送部を有するインターライン転送方式の二次元撮像
デバイスを使用した場合には、同一フィールド期間中に
複数回、光電変換素子から垂直転送部に信号電荷が読み
出される。また、流し撮りCCD装置23として電荷蓄
積部を有するフレーム転送方式の二次元撮像デバイスを
使用した場合には、同一フィールド期間中に複数回、光
電変換素子から電荷蓄積部に信号電荷が読み出される。
In this example, when a two-dimensional imaging device of an interline transfer system having a vertical transfer unit is used as the panning CCD device 23, signals are sent from the photoelectric conversion element to the vertical transfer unit a plurality of times during the same field period. The charge is read. When a two-dimensional frame transfer type imaging device having a charge storage unit is used as the panning CCD device 23, signal charges are read from the photoelectric conversion element to the charge storage unit a plurality of times during the same field period.

【0040】更に、特殊グラストロン2には画像処理装
置3が接続され、流し撮りCCD装置23から出力され
た画像データに基づいて基準面などを認識する画像処理
がなされる。この例では予め画像処理装置3には液晶デ
ィスプレイ5やCRT装置などの仮想画像を表示するた
めの画像データ及びキーボード1’などの仮想画像を表
示するための画像示データが準備されている。
Further, an image processing device 3 is connected to the special glasstron 2, and image processing for recognizing a reference plane or the like is performed based on image data output from the panning CCD device 23. In this example, image data for displaying a virtual image such as a liquid crystal display 5 or a CRT device and image indicating data for displaying a virtual image such as a keyboard 1 'are prepared in the image processing apparatus 3 in advance.

【0041】この画像処理装置3には表示手段24が接
続され、位置検出機構4により認識されたタッチパネル
1が表示される。この例では、実空間上のタッチパネル
1の情報入力面の属する位置に、任意のキー配置のキー
ボード1’の立体仮想画像が存在するようになされる。
A display 24 is connected to the image processing apparatus 3, and the touch panel 1 recognized by the position detection mechanism 4 is displayed. In this example, a stereoscopic virtual image of the keyboard 1 'having an arbitrary key arrangement is present at a position to which the information input surface of the touch panel 1 belongs in the real space.

【0042】図5に示す特殊グラストロン2は非透過型
のヘッドマウントディスプレイを構成しており、通常の
CCD撮像装置25と、上述した流し撮りCCD装置2
3と、右眼表示用の液晶表示装置(以下LCDという)
26と、左眼表示用のLCD27とを有している。
The special glasstron 2 shown in FIG. 5 constitutes a non-transmissive head-mounted display, and includes a normal CCD image pickup device 25 and the above-mentioned panning CCD device 2.
3 and a liquid crystal display device for right eye display (hereinafter referred to as LCD)
26 and an LCD 27 for left-eye display.

【0043】つまり、操作者の眉間に相当する位置に
は、通常のCCD撮像装置25と、流し撮りCCD装置
23とが並べて配置され、前者によって操作者の属する
外界像が撮像され、後者によってタッチパネル1の4個
の発光ダイオードLED1〜LED4が流し撮りされ
る。従って、操作者が基準面設定機能付きのタッチパネ
ル1に目を向けると、その基準面の方向に流し撮りCC
D装置23が向くようになる。
That is, a normal CCD image pickup device 25 and a panning CCD device 23 are arranged side by side at a position corresponding to the operator's eyebrow, and an external image to which the operator belongs is taken by the former, and a touch panel is taken by the latter. One of the four light emitting diodes LED1 to LED4 is panned and shot. Therefore, when the operator looks at the touch panel 1 with the reference plane setting function, the panning CC is performed in the direction of the reference plane.
The D device 23 is turned.

【0044】そして、特殊グラストロン2内の操作者の
右目に相対する位置にはLCD26が取付けられ、例え
ば、通常のCCD撮像装置25により撮影した操作者の
タッチパネル1と、予め準備されたキーボード1’の仮
想画像及び液晶ディスプレイ5の仮想画像とを合成した
ステレオ画像の一方が表示される。その操作者の左目に
相対する位置にはLCD27が取付けられ、上述のタッ
チパネル1と、キーボード1’の仮想画像及び液晶ディ
スプレイ5の仮想画像とを合成したステレオ画像の他方
が表示される。この特殊グラストロン2は操作者の顔面
又は頭部に装着され、上述のLCD26のステレオ画像
と、LCD27のステレオ画像とが操作者の眼球に導く
ようになされている。これにより、操作者の属する背景
像としてのタッチパネル1と、液晶ディスプレイ5の仮
想画像及びキーボード1’の仮想画像とは頭の中で合成
される。
An LCD 26 is attached to the special glasstron 2 at a position facing the right eye of the operator. For example, a touch panel 1 of the operator photographed by a normal CCD imaging device 25 and a keyboard 1 prepared in advance One of the stereo image obtained by synthesizing the virtual image of 'and the virtual image of the liquid crystal display 5 is displayed. An LCD 27 is attached at a position facing the left eye of the operator, and the other of the stereo image obtained by synthesizing the touch panel 1, the virtual image of the keyboard 1 ', and the virtual image of the liquid crystal display 5 is displayed. The special glasstron 2 is mounted on the face or the head of the operator, and the stereo image of the LCD 26 and the stereo image of the LCD 27 are guided to the operator's eyeball. As a result, the touch panel 1 as the background image to which the operator belongs, the virtual image on the liquid crystal display 5, and the virtual image on the keyboard 1 'are synthesized in the head.

【0045】図6に示す特殊グラストロン20は透過型
のヘッドマウントディスプレイを構成しており、通常の
CCD撮像装置25は搭載されていない。従って、透過
型のヘッドマウントディスプレイは、流し撮りCCD装
置23と、外界像取り込み用の液晶シャッタ28と、画
像表示素子としてのLCD29を有している。
The special glasstron 20 shown in FIG. 6 constitutes a transmissive head-mounted display, and does not include a normal CCD image pickup device 25. Accordingly, the transmissive head-mounted display has a panning CCD device 23, a liquid crystal shutter 28 for capturing an external image, and an LCD 29 as an image display element.

【0046】例えば、操作者の眉間に相当する位置に
は、流し撮りCCD装置23が配置され、操作者が基準
面設定機能付きのタッチパネル1に目を向けると、タッ
チパネル1の4個の発光ダイオードLED1〜LED4
が流し撮りされる。そして、操作者の左目及び右目に相
当する位置には液晶シャッタ28が設けられ、例えば、
液晶シャッタ28が開かれると、その液晶シャッタ28
を通過した操作者の前に置いたタッチパネル1の実像が
直接眼球に導かれる。
For example, a panning CCD device 23 is disposed at a position corresponding to the eyebrows of the operator. When the operator looks at the touch panel 1 having the reference plane setting function, the four light emitting diodes of the touch panel 1 LED1 to LED4
Is panned. A liquid crystal shutter 28 is provided at a position corresponding to the left and right eyes of the operator.
When the liquid crystal shutter 28 is opened, the liquid crystal shutter 28
The real image of the touch panel 1 placed in front of the operator who has passed through is guided directly to the eyeball.

【0047】また、特殊グラストロン2内の操作者の左
目又は右目の脇に位置する部分には、LCD29が取付
けられ、上述の特殊グラストロン2と同様にしてキーボ
ード1’の仮想画像及び液晶ディスプレイ5の仮想画像
とが表示される。図示しないが、液晶シャッタ28と、
LCD29との間には偏光ビームスプリッタなどの光学
手段が設けられ、操作者のタッチパネル1の実像と、キ
ーボード1’の仮想画像及び液晶ディスプレイ5の仮想
画像とが操作者の眼球に導くようになされている。これ
により、操作者の属する背景像としてのタッチパネル1
と、液晶ディスプレイ5の仮想画像及びキーボード1’
の仮想画像とは頭の中で合成される。
An LCD 29 is attached to a portion of the special glasstron 2 located beside the left or right eye of the operator, and a virtual image of the keyboard 1 'and a liquid crystal display are provided in the same manner as the special glasstron 2 described above. 5 virtual images are displayed. Although not shown, a liquid crystal shutter 28 and
Optical means such as a polarizing beam splitter is provided between the LCD 29 and a real image of the operator's touch panel 1 and a virtual image of the keyboard 1 ′ and a virtual image of the liquid crystal display 5 are guided to the operator's eyeball. ing. Thereby, the touch panel 1 as a background image to which the operator belongs
And the virtual image of the liquid crystal display 5 and the keyboard 1 ′
Is synthesized in the head with the virtual image.

【0048】続いて、インターライン転送方式の流し撮
りCCD装置23の内部構成について説明する。図7に
示す流し撮りCCD装置23は基板31を有している。
その基板31上には、1画素を構成する光電変換素子と
してフォトダイオードPHij(i=1〜n、j=1〜
m)がn列×m行のマトリクス状に配置されている。
Next, the internal configuration of the panning CCD device 23 of the interline transfer system will be described. The panning CCD device 23 shown in FIG.
On the substrate 31, photodiodes PHij (i = 1 to n, j = 1 to 1) as photoelectric conversion elements forming one pixel are provided.
m) are arranged in a matrix of n columns × m rows.

【0049】この基板の列方向には電荷転送部としてm
本の垂直転送部32が設けられ、フォトダイオードPH
ijから読み出した信号電荷が垂直読み出し信号S1に
基づいて垂直方向(流し撮り方向)に転送される。この
垂直転送部32には水平転送部33が接続され、その信
号電荷が水平読み出し信号S2に基づいて水平方向に転
送されるので、出力端子34には流し撮り信号SOUTが
出力される。この例では、流し撮りをするために、少な
くとも、同一フィールド期間中に複数回、フォトダイオ
ードPHijから垂直転送部32に信号電荷が読み出さ
れる。
In the column direction of the substrate, m
Vertical transfer units 32 are provided, and the photodiodes PH
The signal charge read from ij is transferred in the vertical direction (follow-up direction) based on the vertical read signal S1. The vertical transfer unit 32 is connected to the horizontal transfer unit 33, and the signal charges are transferred in the horizontal direction based on the horizontal readout signal S2. In this example, the signal charge is read out from the photodiode PHij to the vertical transfer unit 32 at least a plurality of times during the same field period in order to perform a panning shot.

【0050】また、流し撮りCCD装置23は図8に示
す魚眼レンズ35を有している。魚眼レンズ35は例え
ばCCD撮像素子36の光軸上に設けられる。この魚眼
レンズ35によって操作者の基準面設定機能付きのタッ
チパネル1などを広範囲に撮像できるようになされてい
る。もちろん、通常のレンズでも構わないが、視野が狭
くなるので、操作者はタッチパネル1に向けてより多く
頭部を傾けなければならない。
The panning CCD device 23 has a fisheye lens 35 shown in FIG. The fisheye lens 35 is provided on the optical axis of the CCD image sensor 36, for example. The fish-eye lens 35 can image the touch panel 1 and the like with the reference plane setting function of the operator in a wide range. Of course, a normal lens may be used, but since the field of view is narrowed, the operator must tilt the head more toward the touch panel 1.

【0051】続いて、仮想画像立体合成装置100の回
路構成について説明する。図9に示す仮想画像立体合成
装置100は大きく分けて3つの回路ブロックから成
る。第1の回路ブロックは基準面設定機能付きのタッチ
パネル1であり、タッチスイッチアレイ6、ジョグダイ
ヤル12、点滅制御回路13及びその制御系が設けられ
る。
Next, the circuit configuration of the virtual image three-dimensional composition device 100 will be described. The virtual image three-dimensional composition device 100 shown in FIG. 9 is roughly composed of three circuit blocks. The first circuit block is a touch panel 1 having a reference plane setting function, and includes a touch switch array 6, a jog dial 12, a blink control circuit 13, and a control system therefor.

【0052】このタッチパネル1の制御系は内部バス1
8を有している。内部バス18にはインタフェース(I
/O)8,9、送信部14、CPU15、ROM16及
びRAM17が接続されている。上述したジョグダイヤ
ル12にはインタフェース8が接続され、操作者による
操作情報が制御系に入力される。また、タッチスイッチ
アレイ6にはインタフェース9が接続され、操作者によ
ってタッチされた位置による接触位置情報が制御系に入
力される。
The control system of the touch panel 1 is an internal bus 1
Eight. The internal bus 18 has an interface (I
/ O) 8, 9, the transmission unit 14, the CPU 15, the ROM 16, and the RAM 17 are connected. The interface 8 is connected to the jog dial 12 described above, and operation information by an operator is input to a control system. Further, an interface 9 is connected to the touch switch array 6, and contact position information based on the position touched by the operator is input to the control system.

【0053】更に、内部バス18にはROM16が接続
され、このタッチパネル1を制御するためのシステムプ
ログラムや、メモリの読み出し手順などの制御情報など
が格納される。内部バス18にはワーキング用のRAM
17が接続され、システムプログラムや、タッチスイッ
チアレイ6による接触位置情報やジョグダイヤル12に
よる操作情報が一時記録される。
Further, a ROM 16 is connected to the internal bus 18 and stores a system program for controlling the touch panel 1 and control information such as a memory read procedure. A working RAM is provided on the internal bus 18.
17 is connected, and system programs, contact position information by the touch switch array 6, and operation information by the jog dial 12 are temporarily recorded.

【0054】また、内部バス18には送信部14が接続
され、RAM17から読み出されたタッチプレート部1
1による接触位置情報や、ジョグダイヤル12による操
作情報が所定の伝送信号に変調されて送信される。この
例では、送信部14には無線送信器が使用される。もち
ろん、送信部14に赤外線発光器を使用してもよい。こ
の内部バス18にはCPU15が接続され、インタフェ
ース8,9、ROM16、RAM17及び送信部14の
入出力制御が行われる。
The transmission section 14 is connected to the internal bus 18, and the touch plate section 1 read from the RAM 17 is connected to the transmission section 14.
1 and the operation information by the jog dial 12 are transmitted after being modulated into a predetermined transmission signal. In this example, a wireless transmitter is used for the transmission unit 14. Of course, an infrared light emitter may be used for the transmission unit 14. The CPU 15 is connected to the internal bus 18, and controls input / output of the interfaces 8 and 9, the ROM 16, the RAM 17, and the transmission unit 14.

【0055】第2の回路ブロックは特殊グラストロン2
であり、非透過型の場合には上述した流し撮りCCD装
置23、通常のCCD撮像装置25、右眼表示用のLC
D26及び左眼表示用のLCD27を有している。
The second circuit block is a special glasstron 2
In the case of the non-transmissive type, the panning CCD device 23 described above, the normal CCD image capturing device 25, and the LC for displaying the right eye are used.
D26 and LCD 27 for left eye display.

【0056】第3の回路ブロックは画像処理装置3であ
り、内部バス41を有している。内部バス41にはイン
タフェース(I/O)42、画像キャプチャ部43、画
像処理部44、CPU45、ROM46、RAM47、
2PROM(電気的な書き込み及び消去が可能な読み
出し専用メモリ)48及び受信部49が接続されてい
る。流し撮りCCD装置23、通常のCCD撮像装置2
5、右眼表示用のLCD26及び左眼表示用のLCD2
7はインタフェース42を介して内部バス41に接続さ
れる。
The third circuit block is the image processing device 3 and has an internal bus 41. The internal bus 41 includes an interface (I / O) 42, an image capture unit 43, an image processing unit 44, a CPU 45, a ROM 46, a RAM 47,
An E 2 PROM (electrically writable and erasable read-only memory) 48 and a receiving unit 49 are connected. Panning CCD device 23, normal CCD imaging device 2
5. LCD 26 for right eye display and LCD 2 for left eye display
7 is connected to the internal bus 41 via the interface 42.

【0057】この内部バス41には記憶媒体としてE2
PROM48が接続され、操作者の属する外界像に仮想
体の画像を立体的に合成するアルゴリズムが格納され
る。この例では、少なくとも、操作者の属する実空間上
で撮像可能なタッチパネル1を認識し、そこで認識され
たタッチパネル1の仮想空間上の画像に任意の画像表示
装置の仮想画像を合成するようなアルゴリズムが格納さ
れる。この例では、キーボード1’、液晶ディスプレイ
5又はCRT装置などの画像表示装置の仮想画像を表示
するための画像データが予めE2PROM48に格納さ
れている。
The internal bus 41 has E 2 as a storage medium.
The PROM 48 is connected, and stores an algorithm for stereoscopically combining the image of the virtual body with the external image to which the operator belongs. In this example, at least an algorithm that recognizes the touch panel 1 that can be imaged in the real space to which the operator belongs and combines a virtual image of an arbitrary image display device with an image of the recognized touch panel 1 in the virtual space is used. Is stored. In this example, image data for displaying a virtual image of an image display device such as the keyboard 1 ', the liquid crystal display 5, or a CRT device is stored in the E 2 PROM 48 in advance.

【0058】このようなアルゴリズム及び画像データを
2PROM48を格納して置くと、例えば、仮想画像
立体合成装置100を制御する際に、当該アルゴリズム
がE2PROM48から読み出され、操作者の属する実
空間上で撮像可能なタッチパネル1が認識されると、そ
こで認識されたタッチパネル1の仮想画像又は実画像
に、E2PROM48から読み出された画像データに基
づいて、キーボード1’、液晶ディスプレイ5又はCR
T装置などの画像表示装置の仮想画像や、雪だるまなど
のキャラクタの3Dポリゴンが合成される。
When such an algorithm and image data are stored in the E 2 PROM 48, for example, when controlling the virtual image three-dimensional composition device 100, the algorithm is read out from the E 2 PROM 48 and belongs to the operator. When the touch panel 1 that can be imaged in the real space is recognized, the keyboard 1 ′ and the liquid crystal display 5 are added to the recognized virtual image or real image of the touch panel 1 based on the image data read from the E 2 PROM 48. Or CR
A virtual image of an image display device such as a T device or a 3D polygon of a character such as a snowman is synthesized.

【0059】従って、操作者の操作するタッチパネル1
の外界像に、キーボード1’の仮想画像及び液晶ディス
プレイ5の仮想画像を立体的に合成して映像加工を実行
するような仮想画像立体合成処理を再現性良く行うこと
ができるので、バーチャル映像加工処理装置などの仮想
画像立体合成装置100を再現性良く構成することがで
きる。
Accordingly, the touch panel 1 operated by the operator
The virtual image processing can be performed with good reproducibility, such that the virtual image of the keyboard 1 'and the virtual image of the liquid crystal display 5 are stereoscopically combined with the external image of the outside world to execute the image processing. The virtual image stereoscopic synthesis device 100 such as a processing device can be configured with high reproducibility.

【0060】更に、内部バス41にはROM46が接続
され、この仮想画像立体合成装置100を制御するため
のシステムプログラムや、メモリの読み出し手順などの
制御情報などが格納される。内部バス41にはワーキン
グ用のRAM47が接続され、システムプログラムや、
キーボード1’、液晶ディスプレイ5又はCRT装置な
どの仮想画像を表示する表示情報が一時記録される。
Further, a ROM 46 is connected to the internal bus 41, and stores a system program for controlling the virtual image stereoscopic image synthesizing apparatus 100, control information such as a memory reading procedure, and the like. A working RAM 47 is connected to the internal bus 41, and a system program,
Display information for displaying a virtual image such as the keyboard 1 ', the liquid crystal display 5, or the CRT device is temporarily recorded.

【0061】また、内部バス41には受信部49が接続
され、タッチパネル1の送信部14から送信されてくる
伝送信号が受信され、その後、伝送信号がタッチプレー
ト部11による接触位置情報や、ジョグダイヤル12に
よる操作情報に復調される。復調後の接触位置情報や操
作情報はRAM47に一旦格納される。受信部49には
無線受信器が使用される。もちろん、受信部49には赤
外線受信器を使用してもよい。
A receiving section 49 is connected to the internal bus 41 to receive a transmission signal transmitted from the transmitting section 14 of the touch panel 1. Thereafter, the transmission signal is transmitted to the touch plate section 11 for contact position information, a jog dial, and the like. The operation information is demodulated into the operation information. The demodulated contact position information and operation information are temporarily stored in the RAM 47. A radio receiver is used for the receiving unit 49. Of course, an infrared receiver may be used for the receiver 49.

【0062】この内部バス41にはCPU45が接続さ
れ、インタフェース42、画像キャプチャ部43、画像
処理部44、ROM46、RAM47、E2PROM4
8及び受信部49の入出力の制御や、流し撮りCCD装
置23、CCD撮像装置25、LCD26及びLCD2
7の入出力の制御が行われる。例えば、RAM47から
接触位置情報や操作情報を読み出してキーボード1’、
液晶ディスプレイ5又はCRT装置などの仮想画像を変
化させるような表示制御が行われる。
A CPU 45 is connected to the internal bus 41, and an interface 42, an image capture unit 43, an image processing unit 44, a ROM 46, a RAM 47, an E 2 PROM 4
8 and the control of the input / output of the receiving unit 49, the panning CCD device 23, the CCD imaging device 25, the LCD 26 and the LCD 2
7 is controlled. For example, the contact position information and the operation information are read from the RAM 47 and the keyboard 1 ′,
Display control for changing a virtual image such as the liquid crystal display 5 or a CRT device is performed.

【0063】このインタフェース42には画像処理部4
4が接続され、例えば、通常のCCD撮像装置25で撮
像された図10に示すタッチパネル1の4つの発光ダイ
オードLED1〜LED4の通常画像が、CPU45の
制御命令と共にインタフェース42を介して、画像処理
部44に取り込まれ、そこで所定の画像処理がなされ、
再び、インタフェース42を介して特殊グラストロン2
内のLCD26及びLCD27などに転送される。
The interface 42 has an image processing unit 4
For example, the normal images of the four light emitting diodes LED1 to LED4 of the touch panel 1 shown in FIG. 10 captured by the normal CCD image pickup device 25 are transmitted to the image processing unit via the interface 42 together with the control instruction of the CPU 45. 44, where predetermined image processing is performed.
Again, the special glasstron 2 via the interface 42
The data is transferred to the LCD 26 and the LCD 27 and the like.

【0064】また、インタフェース42には画像キャプ
チャ部43が接続され、CPU45の制御命令を受け
て、流し撮りCCD装置23から入力した点滅パターン
の画像データを獲得する所定のキャプチャ処理がなされ
る。この点滅パターンの画像データは時間経過に対応す
る輝度の変化として表現されている。画像キャプチャ部
43には演算手段としての画像処理部44が接続され、
所定の画像処理が施された画像データに関して、点滅パ
ターンの同期ずれが補正されたり、操作者の属するタッ
チパネル1の基準面が求められる。
An image capture unit 43 is connected to the interface 42. Upon receiving a control command from the CPU 45, a predetermined capture process for acquiring image data of a blinking pattern input from the panning CCD device 23 is performed. The image data of this blinking pattern is expressed as a change in luminance corresponding to the passage of time. An image processing unit 44 as a calculating means is connected to the image capturing unit 43,
With respect to the image data on which the predetermined image processing has been performed, the synchronization deviation of the blinking pattern is corrected, or the reference surface of the touch panel 1 to which the operator belongs is obtained.

【0065】例えば、画像処理部44では流し撮りCC
D装置23から出力された流し撮り信号(輝度信号)S
OUTの点滅パターンに関して、図11に示すウインドウ
Wにより画定された画像領域内で、4つの流し撮り輝点
P1〜P4を含むXY平面を成す空間的な配置パターン
に変換される。その後、その配置パターン上を走査し
て、少なくとも、4つの輝点P1〜P4の位置座標(X
1,Y1)、(X2,Y2)、(X3,Y3)、(X
4,Y4)が求められる。この4つの輝点P1〜P4は
操作者の前に置かれたタッチパネル1の4つの発光ダイ
オードLED1〜LED4である。実空間上の4つの発
光ダイオードLED1〜LED4の位置座標は既知であ
り、その位置座標は(x1,y1)、(x2,y2)、
(x3,y3)、(x4,y4)である。
For example, in the image processing unit 44, the panning CC
Panning signal (luminance signal) S output from D device 23
The blinking pattern of OUT is converted into a spatial arrangement pattern on the XY plane including the four follow shot bright points P1 to P4 within the image area defined by the window W shown in FIG. Then, by scanning the arrangement pattern, at least the position coordinates (X
1, Y1), (X2, Y2), (X3, Y3), (X
4, Y4) are required. These four bright points P1 to P4 are four light emitting diodes LED1 to LED4 of the touch panel 1 placed in front of the operator. The position coordinates of the four light emitting diodes LED1 to LED4 in the real space are known, and the position coordinates are (x1, y1), (x2, y2),
(X3, y3) and (x4, y4).

【0066】従って、上述の実空間上のタッチパネル1
の基準面は4つの発光ダイオードLED1〜LED4の
取付け位置に射影する変換行列を演算することにより得
られる。ここで実空間の平面上の点(xi,yi,0)
をある並進・回転運動によって移動し、それを透視変換
で画像座標系に射影した点を(Xi,Yi)で示すと、
両者の間には(1)式なる関係がある。
Therefore, the touch panel 1 in the real space described above
Is obtained by calculating a conversion matrix projected onto the mounting positions of the four light emitting diodes LED1 to LED4. Here, a point (xi, yi, 0) on the plane of the real space
Is moved by a certain translation / rotational motion, and a point projected on the image coordinate system by the perspective transformation is represented by (Xi, Yi).
There is a relationship between the two as expressed by equation (1).

【0067】[0067]

【数1】 (Equation 1)

【0068】但し、a1・・・・a8は未知の係数でC
CD撮像装置25などの外部パラメータ(位置と方向)
及び焦点距離などの内部パラメータである。これらのパ
ラメータは実空間の既知の4つの点の位置座標(x1,
y1)、(x2,y2)、(x3,y3)、(x4,y
4)と、それらに対応する4組の画像処理系の位置座標
(X1,Y1)、(Y2,Y2)、(X3,Y3)、
(X4,Y4)が存在すれば、(2)式の方程式を解く
ことにより得られる。
Where a1... A8 are unknown coefficients and C1
External parameters (position and direction) such as CD imaging device 25
And internal parameters such as focal length. These parameters are the position coordinates (x1,
y1), (x2, y2), (x3, y3), (x4, y
4) and four sets of position coordinates (X1, Y1), (Y2, Y2), (X3, Y3),
If (X4, Y4) exists, it can be obtained by solving the equation (2).

【0069】[0069]

【数2】 (Equation 2)

【0070】ここで得られた4点の位置座標(X1,Y
1)、(X2,Y2)、(X3,Y3)、(X4,Y
4)を結ぶことにより、図10に示した実空間上のタッ
チパネル1の基準面が認識される。
The position coordinates of the four points obtained here (X1, Y
1), (X2, Y2), (X3, Y3), (X4, Y
4), the reference surface of the touch panel 1 in the real space shown in FIG. 10 is recognized.

【0071】具体的には、図11に示す配置パターン上
で流し撮像方向をY軸とし、そのY軸に直交する方向を
X軸としたときに、画像処理部44によって流し撮像方
向と同一方向又はその反対方向に輝度信号値が加算され
る。この加算値がX軸上にプロットされると、そのX軸
にプロットされた輝度信号値が最大となる4つの位置が
検出され、この4つの位置に対応したX座標値X1、X
2、X3、X4が求められる。また、その配置パターン
上で取得画像をY方向に走査したときに、そのY方向に
並んだ複数の輝点のうち、最初に発光した輝点位置が各
々X座標値に対応したY座標値Y1、Y2、Y3、Y4
として求められる。
Specifically, on the arrangement pattern shown in FIG. 11, when the moving image pickup direction is the Y axis and the direction orthogonal to the Y axis is the X axis, the image processing unit 44 sets the same direction as the moving image pickup direction. Alternatively, the luminance signal values are added in the opposite direction. When the added value is plotted on the X axis, four positions where the luminance signal value plotted on the X axis is maximum are detected, and the X coordinate values X1 and X corresponding to the four positions are detected.
2, X3 and X4 are determined. Further, when the acquired image is scanned in the Y direction on the arrangement pattern, among the plurality of luminescent points arranged in the Y direction, the luminescent spot position that first emits light has a Y coordinate value Y1 corresponding to the X coordinate value. , Y2, Y3, Y4
Is required.

【0072】ここで、実空間上の4つの発光ダイオード
LED1〜LED4の位置座標をwi(i=1〜4)と
し、その4つの発光ダイオードLED1〜LED4の位
置座標wiのカメラ座標系上での表現ベクトルをCiと
し、その4つの発光ダイオードLED1〜LED4のL
CD画面上での位置座標をPiとし、流し撮りCCD装
置23の回転マトリクスをR、その移動ベクトルをTと
すると、(3)式、すなわち、 Ci=R・wi+T ・・・(3) 但し、Ci=Pi・ki(kiはスカラー) という関係がある。従って、通常のCCD撮像装置25
の回転マトリクスRとその移動ベクトルTとを演算し、
これをパラメータとして実空間と仮想空間との間で座標
変換を容易に行うことができるので、仮想空間上のタッ
チパネル1の基準面に、キーボード1’、液晶ディスプ
レイ5又はCRT装置などの画像表示装置の仮想画像
や、雪だるまなどの3Dポリゴンを合成することができ
る。
Here, the position coordinates of the four light emitting diodes LED1 to LED4 in the real space are defined as wi (i = 1 to 4), and the position coordinates wi of the four light emitting diodes LED1 to LED4 on the camera coordinate system. The expression vector is Ci, and L of the four light emitting diodes LED1 to LED4 is L.
Assuming that the position coordinates on the CD screen are Pi, the rotation matrix of the panning CCD device 23 is R, and the movement vector is T, Expression (3), that is, Ci = R · wi + T (3) Ci = Pi.ki (ki is a scalar). Therefore, the normal CCD imaging device 25
Of the rotation matrix R and its movement vector T,
Since the coordinate conversion between the real space and the virtual space can be easily performed using this as a parameter, an image display device such as a keyboard 1 ′, a liquid crystal display 5 or a CRT device is provided on the reference surface of the touch panel 1 in the virtual space. And a 3D polygon such as a snowman can be synthesized.

【0073】次に、本発明に係るタッチパネル1の位置
認識方法に関して仮想画像立体合成装置100の動作を
説明する。この例では、撮像可能な基準面設定機能付き
のタッチパネル1の所定の面に点滅パターンが異なる4
つの発光ダイオードLED1〜LED4を取付け、これ
らの発光ダイオードLED1〜LED4を所定の撮像方
向に流すように撮像し、ここで撮像された発光ダイオー
ドLED1〜LED4の輝度情報を画像処理して4点の
輝点位置を求め、仮想空間上でその輝点位置を結んだタ
ッチパネル1の基準面に操作者の属する外界像と、キー
ボード1’の仮想画像、液晶ディスプレイ5の仮想画像
とを立体的に合成する場合を想定する。
Next, the operation of the virtual image three-dimensional image synthesizing apparatus 100 will be described with respect to the position recognition method of the touch panel 1 according to the present invention. In this example, the flashing pattern is different on a predetermined surface of the touch panel 1 having a reference surface setting function capable of imaging.
The two light emitting diodes LED1 to LED4 are mounted, the light emitting diodes LED1 to LED4 are imaged so as to flow in a predetermined imaging direction, and the brightness information of the light emitting diodes LED1 to LED4 imaged here is image-processed to obtain four points of brightness. A point position is obtained, and an external world image to which the operator belongs, a virtual image of the keyboard 1 ′, and a virtual image of the liquid crystal display 5 are three-dimensionally synthesized on the reference surface of the touch panel 1 connecting the bright spot positions in the virtual space. Assume the case.

【0074】例えば、操作者は図5に示した特殊グラス
トロン2を頭部に装着し、まず、図12に示すフローチ
ャートのステップA1で操作者の属する実空間上でタッ
チパネル1の基準面を画像処理系に認識させるために、
操作者は、例えば、タッチパネル1のタッチプレート部
11が上に向くように、タッチパネル1を机の上などに
配置する。その後、タッチパネル1を動作させて点滅制
御回路13から4つの発光ダイオードLED1〜LED
4に所定の電圧を供給して所定の点滅パターンで点滅す
る。
For example, the operator wears the special glasstron 2 shown in FIG. 5 on his / her head, and firstly images the reference surface of the touch panel 1 on the real space to which the operator belongs in step A1 of the flowchart shown in FIG. In order for the processing system to recognize it,
The operator places the touch panel 1 on a desk or the like, for example, such that the touch plate 11 of the touch panel 1 faces upward. After that, the touch panel 1 is operated and the four light emitting diodes LED1 to LED
4 is supplied with a predetermined voltage and blinks in a predetermined blinking pattern.

【0075】この例では、所定周波数のクロック信号C
LK1が抵抗Rを通して発光ダイオードLED1に供給
され、このクロック信号CLK1を1/2分周したクロ
ック信号CLK2が抵抗Rを通して発光ダイオードLE
D2に供給され、そのCLK1を1/3分周したクロッ
ク信号CLK3が抵抗Rを通して発光ダイオードLED
3に供給され、そのCLK1を1/4分周したクロック
信号CLK4が抵抗Rを通して発光ダイオードLED4
に供給される。
In this example, the clock signal C having a predetermined frequency
LK1 is supplied to the light emitting diode LED1 through the resistor R, and a clock signal CLK2 obtained by dividing the clock signal CLK1 by 1 / is supplied to the light emitting diode LE1 through the resistor R.
D2, the clock signal CLK3 obtained by dividing the frequency of CLK1 by 1/3 is supplied to the light emitting diode LED through the resistor R.
The clock signal CLK4 obtained by dividing the frequency of CLK1 by 1/4 is supplied to the light emitting diode LED4 through the resistor R.
Supplied to

【0076】次に、ステップA2において、一方で通常
のCCD撮像装置25を使用して実空間上のタッチパネ
ル1の基準面を撮影してLCD26及びLCD27にス
テレオ画像を表示する。他方で、流し撮りCCD装置2
3を使用して実空間上のタッチパネル1の基準面を流し
撮りする。例えば、キーボード1’の仮想画像、液晶デ
ィスプレイ5の仮想画像とを合成させようとする位置に
取付けられた4つの発光ダイオードLED1〜LED4
が、点滅パターンが異なるように点滅されるので、その
点滅パターンが所定の撮像方向に流すように撮像され
る。
Next, in step A 2, the reference plane of the touch panel 1 in the real space is photographed using the ordinary CCD image pickup device 25, and a stereo image is displayed on the LCD 26 and the LCD 27. On the other hand, a panning CCD device 2
3 is used to pan and shoot the reference surface of the touch panel 1 in the real space. For example, four light emitting diodes LED1 to LED4 attached at positions where a virtual image of the keyboard 1 'and a virtual image of the liquid crystal display 5 are to be combined.
Are blinked so that the blinking pattern is different, so that the blinking pattern is imaged so as to flow in a predetermined imaging direction.

【0077】その後、ステップA3で操作者の属する実
空間上に任意に設定された基準面を認識するために画像
処理する。画像処理部44では、例えば、図13に示す
サブルーチンをコールしてステップB1でビデオキャプ
チャ処理を実行する。その後、ステップB2でタッチパ
ネル1の四隅の発光ダイオードLED1〜LED4を認
識する。具体的には、流し撮りCCD装置23で撮像さ
れた4つの発光ダイオードLED1〜LED4による輝
度信号の点滅パターンが、4つの輝点P1〜P4を含む
XY平面を成す空間的な配置パターンに変換される。
Thereafter, in step A3, image processing is performed to recognize a reference plane arbitrarily set in the real space to which the operator belongs. In the image processing unit 44, for example, a subroutine shown in FIG. 13 is called, and a video capture process is executed in step B1. Then, in step B2, the light emitting diodes LED1 to LED4 at the four corners of the touch panel 1 are recognized. Specifically, the blinking pattern of the luminance signal by the four light emitting diodes LED1 to LED4 captured by the panning CCD device 23 is converted into a spatial arrangement pattern forming an XY plane including the four luminescent points P1 to P4. You.

【0078】その後、その配置パターン上を走査して、
少なくとも、4つの輝点P1〜P4の位置座標(X1,
Y1)、(X2,Y2)、(X3,Y3)、(X4,Y
4)が求められ、上述した(1)式及び(2)式が演算
され、実空間上のタッチパネル1の4つの発光ダイオー
ドLED1〜LED4の取付け位置と、画像処理系の4
点の位置座標(X1,Y1)、(X2,Y2)、(X
3,Y3)、(X4,Y4)との関係が求められ、この
4点を結ぶことにより基準面が求められる。そして、ス
テップB3で画像処理部44では上述の(3)式に基づ
いて演算処理が行われ、流し撮りCCD装置23とタッ
チパネル1の基準面との位置関係が検出される。
Thereafter, the arrangement pattern is scanned, and
At least the position coordinates (X1,
Y1), (X2, Y2), (X3, Y3), (X4, Y
4) is calculated, and the above-described equations (1) and (2) are calculated, and the mounting positions of the four light emitting diodes LED1 to LED4 of the touch panel 1 in the real space and the position of the image processing system 4
(X1, Y1), (X2, Y2), (X
(3, Y3) and (X4, Y4) are obtained, and a reference plane is obtained by connecting these four points. Then, in step B3, the image processing unit 44 performs an arithmetic process based on the above-described equation (3), and detects the positional relationship between the panning CCD device 23 and the reference surface of the touch panel 1.

【0079】その後、図12のメインルーチンのステッ
プA4にリターンして仮想空間の基準面上にキーボード
1’の仮想画像と、液晶ディスプレイ5の仮想画像とを
重ね合わせて合成する。このとき、操作者が装着した特
殊グラストロン2では、LCD26による実空間のタッ
チパネル1の外界像と、キーボード1’の仮想画像と、
液晶ディスプレイ5の仮想画像とを合成したステレオ画
像の一方が操作者の右の眼球に導くようになされる。L
CD27による実空間のタッチパネル1の外界像と、キ
ーボード1’の仮想画像と、液晶ディスプレイ5の仮想
画像とを合成したステレオ画像の他方が操作者の左の眼
球に導くようになされる。
Thereafter, the process returns to step A4 of the main routine of FIG. 12, and the virtual image of the keyboard 1 'and the virtual image of the liquid crystal display 5 are superimposed and synthesized on the reference plane of the virtual space. At this time, in the special glasstron 2 worn by the operator, an external image of the touch panel 1 in a real space by the LCD 26, a virtual image of the keyboard 1 ',
One of the stereo images synthesized with the virtual image on the liquid crystal display 5 is guided to the right eyeball of the operator. L
The other of the stereo images obtained by combining the external image of the touch panel 1 in the real space by the CD 27, the virtual image of the keyboard 1 ', and the virtual image of the liquid crystal display 5 is guided to the left eyeball of the operator.

【0080】従って、図14Aに示す実空間上ではタッ
チパネル1の情報入力面(基準面)上には、キーボード
1’や、液晶ディスプレイ5が設備されていないのに、
図14Bに示す仮想空間ではそのタッチパネル1の基準
面上に液晶ディスプレイ5の仮想画像を出現させるこ
と、及び、タッチパネル1の情報入力面上にキーボード
1’の仮想画像を出現させることができる。
Therefore, in the real space shown in FIG. 14A, the keyboard 1 ′ and the liquid crystal display 5 are not provided on the information input surface (reference surface) of the touch panel 1.
In the virtual space shown in FIG. 14B, a virtual image of the liquid crystal display 5 can appear on the reference surface of the touch panel 1 and a virtual image of the keyboard 1 ′ can appear on the information input surface of the touch panel 1.

【0081】これにより、操作者の属する実空間上のタ
ッチパネル1の背景画像と、仮想空間上に出現した液晶
ディスプレイ5の仮想画像及びキーボード1’の仮想画
像とが頭の中で合成されるので、実空間上のタッチパネ
ル1の基準面の属する位置に、あたかも、液晶ディスプ
レイ5及びキーボード1’が存在するようにできる。
Thus, the background image of the touch panel 1 in the real space to which the operator belongs, and the virtual image of the liquid crystal display 5 and the virtual image of the keyboard 1 ′ appearing in the virtual space are synthesized in the head. The liquid crystal display 5 and the keyboard 1 'can be made to exist as if the reference plane of the touch panel 1 in the real space belongs.

【0082】このように、第1の実施形態としての仮想
画像立体合成装置100によれば、タッチパネル1の四
隅に取付けられた4つの発光ダイオードLED1〜LE
D4による点滅パターンを流し撮りすることによって、
4つの発光ダイオードLED1〜LED4の位置からタ
ッチパネル1の位置を画像処理系に容易に認識させるこ
とができる。しかも、操作者の属する実空間上のタッチ
パネル1の基準面を簡易に、しかも、少ない計算量で画
像処理系に認識させることができる。
As described above, according to the virtual image three-dimensional composition device 100 of the first embodiment, the four light emitting diodes LED1 to LE attached to the four corners of the touch panel 1
By panning the blinking pattern by D4,
The position of the touch panel 1 can be easily recognized by the image processing system from the positions of the four light emitting diodes LED1 to LED4. In addition, the reference surface of the touch panel 1 in the real space to which the operator belongs can be easily recognized by the image processing system with a small amount of calculation.

【0083】従って、仮想空間上でタッチパネル1に対
して任意のキー配列のキーボード1’のような入力ツー
ル機能を与えたり、そのタッチパネル1に対するモニタ
として任意のCRT装置や、液晶ディスプレイ5などの
仮想画像を合成して映像加工を行うようなバーチャル映
像加工処理装置などを構成することができる。また、従
来方式に比べて画像処理部44における演算負担を軽減
できると共に、これらのバーチャル映像加工処理装置な
どのコストダウンを図ることができる。
Accordingly, in the virtual space, an input tool function such as a keyboard 1 ′ having an arbitrary key arrangement is given to the touch panel 1, an arbitrary CRT device as a monitor for the touch panel 1, or a virtual device such as a liquid crystal display 5. It is possible to configure a virtual image processing apparatus or the like that performs image processing by combining images. Further, the calculation load on the image processing unit 44 can be reduced as compared with the conventional method, and the cost of these virtual image processing devices and the like can be reduced.

【0084】また、この実施形態ではキーボード、液晶
ディスプレイ及びCRT装置は特殊グラストロン2内の
LCD26及びLCD27等の表示手段24に表示され
るので、ディスクトップのCRT装置や、ノートサイズ
の液晶ディスプレイ、所定キー配列のキーボードなどの
実物が不要となる。更に、仮想空間上の液晶ディスプレ
イ及びCRT装置の画面の大きさは自由に決めることが
できる。しかも、仮想空間上でタッチパネル1に合成す
るキーボード1’のキー配置は自由に選ぶことができ
る。
In this embodiment, since the keyboard, the liquid crystal display and the CRT device are displayed on the display means 24 such as the LCD 26 and the LCD 27 in the special glasstron 2, the desktop CRT device, the notebook size liquid crystal display, A real thing such as a keyboard having a predetermined key layout is not required. Further, the size of the liquid crystal display and the screen of the CRT device in the virtual space can be freely determined. In addition, the key arrangement of the keyboard 1 'to be combined with the touch panel 1 in the virtual space can be freely selected.

【0085】(3)第2の実施形態としての仮想画像立
体合成装置 図15Aは第2の実施形態としての仮想画像立体合成装
置200のタッチパネル1の実像例を示す斜視図であ
り、図15Bはその仮想空間上におけるタッチパネル1
の仮想画像と液晶ディスプレイ5の仮想画像との合成例
を示す斜視図である。この例では、タッチペン7と情報
入力装置としてタッチパネル1とが設けられ、このタッ
チペン7によってタッチパネル1に描かれた画像が、仮
想画像である液晶ディスプレイ5上に画像表示するよう
になされる。
(3) Virtual Image 3D Synthesizing Apparatus as Second Embodiment FIG. 15A is a perspective view showing a real image example of the touch panel 1 of the virtual image 3D synthesizing apparatus 200 as the second embodiment, and FIG. Touch panel 1 in the virtual space
FIG. 6 is a perspective view showing an example of combining a virtual image of FIG. In this example, the touch pen 7 and the touch panel 1 as an information input device are provided, and an image drawn on the touch panel 1 by the touch pen 7 is displayed on the liquid crystal display 5 as a virtual image.

【0086】もちろん、図15Aに示すタッチパネル1
の情報入力面の四隅には点滅パターンの異なった4つの
発光ダイオードLED1〜LED4が設けられ、その発
光ダイオードLED1〜LED4が所定の撮像方向に流
すように図示しない特殊グラストロン2によって撮像さ
れる。
Of course, the touch panel 1 shown in FIG.
Are provided at the four corners of the information input surface of FIG. 4 with different blinking patterns, and the light-emitting diodes LED1 to LED4 are imaged by a special glasstron 2 (not shown) so as to flow in a predetermined imaging direction.

【0087】この仮想画像立体合成装置200では図1
5Aに示すタッチペン7によってタッチパネル1に雪だ
るまの絵が描かれると、その雪だるまの線画を成す接触
位置情報がタッチパネル1の制御系により認識される。
そして、タッチパネル1の送信部14から図示しない特
殊グラストロン2の画像処理装置3の受信部49へ雪だ
るまの線画を成す接触位置情報が伝送される(図9参
照)。
In this virtual image three-dimensional synthesizing apparatus 200, FIG.
When a picture of a snowman is drawn on the touch panel 1 by the touch pen 7 shown in FIG. 5A, contact position information forming a line drawing of the snowman is recognized by the control system of the touch panel 1.
Then, contact position information forming a line drawing of the snowman is transmitted from the transmitting unit 14 of the touch panel 1 to the receiving unit 49 of the image processing device 3 of the special glasstron 2 (not shown) (see FIG. 9).

【0088】このタッチパネル1からの接触位置情報を
受信した特殊グラストロン2では、図15Bに示す液晶
ディスプレイ5の仮想画像に雪だるまの線画を合成すべ
く次のような画像処理が行われる。例えば、図9に示し
た受信部49ではタッチパネル1の送信部14から送信
されてくる伝送信号が受信され、その後、伝送信号から
雪だるまの線画を成す接触位置情報が復調される。復調
後の接触位置情報はRAM47に一旦格納される。
In the special glasstron 2 which has received the contact position information from the touch panel 1, the following image processing is performed to synthesize a line drawing of a snowman with the virtual image of the liquid crystal display 5 shown in FIG. 15B. For example, the reception unit 49 shown in FIG. 9 receives a transmission signal transmitted from the transmission unit 14 of the touch panel 1, and then demodulates contact position information forming a line drawing of a snowman from the transmission signal. The contact position information after demodulation is temporarily stored in the RAM 47.

【0089】この接触位置情報はCPU45によってR
AM47から読み出され、特殊グラストロン2のLCD
26及びLCD27に表示されている仮想画像である液
晶ディスプレイ5の表示画面を変化させるような表示制
御が施される。この表示制御はCPU45からの制御命
令によって画像処理部44が、仮想画像である液晶ディ
スプレイ5の表示画面に雪だるまの線画を嵌め込む画像
処理を実行することによって具現化される。この表示制
御の結果、図15Bに示す液晶ディスプレイ5の仮想画
像に雪だるまの線画を合成することができる。
This contact position information is stored in the
LCD of special glasstron 2 read from AM47
Display control is performed to change the display screen of the liquid crystal display 5 which is a virtual image displayed on the LCD 26 and the LCD 27. This display control is embodied by the image processing unit 44 executing image processing for fitting a line drawing of a snowman on the display screen of the liquid crystal display 5 which is a virtual image according to a control command from the CPU 45. As a result of this display control, a line drawing of a snowman can be combined with the virtual image on the liquid crystal display 5 shown in FIG. 15B.

【0090】このように、第2の実施形態としての仮想
画像立体合成装置200によれば、4つの発光ダイオー
ドLED1〜LED4の位置からタッチパネル1の位置
を画像処理系に容易に認識させることができるので、仮
想空間上でタッチパネル1の情報入力面にキーボード
1’の仮想画像を合成表示したり、そのキーボード1’
上に仮想画像である液晶ディスプレイ5を表示したり、
その液晶ディスプレイ5上に、雪だるまなどの仮想画像
を合成するような画像処理を再現性良く行うことができ
る。この実施形態でも、液晶ディスプレイ5は特殊グラ
ストロン2内の表示手段24に表示されるので、ディス
クトップのCRT装置やノートサイズの実物の液晶ディ
スプレイが不要となる。
As described above, according to the virtual image three-dimensional composition device 200 as the second embodiment, the position of the touch panel 1 can be easily recognized by the image processing system from the positions of the four light emitting diodes LED1 to LED4. Therefore, a virtual image of the keyboard 1 ′ is synthesized and displayed on the information input surface of the touch panel 1 in the virtual space, or the keyboard 1 ′ is displayed.
The liquid crystal display 5 which is a virtual image is displayed on the top,
Image processing such as synthesizing a virtual image such as a snowman on the liquid crystal display 5 can be performed with good reproducibility. Also in this embodiment, since the liquid crystal display 5 is displayed on the display means 24 in the special glasstron 2, there is no need for a desktop CRT device or a notebook-size real liquid crystal display.

【0091】(4)第3の実施形態としての仮想画像立
体合成装置 図16Aは第3の実施形態としての仮想画像立体合成装
置300のタッチパネル1の実像例を示す斜視図であ
り、図16Bはその仮想空間上におけるタッチパネル
1、仮想体及び加工具の各々の仮想画像の合成例を示す
斜視図である。
(4) Three-Dimensional Virtual Image Synthesizing Apparatus as Third Embodiment FIG. 16A is a perspective view showing a real image example of the touch panel 1 of the three-dimensional virtual image synthesizing apparatus 300 according to the third embodiment, and FIG. FIG. 4 is a perspective view showing an example of combining virtual images of the touch panel 1, a virtual body, and a processing tool in the virtual space.

【0092】この例では、発光ダイオード付きのタッチ
ペン70と情報入力装置としてタッチパネル1が設けら
れ、仮想空間のタッチパネル1上又はその周辺領域に任
意のキャラクタをイメージする仮想画像を出現させ、そ
のキャラクタを加工具によって加工できるようになされ
たものである。
In this example, a touch pen 70 having a light emitting diode and a touch panel 1 as an information input device are provided, and a virtual image of an arbitrary character appears on the touch panel 1 in a virtual space or in a peripheral area thereof, and the character is displayed. It is made so that it can be processed by a processing tool.

【0093】もちろん、図16Aに示すタッチパネル1
の情報入力面の四隅には点滅パターンの異なった4つの
発光ダイオードLED1〜LED4が設けられ、その発
光ダイオードLED1〜LED4が所定の撮像方向に流
すように図示しない特殊グラストロン2によって撮像さ
れる。
Of course, the touch panel 1 shown in FIG.
Are provided at the four corners of the information input surface of FIG. 4 with different blinking patterns, and the light-emitting diodes LED1 to LED4 are imaged by a special glasstron 2 (not shown) so as to flow in a predetermined imaging direction.

【0094】この仮想画像立体合成装置300では、図
16Aに示すタッチパネル1及びタッチペン70が図示
しない特殊グラストロン2の流し撮りCCD装置23に
よって流し撮りされると、予めキーボード1’や液晶デ
ィスプレイ5などの画像情報と同様にしてRAM47に
用意された、雪だるまなどの3Dポリゴン10をタッチ
パネル1と共に特殊グラストロン2のLCD26及びL
CD27に合成表示される。
In the virtual image three-dimensional composition device 300, when the touch panel 1 and the touch pen 70 shown in FIG. 16A are shot by the panning CCD device 23 of the special glasstron 2 (not shown), the keyboard 1 ', the liquid crystal display 5, etc. The 3D polygon 10 such as a snowman prepared in the RAM 47 in the same manner as the image information of FIG.
The image is synthesized and displayed on the CD 27.

【0095】この際の合成表示に関しては、上述したよ
うに4つの発光ダイオードLED1〜LED4の位置を
結んだ基準面が画像処理系によって認識され、その後、
その基準面上又はその周辺領域に仮想体を合成処理する
ことにより具現化される。そして、タッチペン70の上
下部に設けられた発光ダイオードLED5及びLED6
が流し撮りされると、予め雪だるまなどの3Dポリゴン
10の画像情報と同様にしてRAM47に用意された、
加工具としてスプレー71などの仮想画像を3Dポリゴ
ン10と共に特殊グラストロン2のLCD26及びLC
D27に合成表示される。
Regarding the combined display at this time, as described above, the reference plane connecting the positions of the four light emitting diodes LED1 to LED4 is recognized by the image processing system.
This is embodied by synthesizing a virtual body on the reference plane or on the surrounding area. Then, the light emitting diodes LED5 and LED6 provided on the upper and lower portions of the touch pen 70, respectively.
When the panning is performed, the image is prepared in the RAM 47 in advance in the same manner as the image information of the 3D polygon 10 such as a snowman.
A virtual image such as a spray 71 as a processing tool together with the 3D polygon 10 and the LCD 26 and LC of the special glasstron 2
D27 is superimposed and displayed.

【0096】この際の合成表示については、上述した合
成処理と同様にして2つの発光ダイオードLED5及び
LED6の位置を結んだ基準線が画像処理系によって認
識され、その後、その基準線上又はその周辺領域に加工
具であるスプレー71の仮想画像を合成処理することに
より具現化される。その際に、そのスプレー71の機能
をイメージする塗装画像を合成するようになされる。
In this case, the reference line connecting the positions of the two light-emitting diodes LED5 and LED6 is recognized by the image processing system in the same manner as in the above-described synthesis processing, and thereafter, on the reference line or in the peripheral area thereof. This is realized by synthesizing a virtual image of the spray 71 as a processing tool. At this time, a paint image that imagines the function of the spray 71 is synthesized.

【0097】従って、この合成処理の結果、図16Bに
示すタッチパネル1上の3Dポリゴン10にスプレー7
1を使用して雪だるまを着色することができる。もちろ
ん、スプレー71から噴射させる色ねたは、予め、複数
の色を区分する画像データにしてRAM47やE2PR
OM48に登録して置き、操作者が自由に色の種類を選
択できるようになされる。
Therefore, as a result of this synthesizing process, the 3D polygon 10 on the touch panel 1 shown in FIG.
1 can be used to color the snowman. Needless to say, the color material to be ejected from the spray 71 is previously converted into image data for dividing a plurality of colors into the RAM 47 or the E 2 PR.
The information is registered and stored in the OM 48 so that the operator can freely select the color type.

【0098】上述の加工具に関してはスプレー71に限
られることはなく、消しゴム、ペン、色鉛筆などの筆記
用具、その他、ノコギリ、かなづち、のみなどの大工用
具を予めRAM47などに画像データとして格納してお
き、操作者に自由に加工具を選択するようになされる。
The above-mentioned processing tools are not limited to the spray 71, but writing tools such as erasers, pens and colored pencils, and other carpentry tools such as saws, kanazuki, etc. are stored in advance in the RAM 47 or the like as image data. The operator is free to select a processing tool.

【0099】このように、第3の実施形態としての仮想
画像立体合成装置300によれば、4つの発光ダイオー
ドLED1〜LED4の位置からタッチパネル1の位置
を画像処理系に容易に認識させることができるので、仮
想空間のタッチパネル1上に出現した3Dポリゴン10
を、スプレー71によって着色するような仮想画像加工
処理を再現性良く行うことができる。
As described above, according to the virtual image three-dimensional composition device 300 as the third embodiment, the position of the touch panel 1 can be easily recognized by the image processing system from the positions of the four light emitting diodes LED1 to LED4. Therefore, the 3D polygon 10 appearing on the touch panel 1 in the virtual space
Can be performed with good reproducibility such as coloring by the spray 71.

【0100】この実施形態ではスプレー71は特殊グラ
ストロン2内の表示手段24に表示されるので、もちろ
ん、ディスクトップのCRT装置やノートサイズの実物
のスプレー71は不要である。仮想空間上で3Dポリゴ
ン10を塗装する色ねたは自由に選ぶことができる。こ
れにより、仮想画像立体合成装置300を応用した「バ
ーチャルお絵かきゲーム装置」などの仮想映像加工処理
装置を提供することができる。
In this embodiment, since the spray 71 is displayed on the display means 24 in the special glasstron 2, it is needless to say that there is no need for a desktop CRT device or a notebook-size real spray 71. The color of the 3D polygon 10 to be painted in the virtual space can be freely selected. This makes it possible to provide a virtual image processing device such as a “virtual drawing game device” to which the virtual image three-dimensional composition device 300 is applied.

【0101】(5)第4の実施形態としての仮想画像立
体合成装置 図17Aは第4の実施形態としての仮想画像立体合成装
置400のタッチパネル1の実像例を示す斜視図であ
り、図17Bはその仮想空間上におけるタッチパネル1
及びその液晶ディスプレイ5の表示例を示す斜視図であ
る。
(5) Virtual Image 3D Synthesizing Apparatus as Fourth Embodiment FIG. 17A is a perspective view showing a real image example of a touch panel 1 of a virtual image 3D synthesizing apparatus 400 as a fourth embodiment, and FIG. Touch panel 1 in the virtual space
FIG. 2 is a perspective view showing a display example of the liquid crystal display 5.

【0102】この例では、高さ形状認識装置としてのシ
リコンレンジファインダと、情報入力装置としてのタッ
チパネル1が設けられ、実空間上で取得したキャラクタ
を、仮想空間のタッチパネル1上又はその周辺領域に出
現させるようになされたものである。もちろん、図17
Aに示すタッチパネル1の情報入力面の四隅には点滅パ
ターンの異なった4つの発光ダイオードLED1〜LE
D4が設けられ、その発光ダイオードLED1〜LED
4が所定の撮像方向に流すように図示しない特殊グラス
トロン2によって撮像される。
In this example, a silicon range finder as a height shape recognizing device and a touch panel 1 as an information input device are provided, and a character obtained in a real space is placed on the touch panel 1 in a virtual space or in a peripheral area thereof. It was made to appear. Of course, FIG.
At four corners of the information input surface of the touch panel 1 shown in FIG.
D4, the light emitting diodes LED1 to LED
4 is imaged by a special glasstron 2 (not shown) so as to flow in a predetermined imaging direction.

【0103】この仮想画像立体合成装置400には図1
7Aに示すシリコンレンジファインダ50が設けられ、
雪だるまなどのキャラクタに関して実空間上の3次元高
さ形状が計測される。この例でシリコンレンジファイン
ダ50で取得された対象物体の3次元高さ形状情報はタ
ッチパネル1に供給され、タッチパネル1の制御系を経
由して図示しない特殊グラストロン2の画像処理装置3
へ転送される。もちろん、3次元高さ形状情報はシリコ
ンレンジファインダ50からその画像処理装置3へ直接
転送してもよい。
The virtual image three-dimensional synthesizing apparatus 400 has the configuration shown in FIG.
7A, a silicon range finder 50 shown in FIG.
A three-dimensional height shape in a real space of a character such as a snowman is measured. In this example, the three-dimensional height shape information of the target object acquired by the silicon range finder 50 is supplied to the touch panel 1 and passed through the control system of the touch panel 1 to the image processing device 3 of the special glasstron 2 (not shown).
Transferred to Of course, the three-dimensional height shape information may be directly transferred from the silicon range finder 50 to the image processing device 3.

【0104】このシリコンレンジファインダ50は、予
め設定された基準面から任意の対象物体までの3次元高
さ形状を測定する装置であって、雪だるまなどの対象物
体に照射するための被測定光を発生するレーザ光源と、
このレーザ光源による被測定光をスリット光に整形して
対象物体に走査する走査手段と、その対象物体からの戻
り光を各画素毎に検出する受光素子とを備えるものであ
る。
This silicon range finder 50 is a device for measuring a three-dimensional height shape from a preset reference plane to an arbitrary target object, and emits light to be measured for irradiating a target object such as a snowman. A laser light source to be generated,
Scanning means for shaping the light to be measured by the laser light source into slit light and scanning the target object, and a light receiving element for detecting return light from the target object for each pixel.

【0105】この仮想画像立体合成装置400では図1
7Aに示すシリコンレンジファインダ50上に実物の雪
だるま10’が置かれると、シート状のレーザ光が雪だ
るま10’に走査されることにより、その受光素子から
実空間上の雪だるま10’の3次元高さ形状情報が得ら
れる。
In this virtual image three-dimensional synthesizing apparatus 400, FIG.
When the real snowman 10 'is placed on the silicon range finder 50 shown in FIG. 7A, the three-dimensional height of the snowman 10' in the real space from the light receiving element is scanned by scanning the sheet-like laser light on the snowman 10 '. The shape information is obtained.

【0106】この3次元高さ形状情報はタッチパネル1
の制御系により認識される。そして、図示しないタッチ
パネル1の送信部14から特殊グラストロン2の画像処
理装置3の受信部49へ雪だるま10’の立体形状を成
す3次元高さ形状情報が伝送される(図9参照)。
This three-dimensional height shape information is stored in the touch panel 1
Is recognized by the control system. Then, the three-dimensional height shape information forming the three-dimensional shape of the snowman 10 'is transmitted from the transmission unit 14 of the touch panel 1 (not shown) to the reception unit 49 of the image processing device 3 of the special glasstron 2 (see FIG. 9).

【0107】このタッチパネル1からの3次元高さ形状
情報を受信した特殊グラストロン2では、図17Bに示
す液晶ディスプレイ5の仮想画像に雪だるま10’の3
D(2D)ポリゴン10を合成すべく次のような画像処
理が行われる。例えば、図9に示した受信部49ではタ
ッチパネル1の送信部14から送信されてくる伝送信号
が受信され、その後、伝送信号から雪だるまの立体形状
を成す3次元高さ形状情報が復調される。復調後の3次
元高さ形状情報はRAM47に一旦格納される。
In the special glasstron 2 which has received the three-dimensional height shape information from the touch panel 1, the virtual image on the liquid crystal display 5 shown in FIG.
The following image processing is performed to synthesize the D (2D) polygon 10. For example, the reception unit 49 shown in FIG. 9 receives a transmission signal transmitted from the transmission unit 14 of the touch panel 1 and then demodulates three-dimensional height shape information forming a three-dimensional shape of a snowman from the transmission signal. The three-dimensional height shape information after demodulation is temporarily stored in the RAM 47.

【0108】この3次元高さ形状情報はCPU45によ
ってRAM47から読み出され、特殊グラストロン2の
LCD26及びLCD27に表示されている仮想画像で
ある液晶ディスプレイ5の表示画面を変化させるような
表示制御が施される。この表示制御はCPU45からの
制御命令によって画像処理部44が、仮想画像である液
晶ディスプレイ5の表示画面に雪だるま10’の3D
(2D)ポリゴン10を嵌め込む画像処理を実行するこ
とによって具現化される。この表示制御の結果、図17
Bに示す液晶ディスプレイ5の仮想画像に、シリコンレ
ンジファインダ50によって取得した雪だるま10’の
仮想画像が合成表示される。
The three-dimensional height shape information is read from the RAM 47 by the CPU 45, and is subjected to display control for changing the display screen of the liquid crystal display 5 which is a virtual image displayed on the LCD 26 and the LCD 27 of the special glasstron 2. Will be applied. In this display control, the image processing unit 44 displays a 3D image of the snowman 10 ′ on the display screen of the liquid crystal display 5 as a virtual image according to a control command from the CPU 45.
(2D) This is embodied by executing image processing for fitting the polygon 10. As a result of this display control, FIG.
A virtual image of the snowman 10 ′ acquired by the silicon range finder 50 is superimposed on the virtual image of the liquid crystal display 5 shown in FIG.

【0109】このように、第4の実施形態としての仮想
画像立体合成装置400によれば、4つの発光ダイオー
ドLED1〜LED4の位置からタッチパネル1の位置
を画像処理系に容易に認識させることができるので、仮
想空間上でタッチパネル1の情報入力面に仮想画像であ
る液晶ディスプレイ5を表示したり、その液晶ディスプ
レイ5上に、シリコンレンジファインダ50によって取
得した雪だるま10’などの仮想画像を合成するような
仮想画像合成処理を再現性良く行うことができる。
As described above, according to the virtual image three-dimensional composition device 400 as the fourth embodiment, the position of the touch panel 1 can be easily recognized by the image processing system from the positions of the four light emitting diodes LED1 to LED4. Therefore, the liquid crystal display 5 which is a virtual image is displayed on the information input surface of the touch panel 1 in the virtual space, and the virtual image such as the snowman 10 ′ acquired by the silicon range finder 50 is synthesized on the liquid crystal display 5. It is possible to perform a virtual image synthesizing process with good reproducibility.

【0110】また、この実施形態でも液晶ディスプレイ
5は特殊グラストロン2内の表示手段24に表示される
ので、ディスクトップのCRT装置やノートサイズの実
物の液晶ディスプレイが不要となる。仮想空間上の液晶
ディスプレイの大きさは自由に決めることができる。
Also, in this embodiment, since the liquid crystal display 5 is displayed on the display means 24 in the special glasstron 2, a CRT device on a desktop or a real liquid crystal display of a notebook size is not required. The size of the liquid crystal display in the virtual space can be freely determined.

【0111】(6)第5の実施形態としての仮想画像立
体合成装置 図18Aは第5の実施形態としての仮想画像立体合成装
置500の両手操作型の入力ツール51の実像例を示す
斜視図であり、図18Bはその仮想空間上における入力
ツール51及びその液晶ディスプレイ5の表示例を示す
斜視図である。
(6) Three-Dimensional Virtual Image Synthesizing Apparatus as Fifth Embodiment FIG. 18A is a perspective view showing a real image example of a two-hand operation type input tool 51 of a three-dimensional virtual image synthesizing apparatus 500 as a fifth embodiment. FIG. 18B is a perspective view showing a display example of the input tool 51 and the liquid crystal display 5 in the virtual space.

【0112】この例では、情報入力装置としての両手操
作型の入力ツール51が設けられ、実空間上で操作した
キャラクタへの指示情報に基づいて仮想空間の入力ツー
ル51上又はその周辺領域に出現させたキャラクタの動
きを制御するようになされたものである。
In this example, a two-handed input tool 51 is provided as an information input device, and appears on the input tool 51 in the virtual space or in a peripheral area thereof based on instruction information for a character operated in the real space. This is to control the movement of the character that has been made to move.

【0113】もちろん、図18Aに示す両手操作型の入
力ツール51の特定位置には点滅パターンの異なった3
つの発光ダイオードLED1〜LED3が設けられ、そ
の発光ダイオードLED1〜LED3が所定の撮像方向
に流すように図示しない特殊グラストロン2によって撮
像される。
Of course, different positions of the two-handed input tool 51 shown in FIG.
Two light emitting diodes LED1 to LED3 are provided, and the light emitting diodes LED1 to LED3 are imaged by a special glasstron 2 (not shown) so as to flow in a predetermined imaging direction.

【0114】この仮想画像立体合成装置500には図1
8Aに示す取手形状を対称的に配置したような両手操作
型の入力ツール51が設けられ、プレーステーション
(ソニー:登録商標)などのキャラクタコントローラを
構成する。入力ツール51の本体は左手操作部57、右
手操作部58及び中間部位59に区分されている。左手
操作部57には2つの操作ボタン52及び53が設けら
れ、左手親指で操作ボタン52や操作ボタン53を押下
することにより、表示画面上のキャラクタの動きを制御
するためのキャラクタ指示情報が発生される。
This virtual image three-dimensional synthesizing apparatus 500 has the configuration shown in FIG.
A two-handed input tool 51 in which the handle shapes shown in FIG. 8A are arranged symmetrically is provided, and constitutes a character controller such as a PlayStation (Sony: registered trademark). The main body of the input tool 51 is divided into a left-hand operation part 57, a right-hand operation part 58, and an intermediate part 59. Two operation buttons 52 and 53 are provided in the left hand operation unit 57. When the operation button 52 or the operation button 53 is pressed with the left thumb, character instruction information for controlling the movement of the character on the display screen is generated. Is done.

【0115】この左手操作部57の側面にはジョグダイ
ヤル54が設けられ、キャラクタ指示情報以外の制御情
報が出力される。右手操作部58にも2つの操作ボタン
55及び56が設けられ、右手親指で操作ボタン55や
操作ボタン56を押下することにより、表示画面上のキ
ャラクタの動きを制御するための他のキャラクタ指示情
報が発生される。左手操作部57と右手操作部58との
間は中間部位59によって連絡されている。中間部位5
9には上述した点滅制御回路13が設けられる。
A jog dial 54 is provided on the side of the left-hand operation section 57, and outputs control information other than character instruction information. Two operation buttons 55 and 56 are also provided on the right hand operation unit 58, and other character instruction information for controlling the movement of the character on the display screen by pressing the operation buttons 55 and 56 with the right thumb. Is generated. The middle part 59 is connected between the left hand operation part 57 and the right hand operation part 58. Middle part 5
9 is provided with the flicker control circuit 13 described above.

【0116】この例では、発光ダイオードLED1は左
手操作部57の上端に設けられ、発光ダイオードLED
3は右手操作部58の上端に設けられ、発光ダイオード
LED2は中間部位59に設けられている。
In this example, the light emitting diode LED1 is provided at the upper end of the left hand operation section 57,
3 is provided at the upper end of the right hand operation unit 58, and the light emitting diode LED2 is provided at the intermediate part 59.

【0117】この仮想画像立体合成装置500では図1
8Aに示す操作ボタン52,53,55又は56などを
押下することによって、両手操作型の入力ツール51か
ら図示しない特殊グラストロン2へにキャラクタ指示情
報が出力される。このキャラクタ指示情報は無線方式又
は有線方式により特殊グラストロン2などの画像処理装
置3に出力される。
In this virtual image three-dimensional synthesizing apparatus 500, FIG.
By pressing the operation button 52, 53, 55 or 56 shown in FIG. 8A, character instruction information is output from the two-hand operation type input tool 51 to the special glasstron 2 (not shown). This character instruction information is output to an image processing device 3 such as a special glasstron 2 by a wireless method or a wired method.

【0118】この両手操作型の入力ツール51からのキ
ャラクタ指示情報を受信した特殊グラストロン2では、
図18Bに示す液晶ディスプレイ5の仮想画面上でキャ
ラクタの動きを制御すべく次のような画像処理が行われ
る。例えば、両手操作型の入力ツール51から送信され
てくるキャラクタ指示情報に基づいてキャラクタを左に
動かしたり、キャラクタを飛び跳ねさせたり、キャラク
タの保持する、例えば武器などから相手キャラクタに向
けて発射された弾丸などの仮想画像を合成表示するよう
な画像処理が実行される。この表示制御の結果、図18
Bに示す液晶ディスプレイ5上でキャラクタの動きをコ
ントロールすることができる。
In the special glasstron 2 which receives the character instruction information from the two-hand operation type input tool 51,
The following image processing is performed to control the movement of the character on the virtual screen of the liquid crystal display 5 shown in FIG. 18B. For example, based on the character instruction information transmitted from the two-hand operation type input tool 51, the character is moved to the left, the character is jumped, or the character is held, for example, fired from a weapon or the like toward the opponent character. Image processing for synthesizing and displaying a virtual image such as a bullet is executed. As a result of this display control, FIG.
The movement of the character can be controlled on the liquid crystal display 5 shown in FIG.

【0119】このように、第5の実施形態としての仮想
画像立体合成装置500によれば、4つの発光ダイオー
ドLED1〜LED3の位置から両手操作型の入力ツー
ル51の位置を画像処理系に容易に認識させることがで
きるので、仮想空間上で両手操作型の入力ツール51に
隣接して仮想画像である液晶ディスプレイ5を表示した
り、その液晶ディスプレイ5上で、キャラクタの動きを
コントロールするような画像処理を再現性良く行うこと
ができる。
As described above, according to the virtual image three-dimensional composition device 500 as the fifth embodiment, the position of the two-handed input tool 51 can be easily determined by the image processing system from the positions of the four light emitting diodes LED1 to LED3. Since it can be recognized, the liquid crystal display 5 which is a virtual image is displayed adjacent to the two-hand operation type input tool 51 in the virtual space, and an image which controls the movement of the character on the liquid crystal display 5 is displayed. Processing can be performed with good reproducibility.

【0120】この実施形態でも液晶ディスプレイ5は特
殊グラストロン2内の表示手段24に表示されるので、
ディスクトップのCRT装置やノートサイズの実物の液
晶ディスプレイが不要となる。仮想空間上の液晶ディス
プレイ5の画面の大きさは自由に決めることができる。
Also in this embodiment, since the liquid crystal display 5 is displayed on the display means 24 in the special glasstron 2,
This eliminates the need for a desktop CRT device or a real notebook-sized liquid crystal display. The size of the screen of the liquid crystal display 5 in the virtual space can be freely determined.

【0121】上述した各実施形態では情報入力装置に関
してタッチパネル1及び両手操作型の入力ツール51に
ついて説明したが、これに限られることはなく、発光ダ
イオード付きの情報入力装置であれば、その位置が認識
できるのでどんな種類の情報入力装置であってもよい。
In each of the embodiments described above, the touch panel 1 and the two-hand operation type input tool 51 have been described with respect to the information input device. However, the present invention is not limited to this. Any type of information input device can be used because it can be recognized.

【0122】(7)第6の実施形態としての仮想画像立
体合成装置 図19Aは、第6の実施形態としての仮想画像立体合成
装置600のタッチパネル1及び発光ダイオード&押し
ボタン付きのタッチペン80の実像例であり、図19B
は、仮想空間のタッチパネル1上の3Dポリゴン10及
びバーチャルピンセット82の合成例を示すイメージ図
である。
(7) Three-Dimensional Virtual Image Synthesizing Apparatus as Sixth Embodiment FIG. 19A shows a real image of a touch panel 1 and a touch pen 80 with a light emitting diode and a push button of a virtual image three-dimensional synthesizing apparatus 600 as a sixth embodiment. FIG. 19B is an example.
FIG. 3 is an image diagram showing a synthesis example of the 3D polygon 10 and the virtual tweezers 82 on the touch panel 1 in the virtual space.

【0123】この例では、発光ダイオード&押しボタン
付きのタッチペン80と情報入力装置としてタッチパネ
ル1が設けられ、仮想空間のタッチパネル1上又はその
周辺領域に任意のキャラクタをイメージする雪だるま
(3Dポリゴン10)などの仮想画像を出現させ、その
3Dポリゴン10の状態を加工具としてのバーチャルピ
ンセット(以下単にピンセットという)82によって変
えるようになされたものである。
In this example, a touch pen 80 having a light emitting diode and a push button and a touch panel 1 as an information input device are provided, and a snowman (3D polygon 10) that images an arbitrary character on the touch panel 1 in a virtual space or in a peripheral area thereof. And the like, and the state of the 3D polygon 10 is changed by virtual tweezers (hereinafter simply referred to as tweezers) 82 as a processing tool.

【0124】このピンセット82の「挟み機能」を具現
化するために、タッチペン80には押しボタン81が設
けられ、実空間上でこの押しボタン81を押下すると、
仮想空間上のピンセット81が閉じたり開いたりできる
ようになされている。この例では、バイブレート機能が
タッチペン80に付加されている。このバイブレート機
能は仮想空間上でピンセット82の先端が3Dポリゴン
10に触れたときに、センサとして働かせるものであ
る。
In order to realize the "pinching function" of the tweezers 82, a push button 81 is provided on the touch pen 80, and when the push button 81 is pressed in a real space,
The tweezers 81 in the virtual space can be closed and opened. In this example, a vibration function is added to the touch pen 80. This vibrating function functions as a sensor when the tip of the tweezers 82 touches the 3D polygon 10 in the virtual space.

【0125】もちろん、図19Aに示すタッチパネル1
の情報入力面の四隅には点滅パターンの異なった4つの
発光ダイオードLED1〜LED4が設けられ、その発
光ダイオードLED1〜LED4が所定の撮像方向に流
すように図示しない特殊グラストロン2によって撮像さ
れる。
Of course, the touch panel 1 shown in FIG.
Are provided at the four corners of the information input surface of FIG. 4 with different blinking patterns, and the light-emitting diodes LED1 to LED4 are imaged by a special glasstron 2 (not shown) so as to flow in a predetermined imaging direction.

【0126】この仮想画像立体合成装置600では、図
19Aに示すタッチパネル1及びタッチペン80が図示
しない特殊グラストロン2の流し撮りCCD装置23に
よって流し撮りされると、第1の実施形態と同様にして
RAM47に用意された、雪だるまなどの3Dポリゴン
10をタッチパネル1と共に特殊グラストロン2のLC
D26及びLCD27に合成表示される。
In this virtual image three-dimensional synthesizing device 600, when the touch panel 1 and the touch pen 80 shown in FIG. 19A are panned by the panning CCD device 23 of the special glasstron 2 (not shown), the same as in the first embodiment. The 3D polygon 10 such as a snowman prepared in the RAM 47 and the touch panel 1 together with the LC of the special glasstron 2
D26 and LCD27 are combined and displayed.

【0127】この際に、上述したようにタッチパネル1
の4つの発光ダイオードLED1〜LED4の位置を結
んだ基準面が画像処理系によって認識され、その後、そ
の基準面上又はその周辺領域に仮想体が合成処理され
る。そして、タッチペン80の上下部に設けられた発光
ダイオードLED5及びLED6が流し撮りされると、
予め雪だるまなどの3Dポリゴン10の画像情報と同様
にしてRAM47に用意された図19Bに示すピンセッ
ト82の仮想画像を3Dポリゴン10と共に特殊グラス
トロン2のLCD26及びLCD27に合成表示され
る。
At this time, as described above, the touch panel 1
The reference plane connecting the positions of the four light-emitting diodes LED1 to LED4 is recognized by the image processing system, and then a virtual body is synthesized on the reference plane or in the peripheral area thereof. Then, when the light emitting diodes LED5 and LED6 provided on the upper and lower portions of the touch pen 80 are shot in a panning manner,
A virtual image of the tweezers 82 shown in FIG. 19B prepared in the RAM 47 together with the 3D polygon 10 is synthesized and displayed on the LCD 26 and the LCD 27 of the special glasstron 2 in the same manner as the image information of the 3D polygon 10 such as a snowman in advance.

【0128】また、そのピンセット82の「挟み機能」
はタッチペン80の押しボタン81を押下することで、
例えば、発光ダイオードLED5又はLED6の点滅パ
ターンを変化させ、この点滅パターンの変化を画像処理
系に認識させる。そして、この点滅パターンの変化点を
トリガにしてピンセット82を閉じたり開いたりさせる
ことができる。
Further, the “pinching function” of the tweezers 82
By pressing the push button 81 of the touch pen 80,
For example, the blinking pattern of the light emitting diode LED5 or LED6 is changed, and the change in the blinking pattern is recognized by the image processing system. The tweezers 82 can be closed or opened by using the change point of the blinking pattern as a trigger.

【0129】なお、図20A〜図20Dは仮想画像立体
合成装置600による3Dポリゴン10の表示例を示す
イメージ図である。図20Aは3Dポリゴン10にピン
セットを近づけた表示例、図20Bは3Dポリゴン10
にピンセットを接触させた表示例である。この図20B
において、ピンセット82の先端が3Dポリゴン10に
触れると、タッチペン80のバイブレート機能によって
ぶるぶると振動するようになされる。
FIGS. 20A to 20D are image diagrams showing display examples of the 3D polygon 10 by the virtual image three-dimensional composition device 600. FIG. 20A is a display example in which tweezers are brought close to the 3D polygon 10, and FIG. 20B is a 3D polygon 10
6 is a display example in which tweezers are brought into contact with. This FIG. 20B
In this case, when the tip of the tweezers 82 touches the 3D polygon 10, the vibrating function of the touch pen 80 causes the vibrator to vibrate.

【0130】この振動を感じた観察者は、タッチペン8
0の押しボタン81を押下すると、ピンセット82を閉
じることができる。そして、このピンセット82が閉じ
た状態で、図20Cに示す3Dポリゴン10にピンセッ
ト82を更に前へ進めると、3Dポリゴン10をへこま
せることができる。または、ピンセット82が3Dポリ
ゴン10に食い込んだ状態で、接触タッチペン80の押
しボタン81を押下すると、このピンセット82が閉じ
た状態で、図20Dに示す3Dポリゴン10の一部をピ
ンセット82で引張っることができる。
[0130] The observer who feels the vibration can use the touch pen 8
When the 0 push button 81 is pressed, the tweezers 82 can be closed. When the tweezers 82 are further advanced to the 3D polygon 10 shown in FIG. 20C with the tweezers 82 closed, the 3D polygon 10 can be dented. Alternatively, when the push button 81 of the contact touch pen 80 is pressed in a state where the tweezers 82 bite into the 3D polygon 10, a part of the 3D polygon 10 shown in FIG. 20D is pulled by the tweezers 82 in a state where the tweezers 82 are closed. be able to.

【0131】このように、第6の実施形態としての仮想
画像立体合成装置600によれば、4つの発光ダイオー
ドLED1〜LED4の位置からタッチパネル1の位置
を画像処理系に容易に認識させることができるので、仮
想空間のタッチパネル1上に出現した3Dポリゴン10
を、ピンセット82によって押したりひっぱたりして愛
玩するようなバーチャルキャラクタ育成ゲーム装置を構
成することができる。
As described above, according to the virtual image three-dimensional composition device 600 as the sixth embodiment, the position of the touch panel 1 can be easily recognized by the image processing system from the positions of the four light emitting diodes LED1 to LED4. Therefore, the 3D polygon 10 appearing on the touch panel 1 in the virtual space
Can be constructed by pushing or pulling the device with tweezers 82 to play a pet.

【0132】(8)他の情報入力装置 図21は、本実施形態としての他の情報入力装置40の
構成例を示す斜視図である。この例では液晶シャッタ及
びトラックボールによって3次元形状計測機構が構成さ
れる。
(8) Other Information Input Device FIG. 21 is a perspective view showing a configuration example of another information input device 40 according to the present embodiment. In this example, a three-dimensional shape measuring mechanism is constituted by the liquid crystal shutter and the trackball.

【0133】例えば、情報入力装置40は図21に示す
筐体91を有している。この筐体91にはキーボード9
2が設けられ、キー情報が入力される。このキーボード
取付け面の四隅には基準面設定用の発光ダイオードLE
D1〜LED4が設けられ、第1の実施形態で説明した
ような流し撮りCCD装置23によって流し撮りされ
る。もちろん、四隅の発光ダイオードLED1〜LED
4の位置座標は(x1,y1)、(x2,y2)、(x
3,y3)及び(x4,y4)に規定されている。4つ
の発光ダイオードLED1〜LED4は点滅制御回路1
3によって点滅パターンが異なるように点滅制御され
る。
For example, the information input device 40 has a housing 91 shown in FIG. The housing 91 has a keyboard 9
2, key information is input. At the four corners of the keyboard mounting surface, light emitting diodes LE for setting a reference surface are provided.
D1 to LED4 are provided, and the panning is performed by the panning CCD device 23 as described in the first embodiment. Of course, the light emitting diodes LED1 to LED at the four corners
4 are (x1, y1), (x2, y2), (x
3, y3) and (x4, y4). The four light emitting diodes LED1 to LED4 are a blink control circuit 1
The blinking control is performed so that the blinking pattern differs depending on the number 3.

【0134】また、筐体91はヒンジ94を有してい
る。このヒンジ94には液晶シャッタ93が可動自在に
取付けられ、シート状のスリット光L0が走査できるよ
うになされている。更に、キーボード取付け面の下方に
は透明部材から成るトラックボール95が設けられ、こ
のトラックボール95の中に図示しないシリコンレンジ
ファインダが取付けられている。このトラックボール9
5は図示しないモータによってx,y,z軸周りに回転
動作するようになされている。この液晶シャッタ93と
トラックボール95内のシリコンレンジファインダによ
って、3次元形状計測機構90が構成される。
The housing 91 has a hinge 94. A liquid crystal shutter 93 is movably attached to the hinge 94 so that the sheet-like slit light L0 can scan. Further, a trackball 95 made of a transparent member is provided below the keyboard mounting surface, and a silicon range finder (not shown) is mounted in the trackball 95. This trackball 9
Reference numeral 5 denotes a motor that is rotated around the x, y, and z axes by a motor (not shown). The liquid crystal shutter 93 and the silicon range finder in the trackball 95 constitute a three-dimensional shape measuring mechanism 90.

【0135】つまり、液晶シャッタ93の開閉によって
出射されたスリット光L0がキーボード92上の任意の
対象物体30で反射すると、その戻り光がトラックボー
ル95に到達する。トラックボール内のシリコンレンジ
ファインダでは、対象物体30から反射されてくる戻り
光が各画素Pij毎に検出される。ここで、画素Pij
はシリコンレンジファインダ上の任意の位置(i,j)
に存在する画素を示す。
That is, when the slit light L0 emitted by opening and closing the liquid crystal shutter 93 is reflected by an arbitrary target object 30 on the keyboard 92, the return light reaches the trackball 95. In the silicon range finder in the trackball, return light reflected from the target object 30 is detected for each pixel Pij. Here, the pixel Pij
Is any position (i, j) on the silicon range finder
Indicates a pixel that exists in.

【0136】この種のシリコンレンジファインダでは、
各画素Pijを通過する戻り光のタイミングが計測さ
れ、このシリコンレンジファインダ内にある基準面を設
定したときに、液晶シャッタ93が開かれたスリット光
L0の出射角となる基準面とスリット光L0との間を成
す角度αijが求められる。そして、その基準面と画素
Pijの視線方向との成す角度をβijとし、基準面と
液晶シャッタ93とのオフセット距離をAとし、画素P
ijと液晶シャッタ93とのオフセット距離をBijと
したときに、基準面と対象物体30との3次元高さ情報
Zijは、(4)式により求められる。
In this type of silicon range finder,
The timing of the return light passing through each pixel Pij is measured, and when a reference plane in the silicon range finder is set, the reference plane and the slit light L0 that are the emission angles of the slit light L0 with the liquid crystal shutter 93 opened are set. Are obtained. The angle between the reference plane and the line of sight of the pixel Pij is βij, the offset distance between the reference plane and the liquid crystal shutter 93 is A, and the pixel Pij
Assuming that the offset distance between ij and the liquid crystal shutter 93 is Bij, the three-dimensional height information Zij between the reference plane and the target object 30 is obtained by equation (4).

【0137】[0137]

【数3】 (Equation 3)

【0138】これにより、スリット光L0の1回の走査
のみで基準面から対象物体30までの3次元高さ形状を
シリコンレンジファインダ内の全画素について並列かつ
実時間で距離計測を行うことができる。この例ではトラ
ックボール内のシリコンレンジファインダの一部領域上
に図示しないCCD装置(モーション・アイ)が取付け
られ、物体30の色が撮像され、その色情報が出力され
る。
Thus, the three-dimensional height shape from the reference plane to the target object 30 can be measured in parallel and in real time for all the pixels in the silicon range finder by only one scan of the slit light L0. . In this example, a CCD device (motion eye) (not shown) is mounted on a partial area of the silicon range finder in the trackball, the color of the object 30 is imaged, and the color information is output.

【0139】このようにして、本実施の形態としての他
の情報入力装置40によれば、基準面設定用の4つの発
光ダイオードLED1〜LED4及び3次元形状計測機
構90が設けられ、トラックボール95がモータによっ
てx,y,z軸周りに動くので、液晶シャッタ93から
出射されたスリット光L0が物体30に当たって戻って
きたときに、その戻り光をトラックボール95内のシリ
コンレンジファインダによって多角度で取得することが
できる。
As described above, according to the other information input device 40 of the present embodiment, the four light emitting diodes LED1 to LED4 for setting the reference plane and the three-dimensional shape measuring mechanism 90 are provided. Is moved around the x, y, and z axes by the motor. When the slit light L0 emitted from the liquid crystal shutter 93 hits the object 30 and returns, the return light is reflected at multiple angles by the silicon range finder in the trackball 95. Can be obtained.

【0140】従って、実物の雪だるまなどの対象物体3
0の3次元形状を広範囲に撮像することができるので、
3Dポリゴン10に関する画像データを広範囲に取得す
ることができる。しかも、観察者の属する外界像に3D
ポリゴン10の画像を立体的に合成する際に、情報入力
面の四隅の発光ダイオードLED1〜LED4を流し撮
りすることによって、第1の実施形態と同様にして観察
者の属する実空間上の基準面を簡易に、しかも、少ない
計算量で認識することができる。
Therefore, the target object 3 such as a real snowman
0 can be imaged over a wide area,
Image data on the 3D polygon 10 can be acquired in a wide range. In addition, the 3D
When the image of the polygon 10 is three-dimensionally synthesized, the light-emitting diodes LED1 to LED4 at the four corners of the information input surface are shot in a panning manner, so that the reference plane in the real space to which the observer belongs is performed in the same manner as in the first embodiment. Can be easily recognized with a small amount of calculation.

【0141】(9)第7の実施形態としての仮想画像立
体合成装置 図22Aは、第7の実施形態としての仮想画像立体合成
装置700の情報入力装置の実像例であり、図22B
は、仮想空間上の液晶ディスプレイ5の合成例を示すイ
メージ図である。
(9) Three-Dimensional Virtual Image Synthesizing Apparatus as Seventh Embodiment FIG. 22A is an example of a real image of the information input device of the three-dimensional virtual image synthesizing apparatus 700 according to the seventh embodiment.
FIG. 4 is an image diagram showing a synthesis example of a liquid crystal display 5 in a virtual space.

【0142】この例では、3次元形状計測機構90を有
した情報入力装置40が設けられ、実空間上で取得した
キャラクタを、仮想空間の情報入力装置40上又はその
周辺領域に出現させるようになされたものである。もち
ろん、図22Aに示す情報入力装置40の情報入力面の
四隅には点滅パターンの異なった4つの発光ダイオード
LED1〜LED4が設けられ、その発光ダイオードL
ED1〜LED4が所定の撮像方向に流すように図示し
ない特殊グラストロン2によって撮像される。
In this example, an information input device 40 having a three-dimensional shape measuring mechanism 90 is provided so that a character acquired in a real space appears on the information input device 40 in a virtual space or in a peripheral area thereof. It was done. Of course, four light emitting diodes LED1 to LED4 having different blinking patterns are provided at four corners of the information input surface of the information input device 40 shown in FIG.
An image is taken by a special glasstron 2 (not shown) so that the ED1 to LED4 flow in a predetermined imaging direction.

【0143】この仮想画像立体合成装置700には図2
2Aに示す3次元形状計測機構90が設けられ、雪だる
まなどのキャラクタに関して実空間上の3次元高さ形状
が計測される。この例でトラックボール95内のシリコ
ンレンジファインダで取得された対象物体30の3次元
高さ形状情報は情報入力装置40内で処理され、図示し
ない特殊グラストロン2の画像処理装置3へ転送され
る。
This virtual image three-dimensional synthesizing apparatus 700 has the configuration shown in FIG.
A three-dimensional shape measuring mechanism 90 shown in FIG. 2A is provided, and a three-dimensional height shape in a real space of a character such as a snowman is measured. In this example, the three-dimensional height shape information of the target object 30 acquired by the silicon range finder in the trackball 95 is processed in the information input device 40 and transferred to the image processing device 3 of the special glasstron 2 (not shown). .

【0144】この仮想画像立体合成装置700では図2
2Aに示す情報入力装置40のキーボード92上に実物
の雪だるま10’が置かれると、シート状のレーザ光が
液晶シャッタ93によって雪だるま10’に走査される
ことにより、そのトラックボール95内のシリコンレン
ジファインダから実空間上の雪だるま10’の3次元高
さ形状情報が得られる。
In this virtual image three-dimensional synthesizing apparatus 700, FIG.
When a real snowman 10 ′ is placed on a keyboard 92 of the information input device 40 shown in FIG. 2A, a sheet-like laser beam is scanned by the liquid crystal shutter 93 over the snowman 10 ′, thereby causing a silicon range in the trackball 95 to be scanned. The three-dimensional height shape information of the snowman 10 'in the real space can be obtained from the finder.

【0145】この3次元高さ形状情報は情報入力装置4
0の制御系により認識される。そして、図示しない情報
入力装置40の送信部14から特殊グラストロン2の画
像処理装置3の受信部49へ雪だるま10’の立体形状
を成す3次元高さ形状情報が伝送される(図9参照)。
This three-dimensional height shape information is transmitted to the information input device 4
0 is recognized by the control system. Then, the three-dimensional height shape information forming the three-dimensional shape of the snowman 10 'is transmitted from the transmission unit 14 of the information input device 40 (not shown) to the reception unit 49 of the image processing device 3 of the special glasstron 2 (see FIG. 9). .

【0146】この情報入力装置40からの3次元高さ形
状情報を受信した特殊グラストロン2では、図22Bに
示す液晶ディスプレイ5の仮想画像に雪だるま10’の
3D(2D)ポリゴン10を合成すべく第4の実施形態
で説明したような画像処理が行われる。3次元高さ形状
情報は図9に示したCPU45によってRAM47から
読み出され、特殊グラストロン2のLCD26及びLC
D27に表示されている仮想画像である液晶ディスプレ
イ5の表示画面を変化させるような表示制御が施され
る。
In the special glasstron 2 receiving the three-dimensional height shape information from the information input device 40, the special glasstron 2 synthesizes the 3D (2D) polygon 10 of the snowman 10 'with the virtual image of the liquid crystal display 5 shown in FIG. Image processing as described in the fourth embodiment is performed. The three-dimensional height shape information is read from the RAM 47 by the CPU 45 shown in FIG.
Display control is performed to change the display screen of the liquid crystal display 5, which is a virtual image displayed in D27.

【0147】この表示制御はCPU45からの制御命令
によって画像処理部44が、仮想画像である液晶ディス
プレイ5の表示画面に雪だるま10’の3D(2D)ポ
リゴン10を嵌め込む画像処理を実行することによって
具現化される。この表示制御の結果、図22Bに示す液
晶ディスプレイ5の仮想画像に、3次元形状計測機構9
0によって取得した雪だるま10’の仮想画像(3Dポ
リゴン10)が合成表示される。
The display control is performed by the image processing unit 44 executing image processing for fitting the 3D (2D) polygon 10 of the snowman 10 ′ on the display screen of the liquid crystal display 5 which is a virtual image according to a control command from the CPU 45. It is embodied. As a result of this display control, the virtual image on the liquid crystal display 5 shown in FIG.
The virtual image (3D polygon 10) of the snowman 10 'obtained by the method 0 is synthesized and displayed.

【0148】このように、第7の実施形態としての仮想
画像立体合成装置700によれば、4つの発光ダイオー
ドLED1〜LED4の位置から情報入力装置40の位
置を画像処理系に容易に認識させることができるので、
仮想空間上で情報入力装置40の情報入力面に仮想画像
である液晶ディスプレイ5を表示したり、その液晶ディ
スプレイ5上に、3次元形状計測機構90によって取得
した雪だるま10’などの仮想画像を合成する処理を再
現性良く行うことができる。
As described above, according to the virtual image three-dimensional composition device 700 as the seventh embodiment, the position of the information input device 40 can be easily recognized by the image processing system from the positions of the four light emitting diodes LED1 to LED4. So you can
The liquid crystal display 5 which is a virtual image is displayed on the information input surface of the information input device 40 in the virtual space, and a virtual image such as a snowman 10 ′ acquired by the three-dimensional shape measurement mechanism 90 is synthesized on the liquid crystal display 5. Can be performed with good reproducibility.

【0149】また、この実施形態でも液晶ディスプレイ
5は特殊グラストロン2内の表示手段24に表示される
ので、ディスクトップのCRT装置やノートサイズの実
物の液晶ディスプレイが不要となる。仮想空間上の液晶
ディスプレイの大きさは自由に決めることができる。
Also in this embodiment, since the liquid crystal display 5 is displayed on the display means 24 in the special glasstron 2, there is no need for a desktop CRT device or a notebook-size real liquid crystal display. The size of the liquid crystal display in the virtual space can be freely determined.

【0150】この実施形態では、基準面設定機能付きタ
ッチパネル1上、3次元形状計測機能付きの情報入力装
置40上又はその液晶ディスプレイ5の表示画面に雪だ
るま3Dポリゴン10を出現させる場合について説明し
たが、これに限られることはなく、台座ポリゴンや、
光、炎、あるいは、氷のポリゴンであっても、更に、鎧
のようなポリゴンであってもよい。
In this embodiment, a case has been described where the snowman 3D polygon 10 appears on the touch panel 1 with the reference plane setting function, on the information input device 40 with the three-dimensional shape measurement function, or on the display screen of the liquid crystal display 5 thereof. , But not limited to, pedestal polygons,
It may be a polygon of light, fire or ice, or even a polygon like armor.

【0151】なお、本実施の形態では非透過型の特殊グ
ラストロン2又は透過型の特殊グラストロン20を使用
する場合について説明したが、これに限られることはな
く、透過型と非透過型を切換え可能な兼用タイプの特殊
グラストロンを用いても、もちろん構わない。
In this embodiment, the case where the non-transmission type special glasstron 2 or the transmission type special glasstron 20 is used has been described. However, the present invention is not limited to this. Of course, a switchable dual-purpose special glasstron may be used.

【0152】この実施形態の仮想画像立体合成装置10
0は、特開平10−123453号、特開平9−304
727号、特開平9−304730号、特開平9−21
1374号、特開平8−160348号、特開平8−9
4960号、特開平7−325265号、特開平7−2
70714号及び特開平7−67055号に記載される
透過型のヘッドマウントディスプレイに適用することが
できる。
The virtual image three-dimensional composition device 10 of this embodiment
0 is JP-A-10-123453, JP-A-9-304
727, JP-A-9-304730, JP-A-9-21
1374, JP-A-8-160348, JP-A-8-9
4960, JP-A-7-325265, JP-A-7-2
The present invention can be applied to a transmission type head mounted display described in Japanese Patent No. 70714 and JP-A-7-67055.

【0153】この実施形態では流し撮りCCD23に関
してインターライン転送方式の二次元撮像デバイスを使
用する場合について説明したが、これに限られることは
なく、フレーム転送方式の二次元撮像デバイスを使用す
る場合であっても同様な効果が得られる。
In this embodiment, the case where the two-dimensional imaging device of the interline transfer system is used for the panning CCD 23 has been described. However, the present invention is not limited to this, and the case where the two-dimensional imaging device of the frame transfer system is used is described. Even if there is, the same effect can be obtained.

【0154】[0154]

【発明の効果】以上説明したように、本発明の情報入力
装置によれば、情報入力面の周辺領域の特定位置に取付
けられた複数の光源の点滅パターンを異なるように点滅
制御する制御手段が設けられるものである。
As described above, according to the information input device of the present invention, the control means for controlling the blinking patterns of the plurality of light sources attached to the specific positions in the peripheral area of the information input surface so as to be different from each other. It is provided.

【0155】この構成によって、流し撮りCCD装置の
ような特殊撮影装置で情報入力装置を撮像した場合に、
複数の光源の点灯パターンを非点滅制御した場合に比べ
てその光源の位置を容易に特定することができる。従っ
て、その光源の位置から情報入力装置の位置を画像処理
系に容易に認識させることができるので、仮想空間上で
情報入力装置に任意の画像表示装置のイメージ画像を合
成するような仮想画像立体合成装置などに十分に応用す
ることができる。
With this configuration, when the information input device is imaged by a special photographing device such as a panning CCD device,
The position of the light source can be easily specified as compared with the case where the lighting pattern of the plurality of light sources is controlled not to blink. Therefore, since the position of the information input device can be easily recognized by the image processing system based on the position of the light source, a virtual image stereoscopic device that combines the image of the arbitrary image display device with the information input device in the virtual space is provided. It can be sufficiently applied to a synthesizer or the like.

【0156】本発明に係る情報入力装置の位置認識装置
によれば、所定の撮像方向に流すように撮像された光源
の点滅パターンに関して、その点滅パターンに係る輝度
情報を画像処理して光源の位置を求める演算手段が設け
られるものである。
According to the position recognition device of the information input device of the present invention, with respect to the blinking pattern of the light source imaged so as to flow in the predetermined imaging direction, the luminance information relating to the blinking pattern is processed by image processing. Is provided.

【0157】この構成によって、情報入力装置に取付け
られた光源の位置を容易に特定することができるので、
その光源の位置から情報入力装置の位置を画像処理系に
容易に認識させることができる。従って、仮想空間上で
情報入力装置に関してキーボードなどの任意の入力ツー
ル機能を与えたり、その情報入力装置に対するモニタと
して任意のCRT装置や、液晶ディスプレイなどの仮想
画像を合成するような仮想画像立体合成装置などに十分
に応用することができる。
According to this configuration, the position of the light source attached to the information input device can be easily specified.
The position of the information input device can be easily recognized by the image processing system from the position of the light source. Therefore, an arbitrary input tool function such as a keyboard is provided for an information input device in a virtual space, an arbitrary CRT device is used as a monitor for the information input device, or a virtual image stereoscopic synthesis is performed to synthesize a virtual image such as a liquid crystal display. It can be sufficiently applied to devices and the like.

【0158】本発明に係る情報入力装置の位置認識方法
によれば、情報入力装置の特定の面に取付けられた、点
滅パターンが異なる複数の光源を所定の撮像方向に流す
ように撮像し、その後、その撮像された光源の輝度情報
を画像処理して光源の位置を求めるものである。
According to the position recognition method of the information input device of the present invention, a plurality of light sources having different blinking patterns attached to a specific surface of the information input device are imaged so as to flow in a predetermined imaging direction. And image processing of the brightness information of the light source obtained to obtain the position of the light source.

【0159】この構成によって、光源の位置から情報入
力装置の位置を画像処理系に容易に認識させることがで
きるので、仮想空間の情報入力装置上でキャラクタや、
画像表示装置などの仮想画像を合成するような画像処理
を再現性良く行うことができる。
According to this configuration, the position of the information input device can be easily recognized by the image processing system from the position of the light source.
Image processing for synthesizing a virtual image such as an image display device can be performed with good reproducibility.

【0160】本発明に係る仮想画像立体合成装置によれ
ば、上述の情報入力装置、その位置認識装置及びその位
置認識方法が応用されるものである。
According to the three-dimensional virtual image synthesizing apparatus of the present invention, the above-mentioned information input apparatus, its position recognizing apparatus and its position recognizing method are applied.

【0161】この構成によって、仮想空間上で情報入力
装置に対して任意のキー配列のキーボードのような入力
ツール機能を与えたり、その情報入力装置に対するモニ
タとして任意のCRT装置や、液晶ディスプレイなどの
仮想画像を合成して映像加工を行えるようなバーチャル
映像加工処理装置などを構成することができる。
With this configuration, an information input device can be provided with an input tool function such as a keyboard having an arbitrary key arrangement in a virtual space, or an arbitrary CRT device or a liquid crystal display can be used as a monitor for the information input device. It is possible to configure a virtual image processing apparatus or the like that can perform image processing by combining virtual images.

【0162】本発明に係る記憶媒体によれば、操作者の
属する実空間上で撮像可能な情報入力手段を認識し、そ
こで認識された仮想空間上の情報入力手段に任意の画像
表示装置などの仮想画像を合成するようなアルゴリズム
が格納されるものである。
According to the storage medium of the present invention, the information input means capable of capturing an image in the real space to which the operator belongs is recognized, and the information input means in the virtual space recognized there is replaced with an arbitrary image display device or the like. An algorithm for synthesizing a virtual image is stored.

【0163】この構成によって、仮想空間の情報入力装
置上にキャラクタや、画像表示装置などの仮想画像を合
成するような仮想画像立体合成装置などを再現性良く構
成することができる。
With this configuration, it is possible to construct a virtual image three-dimensional synthesizing device that synthesizes a character or a virtual image such as an image display device on an information input device in a virtual space with high reproducibility.

【0164】この発明は、タッチパネルなどの存在位置
を画像処理系などに認識させる情報入力ツールの位置認
識機構及びこれを応用した仮想画像処理装置などに適用
して極めて好適である。
The present invention is very suitable when applied to a position recognition mechanism of an information input tool for recognizing an existing position of a touch panel or the like in an image processing system or the like and a virtual image processing apparatus to which the information input tool is applied.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明に係る各実施形態としての情報入力装置
1の構成例を示す斜視図である。
FIG. 1 is a perspective view showing a configuration example of an information input device 1 as each embodiment according to the present invention.

【図2】その点滅制御回路13の内部構成例を示すブロ
ック図である。
FIG. 2 is a block diagram showing an example of the internal configuration of the blink control circuit 13.

【図3】4つの発光ダイオードLED1〜LED4への
電圧供給例を示す波形図である。
FIG. 3 is a waveform diagram showing an example of voltage supply to four light emitting diodes LED1 to LED4.

【図4】第1の実施形態としての情報入力装置の位置認
識装置を応用した仮想画像立体合成装置100の構成例
を示す斜視図である。
FIG. 4 is a perspective view illustrating a configuration example of a virtual image three-dimensional composition device 100 to which the position recognition device of the information input device according to the first embodiment is applied.

【図5】各仮想画像立体合成装置で使用する特殊グラス
トロン2の構成例を示す正面から見た概念図である。
FIG. 5 is a conceptual diagram viewed from the front showing a configuration example of a special glasstron 2 used in each virtual image three-dimensional composition device.

【図6】各仮想画像立体合成装置で使用する他の特殊グ
ラストロン20の構成例を示す正面から見た概念図であ
る。
FIG. 6 is a conceptual diagram viewed from the front showing a configuration example of another special glasstron 20 used in each virtual image three-dimensional composition device.

【図7】その特殊グラストロン2の流し撮りCCD装置
23の内部構成例を示す平面図である。
FIG. 7 is a plan view showing an example of the internal configuration of the panning CCD device 23 of the special glasstron 2.

【図8】その流し撮りCCD装置23の光学系の構成例
を示す断面図である。
FIG. 8 is a sectional view showing a configuration example of an optical system of the panning CCD device 23.

【図9】仮想画像立体合成装置100の回路ブロック例
を示す図である。
FIG. 9 is a diagram illustrating an example of a circuit block of the virtual image three-dimensional composition device 100.

【図10】その基準面を成すタッチプレート部11の通
常画像例を示すイメージ図である。
FIG. 10 is an image diagram showing an example of a normal image of the touch plate section 11 forming the reference plane.

【図11】その基準面の位置座標の算出例を示す模式図
である。
FIG. 11 is a schematic diagram showing a calculation example of position coordinates of the reference plane.

【図12】仮想画像立体合成装置100の動作例(その
1)を示すメインルーチンのフローチャートである。
FIG. 12 is a flowchart of a main routine showing an operation example (part 1) of the virtual image three-dimensional composition device 100.

【図13】仮想画像立体合成装置100の動作例(その
2)を示すサブルーチンのフローチャートである。
FIG. 13 is a flowchart of a subroutine showing an operation example (part 2) of the virtual image three-dimensional composition device 100.

【図14】Aは、実空間上のタッチパネル1の実像例で
あり、Bは、仮想空間上のキーボード1’及び液晶ディ
スプレイ5の合成例を示すイメージ図である。
14A is an example of a real image of the touch panel 1 in a real space, and FIG. 14B is an image diagram showing an example of a combination of a keyboard 1 ′ and a liquid crystal display 5 in a virtual space.

【図15】Aは、第2の実施形態としての仮想画像立体
合成装置200のタッチパネル1の実像例であり、B
は、仮想空間上の液晶ディスプレイ5の表示例を示すイ
メージ図である。
FIG. 15A is a real image example of the touch panel 1 of the virtual image three-dimensional composition device 200 according to the second embodiment, and FIG.
5 is an image diagram showing a display example of the liquid crystal display 5 in a virtual space.

【図16】Aは、第3の実施形態としての仮想画像立体
合成装置300のタッチパネル1の実像例であり、B
は、仮想空間上の3Dポリゴン10の合成例を示すイメ
ージ図である。
16A is an example of a real image of the touch panel 1 of the virtual image three-dimensional composition device 300 according to the third embodiment, and FIG.
FIG. 3 is an image diagram showing a synthesis example of a 3D polygon 10 in a virtual space.

【図17】Aは、第4の実施形態としての仮想画像立体
合成装置400のタッチパネル1の実像例であり、B
は、仮想空間上の3D(2D)ポリゴン10の合成例を
示すイメージ図である。
17A is an example of a real image of the touch panel 1 of the virtual image three-dimensional composition device 400 according to the fourth embodiment, and FIG.
FIG. 4 is an image diagram showing an example of combining 3D (2D) polygons 10 in a virtual space.

【図18】Aは、第5の実施形態としての仮想画像立体
合成装置500の両手操作型の入力ツール51の実像例
であり、Bは、仮想空間上の液晶ディスプレイ5の合成
例を示すイメージ図である。
FIG. 18A is a real image example of a two-handed operation input tool 51 of a virtual image three-dimensional composition device 500 as a fifth embodiment, and B is an image diagram showing a composition example of the liquid crystal display 5 in a virtual space. It is.

【図19】Aは、第6の実施形態としての仮想画像立体
合成装置600のタッチパネル1の実像例であり、B
は、仮想空間上の3Dポリゴン10の合成例を示すイメ
ージ図である。
FIG. 19A is an example of a real image of the touch panel 1 of the virtual image three-dimensional composition device 600 according to the sixth embodiment;
FIG. 3 is an image diagram showing a synthesis example of a 3D polygon 10 in a virtual space.

【図20】Aは、3Dポリゴン10にピンセットを近づ
けた表示例、Bは、3Dポリゴン10にピンセットを接
触させた表示例、Cは3Dポリゴン10にピンセットを
食い込ませた表示例、Dは3Dポリゴン10をピンセッ
トで引張った表示例を示すイメージ図である。
20A is a display example in which tweezers are brought close to 3D polygon 10, B is a display example in which tweezers are brought into contact with 3D polygon 10, C is a display example in which tweezers are bitten into 3D polygon 10, and D is 3D It is an image figure showing the example of a display which pulled polygon 10 with tweezers.

【図21】本実施形態としての他の情報入力装置40の
構成例を示す斜視図である。
FIG. 21 is a perspective view illustrating a configuration example of another information input device 40 according to the present embodiment.

【図22】Aは、第7の実施形態としての仮想画像立体
合成装置700の情報入力装置40の実像例であり、B
は、仮想空間上の3Dポリゴン10の合成例を示すイメ
ージ図である。
FIG. 22A is a real image example of the information input device 40 of the virtual image three-dimensional composition device 700 according to the seventh embodiment;
FIG. 3 is an image diagram showing a synthesis example of a 3D polygon 10 in a virtual space.

【符号の説明】[Explanation of symbols]

1・・・タッチパネル(情報入力装置,情報入力手
段)、2,20・・・特殊グラストロン(合成手段)、
3・・・画像処理装置(演算手段)、4・・・位置認識
機構(位置認識装置,位置認識手段)、7・・・タッチ
ペン、10・・・3Dポリゴン、11・・・タッチプレ
ート部、13・・・点滅制御回路(制御手段)、23・
・・流し撮りCCD装置(撮像装置)、24・・・表示
手段、25・・・CCD撮像装置、26・・・右眼表示
用のLCD、27・・・左眼表示用のLCD、32・・
・垂直転送部(電荷転送部)、33・・・水平転送部、
50・・・シリコンレンジファインダ(高さ形状計測装
置)、51・・・両手操作型の入力ツール(情報入力装
置)、70・・・発光ダイオード付きタッチペン、71
・・・スプレー(加工具)、80・・・発光ダイオード
&押しボタン付きタッチペン、82・・・ピンセット、
90・・・3次元高さ形状計測機構、100〜700・
・・仮想画像立体合成装置、LED1〜LED6・・・
発光ダイオード(光源)
1 ... touch panel (information input device, information input means), 2, 20 ... special glasstron (synthesis means),
3 image processing device (computing means), 4 position recognition mechanism (position recognition device, position recognition means), 7 touch pen, 10 3D polygon, 11 touch plate section, 13 ... blinking control circuit (control means), 23
· · Panning CCD device (imaging device), 24 · · · display means, 25 · · · CCD imaging device, 26 · · · LCD for right eye display, 27 · · · LCD for left eye display, 32 ·・
・ Vertical transfer unit (charge transfer unit), 33 ... horizontal transfer unit,
50: Silicon range finder (height shape measuring device), 51: Two-hand operation type input tool (information input device), 70: Touch pen with light emitting diode, 71
... spray (processing tool), 80 ... touch pen with light emitting diode & push button, 82 ... tweezers,
90 ... three-dimensional height shape measurement mechanism, 100-700
..Virtual image three-dimensional synthesizing devices, LED1 to LED6...
Light emitting diode (light source)

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 2C001 BB00 BB10 BC01 BC04 CA00 CA01 CA02 CA08 CA09 CB01 CC00 CC02 CC03 CC06 5B087 AA07 AE00 BC05 BC12 BC13 BC16 BC19 BC26 BC32 CC02 CC12 CC20 CC25 DE00 DJ06 9A001 BB04 DD12 HH28 HH29 JJ76 KK45 KK62  ──────────────────────────────────────────────────続 き Continued on the front page F-term (reference) 2C001 BB00 BB10 BC01 BC04 CA00 CA01 CA02 CA08 CA09 CB01 CC00 CC02 CC03 CC06 5B087 AA07 AE00 BC05 BC12 BC13 BC16 BC19 BC26 BC32 CC02 CC12 CC20 CC25 DE00 DJ06 9A001 BB04 DD12 HH28 KKH29 KK62

Claims (23)

【特許請求の範囲】[Claims] 【請求項1】 情報入力面を有した撮像可能な情報入力
装置であって、 少なくとも、前記情報入力面の周辺領域の特定位置に取
付けられた複数の光源と、 前記光源の入出力を制御する制御手段とを備え、 前記制御手段は、 前記光源の点滅パターンが異なるように点滅制御するこ
とを特徴とする情報入力装置。
1. An image capturing information input device having an information input surface, wherein at least a plurality of light sources attached to specific positions in a peripheral area of the information input surface and input / output of the light source are controlled. An information input device, comprising: a control unit, wherein the control unit performs blink control so that a blink pattern of the light source is different.
【請求項2】 前記情報入力面に触れると接触位置情報
を出力するタッチパネルを成すことを特徴とする請求項
1に記載の情報入力装置。
2. The information input device according to claim 1, wherein the information input device forms a touch panel that outputs contact position information when the information input surface is touched.
【請求項3】 前記情報入力面にキーボートが取付けら
れることを特徴とする請求項1に記載の情報入力装置。
3. The information input device according to claim 1, wherein a keyboard is attached to the information input surface.
【請求項4】 前記情報入力面に3次元高さ形状計測機
構が設けられることを特徴とする請求項1に記載の情報
入力装置。
4. The information input device according to claim 1, wherein a three-dimensional height shape measuring mechanism is provided on the information input surface.
【請求項5】 点滅パターンが異なる複数の光源を特定
位置に取付けた情報入力装置の位置を認識する装置であ
って、 前記情報入力装置の光源を所定の撮像方向に流すように
撮像する撮像手段と、 前記撮像手段による前記光源の輝度信号を画像処理して
前記光源の各々の位置を求める演算手段とを備えること
を特徴とする情報入力装置の位置認識装置。
5. An apparatus for recognizing a position of an information input device in which a plurality of light sources having different blinking patterns are mounted at a specific position, wherein an image pickup means for imaging the light source of the information input device so as to flow in a predetermined imaging direction. A position recognition device for an information input device, comprising: image processing of a luminance signal of the light source by the imaging unit to obtain a position of each of the light sources.
【請求項6】 前記撮像手段には、 各画素を構成する複数の光電変換素子を有した二次元撮
像デバイスが使用され、 前記光電変換素子から得られた信号電荷を所定の方向に
転送するときに、 少なくとも、同一フィールド期間中に複数回、前記光電
変換素子から前記信号電荷を読み出すようになされたこ
とを特徴とする請求項5に記載の情報入力装置の位置認
識装置。
6. A two-dimensional imaging device having a plurality of photoelectric conversion elements constituting each pixel is used as said imaging means, and when transferring signal charges obtained from said photoelectric conversion elements in a predetermined direction. 6. The position recognition device for an information input device according to claim 5, wherein the signal charge is read from the photoelectric conversion element at least a plurality of times during the same field period.
【請求項7】 前記撮像手段及び演算手段が設けられる
場合であって、 前記演算手段は、 前記撮像手段による輝度信号の点滅パターンに関して、
複数の輝点を含むXY平面を成す空間的な配置パターン
に変換し、 前記配置パターン上を走査して、少なくとも、複数の位
置座標を求めるようになされたことを特徴とする請求項
5に記載の情報入力装置の位置認識装置。
7. The method according to claim 6, wherein the imaging unit and the calculation unit are provided, wherein the calculation unit determines a blinking pattern of a luminance signal by the imaging unit.
6. The image processing apparatus according to claim 5, wherein the image is converted into a spatial arrangement pattern forming an XY plane including a plurality of bright points, and at least a plurality of position coordinates are obtained by scanning the arrangement pattern. Information input device position recognition device.
【請求項8】 前記演算手段は、 複数の輝点を含むXY平面を成す配置パターン上で流し
撮像方向をY軸とし、該Y軸に直交する軸をX軸とした
ときに、 前記流し撮像方向に輝度信号値を加算してX軸上にプロ
ットし、 前記X軸上にプロットされた輝度信号値が最大となる位
置を検出して複数のX座標値を求め、かつ、 前記配置パターン上でY軸方向に走査したときに、 前記流し撮像方向に並んだ複数の輝点のうち、最初に発
光した輝点位置を各々X座標値に対応したY座標値とし
て求めることを特徴とする請求項5に記載の情報入力装
置の位置認識装置。
8. The panning imaging method, wherein a panning imaging direction is set to an Y-axis on an arrangement pattern forming an XY plane including a plurality of bright spots, and an axis orthogonal to the Y-axis is set to an X-axis. The luminance signal values are added in the directions and plotted on the X axis. The position where the luminance signal value plotted on the X axis is the maximum is detected to determine a plurality of X coordinate values. When scanning in the Y-axis direction in (1), among the plurality of bright spots arranged in the panning imaging direction, the position of the bright spot that first emits light is obtained as a Y coordinate value corresponding to the X coordinate value. Item 6. A position recognition device for an information input device according to Item 5.
【請求項9】 撮像可能な情報入力装置の特定の面に点
滅パターンが異なる複数の光源を取付け、 前記点滅パターンの異なった光源を所定の撮像方向に流
すように撮像し、 撮像された前記光源の輝度情報を画像処理して前記光源
の各々の位置情報を求めることを特徴とする情報入力装
置の位置認識方法。
9. A plurality of light sources having different blinking patterns are mounted on a specific surface of the information input device capable of photographing, and the light sources having different blinking patterns are photographed so as to flow in a predetermined photographing direction. A position information recognizing method for the information input device, wherein the position information of each of the light sources is obtained by performing image processing on the luminance information of the light source.
【請求項10】 操作者の属する外界像に仮想体の画像
を立体的に合成する装置であって、 情報入力面を有した撮像可能な情報入力手段と、 前記操作者の属する実空間上で前記情報入力手段を認識
する位置認識手段と、 前記位置認識手段により認識された情報入力手段の仮想
空間上の画像に任意の仮想画像を合成する合成手段とを
備え、 前記位置認識手段は、 前記情報入力手段の特定の位置に取付けられた、少なく
とも、点滅パターンが異なるように点滅する3点以上の
光源と、 前記光源を所定の撮像方向に流すように撮像する流し撮
り用の撮像手段と、 前記撮像手段による点滅パターンの輝度信号を画像処理
して前記光源の3点の位置を求め、その後、前記3点の
光源の位置を結んで基準面を求める演算手段とを有する
ことを特徴とする仮想画像立体合成装置。
10. An apparatus for stereoscopically combining an image of a virtual body with an external world image to which an operator belongs, comprising: an image inputting means having an information input surface; A position recognizing unit that recognizes the information input unit; and a synthesizing unit that synthesizes an arbitrary virtual image with an image in a virtual space of the information input unit recognized by the position recognizing unit. At least three or more light sources that are attached at a specific position of the information input means and blink so that the blinking pattern is different, and a panning imaging means for imaging the light sources so as to flow in a predetermined imaging direction, Calculating means for obtaining three positions of the light source by performing image processing on a luminance signal of a blinking pattern by the imaging means, and thereafter obtaining a reference plane by connecting the positions of the three light sources. Virtual image solid synthesizer.
【請求項11】 前記位置認識手段及び合成手段が設け
られる場合であって、 前記合成手段は、 前記位置認識手段により認識された仮想空間の情報入力
手段に任意の画像表示装置をイメージする仮想画像を合
成するようになされたことを特徴とする請求項10に記
載の仮想画像立体合成装置。
11. A virtual image in which the position recognizing unit and the synthesizing unit are provided, wherein the synthesizing unit images an arbitrary image display device on a virtual space information input unit recognized by the position recognizing unit. The virtual image three-dimensional composition apparatus according to claim 10, wherein the composition is performed.
【請求項12】 前記情報入力手段は、 情報入力面に触れると接触位置情報を出力するタッチパ
ネルを有することを特徴とする請求項10に記載の仮想
画像立体合成装置。
12. The virtual image three-dimensional composition apparatus according to claim 10, wherein said information input means has a touch panel that outputs contact position information when touching an information input surface.
【請求項13】 前記タッチパネルが設けられる場合で
あって、 前記タッチパネルに触れるためのタッチペンが設けられ
ることを特徴とする請求項12に記載の仮想画像立体合
成装置。
13. The virtual image three-dimensional composition apparatus according to claim 12, wherein the touch panel is provided, and a touch pen for touching the touch panel is provided.
【請求項14】 前記位置認識手段及び合成手段が設け
られる場合であって、 前記合成手段は、 前記位置認識手段により認識された仮想空間上の情報入
力手段に、任意のキャラクタをイメージする仮想画像を
合成するようになされたことを特徴とする請求項10に
記載の仮想画像立体合成装置。
14. A case where the position recognizing means and the synthesizing means are provided, wherein the synthesizing means is a virtual image which images an arbitrary character on the information input means in the virtual space recognized by the position recognizing means. The virtual image three-dimensional composition apparatus according to claim 10, wherein the composition is performed.
【請求項15】 前記仮想空間上の情報入力手段に、キ
ャラクタの仮想画像が合成される場合であって、 前記キャラクタを加工処理するための加工具が設けら
れ、 前記加工具には、 特定の位置に取付けられた、少なくとも、点滅パターン
が異なるように点滅する2点以上の光源が設けられるこ
とを特徴とする請求項14に記載の仮想画像立体合成装
置。
15. A processing tool for processing a character, wherein a virtual image of a character is combined with the information input means on the virtual space, wherein the processing tool has a specific processing tool. 15. The virtual image three-dimensional composition device according to claim 14, wherein at least two or more light sources that blink at different positions and that blink in different positions are provided.
【請求項16】 前記加工具及び合成手段が設けられる
場合であって、 前記合成手段は、 前記キャラクタを加工処理する際に、前記加工具の機能
をイメージする仮想画像を合成するようになされたこと
を特徴とする請求項15に記載の仮想画像立体合成装
置。
16. When the processing tool and the synthesizing unit are provided, the synthesizing unit is configured to synthesize a virtual image of the function of the processing tool when processing the character. The virtual image three-dimensional composition device according to claim 15, wherein:
【請求項17】 前記仮想空間上の情報入力手段に、キ
ャラクタの仮想画像が合成される場合であって、 前記キャラクタに関して実空間上の3次元高さ形状を計
測する高さ形状認識装置が設けられ、 前記高さ形状認識装置によって取得された3次元高さ形
状情報を前記情報入力手段に供給するようになされたこ
とを特徴とする請求項14に記載の仮想画像立体合成装
置。
17. A height shape recognition device for measuring a three-dimensional height shape of a character in a real space, wherein a virtual image of a character is synthesized in the information input means in the virtual space. The virtual image three-dimensional composition device according to claim 14, wherein the three-dimensional height shape information acquired by the height shape recognition device is supplied to the information input means.
【請求項18】 前記流し撮り用の撮像手段には、 各画素を構成する複数の光電変換素子を有した二次元撮
像デバイスが使用され、 前記光電変換素子から得られた信号電荷を所定の方向に
転送するときに、 少なくとも、同一フィールド期間中に複数回、前記光電
変換素子から前記信号電荷を読み出すようになされたこ
とを特徴とする請求項10に記載の仮想画像立体合成装
置。
18. A two-dimensional imaging device having a plurality of photoelectric conversion elements constituting each pixel is used as the panning imaging means, and a signal charge obtained from the photoelectric conversion element is transferred in a predetermined direction. 11. The virtual image three-dimensional composition device according to claim 10, wherein the signal charge is read from the photoelectric conversion element at least a plurality of times during the same field period.
【請求項19】 前記撮像手段及び演算手段が設けられ
る場合であって、 前記演算手段は、 前記撮像手段による輝度信号の点滅パターンに関して、
3つの輝点を含むXY平面を成す空間的な配置パターン
に変換し、 前記配置パターン上を走査して、少なくとも、3つの輝
点の位置座標を求め、 前記3点の位置座標を結ぶことにより前記基準面を認識
するようになされたことを特徴とする請求項10に記載
の仮想画像立体合成装置。
19. The method according to claim 19, wherein the imaging unit and the arithmetic unit are provided, wherein the arithmetic unit determines a blinking pattern of a luminance signal by the imaging unit.
By converting into a spatial arrangement pattern forming an XY plane including three luminescent points, scanning the arrangement pattern to obtain at least the position coordinates of three luminescent points, and connecting the position coordinates of the three points The virtual image three-dimensional composition apparatus according to claim 10, wherein the reference plane is recognized.
【請求項20】 前記演算手段は、 3つの輝点を含むXY平面を成す配置パターン上で流し
撮像方向をY軸とし、 該Y軸に直交する軸をX軸としたときに、 前記流し撮像方向に輝度信号値を加算してX軸上にプロ
ットし、 前記X軸上にプロットされた輝度信号値が最大となる位
置を検出して3つのX座標値を求め、かつ、 前記配置パターン上でY軸方向に走査したときに、 前記流し撮像方向に並んだ複数の輝点のうち、最初に発
光した輝点位置を各々X座標値に対応したY座標値とし
て求めることを特徴とする請求項10に記載の仮想画像
立体合成装置。
20. The moving image pickup apparatus according to claim 19, wherein the flow direction is set as an Y axis on an arrangement pattern forming an XY plane including three bright points, and the axis orthogonal to the Y axis is set as an X axis. The luminance signal values are added in the directions and plotted on the X-axis. The position where the luminance signal value plotted on the X-axis is maximum is detected to obtain three X-coordinate values. When scanning in the Y-axis direction in (1), among the plurality of bright spots arranged in the panning imaging direction, the position of the bright spot that first emits light is obtained as a Y coordinate value corresponding to the X coordinate value. Item 13. A virtual image three-dimensional composition device according to item 10.
【請求項21】 前記合成手段は、 操作者の属する外界像を撮像する撮像手段と、 前記撮像手段による外界像と予め準備された画像表示手
段の仮想画像と合成したステレオ画像の一方を表示する
第1の画像表示素子と、 前記ステレオ画像の他方を表示する第2の画像表示素子
とを有したヘッドマウントディスプレイであり、 前記ヘッドマウントディスプレイは、操作者の顔面又は
頭部に装着され、 前記第1の画像表示素子によるステレオ画像と、前記第
2の画像表示素子によるステレオ画像とを重ね合わせて
操作者の眼球に導くようになされたことを特徴とする請
求項10に記載の仮想画像立体合成装置。
21. An image pickup means for picking up an external world image to which an operator belongs, and the synthesizing means displays one of a stereo image obtained by synthesizing the external image by the image pickup means and a virtual image prepared by an image display means prepared in advance. A head mounted display having a first image display element and a second image display element for displaying the other of the stereo images, wherein the head mounted display is mounted on a face or a head of an operator; 11. The three-dimensional virtual image according to claim 10, wherein a stereo image by the first image display element and a stereo image by the second image display element are superimposed and guided to an operator's eyeball. Synthesizer.
【請求項22】 前記合成手段は、 操作者の属する外界像を取り込むために入射光の開閉を
する液晶シャッタと、 前記外界像に合成するための仮想体の画像を表示する画
像表示素子と、 前記画像表示素子による仮想体の画像と、前記液晶シャ
ッタを通過した操作者の属する外界像とをその操作者の
眼球に導く光学手段とを有したヘッドマウントディスプ
レイであり、 前記ヘッドマウントディスプレイは、操作者の顔面又は
頭部に装着され、 前記液晶シャッタを開いたときは、 前記液晶シャッタを通過した操作者の属する実空間上の
外界像に、前記画像表示素子による仮想体の画像を重ね
合わせて操作者の眼球に導くようになされたことを特徴
とする請求項10に記載の仮想画像立体合成装置。
22. A liquid crystal shutter for opening and closing incident light to capture an external image to which an operator belongs, an image display element for displaying an image of a virtual body to be composited with the external image, An image of the virtual body by the image display element, and a head mounted display having an optical unit that guides an external image to which the operator who has passed through the liquid crystal shutter belongs to the operator's eyeball, The head mounted display includes: When mounted on the face or head of the operator and the liquid crystal shutter is opened, the image of the virtual body by the image display element is superimposed on the external image in real space to which the operator who has passed through the liquid crystal shutter belongs. The virtual image three-dimensional composition device according to claim 10, wherein the virtual image stereoscopic composition device is guided to an operator's eyeball.
【請求項23】 操作者の属する外界像に仮想体の画像
を立体的に合成するアルゴリズムを格納した記録媒体で
あって、 少なくとも、前記記録媒体には、 前記操作者の属する実空間上で撮像可能な情報入力手段
を認識し、前記認識された情報入力手段の仮想空間上の
画像に任意の画像表示装置の仮想画像を合成するような
アルゴリズムが格納されることを特徴とする記録媒体。
23. A recording medium storing an algorithm for stereoscopically combining an image of a virtual body with an external world image to which an operator belongs, wherein at least the recording medium is imaged in a real space to which the operator belongs. A recording medium storing an algorithm for recognizing a possible information input means and synthesizing a virtual image of an arbitrary image display device with an image in the virtual space of the recognized information input means.
JP10350493A 1998-12-09 1998-12-09 Information input device, device and method for position recognition thereof, virtual image stereoscopic composition device, and storage medium Pending JP2000172430A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10350493A JP2000172430A (en) 1998-12-09 1998-12-09 Information input device, device and method for position recognition thereof, virtual image stereoscopic composition device, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10350493A JP2000172430A (en) 1998-12-09 1998-12-09 Information input device, device and method for position recognition thereof, virtual image stereoscopic composition device, and storage medium

Publications (1)

Publication Number Publication Date
JP2000172430A true JP2000172430A (en) 2000-06-23

Family

ID=18410873

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10350493A Pending JP2000172430A (en) 1998-12-09 1998-12-09 Information input device, device and method for position recognition thereof, virtual image stereoscopic composition device, and storage medium

Country Status (1)

Country Link
JP (1) JP2000172430A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007114225A1 (en) * 2006-03-31 2007-10-11 Pioneer Corporation Stereo two-dimensional image display
WO2011106345A2 (en) * 2010-02-23 2011-09-01 Black Diamond Equipment, Ltd. Systems and methods for locking a portable illumination system
KR101809678B1 (en) * 2016-04-28 2017-12-15 주식회사 알엔디플러스 Touchscreen device and method for controlling the same and display apparatus

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007114225A1 (en) * 2006-03-31 2007-10-11 Pioneer Corporation Stereo two-dimensional image display
WO2011106345A2 (en) * 2010-02-23 2011-09-01 Black Diamond Equipment, Ltd. Systems and methods for locking a portable illumination system
WO2011106345A3 (en) * 2010-02-23 2011-11-24 Black Diamond Equipment, Ltd. Systems and methods for locking a portable illumination system
KR101809678B1 (en) * 2016-04-28 2017-12-15 주식회사 알엔디플러스 Touchscreen device and method for controlling the same and display apparatus

Similar Documents

Publication Publication Date Title
JP2000172431A (en) Information input device and game device
US12080261B2 (en) Computer vision and mapping for audio
US9662583B2 (en) Portable type game device and method for controlling portable type game device
CN103827780B (en) Method and system for virtual input device
US20170287222A1 (en) Head mounted display, method for controlling head mounted display, and computer program
US8698902B2 (en) Computer-readable storage medium having image processing program stored therein, image processing apparatus, image processing system, and image processing method
CN108508603B (en) Head-mounted display device, control method therefor, and recording medium
US11954268B2 (en) Augmented reality eyewear 3D painting
US20140168261A1 (en) Direct interaction system mixed reality environments
US10878285B2 (en) Methods and systems for shape based training for an object detection algorithm
CN108292490A (en) Display control unit and display control method
CN109960039B (en) Display system, electronic device, and display method
US20190285896A1 (en) Transmission-type head mounted display apparatus, method of controlling transmission-type head mounted display apparatus, and computer program for controlling transmission-type head mounted display apparatus
US11195341B1 (en) Augmented reality eyewear with 3D costumes
JP2019128693A (en) Head-mounted display, and method for controlling head-mounted display
KR20030075399A (en) Motion Mouse System
CN109069920A (en) Hand-held controller, method for tracking and positioning and system
JP4264601B2 (en) Information input device, information input method, and game device
CN113267896A (en) Display system, controller, control method of display system, and recording medium
JP2000184398A (en) Virtual image stereoscopic synthesis device, virtual image stereoscopic synthesis method, game machine and recording medium
KR20070003753A (en) Computer input device utilizing a camera to recognize position and twinkling compare laser pointing image with computer display picture
JP2000172430A (en) Information input device, device and method for position recognition thereof, virtual image stereoscopic composition device, and storage medium
US11982814B2 (en) Segmented illumination display
JP2000098300A (en) Device and method for stereoscopically synthesizing virtual image, game device and recording medium
CN108401452A (en) The device and method that real goal detects and controls are executed using virtual reality head mounted display systems

Legal Events

Date Code Title Description
FPAY Renewal fee payment (prs date is renewal date of database)

Year of fee payment: 7

Free format text: PAYMENT UNTIL: 20090301

FPAY Renewal fee payment (prs date is renewal date of database)

Year of fee payment: 8

Free format text: PAYMENT UNTIL: 20100301

FPAY Renewal fee payment (prs date is renewal date of database)

Year of fee payment: 8

Free format text: PAYMENT UNTIL: 20100301

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110301

Year of fee payment: 9

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120301

Year of fee payment: 10

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130301

Year of fee payment: 11