JPH08101758A - Data operation device for virtual space - Google Patents

Data operation device for virtual space

Info

Publication number
JPH08101758A
JPH08101758A JP6261278A JP26127894A JPH08101758A JP H08101758 A JPH08101758 A JP H08101758A JP 6261278 A JP6261278 A JP 6261278A JP 26127894 A JP26127894 A JP 26127894A JP H08101758 A JPH08101758 A JP H08101758A
Authority
JP
Japan
Prior art keywords
virtual space
data
image
operating means
ultrasonic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP6261278A
Other languages
Japanese (ja)
Inventor
Hideyuki Ueno
秀幸 上野
Noboru Yamaguchi
昇 山口
Takeshi Nakajo
健 中條
Ko Amada
皇 天田
Yoko Miyagawa
陽子 宮川
Takehiko Kagoshima
岳彦 籠嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP6261278A priority Critical patent/JPH08101758A/en
Publication of JPH08101758A publication Critical patent/JPH08101758A/en
Pending legal-status Critical Current

Links

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Digital Computer Display Output (AREA)

Abstract

PURPOSE: To provide the data operation device for virtual space which operates objects in a virtual space more naturally and more easily. CONSTITUTION: An operation means 150 whose position and direction can be operated, a detection means 140 which detects the position and the direction of the operation means 150, a storage means 100 where data of components constituting the virtual space is stored, a display part 160 on which the virtual space is displayed based on stored data, a correspondence part 110 which makes the operation means 150 and one component of the virtual space displayed on the display device 160 correspond to each other and switches this correspondence to another component of the virtual space, and a control part 120 which controls the relative position and direction of this corresponding component of the virtual space based on the detection result of the detection means 140 are provided.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は仮想空間内のデータ操作
装置に関し、特に、例えば遠隔地にある装置やデータを
操作したりその動作をシミュレートしたりする装置や、
仮想的な空間に複数メンバーが参加する通信システム等
の仮想現実を使った様々なシステムに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a data manipulating device in a virtual space, and more particularly to a device for manipulating data in a remote place or a device for simulating its operation,
The present invention relates to various systems using virtual reality such as a communication system in which multiple members participate in a virtual space.

【0002】[0002]

【従来の技術】仮想現実感あるいは人工現実感と呼ばれ
る技術に様々な方面からの注目が集まっている。この技
術は一般的には、新しい入出力デバイスとコンピュータ
グラフィクスや音場処理などの最新の信号処理技術を用
いて、人間の視覚、聴覚、力覚等の5感に働きかけ、コ
ンピュータが作り出した仮想の空間の中にいるような感
覚を実現しようとするものである。この技術を用いて例
えばロボットの遠隔操作、リアリティを追求するゲー
ム、テレエグジスタンスと呼ばれるTV会議のリアリテ
ィを高めたものなど様々な分野での応用が研究されてい
る(例えば、服部桂、「人工現実感の世界」 工業調査
会 参照)。
2. Description of the Related Art A technique called "virtual reality" or "artificial reality" has attracted attention from various aspects. In general, this technology uses new input / output devices and the latest signal processing technology such as computer graphics and sound field processing to work on the five senses of human sight, hearing, force, etc. It aims to realize the feeling of being in a space. Using this technology, applications in various fields such as remote control of robots, games that pursue reality, and games that enhance the reality of video conferencing called tele-existence are being studied (for example, Katsura Hattori, “ World of Artificial Reality ”, Industrial Research Committee).

【0003】従来知られている仮想現実感の技術は仮想
現実で現実を覆い隠すために、ヘッドマウントディスプ
レイやデータグローブなど身体に装着するタイプの入出
力機器を使用するものが多い。データグローブは手袋の
関節の曲がり角を測定するための光ファイバと、手の位
置を検出するための磁気センサを手袋につけ、手の動き
や位置をコンピュータに伝えるための装置である。以前
から3次元CAD等の入力装置としては3次元のポイン
ティングデバイスがあったが、それと比べて手の位置、
向き、握り具合を入力できるようにし、操作が手での操
作に直接対応しているようにした点で画期的である。ヘ
ッドマウントディスプレイは左右の目に映像を映すカラ
ー液晶ディスプレイなどのディスプレイを配置して視野
角を広くし頭にかぶれるようにしたもので、通常は実空
間の視野は遮断されており、また左右別々の画像を提供
できる事から立体的な表示を行えるようになっている。
これ等が代表的な仮想現実のためのデバイスの現状であ
る。
Conventionally known virtual reality techniques often use an input / output device such as a head mounted display or a data glove to be worn on the body in order to cover up the reality with virtual reality. The data glove is a device for attaching an optical fiber for measuring the bending angle of the joint of the glove and a magnetic sensor for detecting the position of the hand to the glove and transmitting the movement and position of the hand to the computer. There have been three-dimensional pointing devices as input devices for three-dimensional CAD, etc.
It is epoch-making in that it allows the user to input the orientation and the degree of grip, and that the operation corresponds directly to the operation by hand. The head mounted display is a color liquid crystal display that displays images on the left and right eyes and has a wide viewing angle so that it can be worn on the head.Normally, the view of the real space is blocked, and the left and right sides are separated. Since it is possible to provide the image of, the three-dimensional display can be performed.
These are the current status of typical devices for virtual reality.

【0004】一方、コンピュータはパソコンの価格低下
により一般に普及しつつあり、光ファイバーなどの広帯
域ネットワークの普及により将来ますます身近なものに
なる事が予想されるが、そのための課題としてユーザー
インタフェースが今より格段に分かりやすくなる事があ
げられるだろう。例えば将来の実現の一例として考えら
れる事として、CATV網を使ったテレショッピングを
実現するためにパソコンを使用するという実現形態が考
えられよう。この場合簡単で分かりやすいユーザーイン
タフェースとしてメニューを整えるなどの方法も考えら
れるが、別の方法として動画像をユーザーインタフェー
スに取り入れるといった事が考えられる。すなわち例え
ばテレショッピングの例で言えば、町のショッピングセ
ンターのような画像が提供されてそのなかを探索するこ
とによって買い物を行う事ができるようなイメージであ
るが、この場合のショッピングセンターはまさに仮想的
な空間である。但し上述した一般的な仮想現実感で行わ
れている実例と異なり、実現手段はCATVであるから
表示手段はふつうのTVモニターであり、入力手段もで
きればリモコン程度の軽量で安価なものである事が望ま
しい。また逆に、必要以上のリアリティよりはコストパ
フォーマンスが要求される。
On the other hand, computers are becoming more and more popular due to the decrease in the price of personal computers, and it is expected that they will become more and more familiar in the future due to the widespread use of broadband networks such as optical fibers. It will be much easier to understand. For example, as an example of future realization, a realization form of using a personal computer to realize tele-shopping using the CATV network can be considered. In this case, it is possible to arrange a menu as a simple and easy-to-understand user interface, but another method is to incorporate a moving image into the user interface. That is, for example, in the case of tele-shopping, an image of a shopping center in a town is provided, and it is possible to shop by searching for an image, but the shopping center in this case is a virtual one. Space. However, unlike the above-mentioned actual example performed by the virtual reality, the realization means is CATV, so the display means is a normal TV monitor, and if the input means is possible, it is lightweight and inexpensive like a remote controller. Is desirable. On the contrary, cost performance is required rather than unnecessarily high reality.

【0005】[0005]

【発明が解決しようとする課題】上述したテレショッピ
ングに代表されるような普及型の仮想空間の利用を考慮
して従来技術を見てみる。上述したように従来の仮想現
実感における典型的な入力手段はデータグローブであ
る。通常これとヘッドマウントディスプレイの組み合わ
せにより仮想空間の操作が実現される。例えば仮想空間
にある物体を手でつかむ場合、仮想物体と手の位置関係
は仮想的なものであり知覚できないので、一つの実例と
しては仮想空間内に仮想的な手の画像を合わせて表示す
るという事が行われる。
The prior art will be considered in consideration of the use of a popular virtual space represented by the above-mentioned teleshopping. As described above, the typical input means in the conventional virtual reality is the data globe. Usually, a combination of this and a head-mounted display realizes operation in a virtual space. For example, when grasping an object in a virtual space with a hand, the positional relationship between the virtual object and the hand is virtual and cannot be perceived, so as an example, an image of a virtual hand is displayed together in the virtual space. That is done.

【0006】また別の例では、液晶シャッターのついた
眼鏡を使った立体画像と組み合わせ、仮想的な3次元位
置と実空間にある手の位置の一致によりものがつかめる
状態をシミュレートする。しかしこの場合でも仮想物体
は実在しないため手で持った感じが得られず、つかめた
かどうかの確認が難しい。動くかどうかで始めてつかめ
たかどうかが確認できるので、操作に誤りが生じる可能
性がある。これを改善するために手でつかんだときの反
力を再現するための力フィードバック装置を使用する例
もあるが装置が複雑になるという問題点がある。
In another example, a state in which the object can be grasped by simulating a virtual three-dimensional position and the position of the hand in the real space is simulated by combining with a stereoscopic image using glasses having a liquid crystal shutter. However, even in this case, since the virtual object does not actually exist, it is not possible to obtain the feeling of holding it by hand, and it is difficult to confirm whether or not the virtual object is grabbed. It is possible to confirm whether or not you have grasped it for the first time by moving it, so there is a possibility that the operation will be incorrect. In order to improve this, there is an example of using a force feedback device for reproducing a reaction force when grasped by hand, but there is a problem that the device becomes complicated.

【0007】本発明の仮想空間内のデータ操作装置はこ
のような課題に着目してなされたものであり、その目的
とするところは、仮想空間内の物体と実空間内の操作手
段とを対応付けて実空間内の操作手段をあたかも仮想空
間内の物体であるかのように操作するとともに、上記対
応付けを任意に切り換えることによって、仮想空間内の
物体をより自然にかつより簡単に操作できる仮想空間内
のデータ操作装置を提供することにある。
The data manipulating device in the virtual space of the present invention has been made in view of such a problem, and its object is to associate an object in the virtual space with an operating means in the real space. In addition to operating the operation means in the real space as if it were an object in the virtual space, and by arbitrarily switching the above correspondence, the object in the virtual space can be operated more naturally and easily. It is to provide a data operation device in a virtual space.

【0008】[0008]

【課題を解決するための手段】上記の目的を達成するた
めに、本発明の仮想空間内のデータ操作装置は、位置と
向きを操作可能な操作手段と、この操作手段の位置と向
きを検出する検出手段と、仮想的な空間を構成する構成
要素のデータを蓄積する蓄積手段と、この蓄積手段に蓄
積されたデータに基づいて上記仮想的な空間を表示する
表示装置と、上記操作手段の操作に応じて、上記操作手
段と、上記表示装置上に表示された仮想的な空間の一構
成要素との対応付けを行なうとともに、この対応付けを
前記仮想的な空間の他の構成要素に切り換える対応付け
手段と、上記対応付けられた仮想的な空間の構成要素の
相対位置と向きとを、上記検出手段の検出結果に基づい
て制御する制御手段とを具備する。
In order to achieve the above-mentioned object, a data operating device in a virtual space of the present invention detects an operating means capable of operating a position and an orientation and a position and an orientation of this operating means. Detecting means, storage means for storing the data of the constituent elements that make up the virtual space, a display device for displaying the virtual space based on the data stored in the storage means, and the operating means. In accordance with an operation, the operation means is associated with one component of the virtual space displayed on the display device, and this association is switched to another component of the virtual space. It is provided with associating means and control means for controlling the relative positions and orientations of the associated components of the virtual space based on the detection result of the detecting means.

【0009】[0009]

【作用】すなわち、本発明の仮想空間内のデータ操作装
置は、操作手段の位置と向きを検出手段によって検出す
るとともに、蓄積手段によって仮想的な空間を構成する
構成要素のデータを蓄積し、蓄積されたデータに基づい
て上記仮想的な空間を表示装置上に表示する。次に、上
記操作手段の操作に応じて、上記操作手段と、上記表示
装置上に表示された仮想的な空間の一構成要素との対応
付けを行なうとともに、この対応付けを前記仮想的な空
間の他の構成要素に切り換える。そして、上記対応付け
られた仮想的な空間の構成要素の相対位置と向きとを、
上記検出手段の検出結果に基づいて制御するようにす
る。
That is, the data operating device in the virtual space of the present invention detects the position and orientation of the operating means by the detecting means, and accumulates the data of the constituent elements forming the virtual space by the accumulating means, and accumulates the data. The virtual space is displayed on the display device based on the generated data. Next, according to the operation of the operating means, the operating means and one component of the virtual space displayed on the display device are associated with each other, and this association is performed on the virtual space. Switch to other components of. Then, the relative position and orientation of the components of the virtual space associated with the above,
The control is performed based on the detection result of the detection means.

【0010】[0010]

【実施例】まず、本発明の実施例の概略を説明する。本
実施例における操作手段と、従来の技術で用いられるデ
ータグローブとの一つの違いは、データグローブが手を
仮想的に実現するものであるのに対して、本実施例にお
ける操作手段が仮想物体を仮想的に実現するものである
点にある。すなわち、実際に操作手段を仮想空間内の物
体であるとみなして操作する事により仮想空間内の物体
に対する働きかけを行うものであるため、操作の対象が
現実に存在し操作対象からの反作用が存在する事によっ
てより自然な操作を行う事ができるようになる。もちろ
んこの場合の反作用は操作手段そのものからくるものな
ので、これを得るためによけいな装置を用意する必要も
ない。また、操作手段は目前に存在するものであるか
ら、仮想空間に手の画像を表示するなどして仮想空間の
物体と手の位置関係を表示するなどする必要がなく、こ
の点でも自然である。
Embodiments First, the outline of embodiments of the present invention will be described. One difference between the operating means in the present embodiment and the data glove used in the conventional technique is that the data glove virtually realizes a hand, whereas the operating means in the present embodiment is a virtual object. It is a point that virtually realizes. That is, since the operation means actually acts as an object in the virtual space to operate the object in the virtual space, the operation target actually exists and there is a reaction from the operation target. By doing this, you will be able to perform more natural operations. Of course, since the reaction in this case comes from the operating means itself, it is not necessary to prepare a large device to obtain it. Further, since the operating means is present in front of the user, it is not necessary to display the positional relationship between the object and the hand in the virtual space by displaying the image of the hand in the virtual space, which is also natural. .

【0011】さらに仮想空間内の物体を投げる、転がす
など手から物体が離れるような働きかけをするときも実
空間に操作手段が存在する事によって自然な取扱いが可
能となる。加えて操作手段の操作は仮想空間内の物体が
仮に実空間にあったとしたときの操作と全く同じである
から、その操作は非常に簡単で違和感の無いものにでき
る。
Further, even when an object in the virtual space is thrown, rolled, or otherwise moved away from the hand, natural handling is possible because the operation means is present in the real space. In addition, since the operation of the operation means is exactly the same as the operation when the object in the virtual space is in the real space, the operation can be very simple and comfortable.

【0012】すなわち、図1において、利用者は表示部
160 で表示されている仮想空間としての3 次元空間の映
像を見ながら、操作手段150 を動かし映像の中から希望
の構成要素を指定する。映像中の構成要素にはそれぞ
れ、蓄積部100 に蓄積された形状や模様などを表すパラ
メータから成る3 次元データ101 があり、構成要素ごと
の3 次元データを組み合わせ、合成することによって3
次元空間の映像が得られる。対応付け部110 では、使用
者が操作手段150 を動かすことによって指定した3 次元
空間中の構成要素を操作手段150 自身と対応させる。こ
れによって利用者は操作手段150 と指定した構成要素が
一体化したものとして扱える。指定された構成要素の3
次元データは対応する構成要素データ102 として制御部
120 に送られ、その他の構成要素データ103 は合成部16
0 に送られる。制御部120 では、指定された構成要素の
3 次元空間の映像における相対位置と向きが、利用者の
操作手段150 自身の相対位置や向きと一致するように、
操作手段150 より得られた検出結果104 に基づき、対応
する構成要素データ102 を加工する。
That is, in FIG. 1, the user is
While observing the image of the three-dimensional space as the virtual space displayed by 160, the operation means 150 is moved and the desired constituent element is designated from the image. Each of the constituent elements in the video has 3D data 101 consisting of parameters representing the shape and pattern accumulated in the accumulating section 100. By combining and combining 3D data for each constituent element,
An image of the dimensional space can be obtained. The associating unit 110 associates the constituent elements in the three-dimensional space designated by the user by operating the operating means 150 with the operating means 150 itself. As a result, the user can handle the operation means 150 and the designated component as one. 3 of the specified components
The dimension data is the control unit as the corresponding component data 102.
The other component data 103 is sent to the synthesis unit 16
Sent to 0. In the control unit 120, the specified component
Make sure that the relative position and orientation in the image in the three-dimensional space match the relative position and orientation of the user's operation means 150 itself.
Based on the detection result 104 obtained by the operating means 150, the corresponding component data 102 is processed.

【0013】より具体的に述べると操作手段150 を移
動、回転させると、その座標や向きが検出結果として得
られ、これに応じて、指定された構成要素が3 次元空間
の映像中で移動、回転するように構成要素データ102 を
加工する。加工済みデータ105は合成部130 に入力さ
れ、その他の構成要素データ103 と合成され、合成デー
タ106 として出力され、表示部160 で3 次元空間の映像
として利用者に提供される。
More specifically, when the operating means 150 is moved and rotated, its coordinates and orientation are obtained as a detection result, and the designated component is moved accordingly in the image in the three-dimensional space. The component data 102 is processed so as to rotate. The processed data 105 is input to the combining unit 130, combined with the other component element data 103, output as combined data 106, and provided to the user as a three-dimensional space image on the display unit 160.

【0014】以下に、本発明の実施例を説明する。図1
は本発明に係る一実施例の構成を示すブロック図であ
る。図で利用者は表示部160 で表示されている3次元空
間の映像108 を見ながら、操作手段150 を操作し、映像
の中に示された仮想空間データに対して働きかけを行な
う。同図で、操作手段150 、検出手段140 によって位
置、方向が検出される動作原理については後述する実施
例で説明するのでここでの説明は省略するが、操作手段
150 には例えば指示用のボタンが装着されていて、その
信号が対応付け部110 に入力されることを想定してい
る。
Examples of the present invention will be described below. FIG.
FIG. 3 is a block diagram showing the configuration of an embodiment according to the present invention. In the figure, the user operates the operation means 150 while watching the image 108 in the three-dimensional space displayed on the display unit 160, and acts on the virtual space data shown in the image. In the figure, the operating principle by which the position and direction are detected by the operating means 150 and the detecting means 140 will be explained in an embodiment to be described later, so that the explanation is omitted here, but the operating means
It is assumed that, for example, a button for instruction is attached to 150 and the signal thereof is input to the associating unit 110.

【0015】また、検出手段140 から制御部120 に送ら
れるデータ104 は、3次元空間に対応した位置及び回転
角を規定するのに必要なパラメータであり、例えば、3
次元空間における3点の位置座標もしくは1点の位置座
標とその点を通る3軸の周りの回転角等である。3次元
データ蓄積部100には、映像中の構成要素に対応する
形状や模様などを表すパラメータからなる3次元データ
101 が蓄積されている。具体的には形状パラメータとし
ては曲面を構成する関数や曲面を3角形のパッチの集合
で近似したワイヤフレームモデルを構成するための各パ
ッチ頂点の座標などであり、模様のパラメータとしては
テクスチャマッピングのための模様のデータやそれを生
成するための関数あるいは色、輝度のデータ等である。
3次元仮想空間画像は各要素のモデルに位置計算、変
形、移動の計算、輝度計算を行った後、合成することに
より作成される。
Further, the data 104 sent from the detecting means 140 to the control unit 120 is a parameter necessary for defining the position and the rotation angle corresponding to the three-dimensional space, for example, 3
It is the position coordinates of three points in the dimensional space or the position coordinates of one point and the rotation angle around three axes passing through the points. The three-dimensional data storage unit 100 stores three-dimensional data including parameters representing shapes, patterns, etc. corresponding to the constituent elements in the video.
101 have been accumulated. Specifically, the shape parameters are functions that form a curved surface and the coordinates of each patch vertex that forms a wireframe model that approximates the curved surface with a set of triangular patches, and the pattern parameters are texture mapping parameters. Pattern data, a function for generating the pattern, color or brightness data, and the like.
The three-dimensional virtual space image is created by performing position calculation, deformation, movement calculation, and brightness calculation on the model of each element, and then combining them.

【0016】仮想空間内ではユーザーのボタン操作によ
りユーザーと仮想空間全体との相対位置を変化させるこ
とができる。これはユーザーから見ると仮想空間内の移
動という感覚に対応する。移動とは別にユーザーは操作
手段を動かすことにより、対応する画面内のカーソル
(属性として位置と方向を持つ)を操作することができ
る。カーソルも仮想空間内の座標位置を占めており、検
出手段140 からの検出結果データ104 は対応付け部110
にも送られ、カーソルと仮想空間内の構成要素との位置
関係は常に判定されている。ここで、カーソルとある構
成要素が接触した状態で、操作手段150 からのボタン操
作による制御情報109 の入力があったとき、対応付け部
110 はユーザーがその構成要素を指定したと解釈し、以
降、操作手段の動きを指定された構成要素の動きでシミ
ュレートするように動作する。
In the virtual space, the relative position between the user and the entire virtual space can be changed by the button operation of the user. This corresponds to the user's sense of movement in the virtual space. In addition to the movement, the user can operate the cursor (having the position and direction as an attribute) on the corresponding screen by moving the operation means. The cursor also occupies the coordinate position in the virtual space, and the detection result data 104 from the detecting means 140 is stored in the associating unit 110.
The positional relationship between the cursor and the constituent elements in the virtual space is always determined. Here, when the control information 109 is input by a button operation from the operation means 150 while the cursor is in contact with a certain component, the associating unit
110 interprets that the user has designated the component, and thereafter operates to simulate the movement of the operating means by the movement of the designated component.

【0017】すなわち、まず、指定された構成要素の3
次元データは、対応する構成要素データ102 として制御
部120 に送られ、その他の構成要素データ103 は合成部
130に送られる。制御部120 では、適用な縮小比率をか
けることによって、指定された構成要素の3次元空間の
映像における相対位置と向きが、利用者の操作手段150
自身の相対位置や向きと一致するように、前述した画像
形成時の計算において操作手段150 より得られた検出結
果104 を利用することにより、対応する構成要素の画像
データ105 を作成する。合成部130 では、まずその他の
構成要素データ103 よりその他の構成要素に対応する画
像が生成される。この計算は静止画像の作成のみであ
り、それほどの計算量は必要とされない。次に、指定さ
れた構成要素の画像データ105 をその他の構成要素デー
タ103 と合成し、合成画像データ106 として出力する。
この画像が表示部160 で3次元空間の映像108 として利
用者に提供される。
That is, first, 3 of the designated components
The dimensional data is sent to the control unit 120 as the corresponding component data 102, and the other component data 103 are combined.
Sent to 130. In the control unit 120, the relative position and orientation in the image of the three-dimensional space of the designated component is adjusted by applying an appropriate reduction ratio so that the user's operating unit 150
The image data 105 of the corresponding component is created by using the detection result 104 obtained by the operation unit 150 in the above-described calculation at the time of image formation so as to match the relative position and orientation of itself. In the synthesizing unit 130, first, an image corresponding to another component is generated from the other component data 103. This calculation only creates a still image, and does not require a large amount of calculation. Next, the image data 105 of the designated component is combined with the other component data 103 and output as composite image data 106.
This image is provided to the user on the display unit 160 as the image 108 in the three-dimensional space.

【0018】構成要素の指定はこのモードにおいて操作
手段150 から対応付け部110 へのボタン操作による制御
信号の入力で解除される。通常の移動のモードにおいて
は、全ての構成要素のデータがデータ102 として制御部
120 に送られ、ここで前述した移動に伴う変形計算が行
われ、画像105 が作成される。この場合、この画像は合
成部130 を通過して表示部160 に出力される。
The designation of the constituent elements is canceled in this mode by inputting a control signal from the operating means 150 to the associating section 110 by a button operation. In the normal movement mode, the data of all the constituent elements are stored as the data 102 in the control unit.
It is sent to 120, where the deformation calculation associated with the movement described above is performed, and the image 105 is created. In this case, this image passes through the combining unit 130 and is output to the display unit 160.

【0019】次に、具体的な使用例として、本発明を仮
想空間を用いたテレショッピングに応用した実施例につ
いて説明する。図1に対応した具体的な使用環境のイメ
ージを図2に示す。図で1001は操作手段と検出手段
を兼ねており、さらにTVのリモコンも兼ねている。1
002はTVのモニタであり表示装置として動作してい
る。1003はCATVのアダプタ(実態は計算機)で
あり、3次元データの作成管理、制御、指定領域との対
応付けなどを実行している。アダプタにはメモリ装置を
含みそこに3次元データ作成のための元データが格納さ
れている。データの一部やデータを制御するための情報
の一部は回線を通してCATVセンターからくるように
しても良い。リモコン1001とアダプタ1003は例
えば赤外線によって検出結果のパラメータなど必要なデ
ータ交換を行い、TVモニタ1002にも必要に応じて
データを転送する。
Next, an example in which the present invention is applied to teleshopping using a virtual space will be described as a specific use example. FIG. 2 shows an image of a specific usage environment corresponding to FIG. In the figure, 1001 serves both as an operating unit and a detecting unit, and also serves as a remote controller for the TV. 1
002 is a TV monitor, which operates as a display device. Reference numeral 1003 denotes a CATV adapter (actually a computer) which executes creation and management of three-dimensional data, control, association with a designated area, and the like. The adapter includes a memory device in which original data for creating three-dimensional data is stored. Part of the data or part of the information for controlling the data may come from the CATV center through a line. The remote controller 1001 and the adapter 1003 exchange necessary data such as detection result parameters by infrared rays, and transfer the data to the TV monitor 1002 as necessary.

【0020】次に具体的な動作例につき説明する。ここ
で想定しているのは前述したように仮想的なショッピン
グセンターのなかを探索することによって買い物を行う
事ができるようなイメージである。このために必要な動
作としては以下のようなものがあげられる。 (1)移動する (2)もの(あるいは場所)を探す (3)ものを指す (4)ものを手にとってみる=掴む+動かす+離す (5)店員を呼ぶ これらの動作がどのように実現されるかの一例を示す。
図3はスタートしてからの状態遷移図である。スタート
後、まず2つのモードのいずれかを選択する。1つはセ
ンター全体の見取り図から徐々に狭い範囲に限定して所
望の店を特定するためのアクセスモードである。もう1
つはセンターの入り口から順次移動しながら買いたいも
のを探すショッピングモードである。アクセスモードで
は見取り図は例えばセンター=フロア=店=売り場とい
う具合に階層的に構成されており、カーソルの移動とス
イッチにより場所を指定しながら順次(あるいは途中を
スキップして)下位階層に進み、最終的に所望の売り場
まで到達する事ができる(図4)。見取り図を用いた検
索を行う事で、買いたいものがはっきりしている場合に
は検索にかかる時間を大幅に短縮する事ができるという
効果がある。
Next, a specific operation example will be described. What is assumed here is the image that shopping can be performed by searching in a virtual shopping center as described above. The operations required for this are as follows. (1) Move (2) Search for an object (or place) (3) Point to an object (4) Look at an object = Grab + Move + Release (5) Call a clerk How these actions are realized Here is an example.
FIG. 3 is a state transition diagram after the start. After starting, first select one of the two modes. One is an access mode for specifying a desired store by gradually limiting it to a narrow range from a sketch of the center. Another one
One is a shopping mode in which you can move from the entrance of the center to find what you want to buy. In the access mode, the floor plan is hierarchically structured, for example, center = floor = store = sales floor, and while moving the cursor and specifying the location with the switch, the sequence proceeds (or skips halfway) to the lower layers, and finally You can reach the desired sales floor (Fig. 4). By performing a search using a floor plan, there is an effect that the time required for the search can be significantly shortened when the purchase is clear.

【0021】次にショッピングモードにおける動作を図
5を用いて説明する。ショッピングモードではまず仮想
空間内を移動して買いたいものを探す。移動は例えばリ
モコンの「アクセル」ボタンと「ブレーキ」ボタンを操
作する事で行う。進行方向はリモコンの向きで制御す
る。画面には方向を示すカーソルが仮想空間のデータと
多重して表示される(a)。商品を見つけたらカーソル
とその商品が接触した状態(仮想空間は3次元なのでカ
ーソルと仮想空間内の商品が接触した状態とそうでない
状態は区別される)にすると商品をつかむ事ができる状
態になる(b)。カーソルと商品が接触しているかどう
かを分かりやすくするために、接触するとカーソルの輝
度が上がるなど何らかの変化が画面上に現れるようにす
るとよい。
Next, the operation in the shopping mode will be described with reference to FIG. In shopping mode, first move in the virtual space to find the item you want to buy. The movement is performed, for example, by operating the “accelerator” button and the “brake” button on the remote controller. The direction of travel is controlled by the direction of the remote control. On the screen, a cursor indicating the direction is displayed so as to be multiplexed with the data in the virtual space (a). When you find a product, put it in a state where the cursor and the product are in contact (the virtual space is three-dimensional, so you can distinguish between the state where the cursor is in contact with the product in the virtual space and the state where it is not). (B). In order to make it easy to see whether or not the cursor is in contact with the product, it is advisable to make some changes such as the brightness of the cursor appear on the screen when touching.

【0022】この状態で「掴む」ボタンを押すと商品を
動かす事ができるモードになる。このモードでは商品の
動きはユーザーがリモコンを動かしたのと全く同じ動き
となる点が本実施例の特徴である(c)。すなわちリモ
コンをあたかもその商品であるかのように動かす事によ
って画面にはその商品と同じ動きが再現される。ユーザ
ーはこのことによって360度好きな角度からその商品
を見て判断を下す事ができる。この状態から「離す」の
ボタンを押すと動かすモードが解除されさらに接触した
状態を解除すると元の移動のモードになる。ここでボタ
ン操作は各モードに固有であり機能的に重複しないの
で、モードごとに共用すればボタンの数は必要最低限の
数に抑える事ができる。アクセスモードとショッピング
モードとの間の遷移は任意のタイミングで任意の階層か
ら行う事ができる。
When the "grab" button is pressed in this state, the product can be moved. The feature of this embodiment is that in this mode, the movement of the product is exactly the same as the movement of the remote controller by the user (c). That is, by moving the remote control as if it were the product, the same movement as the product is reproduced on the screen. This allows the user to see the product from any angle of 360 degrees and make a decision. When the "release" button is pressed from this state, the moving mode is released, and when the contact state is released, the original movement mode is restored. Here, since the button operation is unique to each mode and does not duplicate in functionality, the number of buttons can be suppressed to the minimum necessary number by sharing each mode. The transition between the access mode and the shopping mode can be performed from any hierarchy at any timing.

【0023】以上により上述した必要動作のうち(1)
から(4)までがサポートされる。図1との対応で言う
と、カーソルと商品の接触を計算して判定しボタン操作
により商品の指定及びその解除を行う部分が図1の対応
付け部110に対応する事になる。
From the above, among the necessary operations described above (1)
To (4) are supported. With respect to the correspondence with FIG. 1, the part that calculates and determines the contact between the cursor and the product and specifies and releases the product by button operation corresponds to the association unit 110 in FIG. 1.

【0024】次に(5)の機能について説明する。
(5)の機能としては例えば仮想空間に店員を配置して
店員のデータへのアクセスは商品とは違った意味をもた
せる事で対応する。図6にその様子を示す。この例で
は、カーソルと店員が接触した状態(a)になると、商
品の説明を求めるモードになる。このモードで再度商品
に接触させ(b)ボタンを押すと、その商品の説明のビ
デオ画面に切り替わり(c)、終了すると自動的に元の
移動するモードに戻る。商品の説明モードにおいてまた
別のボタンを押すと自動的にTV電話を発呼して実際の
商品発送センターにつなぐ(d)ようにすれば、必要に
応じてより詳しい商品説明やアドバイスを得る事ができ
有益である。このような事はCATVの回線にTV電話
用の上り回線が設定されていれば可能である。
Next, the function (5) will be described.
As the function of (5), for example, a store clerk is arranged in a virtual space, and access to the data of the store clerk has a meaning different from that of the product. This is shown in FIG. In this example, when the cursor is in contact with the store clerk (a), a mode for requesting a product description is entered. When the item is brought into contact with again in this mode and the (b) button is pressed, the video screen for explaining the item is switched (c), and when it is finished, the original moving mode is automatically restored. If you press another button in the product description mode to automatically call a TV phone and connect to the actual product shipping center (d), you can get more detailed product description and advice as needed. Can be beneficial. Such a thing is possible if an upstream line for a TV phone is set for the CATV line.

【0025】図7はこの動作を可能とするための装置の
ブロック図である。図7で図1の実施例と対応するブロ
ックの動作は図1の場合と同様である。但し対応付け部
1110は3次元データのうち店員のデータに関連する
操作のみを特殊に扱う。図3で示されたTV電話115
0の自動発呼に対応するフローを通る場合、すなわち店
員とカーソルとの接触が検出された後ボタン操作による
制御信号が来た場合、対応付け部1110は切り替え回
路1140及びTV電話1150に制御信号を送る。切
り替え回路1140は通常表示部1130に制御部11
20で作成された仮想空間の画像(及び音声)を出力し
ているが制御信号によりTV電話1150からの画像及
び音声1107に切り替える。TV電話1150は制御
信号により自動的にあらかじめ決められた番号に対して
発呼する。TV電話1150の通話が終わったら通話終
了を知らせる制御信号1108により切り替え回路11
40は再び制御部1120で作成された仮想空間の画像
(及び音声)側に切り換えられる。
FIG. 7 is a block diagram of an apparatus for enabling this operation. In FIG. 7, the operation of the block corresponding to the embodiment of FIG. 1 is the same as that of FIG. However, the associating unit 1110 specially handles only the operation related to the data of the clerk among the three-dimensional data. The video phone 115 shown in FIG.
When the flow corresponding to the automatic call of 0 is passed, that is, when the control signal by the button operation comes after the contact between the clerk and the cursor is detected, the associating unit 1110 sends the control signal to the switching circuit 1140 and the videophone 1150. To send. The switching circuit 1140 has a normal display unit 1130 and a control unit 11.
Although the image (and sound) of the virtual space created in 20 is output, the image and sound 1107 from the TV phone 1150 are switched by the control signal. The videophone 1150 automatically calls a predetermined number by a control signal. When the videophone 1150 call is completed, the switching circuit 11 is activated by the control signal 1108 which notifies the end of the call.
40 is again switched to the image (and audio) side of the virtual space created by the control unit 1120.

【0026】次に、3次元的な位置と向きを操作する事
ができる操作手段と、操作手段の位置と向きを検出する
検出手段との具体的な例として、超音波を利用した実施
例を2つ示す。
Next, as a concrete example of the operating means capable of operating the three-dimensional position and orientation and the detecting means for detecting the position and orientation of the operating means, an embodiment utilizing ultrasonic waves is described. Two are shown.

【0027】まず、超音波を利用した第1の構成例につ
いて説明する。図8に示す操作手段は、超音波パルス発
生装置2001と超音波出力装置2002および200
3より構成される。超音波パルス発生装置2001は、
異なる周波数 f および f'(f<f') のパルス信号を一
定の間隔 T をおいて断続的に出力する。超音波出力装
置2002は周波数 f のパルス信号を超音波として出
力する。同様に超音波出力装置2003は周波数 f' の
パルス信号を超音波として出力する。次に、図9に示す
検出手段は、超音波検出装置2004・2005・20
06、低域通過フィルタ(LPF)2007・2009
・2011、高域通過フィルタ(HPF)2008・2
010・2012、時刻検出装置2013、位置演算装
置2014より構成される。超音波検出装置2004・
2005・2006は、超音波を電気信号に変換する。
低域通過フィルタ2007・2009・2011は、カ
ットオフ周波数 fc (f<fc<f') の低域通過フィルタであ
り、入力信号の中から周波数 fの信号のみを取り出す。
高域通過フィルタ2008・2010・2012は、カ
ットオフ周波数 fc の高域通過フィルタであり、入力信
号の中から周波数 f' の信号のみを取り出す。時刻検出
装置2013は、超音波検出装置2004で周波数 f
および f' の超音波パルスが検出された時刻 t1 および
t1'と超音波検出装置2005で周波数 f および f'
の超音波パルスが検出された時刻 t2 および t2' と超
音波検出装置2006で周波数 f および f' の超音波
パルスが検出された時刻 t3 および t3' とを検出す
る。位置演算装置2014は、周波数 f および f' の
超音波パルスが出力された3次元空間内の位置P(x,y,z)
および P'(x',y',z') を計算する。
First, a first structural example using ultrasonic waves will be described. The operating means shown in FIG. 8 includes an ultrasonic pulse generator 2001 and ultrasonic output devices 2002 and 200.
It consists of 3. The ultrasonic pulse generator 2001 is
The pulse signals of different frequencies f and f '(f <f') are output intermittently at regular intervals T. The ultrasonic wave output device 2002 outputs a pulse signal of frequency f as an ultrasonic wave. Similarly, the ultrasonic wave output device 2003 outputs a pulse signal of frequency f ′ as an ultrasonic wave. Next, the detecting means shown in FIG. 9 is the ultrasonic detecting device 2004, 2005, 20.
06, low-pass filter (LPF) 2007/2009
・ 2011, High-pass filter (HPF) 2008 ・ 2
010/2012, a time detection device 2013, and a position calculation device 2014. Ultrasonic detector 2004
2005 and 2006 convert ultrasonic waves into electric signals.
The low-pass filters 2007, 2009, and 2011 are low-pass filters with a cutoff frequency fc (f <fc <f '), and extract only the signal of frequency f from the input signal.
The high-pass filters 2008, 2010, 2012 are high-pass filters with a cutoff frequency fc, and extract only the signal of frequency f'from the input signal. The time detection device 2013 uses the ultrasonic detection device 2004 for frequency f.
And the time t1 when the ultrasonic pulse of f'is detected and
t1 'and the frequencies f and f'at the ultrasonic detector 2005
The time t2 and t2 'at which the ultrasonic pulse is detected and the times t3 and t3' at which the ultrasonic detecting device 2006 detects the ultrasonic pulse of the frequencies f and f'are detected. The position calculation device 2014 is a position P (x, y, z) in the three-dimensional space where the ultrasonic pulses of frequencies f and f'are output.
And compute P '(x', y ', z').

【0028】ここで、図8に示されているように超音波
出力装置2002および2003は、操作手段の両端に
取り付けられており、それらの間の距離を l であると
する。また、図9に示す超音波検出装置2004・20
05・2006の3次元空間内の座標をそれぞれ A1(x
1,y1,z1), A2(x2,y2,z2), A3(x3,y3,z3) とし、これら
は一直線上にはないものとする。このとき、超音波出力
装置2002および2003の3次元空間内の座標P(x,
y,z), P'(x',y',z') と超音波出力装置2002および
2003から超音波パルスが出力された時刻 t の間に
は次の関係が成り立つ。
Here, as shown in FIG. 8, the ultrasonic output devices 2002 and 2003 are attached to both ends of the operating means, and the distance between them is l. In addition, the ultrasonic detection devices 2004 and 20 shown in FIG.
The coordinates in the three-dimensional space of 05 ・ 2006 are A1 (x
1, y1, z1), A2 (x2, y2, z2), A3 (x3, y3, z3), which are not on a straight line. At this time, the coordinates P (x, in the three-dimensional space of the ultrasonic output devices 2002 and 2003, P (x,
The following relationship is established between y, z), P '(x', y ', z') and the time t when the ultrasonic pulse is output from the ultrasonic output devices 2002 and 2003.

【0029】[0029]

【数1】 ただし v は超音波の速度である。位置演算装置201
4で、これらの式を連立方程式として解くことによっ
て、操作手段の上端および下端の3次元空間内の座標が
得られる。ここで、点 P(x,y,z) , P'(x',y',z') がこ
の方程式の解であるとするならば、点 A1(x1,y1,z1), A
2(x2,y2,z2), A3(x3,y3,z3) が張る平面に対して点 P
(x,y,z), P'(x',y',z') と対称な位置にある点もまた明
らかにこの方程式の解である。しかしながら、例えば超
音波検出装置2004・2005・2006を図10の
ように地面に接するように配置するならば、点 A1(x1,y
1,0),A2(x2,y2,0),A3(x3,y3,0) が張る平面は地面と等
しくなり、点 P(x,y,z), P'(x',y',z') の存在する範囲
は z>0,z'>0 となるため解は一意に決定される。上で述
べた操作手段と検出手段の時間的な解像度は、超音波パ
ルス発生装置2001から出力されるパルス信号の間隔
T によって決定される。正しく位置と姿勢が検出され
るためには時刻 t のパルスと時刻 t+T のパルスが区
別されなければならない。そのためには T は次式を満
たせばよい。
[Equation 1] Where v is the ultrasonic velocity. Position calculation device 201
By solving these equations as simultaneous equations in 4, the coordinates of the upper and lower ends of the operating means in the three-dimensional space can be obtained. If the point P (x, y, z), P '(x', y ', z') is the solution of this equation, the point A1 (x1, y1, z1), A
2 (x2, y2, z2), A3 (x3, y3, z3) points P to the plane
The points symmetric to (x, y, z) and P '(x', y ', z') are also clearly solutions of this equation. However, if the ultrasonic detecting devices 2004, 2005, 2006 are arranged so as to contact the ground as shown in FIG. 10, the point A1 (x1, y
The plane defined by (1,0), A2 (x2, y2,0), A3 (x3, y3,0) is equal to the ground, and the points P (x, y, z), P '(x', y ', The range in which z ') exists is z> 0, z'> 0, so the solution is uniquely determined. The temporal resolution of the operating means and the detecting means described above is determined by the interval between the pulse signals output from the ultrasonic pulse generator 2001.
Determined by T The pulse at time t and the pulse at time t + T must be distinguished in order to detect the position and orientation correctly. To do so, T should satisfy the following equation.

【0030】[0030]

【数2】 例えば超音波検出装置2004・2005・2006の
間隔を3m以下とするならば上式の左辺はたかだか0.01秒
以下となり T は0.03秒程度とすれば十分である。よっ
てこの場合、毎秒30回程度の位置と姿勢の検出が可能で
ある。また、気温の変化による音速 v の変動などによ
って、実際の位置と検出された位置との間に誤差が生ず
る場合が考えられる。しかしながらその場合でも、実際
の操作手段の運動(移動および回転)と検出された操作
手段の運動の対応関係が正しく保たれるため実用上は問
題がない。
[Equation 2] For example, if the distance between the ultrasonic detecting devices 2004, 2005 and 2006 is set to 3 m or less, the left side of the above formula is at most 0.01 seconds and T is about 0.03 seconds. Therefore, in this case, the position and orientation can be detected about 30 times per second. In addition, it is possible that an error may occur between the actual position and the detected position due to fluctuations in the sound velocity v due to changes in temperature. However, even in that case, there is no problem in practical use because the correspondence between the actual movement (movement and rotation) of the operating means and the detected movement of the operating means is maintained correctly.

【0031】以上のように、操作手段の上端および下端
の3次元的な位置を検出することができるため、予め操
作手段の上端および下端と仮想空間内の物体上の2点と
の対応を指定しておくことにより、仮想空間内の物体の
位置と姿勢を希望通りに制御することが可能である。
As described above, since the three-dimensional positions of the upper and lower ends of the operating means can be detected, the correspondence between the upper and lower ends of the operating means and two points on the object in the virtual space is designated in advance. By doing so, the position and orientation of the object in the virtual space can be controlled as desired.

【0032】次に、超音波を利用した第2の構成例につ
いて説明する。図11に示す操作手段は、超音波パルス
発生装置2015と超音波出力装置2016・2017
・2018より構成される。超音波パルス発生装置20
15は、異なる周波数 f, f', f'' (f<f'<f'') のパル
ス信号を一定の間隔 T をおいて断続的に出力する。超
音波出力装置2016は周波数 f のパルス信号を超音
波として出力する。同様に超音波出力装置2017およ
び2018はそれぞれ周波数f' および f''のパルス信
号を超音波として出力する。次に、図12に示す検出手
段は、超音波検出装置2019・2020・2021、
低域通過フィルタ2022・2025・2028、帯域
通過フィルタ2023・2026・2029、高域通過
フィルタ2024・2027・2030、時刻検出装置
2031、位置演算装置2032より構成される。
Next, a second structural example using ultrasonic waves will be described. The operating means shown in FIG. 11 includes an ultrasonic pulse generator 2015 and ultrasonic output devices 2016 and 2017.
・ It is composed of 2018. Ultrasonic pulse generator 20
Reference numeral 15 intermittently outputs pulse signals of different frequencies f, f ', f''(f<f'<f'') at regular intervals T. The ultrasonic wave output device 2016 outputs a pulse signal of frequency f as an ultrasonic wave. Similarly, the ultrasonic wave output devices 2017 and 2018 output pulse signals of frequencies f ′ and f ″ as ultrasonic waves, respectively. Next, the detecting means shown in FIG. 12 is the ultrasonic detecting device 2019.2020.2021,
It is composed of low pass filters 2022, 2025, 2028, band pass filters 2023, 2026, 2029, high pass filters 2024, 2027, 2030, a time detection device 2031 and a position calculation device 2032.

【0033】超音波検出装置2019・2020・20
21は、超音波を電気信号に変換する。低域通過フィル
タ2022・2025・2028、は、カットオフ周波
数fc1 (f<fc1<f') の低域通過フィルタであり、入力信
号の中から周波数 f の信号のみを取り出す。帯域通過
フィルタ2023・2026・2029は、カットオフ
周波数 fc1 および fc2 (f'<fc2<f'') の帯域通過フィ
ルタであり、入力信号の中から周波数 f' の信号のみを
取り出す。高域通過フィルタ2024・2027・20
30は、カットオフ周波数 fc2 の高域通過フィルタで
あり、入力信号の中から周波数 f'' の信号のみを取り
出す。時刻検出装置2031は、超音波検出装置201
9で周波数 f, f', f'' の超音波パルスが検出された時
刻 t1,t1', t1'' と超音波検出装置2020で周波数
f, f',f''の超音波パルスが検出された時刻 t2, t2', t
2'' と超音波検出装置2021で周波数 f, f', f''の
超音波パルスが検出された時刻 t3, t3', t3'' とを検
出する。位置演算装置2032は、周波数 f, f', f''
の超音波パルスが出力された3次元空間内の位置 P(x,
y,z), P'(x',y',z'), P''(x'',y'',z'') を計算する。
Ultrasonic detector 2019/2020/20
Reference numeral 21 converts ultrasonic waves into electric signals. The low-pass filters 2022, 2025, 2028 are low-pass filters with a cutoff frequency fc1 (f <fc1 <f '), and extract only the signal of frequency f from the input signal. The bandpass filters 2023, 2026, 2029 are bandpass filters having cutoff frequencies fc1 and fc2 (f '<fc2 <f''), and extract only the signal having the frequency f'from the input signals. High pass filter 2024/2027/20
Reference numeral 30 denotes a high-pass filter having a cutoff frequency fc2, which extracts only the signal having the frequency f ″ from the input signals. The time detection device 2031 is the ultrasonic detection device 201.
The time t1, t1 ', t1''when the ultrasonic pulse of frequency f, f', f '' was detected at 9 and the frequency at the ultrasonic detector 2020
Time t2, t2 ', t when the ultrasonic pulse of f, f', f '' is detected
2 '' and the times t3, t3 ', t3''at which ultrasonic pulses of frequencies f, f', f '' are detected by the ultrasonic detecting device 2021 are detected. The position calculation device 2032 has frequencies f, f ′, f ″.
Position in the three-dimensional space P (x,
y, z), P '(x', y ', z'), P '' (x '', y '', z '') are calculated.

【0034】ここで、図13に示されているように超音
波出力装置2016・2017・2018は、操作手段
上の一直線上にない3点 P, P', P'' に取り付けられて
おり、 PP' 間の距離を l1 、 PP'' 間の距離を l2 で
あるとする。また、超音波検出装置2019・2020
・2021の3次元空間内の座標をそれぞれ A1(x1,y1,
z1), A2(x2,y2,z2), A3(x3,y3,z3) とし、これらは一直
線上にはないものとする。このとき、超音波出力装置2
016・2017・2018、3次元空間内の座標 P
(x,y,z) , P'(x',y',z') , P''(x'',y'',z'') と超
音波出力装置2016・2017・2018から超音波
パルスが出力された時刻 t の間には次の関係が成り立
つ。
Here, as shown in FIG. 13, the ultrasonic output devices 2016, 2017, 2018 are attached to three points P, P ', P''which are not on a straight line on the operating means, Let the distance between PP 'be l1 and the distance between PP''be l2. In addition, the ultrasonic detection devices 2019 and 2020
・ Set the coordinates of 2021 in the three-dimensional space to A1 (x1, y1,
z1), A2 (x2, y2, z2), A3 (x3, y3, z3), which are not on a straight line. At this time, the ultrasonic output device 2
016/2017/2018 Coordinate P in 3D space
(x, y, z), P '(x', y ', z'), P '' (x '', y '', z '') and ultrasonic wave from ultrasonic output device 2016/2017/2018 The following relation holds during the time t when the pulse is output.

【0035】[0035]

【数3】 ただし v は超音波の速度である。位置演算装置203
2で、式(10)から式(19)を連立方程式として解くことに
よって、操作手段上の3点の3次元空間内の座標が得ら
れる。ここで、点 P(x,y,z), P'(x',y',z'), P''(x'',y
'',z'') がこの方程式の解であるとするならば、点 A1
(x1,y1,z1), A2(x2,y2,z2), A3(x3,y3,z3) が張る平面
に対して点 P(x,y,z), P'(x',y',z'), P''(x'',y'',z'
') と対称な位置にある点もまた明らかにこの方程式の
解である。しかしながら、例えば超音波検出装置201
9・2020・2021を図13のように地面に接する
ように配置するならば、点 A1(x1,y1,0), A2(x2,y2,0),
A3(x3,y3,0) が張る平面は地面と等しくなり、点 P
(x,y,z), P'(x',y',z'), P''(x'',y'',z'') の存在する
範囲は z>0,z'>0,z''>0 となるため解は一意に決定され
る。
(Equation 3) Where v is the ultrasonic velocity. Position calculation device 203
In step 2, the equations (10) to (19) are solved as simultaneous equations to obtain the coordinates of the three points on the operating means in the three-dimensional space. Where the points P (x, y, z), P '(x', y ', z'), P '' (x '', y
'', z '') is the solution of this equation, the point A1
(x1, y1, z1), A2 (x2, y2, z2), A3 (x3, y3, z3) points P (x, y, z), P '(x', y ', z '), P''(x'',y'',z'
Points that are symmetric to ') are also clearly solutions of this equation. However, for example, the ultrasonic detection device 201
If 9,2020,2021 are arranged so as to contact the ground as shown in FIG. 13, points A1 (x1, y1,0), A2 (x2, y2,0),
The plane spanned by A3 (x3, y3,0) becomes equal to the ground, and the point P
The range of (x, y, z), P '(x', y ', z'), P '' (x '', y '', z '') is z> 0, z '> 0 , z ''> 0, so the solution is uniquely determined.

【0036】上で述べた操作手段と検出手段の時間的な
解像度は、超音波パルス発生装置2015から出力され
るパルス信号の間隔 T によって決定される。正しく位
置と姿勢が検出されるためには時刻 t のパルスと時刻
t+T のパルスが区別されなければならない。そのため
には T は次式を満たせばよい。
The temporal resolution of the operating means and the detecting means described above is determined by the interval T of the pulse signals output from the ultrasonic pulse generator 2015. In order to detect the position and orientation correctly, the pulse at time t and the time
The t + T pulses must be distinguished. To do so, T should satisfy the following equation.

【0037】[0037]

【数4】 例えば超音波検出装置2019・2020・2021の
間隔を3m以下とするならば上式の左辺はたかだか0.01秒
以下となり T は0.03秒程度とすれば十分である。よっ
てこの場合、毎秒30回程度の位置と姿勢の検出が可能で
ある。
[Equation 4] For example, if the distance between the ultrasonic detecting devices 2019, 2020 and 2021 is set to 3 m or less, the left side of the above equation is at most 0.01 seconds and T is about 0.03 seconds. Therefore, in this case, the position and orientation can be detected about 30 times per second.

【0038】また、気温の変化による音速 v の変動な
どによって、実際の位置と検出された位置との間に誤差
が生ずる場合が考えられる。しかしながらその場合で
も、実際の操作手段の運動(移動および回転)と検出さ
れた操作手段の運動の対応関係が正しく保たれるため実
用上は問題がない。あるいは、さらに高精度な位置およ
び姿勢の検出が必要である場合には、音速 v を未知数
とし式(1) から式(3) を連立方程式として解くことによ
り音速 v の変動の影響を取り除くことも可能である。
Further, it is conceivable that an error may occur between the actual position and the detected position due to fluctuations in the sound velocity v due to changes in temperature. However, even in that case, there is no problem in practical use because the correspondence between the actual movement (movement and rotation) of the operating means and the detected movement of the operating means is maintained correctly. Alternatively, if more accurate position and orientation detection is required, the effect of fluctuations in sound velocity v can be removed by solving sound velocity v as an unknown and solving equations (1) to (3) as simultaneous equations. It is possible.

【0039】以上のように、操作手段の3点の3次元的
な位置を検出することができるため、どのように操作手
段上の3点と仮想空間内の物体上の3点とを対応づけて
も、仮想空間内の物体の位置と姿勢を任意に制御するこ
とが可能である。
As described above, since the three-dimensional positions of the three points of the operating means can be detected, how the three points on the operating means are associated with the three points on the object in the virtual space. However, it is possible to arbitrarily control the position and orientation of the object in the virtual space.

【0040】次に、3次元的な位置と向きを操作する事
ができる操作手段と上記操作手段の位置と向きを検出す
る検出手段において、操作手段の内部に検出手段を持つ
ように構成した場合の実施例を示す。
Next, in the case where the operating means capable of operating the three-dimensional position and orientation and the detecting means for detecting the position and orientation of the operating means are configured to have the detecting means inside the operating means. An example of is shown.

【0041】図14は、本実施例の構成を示した図であ
る。操作手段3101は映像入力手段3102と相対位置・向き
検出手段3103と送受信手段3104とから構成されている。
映像入力手段3101によって入力された映像信号は、相対
位置・向き検出手段3102に入力される。相対位置・向き
検出手段3102では、入力された映像信号をもとに1 フレ
ーム前の映像信号との動きベクトルと回転角を検出し、
検出された相対位置・向き情報(ΔX,ΔY,ΔZ,ΔθX,Δ
θY,ΔθZ )は、送信手段3104に送られる。送信手段31
04は、操作手段の相対的な位置と向きを表す相対位置・
向き情報(ΔX,ΔY,ΔZ,ΔθX,ΔθY,ΔθZ )を仮想的
な空間の構成要素の位置と向きを制御する制御手段に送
信する。
FIG. 14 is a diagram showing the configuration of this embodiment. The operation means 3101 comprises a video input means 3102, a relative position / orientation detection means 3103, and a transmission / reception means 3104.
The video signal input by the video input means 3101 is input to the relative position / direction detection means 3102. The relative position / orientation detecting means 3102 detects a motion vector and a rotation angle with respect to the video signal one frame before based on the input video signal,
Detected relative position / direction information (ΔX, ΔY, ΔZ, ΔθX, Δ
θY, ΔθZ) is sent to the transmitting means 3104. Transmission means 31
04 indicates the relative position and the relative position of the operating means.
The orientation information (ΔX, ΔY, ΔZ, ΔθX, ΔθY, ΔθZ) is transmitted to the control means for controlling the positions and orientations of the constituent elements in the virtual space.

【0042】図15は、映像入力手段3102の構成図であ
る。映像入力手段3201は、ミラー3202と撮像回路3203と
A/D 変換回路3204から構成されている。
FIG. 15 is a block diagram of the image input means 3102. The image input means 3201 includes a mirror 3202 and an image pickup circuit 3203.
It is composed of an A / D conversion circuit 3204.

【0043】ミラーは、x,y,z 軸の3 方向の映像を取り
込めるように図16のように構成されており、図16の手前
に撮像回路3203を装着する。
The mirror is configured as shown in FIG. 16 so as to capture images in the three directions of the x, y and z axes, and the image pickup circuit 3203 is mounted in front of FIG.

【0044】図17は、相対位置・向き検出手段3103の構
成図である。相対位置・向き検出手段3401は、フレーム
メモリ3402とブロック化回路3403と動きベクトル検出回
路3404とフレームメモリ3405から構成されている。
FIG. 17 is a block diagram of the relative position / direction detecting means 3103. The relative position / direction detecting means 3401 is composed of a frame memory 3402, a blocking circuit 3403, a motion vector detecting circuit 3404 and a frame memory 3405.

【0045】映像入力手段より送られてきた映像入力信
号は、一度フレームメモリ3402に書き込まれる。ブロッ
ク化回路3403で図18で示すように各軸の映像フレームの
中心付近のm ×n 画素の映像信号をブロック化し、動き
ベクトル検出回路3404では、m ×n ブロックを以下の
(23)式によってアフィン変換したものと、フレーム
メモリ3405上の1 フレーム前の映像信号とのブロックマ
ッチングをとる。マッチングの時、該当する画素が存在
しない場合は、フレームメモリ3405上の1 フレーム前の
映像信号を以下の(24)式で示す共1 次内挿をおこな
い、画素値を生成する。マッチングの結果、ブロック内
の画素値の差分の絶対値和、あるいは画素の差分の2 乗
和が最も小さい動きベクトルと回転角(Δt1, Δt2, Δ
θ)を平面の動きベクトル及び回転角とし、 y-z 平面の動きベクトル・回転角(Δx1, Δx2, Δθx3) z-x 平面の動きベクトル・回転角(Δy1, Δy2, Δθy3) x-y 平面の動きベクトル・回転角(Δz1, Δz2, Δθz3) を求める。
The video input signal sent from the video input means is once written in the frame memory 3402. The blocking circuit 3403 blocks the video signal of m × n pixels near the center of the video frame of each axis as shown in FIG. 18, and the motion vector detection circuit 3404 converts the m × n block into the following equation (23). Block matching is performed between the affine-transformed image signal and the video signal one frame before on the frame memory 3405. At the time of matching, if there is no corresponding pixel, the video signal of one frame before on the frame memory 3405 is subjected to co-linear interpolation represented by the following equation (24) to generate a pixel value. As a result of matching, the sum of absolute differences of pixel values in the block, or the motion vector and rotation angle (Δt1, Δt2, Δ
θ) is the motion vector and rotation angle of the plane, the motion vector and rotation angle of the yz plane (Δx1, Δx2, Δθx3) The motion vector and rotation angle of the zx plane (Δy1, Δy2, Δθy3) xy The motion vector and rotation angle of the plane Find (Δz1, Δz2, Δθz3).

【0046】この動きベクトルと回転角より、操作手段
の相対位置・向き情報(ΔX,ΔY,ΔZ,ΔθX,ΔθY,Δθ
Z,)を(25)式で計算する。
From the motion vector and the rotation angle, the relative position / direction information (ΔX, ΔY, ΔZ, ΔθX, ΔθY, Δθ of the operating means is obtained.
Z,) is calculated by the equation (25).

【0047】[0047]

【数5】 (Equation 5)

【0048】[0048]

【数6】 (Equation 6)

【0049】[0049]

【数7】 フレームメモリ3405には、相対位置向き情報を検出した
後にフレームメモリ3402の映像入力信号を書き込む。
(Equation 7) In the frame memory 3405, the video input signal of the frame memory 3402 is written after detecting the relative position / orientation information.

【0050】本実施例では、現在の映像入力信号のブロ
ックをアフィン変換したが、1 フレーム前の映像信号の
方をアフィン変換しブロックマッチングする方法もあ
る。また、本実施例でのブロックマッチングの方法とし
ては、とりうるパラメータを全て考えて全探索を行う場
合、演算量が多くなる。そこで、演算量の削減方法とし
ては、パラメータの値(c1,c2,Δt1, Δt2, Δθ)をあ
らかじめ限定し、内挿の演算精度を落とす方法や、m ×
n ブロックを更に小さなブロックに細分化し、そのいく
つかの小さなブロックから、1990年信学秋季全大D-224
で示されるような手法で、上記した(23)式のパラメ
ータを推定する方法がある。
In this embodiment, the block of the current video input signal is affine-transformed, but there is also a method of affine-transforming the video signal one frame before and performing block matching. Further, as the block matching method in the present embodiment, when a full search is performed considering all possible parameters, the amount of calculation becomes large. Therefore, as a method of reducing the calculation amount, a method of limiting the parameter values (c1, c2, Δt1, Δt2, Δθ) in advance and reducing the calculation accuracy of interpolation, m ×
The n block was subdivided into smaller blocks, and from some of these smaller blocks, the 1990 Fall of Science, D-224
There is a method of estimating the parameters of the above equation (23) by a method as shown in.

【0051】図19は、本実施例の変形として、回転角
(ΔθX,ΔθY,ΔθZ )については、ジャイロを用いて
求める相対位置・向き検出手段3501の構成を示した図で
ある。相対位置・向き検出手段3501は、フレームメモリ
3502とブロック化回路3503と動きベクトル検出回路3504
とジャイロ回路3505とフレームメモリ3506より構成させ
ている。相対位置・向き検出手段3401との違いは、回転
角(ΔθX,ΔθY,ΔθZ)については、ジャイロ回路340
5で予め検出し、その値をもとに上記した(23)式に
従って、動きベクトル検出回路3504では、動きベクトル
(Δt1, Δt2)のみを検出し、各平面の動きベクトル y-z 平面の動きベクトル(Δx1, Δx2) z-x 平面の動きベクトル(Δy1, Δy2) x-y 平面の動きベクトル(Δz1, Δz2) を求め、以下の(26)式で(ΔX,ΔY,ΔZ )を計算す
る点である。
FIG. 19 is a diagram showing, as a modification of this embodiment, the configuration of the relative position / orientation detecting means 3501 for the rotation angles (ΔθX, ΔθY, ΔθZ) obtained using a gyro. The relative position / orientation detecting means 3501 is a frame memory.
3502, blocking circuit 3503, and motion vector detection circuit 3504
And a gyro circuit 3505 and a frame memory 3506. The difference from the relative position / orientation detecting means 3401 is that the rotation angle (ΔθX, ΔθY, ΔθZ) is the gyro circuit 340.
5, the motion vector detection circuit 3504 detects only the motion vectors (Δt1, Δt2) according to the above equation (23) based on the value, and the motion vector of each plane yz The motion vector of the plane yz Δx1, Δx2) zx plane motion vector (Δy1, Δy2) xy plane motion vector (Δz1, Δz2) is obtained, and (ΔX, ΔY, ΔZ) is calculated by the following equation (26).

【0052】[0052]

【数8】 ジャイロ回路3505において、x 軸,y軸,z軸の3 つのジャ
イロを備え、それから得られる各軸の角速度(ωX,ωY,
ωZ )を映像入力信号のフレーム単位時間で積分し、各
軸の回転角(ΔθX,ΔθY,ΔθZ )を計算し、結果を動
きベクトル検出回路に送る。その他の動作については、
相対位置・向き検出手段3401と同じである。
(Equation 8) The gyro circuit 3505 is equipped with three gyros for the x-axis, y-axis, and z-axis, and the angular velocities (ωX, ωY,
ωZ) is integrated in a frame unit time of the video input signal, the rotation angle (ΔθX, ΔθY, ΔθZ) of each axis is calculated, and the result is sent to the motion vector detection circuit. For other operations,
This is the same as the relative position / direction detecting means 3401.

【0053】本実施例の操作手段の特徴は、操作手段の
内部に位置と向きの検出手段をもち、操作手段の外部に
特別な装置を必要とせずに正確な位置と向きを検出する
ことができる点である。
The feature of the operating means of this embodiment is that it has a position and orientation detecting means inside the operating means, and can detect an accurate position and orientation without requiring a special device outside the operating means. It is a point that can be done.

【0054】次に、前記した実施例において、仮想的な
空間を構成するデータ部のところを、さらにリアリティ
に関して階層的構造を有するデータ構造とした場合の実
施例を図面を参照して説明する。
Next, an embodiment will be described with reference to the drawings, in which the data portion forming the virtual space is made to have a data structure having a hierarchical structure with respect to reality in the above-mentioned embodiment.

【0055】前記操作手段と対応づけられた構成要素を
よりリアルに見たい(表示したい)場合に、仮想空間を
構成するデータを、全て自然画像信号あるいは自然画像
信号を高能率符号化したデータとすると、データ量が膨
大となるため、データベースに蓄積することが困難とな
る。さらに、蓄積のコストおよび、リアリティの高い自
然画像を生成するためのコストを考慮すると、仮想空間
内において前記操作手段と対応づける構成要素以外の構
成要素のリアリティを高める必然性がない場合も有り得
る。あるいは、所望の構成要素を検索するまで、リアリ
ティの高い自然画像を表示する必然性もない場合もあ
る。
When it is desired to see (display) the components associated with the operating means in a more realistic manner, all the data forming the virtual space are natural image signals or data obtained by highly efficient encoding the natural image signals. Then, the amount of data becomes enormous, which makes it difficult to store in the database. Further, in consideration of the storage cost and the cost for generating a highly realistic natural image, there may be a case where it is not necessary to increase the reality of the components other than the components associated with the operating means in the virtual space. Alternatively, it may not be necessary to display a highly realistic natural image until the desired component is searched.

【0056】そこで、仮想空間を構成するデータを、リ
アリティを犠牲にすることで、コンピュータグラフィッ
クス(CG)のデータとして、効率よくデータベースに
蓄積し、さらに操作手段と対応づける構成要素のみ、自
然画像データとしても表示できるようにするデータを蓄
積することで、仮想的な空間を構成するデータの蓄積効
率を向上させる。
Therefore, the data forming the virtual space is efficiently stored in the database as computer graphics (CG) data by sacrificing the reality, and only the components corresponding to the operating means are natural images. By accumulating data that can also be displayed as data, the efficiency of accumulating data that constitutes a virtual space is improved.

【0057】図20は、本発明の別の実施例を説明する
図である。図20(a)は、テクスチャマッピングを利
用した、第1の実現法である。
FIG. 20 is a diagram for explaining another embodiment of the present invention. FIG. 20A shows a first realization method using texture mapping.

【0058】CGモデルデータベース5000には、仮
想空間内の構成要素の形状を表すデータが蓄積されてい
る。テクスチャデータベース5010には、前記操作手
段と対応づけられる仮想空間内の構成要素のテクスチャ
データが蓄積されている。テクスチャデータとしては、
該構成要素を複数の方向から撮影した自然画像信号ある
いは、この自然画像信号を高能率符号化したデータが蓄
積されている。デコーダ5020では、テクスチャデー
タベース5010に高能率符号化されたデータが蓄積さ
れている場合には、これをデコードして出力する。ま
た、テクスチャデータベース5010に画像信号そのも
のが蓄積されている場合には、そのまま出力する。
The CG model database 5000 stores data representing the shapes of constituent elements in the virtual space. The texture database 5010 stores texture data of the constituent elements in the virtual space associated with the operating means. As texture data,
Natural image signals obtained by photographing the constituent elements from a plurality of directions, or data obtained by highly efficiently encoding the natural image signals are stored. The decoder 5020 decodes and outputs the high-efficiency coded data stored in the texture database 5010. If the image signal itself is stored in the texture database 5010, it is output as it is.

【0059】テクスチャマッピング装置5030では、
切り換え装置5040においてデコーダ5020の出力
が選択された場合には、CGモデルにテクスチャをマッ
ピングして疑似的な自然画像を生成し、表示装置505
0に供給する。また、切り換え装置5040においてデ
コーダ5020の出力が選択されなかった場合には、C
Gの構造モデル画像(例えば、ワイヤフレーム画像)を
表示装置5050に供給する。
In the texture mapping device 5030,
When the output of the decoder 5020 is selected in the switching device 5040, the texture is mapped to the CG model to generate a pseudo natural image, and the display device 505 is selected.
Supply 0. If the output of the decoder 5020 is not selected in the switching device 5040, C
The structural model image of G (for example, a wire frame image) is supplied to the display device 5050.

【0060】切り換え装置5040は、前記操作手段に
より制御されるものである。例えば、操作手段と仮想空
間内の構成要素を対応づける信号を検出した際に、デコ
ーダ5020の出力側にスイッチ(SW)を切り換えれ
ばよい。あるいは、仮想空間内の構成要素に操作手段を
近づけることにより、デコーダ5020の出力側にスイ
ッチ(SW)を切り換えてもよい。
The switching device 5040 is controlled by the operating means. For example, the switch (SW) may be switched to the output side of the decoder 5020 when a signal that associates the operating means with a component in the virtual space is detected. Alternatively, the switch (SW) may be switched to the output side of the decoder 5020 by bringing the operating means close to the constituent element in the virtual space.

【0061】図20(b)は、第2の実現法である。C
Gデータベース5100には、仮想空間内の構成要素の
CG画像データを生成するために必要なデータが蓄積さ
れている。即ち、CGモデルデータベース5000は、
このCGデータベースに含まれる。CG画像生成装置5
110では、CGデータベース5100より供給される
CGデータからCG画像信号を生成し、切り換え装置5
140に供給する。
FIG. 20B shows the second realization method. C
The G database 5100 stores data necessary for generating CG image data of constituent elements in the virtual space. That is, the CG model database 5000 is
Included in this CG database. CG image generation device 5
At 110, a CG image signal is generated from the CG data supplied from the CG database 5100, and the switching device 5
Supply to 140.

【0062】自然画像データベース5120には、前記
操作手段と対応づけられる仮想空間内の構成要素の自然
画像信号あるいは、自然画像を高能率符号化したデータ
が蓄積されている。デコーダ5130では、自然画像デ
ータベース5120において高能率符号化されたデータ
が蓄積されている場合には、このデータをデコードして
自然画像信号を出力する。また、自然画像データベース
5120に、自然画像信号そのものが蓄積されている場
合には、そのまま出力する。
The natural image database 5120 stores the natural image signals of the constituent elements in the virtual space associated with the operating means or the data obtained by highly efficient encoding the natural image. In the decoder 5130, when the high-efficiency coded data is stored in the natural image database 5120, this data is decoded and a natural image signal is output. If the natural image signal itself is stored in the natural image database 5120, it is output as it is.

【0063】切り換え装置5140では、CG画像生成
装置5110の出力あるいは、デコーダ5130の出力
を選択し、表示装置5150に画像を供給する。切り換
え装置5140は、前記操作手段により制御されるもの
である。例えば、操作手段と仮想空間内の構成要素を対
応づける信号を検出した際に、デコーダ5130の出力
側にスイッチ(SW)を切り換えればよい。
The switching device 5140 selects the output of the CG image generating device 5110 or the output of the decoder 5130 and supplies the image to the display device 5150. The switching device 5140 is controlled by the operating means. For example, a switch (SW) may be switched to the output side of the decoder 5130 when a signal that associates the operating means with a component in the virtual space is detected.

【0064】図20(c)は、第3の実現法である。C
Gデータベース5200には、仮想空間内の構成要素の
CG画像データを生成するために必要なデータが蓄積さ
れている。即ち、CGモデルデータベース5000は、
このCGデータベースに含まれる。CG画像生成装置5
210では、CGデータベース5200より供給される
CGデータからCG画像信号を生成し、加算回路525
0に供給する。
FIG. 20C shows the third method of realization. C
The G database 5200 stores data necessary for generating CG image data of constituent elements in the virtual space. That is, the CG model database 5000 is
Included in this CG database. CG image generation device 5
At 210, a CG image signal is generated from the CG data supplied from the CG database 5200, and the addition circuit 525 is generated.
Supply 0.

【0065】自然画像データベース5220には、前記
操作手段と対応づけられる仮想空間内の構成要素の自然
画像信号からCG画像信号を減じた差分信号を高能率符
号化したデータが蓄積されている。デコーダ5230で
は、自然画像データベース5220より供給される、高
能率符号化されたデータをデコードして、差分信号を出
力する。
The natural image database 5220 stores high-efficiency coded difference signals obtained by subtracting the CG image signals from the natural image signals of the constituent elements in the virtual space associated with the operating means. The decoder 5230 decodes the high-efficiency coded data supplied from the natural image database 5220 and outputs a differential signal.

【0066】切り換え装置5240は、前記操作手段に
より制御されるものである。例えば、操作手段と仮想空
間内の構成要素を対応づける際に、デコーダ5230の
出力側にスイッチ(SW)を切り換えればよい。加算回
路5250では、切り換え装置5240においてデコー
ダ5230の出力が選択された場合には、CG画像生成
装置5210の出力に差分信号加えることにより自然画
像を生成し表示装置5260に供給する。また、切り換
え装置5240においてデコーダ5230の出力が選択
されない場合には、CG画像生成装置5210の出力を
表示装置5260に供給する。
The switching device 5240 is controlled by the operating means. For example, a switch (SW) may be switched to the output side of the decoder 5230 when associating the operating means with the constituent elements in the virtual space. In the addition circuit 5250, when the output of the decoder 5230 is selected by the switching device 5240, a difference signal is added to the output of the CG image generation device 5210 to generate a natural image and supply it to the display device 5260. When the output of the decoder 5230 is not selected by the switching device 5240, the output of the CG image generation device 5210 is supplied to the display device 5260.

【0067】本実施例によると、仮想空間のデータ構造
をリアリティに関して階層的構造を有するデータ構造と
することにより、仮想的な空間を構成するデータの蓄積
量を大幅に増加させずに、仮想空間内の所望の構成要素
のリアリティを高くすることができる。
According to the present embodiment, the data structure of the virtual space is a data structure having a hierarchical structure with respect to reality, so that the virtual space can be stored without significantly increasing the amount of data stored in the virtual space. It is possible to increase the reality of a desired component in the inside.

【0068】次に、上記制御手段において、上記対応を
決定する手段によって上記操作手段と一構成要素を対応
づけた結果を入力するところを、音声を入力とする音声
認識手段と、上記音声認識手段から音声認識した結果を
入力とし、上記操作手段と上位仮想的な空間内の一構成
要素との対応付けを補正する補正手段と、上記補正手段
から出力される補正された結果を入力とした場合の実施
例を次に説明する。
Next, in the control means, when the result of associating the operation means with one component by the means for determining the correspondence is input, the voice recognition means for inputting voice and the voice recognition means. When the result of voice recognition from is input, the correction means for correcting the correspondence between the operation means and one component in the upper virtual space, and the corrected result output from the correction means are input. An example will be described below.

【0069】図21はこの実施例の構成を表すブロック図
である。音声6211は音声認識手段6201によって認識さ
れ、認識結果6212と操作手段と構成要素と対応づけるデ
ータ6102が補正部6202に入力される。補正部6202は対応
づけるデータ6102を音声認識結果6212によって補正し、
補正された対応付けのデータ6213を出力する。この補正
された対応付けのデータ6213と上記検出結果6104が制御
部6120に入力される。
FIG. 21 is a block diagram showing the configuration of this embodiment. The voice 6211 is recognized by the voice recognition means 6201, and the recognition result 6212, the data 6102 that associates the operation means with the constituent elements are input to the correction unit 6202. The correction unit 6202 corrects the associated data 6102 based on the voice recognition result 6212,
The corrected correspondence data 6213 is output. The corrected association data 6213 and the detection result 6104 are input to the control unit 6120.

【0070】制御部6120では上記検出結果6104と、上記
補正された対応付けのデータ6213に基づいて仮想的な空
間の構成要素を制御し、制御した結果6105が表示部6130
に入力される。ユーザーは表示部6160で表示されている
3 次元空間の映像6108を見ながら、操作手段6150への働
きかけと、音声6211の発呼を行う。音声6211はマイクか
ら信号として入力し、入力された音声信号と、上記仮想
現実の構成要素と対応づけるデータ6102を用いて解析す
る。例えば、音声認識部6201では、音声信号は母音と子
音に分解して文章化し、意味を認識するような知的処理
を行う。操作は操作したい構成要素や状況によって特定
されており、特定された構成要素や状況によって働きか
ける操作が限定できる。従って、音声入力される操作も
限定されるので、知的な処理が行い易くなる。また、構
成要素毎に、予め行える操作の音声信号形状のデータを
用意し、入力信号からテーブル・ルックアップで操作を
決定しても良い。補正部6202では、操作手段によって検
出された結果6102に音声入力の結果6212を書き加えて所
望の操作に対応するデータ6213を作る。
The control unit 6120 controls the constituent elements of the virtual space based on the detection result 6104 and the corrected correspondence data 6213, and the control result 6105 is displayed on the display unit 6130.
Is input to User is displayed on display 6160
While watching the image 6108 in the three-dimensional space, the operation means 6150 is operated and the voice 6211 is called. The voice 6211 is input as a signal from a microphone, and is analyzed using the input voice signal and the data 6102 associated with the above-mentioned virtual reality constituent elements. For example, in the voice recognition unit 6201, the voice signal is decomposed into vowels and consonants to be sentenced, and intelligent processing for recognizing the meaning is performed. The operation is specified by the constituent element or situation to be operated, and the operation to be actuated can be limited by the specified constituent element or situation. Therefore, the operation for voice input is also limited, which facilitates intelligent processing. Further, it is also possible to prepare the data of the voice signal shape of the operation that can be performed in advance for each component and to determine the operation by the table lookup from the input signal. In the correction unit 6202, the voice input result 6212 is added to the result 6102 detected by the operation means to create data 6213 corresponding to the desired operation.

【0071】得られた上記検出結果と音声入力結果によ
って制御する例を以下に述べる。仮想空間に複数の構成
要素が存在する場合について述べる。例えば、非常に多
くの構成要素から最も後ろの構成要素や、重なり合って
特定しにくい構成要素を音声入力と上記操作手段の双方
で特定する。複数の構成要素の代表的なものを操作手段
によって特定した後、音声によって、「後ろ」や「右4
つめ」というように入力する。同様に、別の構成要素の
操作に切り換える補足手段としても、使用することがで
きる。
An example of control based on the obtained detection result and voice input result will be described below. A case where a plurality of components exist in the virtual space will be described. For example, the rearmost component from a very large number of components, or the component that overlaps and is difficult to identify are identified by both the voice input and the operating means. After specifying a representative one of the plurality of constituent elements by the operating means, by voice, "rear" and "right 4
Enter "Tsumu". Similarly, it can be used as a supplementary means for switching to the operation of another component.

【0072】また、共通の特徴を持つ複数の構成要素を
同時に操作する場合、これらの構成要素がバラバラに存
在していても、始めに特徴を音声で入力して統括して特
定し、その後、これらの構成要素全てに対して上記操作
手段による操作を行う。更に操作したい構成要素が誤っ
て検出された場合、音声入力で即座に訂正する。従っ
て、一つの構成要素を特定した状況から、この例で、入
力される操作は、真に特定したい構成要素との相対位置
と、特定されている構成要素の一特徴に限定する事がで
きる。この音声による操作は他の補足的な操作方法を加
えるより容易である。 また、操作したい構成要素が人
物の場合の例について述べる。人物への呼びかけ、会
話、移動を促す時に音声入力を使う。他の操作方法より
自然で、コミュニケーションの面からも必要である。仮
想空間を使ったコミュニケーションシステムの場合に特
に有効である。
Further, when a plurality of constituent elements having common characteristics are operated simultaneously, even if these constituent elements are scattered, the characteristics are first inputted by voice to collectively specify, and thereafter, The operation means operates on all of these constituent elements. Further, when a component to be operated is erroneously detected, it is immediately corrected by voice input. Therefore, from the situation where one constituent element is specified, in this example, the input operation can be limited to the relative position with respect to the constituent element to be truly specified and one feature of the specified constituent element. This voice operation is easier than adding other complementary operation methods. Also, an example will be described in which the component to be operated is a person. Use voice input to call people, talk, and move. It is more natural than other methods of operation and is necessary for communication. It is especially effective in the case of a communication system using virtual space.

【0073】以下に、仮想空間内の構成要素の操作に、
位置や向き以上の複雑な操作を加える場合の例について
述べる。構成要素と操作手段の物質的構造が異なる場合
に、構成要素を折り曲げたり、半分に割ったり、構成要
素の中身を見たり、臭いをかいだり、一部を操作した
り、という操作を行うには、新たな操作方法を加える必
要がある。この場合、音声による操作方法を加えれば、
他の操作方法を加えるより容易に操作ができる。また、
様々な操作に対応できるので、汎用性も高い。
Below, for the operation of the constituent elements in the virtual space,
An example of adding a complicated operation beyond the position and orientation will be described. When the material structure of the component and the operating means are different, it is necessary to bend the component, divide it in half, see the contents of the component, smell the smell, operate a part, etc. Need to add a new operation method. In this case, if you add a voice operation method,
Operation is easier than adding other operating methods. Also,
Since it can be used for various operations, it is highly versatile.

【0074】さらに、音声入力による操作を加えても、
ユーザーに操作性のわずらわしさを与える事がない。む
しろ、ユーザーにとって自然な操作方法である。このよ
うに、音声は入力方法が容易なため、仮想空間上の物体
を操作する方法の一つに用いれば、よいヒューマン・イ
ンターフェイスを実現できる。従って、音声入力による
操作は、上記操作手段を補う手段として有効である。
Furthermore, even if an operation by voice input is added,
It does not give the user the trouble of operability. Rather, it is a natural operation method for the user. As described above, since the input method of the voice is easy, if it is used as one of the methods for operating the object in the virtual space, a good human interface can be realized. Therefore, the operation by voice input is effective as a means to supplement the above-mentioned operation means.

【0075】以上述べたように、上記制御手段が入力と
する検出結果に、音声による入力の検出結果を追加する
事によって、上記操作手段と、上記仮想的な空間内の一
構成要素との対応決定が、正確かつ迅速に行えるという
効果と、ヒューマン・インターフェイスがよくなるとい
う効果が得られる。
As described above, by adding the detection result of the voice input to the detection result input by the control means, the correspondence between the operation means and one constituent element in the virtual space is obtained. The effect is that the decision can be made accurately and quickly, and that the human interface is improved.

【0076】[0076]

【発明の効果】本発明によれば、仮想空間内の物体と実
空間内の操作手段とを対応付けて、実空間内の操作手段
をあたかも仮想空間内の物体であるかのように操作する
とともに、上記対応付けを任意に切り換えることによっ
て、仮想空間内の物体をより自然に、より簡単に操作で
きるようになる。
According to the present invention, the object in the virtual space is associated with the operating means in the real space, and the operating means in the real space is operated as if it were an object in the virtual space. At the same time, by arbitrarily switching the association, it becomes possible to operate the object in the virtual space more naturally and easily.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例を説明する図である。FIG. 1 is a diagram illustrating an embodiment of the present invention.

【図2】本発明のより具体的な一実施例を説明する図で
ある。
FIG. 2 is a diagram illustrating a more specific embodiment of the present invention.

【図3】図2の実施例における状態遷移を説明する図で
ある。
FIG. 3 is a diagram illustrating state transitions in the embodiment of FIG.

【図4】図2の実施例における見取り図の構成を示す図
である。
FIG. 4 is a diagram showing a configuration of a sketch in the embodiment of FIG.

【図5】図2の実施例の動作を説明するための図であ
る。
FIG. 5 is a diagram for explaining the operation of the embodiment of FIG.

【図6】図2の実施例の動作を説明するための図であ
る。
FIG. 6 is a diagram for explaining the operation of the embodiment of FIG.

【図7】図2の一機能を実現する装置の一構成例を示す
図である。
FIG. 7 is a diagram showing a configuration example of an apparatus that realizes one function of FIG.

【図8】本発明における操作装置の一実施例の構成を示
す図である。
FIG. 8 is a diagram showing a configuration of an embodiment of an operating device according to the present invention.

【図9】本発明における検出装置の一実施例の構成を示
す図である。
FIG. 9 is a diagram showing a configuration of an embodiment of a detection device according to the present invention.

【図10】図8、9の操作装置、検出装置の関係を示す
図である。
FIG. 10 is a diagram showing the relationship between the operating device and the detection device of FIGS.

【図11】本発明における操作装置の一実施例の構成を
示す図である。
FIG. 11 is a diagram showing a configuration of an embodiment of an operating device according to the present invention.

【図12】本発明における検出装置の一実施例の構成を
示す図である。
FIG. 12 is a diagram showing a configuration of an embodiment of a detection device according to the present invention.

【図13】図11、12の操作装置、検出装置の関係を
示す図である。
FIG. 13 is a diagram showing the relationship between the operating device and the detection device of FIGS.

【図14】本発明における別の操作装置、検出装置の構
成を示す図である。
FIG. 14 is a diagram showing a configuration of another operation device and a detection device according to the present invention.

【図15】図14の映像入力手段の構成を示す図であ
る。
15 is a diagram showing the configuration of the video input means of FIG.

【図16】図15のミラーの構成を示す図である。16 is a diagram showing a configuration of the mirror of FIG.

【図17】図14の検出手段の一構成例を示す図であ
る。
17 is a diagram showing an example of the configuration of the detection means shown in FIG.

【図18】図14の実施例における画面とブロックの関
係の一例を示す図である。
FIG. 18 is a diagram showing an example of the relationship between screens and blocks in the embodiment of FIG.

【図19】図14の検出手段の別の構成例を示す図であ
る。
19 is a diagram showing another configuration example of the detecting means in FIG.

【図20】本発明においてリアリティのスケーラビリテ
ィの概念を取り入れた実施例の構成を示す図である。
FIG. 20 is a diagram showing the configuration of an embodiment incorporating the concept of reality scalability in the present invention.

【図21】本発明において音声による検出結果を加えた
実施例の構成を示す図である。
FIG. 21 is a diagram showing a configuration of an example in which a detection result by voice is added in the present invention.

【符号の説明】[Explanation of symbols]

100…蓄積部、110…対応付け部、120…制御
部、130…合成部、140…検出手段、150…操作
手段、160…表示部。
100 ... Accumulation part, 110 ... Correlation part, 120 ... Control part, 130 ... Compositing part, 140 ... Detection means, 150 ... Operation means, 160 ... Display part.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 天田 皇 神奈川県川崎市幸区小向東芝町1番地 株 式会社東芝研究開発センター内 (72)発明者 宮川 陽子 神奈川県川崎市幸区小向東芝町1番地 株 式会社東芝研究開発センター内 (72)発明者 籠嶋 岳彦 神奈川県川崎市幸区小向東芝町1番地 株 式会社東芝研究開発センター内 ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Inventor Emperor Amada 1 Komukai Toshiba-cho, Sachi-ku, Kawasaki-shi, Kanagawa Prefecture, Corporate Research & Development Center, Toshiba Corporation (72) Yoko Miyakawa Komukai-Toshiba, Kawasaki-shi, Kanagawa Town No. 1 Incorporated company Toshiba Research and Development Center (72) Inventor Takehiko Kagoshima Komukai Toshiba Town No. 1 in Komukai Toshiba Town, Kawasaki City, Kanagawa

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 位置と向きを操作可能な操作手段と、 この操作手段の位置と向きを検出する検出手段と、 仮想的な空間を構成する構成要素のデータを蓄積する蓄
積手段と、 この蓄積手段に蓄積されたデータに基づいて上記仮想的
な空間を表示する表示装置と、 上記操作手段の操作に応じて、上記操作手段と、上記表
示装置上に表示された仮想的な空間の一構成要素との対
応付けを行なうとともに、この対応付けを前記仮想的な
空間の他の構成要素に切り換える対応付け手段と、 上記対応付けられた仮想的な空間の構成要素の相対位置
と向きとを、上記検出手段の検出結果に基づいて制御す
る制御手段と、を具備することを特徴とする仮想空間内
のデータ操作装置。
1. An operating means capable of operating a position and an orientation, a detecting means for detecting the position and the orientation of the operating means, an accumulating means for accumulating data of components constituting a virtual space, and an accumulating means. A display device for displaying the virtual space based on the data accumulated in the means, and a configuration of the operation means and the virtual space displayed on the display device according to the operation of the operation means. Corresponding means for performing correspondence with elements and switching the correspondence to other constituent elements of the virtual space, and the relative position and orientation of the constituent elements of the corresponding virtual space, And a control unit that controls based on the detection result of the detection unit.
JP6261278A 1994-09-30 1994-09-30 Data operation device for virtual space Pending JPH08101758A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6261278A JPH08101758A (en) 1994-09-30 1994-09-30 Data operation device for virtual space

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6261278A JPH08101758A (en) 1994-09-30 1994-09-30 Data operation device for virtual space

Publications (1)

Publication Number Publication Date
JPH08101758A true JPH08101758A (en) 1996-04-16

Family

ID=17359604

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6261278A Pending JPH08101758A (en) 1994-09-30 1994-09-30 Data operation device for virtual space

Country Status (1)

Country Link
JP (1) JPH08101758A (en)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1997000474A1 (en) * 1995-06-16 1997-01-03 Sony Corporation Information processor and information displaying method
JPH1049290A (en) * 1996-08-05 1998-02-20 Sony Corp Device and method for processing information
JPH10105358A (en) * 1996-09-30 1998-04-24 Sony Corp Device and method for controlling image display and information recording medium
JPH11513157A (en) * 1996-06-25 1999-11-09 フィリップス エレクトロニクス ネムローゼ フェンノートシャップ Interactive navigation device for virtual environment
JP2001076182A (en) * 1999-09-02 2001-03-23 Mixed Reality Systems Laboratory Inc User interface method, user interface device, space plotting device, work station device and program storage medium
JP2002015140A (en) * 2000-06-29 2002-01-18 Hitachi Ltd Counseling terminal, counseling system using the same and device using the same
JP2002352104A (en) * 2001-05-25 2002-12-06 Nec Fielding Ltd Virtual shopping system and method therefor, and program for virtual shopping
JP2004246920A (en) * 2004-04-14 2004-09-02 Sony Corp Information processing apparatus and method
JP2007179565A (en) * 2007-02-19 2007-07-12 Sharp Corp Portable equipment
JP2007260116A (en) * 2006-03-28 2007-10-11 Nintendo Co Ltd Information processing apparatus and program
JP2008040832A (en) * 2006-08-07 2008-02-21 Canon Inc Mixed sense of reality presentation system and control method for it
JP2014072576A (en) * 2012-09-27 2014-04-21 Kyocera Corp Display device and control method
JP6220937B1 (en) * 2016-08-26 2017-10-25 株式会社コロプラ Information processing method, program for causing computer to execute information processing method, and computer
JP2018029969A (en) * 2016-08-26 2018-03-01 株式会社コロプラ Information processing method, and program for allowing computer to execute the information processing method
JP2019133165A (en) * 2013-01-07 2019-08-08 三星電子株式会社Samsung Electronics Co.,Ltd. Interactive server, display apparatus and controlling method thereof

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6608640B1 (en) 1995-06-16 2003-08-19 Sony Corporation Information processing apparatus and information display method
WO1997000474A1 (en) * 1995-06-16 1997-01-03 Sony Corporation Information processor and information displaying method
US7089505B2 (en) 1995-06-16 2006-08-08 Sony Corporation Information processing apparatus and information display method
JPH11513157A (en) * 1996-06-25 1999-11-09 フィリップス エレクトロニクス ネムローゼ フェンノートシャップ Interactive navigation device for virtual environment
JPH1049290A (en) * 1996-08-05 1998-02-20 Sony Corp Device and method for processing information
JPH10105358A (en) * 1996-09-30 1998-04-24 Sony Corp Device and method for controlling image display and information recording medium
JP2001076182A (en) * 1999-09-02 2001-03-23 Mixed Reality Systems Laboratory Inc User interface method, user interface device, space plotting device, work station device and program storage medium
JP4500414B2 (en) * 2000-06-29 2010-07-14 株式会社日立製作所 Consultation terminal, display method of consultation system using the same, and server system
JP2002015140A (en) * 2000-06-29 2002-01-18 Hitachi Ltd Counseling terminal, counseling system using the same and device using the same
JP2002352104A (en) * 2001-05-25 2002-12-06 Nec Fielding Ltd Virtual shopping system and method therefor, and program for virtual shopping
JP2004246920A (en) * 2004-04-14 2004-09-02 Sony Corp Information processing apparatus and method
JP2007260116A (en) * 2006-03-28 2007-10-11 Nintendo Co Ltd Information processing apparatus and program
JP2008040832A (en) * 2006-08-07 2008-02-21 Canon Inc Mixed sense of reality presentation system and control method for it
JP2007179565A (en) * 2007-02-19 2007-07-12 Sharp Corp Portable equipment
JP2014072576A (en) * 2012-09-27 2014-04-21 Kyocera Corp Display device and control method
JP2019133165A (en) * 2013-01-07 2019-08-08 三星電子株式会社Samsung Electronics Co.,Ltd. Interactive server, display apparatus and controlling method thereof
JP6220937B1 (en) * 2016-08-26 2017-10-25 株式会社コロプラ Information processing method, program for causing computer to execute information processing method, and computer
JP2018029969A (en) * 2016-08-26 2018-03-01 株式会社コロプラ Information processing method, and program for allowing computer to execute the information processing method
JP2018029907A (en) * 2016-08-26 2018-03-01 株式会社コロプラ Information processing method, program for allowing computer to execute the information processing method, and computer

Similar Documents

Publication Publication Date Title
Henderson et al. Augmented reality for maintenance and repair (armar)
JPH08101758A (en) Data operation device for virtual space
US7714895B2 (en) Interactive and shared augmented reality system and method having local and remote access
Fuchs et al. Virtual space teleconferencing using a sea of cameras
JP3512992B2 (en) Image processing apparatus and image processing method
Azuma Overview of augmented reality
Klinker et al. Confluence of computer vision and interactive graphies for augmented reality
JP4768196B2 (en) Apparatus and method for pointing a target by image processing without performing three-dimensional modeling
Sugimoto et al. Time Follower's Vision: a teleoperation interface with past images
US20020037768A1 (en) Compound reality presentation apparatus, method therefor, and storage medium
Sauer et al. Augmented workspace: Designing an AR testbed
Wren et al. Perceptive spaces for performance and entertainment untethered interaction using computer vision and audition
US7782320B2 (en) Information processing method and information processing apparatus
CN111373347B (en) Apparatus, method and computer program for providing virtual reality content
Cortes et al. Mosart: Mobile spatial augmented reality for 3d interaction with tangible objects
CN116012680A (en) CAVE type virtual simulation large screen fusion system based on multiple channels
JP7157244B2 (en) head mounted display
WO2022176450A1 (en) Information processing device, information processing method, and program
Avery et al. Visualizing occluded physical objects in unfamiliar outdoor augmented reality environments
Siegl et al. An augmented reality human–computer interface for object localization in a cognitive vision system
Murari et al. Cross-platform immersive visualization and navigation with augmented reality
JP6765846B2 (en) Information processing equipment, information processing methods, and programs
JP2005251118A (en) Method and device for image processing
JPS5856152B2 (en) 3D figure reading display device
Hopf et al. Novel autostereoscopic single-user displays with user interaction

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20040615