JPH11237867A - Virtual space display device - Google Patents

Virtual space display device

Info

Publication number
JPH11237867A
JPH11237867A JP5596798A JP5596798A JPH11237867A JP H11237867 A JPH11237867 A JP H11237867A JP 5596798 A JP5596798 A JP 5596798A JP 5596798 A JP5596798 A JP 5596798A JP H11237867 A JPH11237867 A JP H11237867A
Authority
JP
Japan
Prior art keywords
observers
virtual space
image
real space
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP5596798A
Other languages
Japanese (ja)
Inventor
Yoji Takahashi
洋史 高橋
Hiroshi Koyama
博史 小山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shimadzu Corp
Original Assignee
Shimadzu Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shimadzu Corp filed Critical Shimadzu Corp
Priority to JP5596798A priority Critical patent/JPH11237867A/en
Publication of JPH11237867A publication Critical patent/JPH11237867A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To enable each observer to simultaneously share a virtual space to be displayed for respective plural observers, and a real space where the respective viewers actually exist. SOLUTION: The positions/directions of the heads of observers 91 and 92 are detected by head motion sensors 21 and 22 and sent to mutually linked computers 31 and 32 and concerning one observation object 93, these computers 31 and 32 respectively prepare 3D image data viewed from the positions/ directions of these heads and send these data to see-through type HMD 11 and 12 mounted on the respective observers 91 and 92.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、HMD(ヘッド
マウントディスプレイ)を用いて仮想の3次元空間上に
対象物体を表示する装置に関する。
[0001] 1. Field of the Invention [0002] The present invention relates to an apparatus for displaying a target object in a virtual three-dimensional space using an HMD (Head Mount Display).

【0002】[0002]

【従来の技術】MRイメージング装置(核磁気共鳴映像
装置)やPET装置(ポジトロン・エミッション・コン
ピュータ・トモグラフィ装置)などによれば、人体内部
の3次元的な画像情報を得ることができ、これに3Dモ
デリング処理等を施すことにより3次元的な表示が可能
である。こうして仮想の3次元空間上に対象物体を表示
し、その視方向を変化させるなどの操作を行ないなが
ら、患部の病状を二人以上の医師によって検討すること
などが行なわれている。また、3次元CAD(コンピュ
ータ・エイデッド・デザイン)により設計した建物をコ
ンピュータ上で3Dモデリングし、それを仮想空間上で
3次元表示し、ジョイスティックなどの入力装置を用い
て二人以上でその中を歩き回りながら設計について検討
することなども行なわれている。
2. Description of the Related Art According to an MR imaging apparatus (nuclear magnetic resonance imaging apparatus) and a PET apparatus (positron emission computer tomography apparatus), three-dimensional image information inside a human body can be obtained. By performing a 3D modeling process or the like, a three-dimensional display is possible. In this way, while displaying the target object in the virtual three-dimensional space and performing operations such as changing the viewing direction, the medical condition of the affected part is examined by two or more doctors. Also, a building designed by 3D CAD (Computer Aided Design) is 3D modeled on a computer, it is displayed in 3D in a virtual space, and two or more people use an input device such as a joystick to view the interior. There are also studies on design while walking around.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、従来で
は、単に対象物体を仮想空間上で3次元表示するだけで
あり、二人以上で観察する場合に、対象がどんなにわか
りにくい複雑な構造のものでも指摘したい箇所を支持す
るのに言葉をもってしなければならず、意志の疎通がと
りづらく、お互いに勘違いしたまま議論を交わすことも
しばしばある、という問題があった。
However, in the related art, the target object is simply displayed three-dimensionally in the virtual space. When the object is observed by two or more persons, the target object has a complicated structure that is difficult to understand. There was a problem that it was necessary to use words to support the point that I wanted to point out, it was difficult to communicate, and there was often a case where discussions were carried out while misunderstanding each other.

【0004】また、仮想空間の中を歩き回る場合、従来
ではジョイスティックなどの操作によっているため、実
際に体を動かすわけではなく、仮想空間に対する視角と
実際の視感覚・平衡感覚との間にずれが生じて違和感を
与える問題もある。
In addition, when walking around in a virtual space, the body is not actually moved because a joystick or the like is conventionally used. There is also a problem that may cause discomfort.

【0005】この発明は、上記に鑑み、複数の観察者の
各々がHMDを装着してそれぞれ3次元仮想空間上で対
象物体を観察する場合に、各人に対して表示される仮想
空間と各人が実際に存在している現実空間とを同時に共
有することができるようにして、注目箇所の指摘につい
て誤解が生じないようにできる、仮想空間表示装置を提
供することを目的とする。
[0005] In view of the above, the present invention provides a virtual space displayed for each person when a plurality of observers wear an HMD and observe a target object in a three-dimensional virtual space. It is an object of the present invention to provide a virtual space display device that enables a person to simultaneously share a real space that actually exists and prevents a misunderstanding of a point of interest from being misunderstood.

【0006】[0006]

【課題を解決するための手段】上記の目的を達成するた
め、この発明による仮想空間表示装置においては、複数
のシースルー型のHMDと、該HMDの方向・位置を検
出するモーションセンサと、検出された各々のHMDに
関する方向・位置に応じて視方向および表示位置が定め
られた各3D画像データを生成して各々のHMDに送る
画像生成手段とが備えられることが特徴となっている。
In order to achieve the above object, a virtual space display device according to the present invention comprises a plurality of see-through HMDs, a motion sensor for detecting the direction and position of the HMD, Image generating means for generating each 3D image data in which the viewing direction and the display position are determined in accordance with the direction and position of each HMD and sending it to each HMD.

【0007】HMDはシースルー型となっているため、
表示画像とともに外界の景色も観察可能であり、外界の
景色に重なって表示画像を見ることができる。そしてこ
のHMDの各々の方向・位置が検出され、その各位置・
方向からの3D画像データがそれぞれ生成されて、各々
のHMDに送られる。そのため、各HMDでは、現実空
間においてHMDが位置している位置からそれが向いて
いる方向に見たような3D画像の表示がなされる。その
ため、これらHMDの各々を通して観察している複数の
観察者は、現実空間上で一つの仮想空間上の対象物が現
れ、それを各方向から見ているようにして、仮想空間上
の対象物を認識することができる。現実空間上で指など
を動かせばそれを観察することができるので、仮想空間
上の対象物を現実空間上の指などで差し示すことがで
き、注目箇所の指摘について誤解が生じることを防止で
きる。
Since the HMD is a see-through type,
The scenery of the outside world can be observed together with the display image, and the display image can be seen overlapping the scenery of the outside world. Then, each direction and position of the HMD is detected, and each position and
3D image data from each direction is generated and sent to each HMD. Therefore, in each HMD, a 3D image is displayed as if viewed from the position where the HMD is located in the real space in the direction in which the HMD is facing. Therefore, a plurality of observers observing through each of these HMDs appear as objects in one virtual space in the real space, and see the objects in the virtual space as if viewed from each direction. Can be recognized. By moving a finger or the like in the real space, it can be observed, so that an object in the virtual space can be indicated with a finger or the like in the real space, and it is possible to prevent a misunderstanding of the pointed-out point from occurring. .

【0008】[0008]

【発明の実施の形態】つぎに、この発明の実施の形態に
ついて図面を参照しながら詳細に説明する。図1に示す
例では、二人の観察者(医師)91、92が互いに向か
い合って一つの観察対象物93を観察する場合を示して
いる。観察者91、92はそれぞれシースルー型のHM
D11、12を装着しており、これらのHMD11、1
2にはそれぞれコンピュータ31、32から画像信号が
送られてきている。HMD11、12にはヘッドモーシ
ョンセンサ21、22が取り付けられていて、トランス
ミッタ41から発生させられる現実空間上の基準座標信
号に感応することで、HMD11、12の3次元位置・
方向が検出される。これにより、観察者91、92の頭
部の3次元位置・方向が検出されるようになっている。
この検出信号はそれぞれコンピュータ31、32に送ら
れる。
Next, embodiments of the present invention will be described in detail with reference to the drawings. The example shown in FIG. 1 shows a case where two observers (doctors) 91 and 92 face one observation object 93 while facing each other. Observers 91 and 92 are see-through HMs, respectively.
D11 and D12, and these HMD11, 1
2, image signals are sent from computers 31 and 32, respectively. Head motion sensors 21 and 22 are attached to the HMDs 11 and 12, and respond to a reference coordinate signal in the real space generated from the transmitter 41, so that the three-dimensional positions of the HMDs 11 and 12 can be determined.
The direction is detected. Thus, the three-dimensional positions and directions of the heads of the observers 91 and 92 are detected.
This detection signal is sent to computers 31 and 32, respectively.

【0009】これらのコンピュータ31、32は相互に
接続されており、表示すべき原画像データが共有されて
いるとともに、ヘッドモーションセンサ21、22から
の3次元位置の検出データが相互にやり取りされてい
る。このようにコンピュータ31、32をリンクするこ
とにより、二つのコンピュータ31、32で統一された
現実空間の座標軸上でそれぞれの観察者91、92に対
する表示を行なうことができ、二人の観察者91、92
が現実空間の同一座標軸上に対象物93を認識すること
ができるような表示を行なうことができる。すなわち、
一つの観察対象物(ここでは頭蓋の3D像)93が、観
察者91、92のちょうど中間に現われ、かつそれぞれ
の観察者91、92の方向から見たような3D画像の表
示が行なわれる。この対象物93は向かい合っている観
察者91、92の間に表われるため、観察者91に対し
ては図2の(a)で示すような頭蓋の右側面方向からの
3D画像となり、観察者92に対しては図2の(b)で
示すような頭蓋の左側面方向からの3D画像となる。
The computers 31 and 32 are connected to each other, share original image data to be displayed, and exchange three-dimensional position detection data from the head motion sensors 21 and 22 with each other. I have. By linking the computers 31 and 32 in this manner, the two computers 31 and 32 can display the respective observers 91 and 92 on the coordinate axes of the real space unified, and the two observers 91 and 92 can perform display. , 92
Can be displayed so that the object 93 can be recognized on the same coordinate axis in the real space. That is,
One observation target (here, a 3D image of the skull) 93 appears exactly in the middle between the observers 91 and 92, and a 3D image is displayed as viewed from the direction of the observers 91 and 92. Since this object 93 appears between the observers 91 and 92 facing each other, the observer 91 becomes a 3D image from the right side of the skull as shown in FIG. 2B is a 3D image from the left side of the skull as shown in FIG.

【0010】この場合、HMD11、12はシースルー
型であるため、観察者91、92はこれらの3D画像と
ともに、現実空間をも見ることができる。そして、上記
のように現実空間の座標軸が二つのコンピュータ31、
32で統一されているため、二人の観察者91、92か
ら見たとき仮想の対象物93が現実空間において同一の
位置に現われ、あたかも現実空間の中で、向かい合った
二人の間に浮かび上がっているかのように観察できる。
シースルー型となっていることから現実空間も見ること
ができ、たとえば一方の観察者91が仮想の対象物93
について指摘したい箇所を指で差し示せば、この指を他
方の観察者92も見ることができるとともにこの観察者
92は同じ仮想対象物93を見ているため、他方の観察
者92はその指摘箇所が仮想対象物93のどこであるか
が容易に分かることになる。
In this case, since the HMDs 11 and 12 are of the see-through type, the observers 91 and 92 can see the real space together with these 3D images. And, as described above, the coordinate axes of the real space are two computers 31,
32, the virtual object 93 appears at the same position in the real space when viewed from the two observers 91 and 92, and floats in the real space between two opposing persons. It can be observed as if it were rising.
Since it is a see-through type, the real space can also be seen.
Is pointed out with a finger, the other observer 92 can see this finger, and the observer 92 is looking at the same virtual object 93. Of the virtual object 93 can be easily understood.

【0011】さらに詳しく説明すると、HMD11、1
2は図3に示すように同一構成となっていて画像インタ
ーフェイス13、CRT(陰極線管)14、光学系15
をそれぞれ備える。また、コンピュータ31、32は、
それぞれ演算制御部33および画像出力部34を備え
る。これらコンピュータ31、32の各々の演算制御部
33にヘッドモーションセンサ21、22がそれぞれ接
続される。
More specifically, the HMDs 11, 1
3 has an image interface 13, a CRT (cathode ray tube) 14, and an optical system 15 as shown in FIG.
Respectively. Also, the computers 31 and 32
Each has an arithmetic control unit 33 and an image output unit 34. The head motion sensors 21 and 22 are connected to the arithmetic and control units 33 of the computers 31 and 32, respectively.

【0012】トランスミッタ41はコンピュータ31、
32のいずれかの演算制御部33に接続されるが、これ
らの演算制御部33同士は相互に接続されているため、
トランスミッタ41で発せられた3次元の現実空間上の
基準座標信号にヘッドモーションセンサ21、22の各
々が感応することによって得られるヘッドモーションセ
ンサ21、22からの3次元の位置データは、二つのコ
ンピュータ31、32で統一的に、一つの同じ現実空間
に関するものとして扱われる。これらの3次元の位置デ
ータは、二つのコンピュータ31、32の各々の演算制
御部33で演算・制御され、二人の観察者91、92の
頭部の位置や両者の間の間隔などの変化に応じて対象物
93の3D画像の視方向や表示位置などを変えることが
できる。
The transmitter 41 is a computer 31,
32 are connected to any one of the operation control units 33, but since these operation control units 33 are connected to each other,
The three-dimensional position data from the head motion sensors 21 and 22 obtained by each of the head motion sensors 21 and 22 responding to the reference coordinate signal on the three-dimensional real space emitted from the transmitter 41 is transmitted to two computers. 31 and 32 are unified and deal with one and the same real space. These three-dimensional position data are calculated and controlled by the calculation control units 33 of the two computers 31 and 32, respectively, and change the positions of the heads of the two observers 91 and 92 and the distance between the two. , The viewing direction and the display position of the 3D image of the object 93 can be changed.

【0013】こうして頭部の3次元的な動きを反映した
対象物93の3D画像データが得られ、これが画像出力
部34を経てHMD11、12の各々の画像インターフ
ェイス13に送られる。この画像データは画像インター
フェイス13において適切な表示信号に変換され、CR
T14に送られて、3D画像の表示がなされる。この画
像は光学系15を経ることによって、外界(現実空間)
の景色からの光と重ね合わせて観察者91、92の目に
到達するようにされる。
In this way, 3D image data of the object 93 reflecting the three-dimensional movement of the head is obtained, and sent to the image interfaces 13 of the HMDs 11 and 12 via the image output unit 34. This image data is converted into an appropriate display signal by the image interface 13 and the CR
The program is sent to T14 to display a 3D image. This image passes through the optical system 15 to create an external world (real space).
To the eyes of the observers 91 and 92 in superimposition with the light from the scenery.

【0014】図4は他の実施形態を示すものである。こ
の図で、HMD11、12ではCRTの代わりにLCD
(液晶表示装置)16が用いられて画像が出力されるよ
うになっている。さらに、ここでは、仮想空間上の対象
物93を動かしたり操作することができるように、観察
者91側のコンピュータ31の演算制御部33に3次元
グローブ51や3次元マウス61が、観察者92側のコ
ンピュータ32の演算制御部33に3次元グローブ52
や3次元マウス62が、それぞれ接続される。
FIG. 4 shows another embodiment. In this figure, the HMDs 11 and 12 use LCD instead of CRT.
(Liquid crystal display device) 16 is used to output an image. Further, here, the three-dimensional glove 51 and the three-dimensional mouse 61 are attached to the arithmetic control unit 33 of the computer 31 on the observer 91 side so that the object 93 in the virtual space can be moved and operated. The three-dimensional globe 52 in the arithmetic control unit 33 of the computer 32
And a three-dimensional mouse 62 are respectively connected.

【0015】これら3次元グローブ51、52や3次元
マウス61、62はトランスミッタ41から発せられる
現実空間の基準座標信号に感応するもので、これらから
の3次元の位置データが演算制御部33で演算・制御さ
れ、対象物93を3次元的に移動・回転させたり、削っ
たりするというような操作がなされたときに、それに応
じた3D画像の処理がなされる。たとえば、観察者91
がその観察している仮想対象物93に対して操作すると
その内容が反映された3D画像データが得られ、これが
自らの画像出力部34を経てHMD11で表示され、そ
の操作結果の反映された画像を見ることができる。それ
のみでなく、観察者91による操作に関して3次元グロ
ーブ51や3次元マウス61から入力されたデータは、
他方のコンピュータ32の演算制御部33にも送られて
演算・制御され、その操作結果の反映された3D画像デ
ータが画像出力部34を経てHMD12に送られ、観察
者92の観察画像上でもその操作結果が表われることに
なる。そのため、たとえば対象物93が一方の観察者9
1によって回転させられれば、他方の観察者92が観察
している対象物93も回転させられる。
The three-dimensional globes 51 and 52 and the three-dimensional mice 61 and 62 respond to the reference coordinate signal of the real space emitted from the transmitter 41, and the three-dimensional position data from them is calculated by the calculation control unit 33. Control is performed, and when an operation such as moving, rotating, or shaving the object 93 three-dimensionally is performed, processing of the 3D image corresponding thereto is performed. For example, observer 91
When the user operates the virtual object 93 being observed, 3D image data in which the contents are reflected is obtained. The 3D image data is displayed on the HMD 11 via the image output unit 34 of the user, and an image in which the operation result is reflected is obtained. Can be seen. In addition, the data input from the three-dimensional glove 51 and the three-dimensional mouse 61 regarding the operation by the observer 91 are as follows:
The 3D image data reflecting the operation result is also sent to the HMD 12 via the image output unit 34 and sent to the operation control unit 33 of the other computer 32 to be operated and controlled. The operation result will appear. Therefore, for example, the object 93 is placed on one observer 9
When rotated by 1, the object 93 being observed by the other observer 92 is also rotated.

【0016】さらに力覚制御器71、72を用いること
もできる。この力覚制御器71、72を用いるなら、観
察者91、92の双方において、仮想空間上の対象物9
3の表面の触り具合を感じさせることが可能となる。
Further, force sense controllers 71 and 72 can be used. If the force sense controllers 71 and 72 are used, both the observers 91 and 92 can read the object 9 in the virtual space.
The touch of the surface of No. 3 can be felt.

【0017】図5はさらに別の実施形態を示すものであ
る。ここでは、観察者91、92の身体の適当な場所に
取り付けられた位置センサ81、82が用いられてい
る。この位置センサ81、82も、トランスミッタ41
から発せられる現実空間の基準座標信号に感応して3次
元の位置を表すデータを出力する。位置センサ81、8
2が観察者91、92の身体に取り付けられているた
め、観察者91、92が現実空間内で実際に歩き回り、
任意の場所に移動したとき、その位置がそれぞれのコン
ピュータ31、32に取り込まれる。
FIG. 5 shows still another embodiment. Here, position sensors 81 and 82 attached to appropriate places on the bodies of the observers 91 and 92 are used. The position sensors 81 and 82 are also
And outputs data representing a three-dimensional position in response to a reference coordinate signal in the real space issued from the device. Position sensors 81, 8
Since 2 is attached to the bodies of the observers 91 and 92, the observers 91 and 92 actually walk around in the real space,
When the user moves to an arbitrary place, the position is taken into the respective computers 31, 32.

【0018】位置センサ81、82からのデータを演算
制御部33で演算・制御することにより、観察者91、
92の現実空間上での位置変化に対応した3D画像デー
タを生成することができる。そのため、観察者91、9
2の各々が歩き回って現実空間上で位置を変えたとき、
それらを反映した仮想空間上の対象物93を同一現実空
間上で観察者91、92のそれぞれが認識することがで
きる。このように実際に歩き回ったときの現実空間の動
きが仮想空間に反映されるので、視覚を通じて認識され
る仮想空間と平衡感覚等の視覚以外の感覚を通じて認識
される現実空間との間のずれがなくなり、自然な感覚で
現実空間と仮想空間との共存を受け入れることができ
る。
The data from the position sensors 81 and 82 are calculated and controlled by the calculation control unit 33, so that the observer 91,
It is possible to generate 3D image data corresponding to the position change in the 92 real space. Therefore, observers 91 and 9
When each of the two walks around and changes position in real space,
Each of the observers 91 and 92 can recognize the object 93 in the virtual space that reflects those in the same real space. In this way, the movement of the real space when actually walking around is reflected in the virtual space. It is possible to accept the coexistence of the real space and the virtual space with a natural feeling.

【0019】なお、上の説明はこの発明の一つの実施形
態に関するものであり、この発明が上の説明に限定され
るものでないことはもちろんである。観察者は二人とし
たが3人以上でもよく、各人がHMDを装着する。コン
ピュータは各人ごとに1台ずつとしているが、1台のコ
ンピュータで各人に提示すべき画像のデータを生成し
て、各々の画像データを各HMDに分配するように構成
することもできる。その他、具体的な構成などは種々に
変更可能である。
The above description relates to one embodiment of the present invention, and it goes without saying that the present invention is not limited to the above description. The number of observers was two, but may be three or more, and each person wears an HMD. One computer is used for each person. However, it is also possible to use one computer to generate image data to be presented to each person and distribute each image data to each HMD. In addition, the specific configuration and the like can be variously changed.

【0020】[0020]

【発明の効果】以上説明したように、この発明の仮想空
間表示装置によれば、複数の観察者の各人に対して表示
される仮想空間と各人が実際に存在している現実空間と
を同時に共有することができるようにして、各観察者が
装着したHMDを通じて仮想空間上の対象物の表示を行
なうことができ、対象物についての位置などの誤解が生
じないようにできる。観察者の頭部あるいは身体の動き
という現実空間での動きが仮想空間に反映されるので、
視覚を通じて認識される仮想空間と平衡感覚等の他の感
覚を通じて認識される現実空間との間のずれがなくな
り、自然な感覚で現実空間と仮想空間との共存を受け入
れることができる。
As described above, according to the virtual space display device of the present invention, the virtual space displayed for each of a plurality of observers and the real space where each person actually exists are displayed. Can be shared at the same time, an object in the virtual space can be displayed through the HMD worn by each observer, and misunderstanding such as the position of the object can be prevented. Since the movement in the real space of the observer's head or body movement is reflected in the virtual space,
There is no shift between the virtual space recognized through the sight and the real space recognized through another sense such as a sense of balance, and the coexistence of the real space and the virtual space can be accepted with a natural sense.

【図面の簡単な説明】[Brief description of the drawings]

【図1】この発明の実施の形態を模式的に示す概略斜視
図。
FIG. 1 is a schematic perspective view schematically showing an embodiment of the present invention.

【図2】各観察者が観察する3D画像の一例を示す図。FIG. 2 is a diagram showing an example of a 3D image observed by each observer.

【図3】同実施形態の信号処理系統を示すブロック図。FIG. 3 is an exemplary block diagram showing a signal processing system according to the embodiment;

【図4】他の実施形態にかかる信号処理系統を示すブロ
ック図。
FIG. 4 is a block diagram showing a signal processing system according to another embodiment.

【図5】さらに別の実施形態にかかる信号処理系統を示
すブロック図。
FIG. 5 is a block diagram showing a signal processing system according to still another embodiment.

【符号の説明】[Explanation of symbols]

11、12 HMD(ヘッドマウント
ディスプレイ) 13 画像イン
ターフェイス 14 CRT 15 光学系 16 LCD 21、22 ヘッドモーションセンサ 31、32 コンピュータ 33 演算制御
部 34 画像出力
部 41 トランス
ミッタ 51、52 3次元グローブ 61、62 3次元マウス 71、72 力覚制御器 81、82 位置センサ 91、92 観察者 93 観察対象
たる仮想空間上の対象物
11, 12 HMD (head mounted display) 13 image interface 14 CRT 15 optical system 16 LCD 21, 22 head motion sensor 31, 32 computer 33 arithmetic control unit 34 image output unit 41 transmitter 51, 52 three-dimensional globe 61, 62 three-dimensional Mouse 71, 72 Haptic controller 81, 82 Position sensor 91, 92 Observer 93 Object to be observed in virtual space

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 FI G09G 5/36 510 G06F 15/62 360 ──────────────────────────────────────────────────の Continued on the front page (51) Int.Cl. 6 Identification code FI G09G 5/36 510 G06F 15/62 360

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 複数のシースルー型のHMDと、該HM
Dの方向・位置を検出するモーションセンサと、検出さ
れた各々のHMDに関する方向・位置に応じて視方向お
よび表示位置が定められた各3D画像データを生成して
各々のHMDに送る画像生成手段とを備えることを特徴
とする仮想空間表示装置。
1. A plurality of see-through HMDs and the HM
A motion sensor for detecting the direction and position of D, and image generating means for generating each 3D image data in which the viewing direction and the display position are determined according to the detected direction and position for each HMD and sending the data to each HMD A virtual space display device comprising:
JP5596798A 1998-02-20 1998-02-20 Virtual space display device Pending JPH11237867A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5596798A JPH11237867A (en) 1998-02-20 1998-02-20 Virtual space display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5596798A JPH11237867A (en) 1998-02-20 1998-02-20 Virtual space display device

Publications (1)

Publication Number Publication Date
JPH11237867A true JPH11237867A (en) 1999-08-31

Family

ID=13013853

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5596798A Pending JPH11237867A (en) 1998-02-20 1998-02-20 Virtual space display device

Country Status (1)

Country Link
JP (1) JPH11237867A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011114659A1 (en) * 2010-03-17 2011-09-22 Sony Corporation Information processing device, information processing method, and program
JP2012521039A (en) * 2009-03-20 2012-09-10 マイクロソフト コーポレーション Working with virtual objects
JP2014071520A (en) * 2012-09-27 2014-04-21 Kyocera Corp Display device, control method and control program
US10341642B2 (en) 2012-09-27 2019-07-02 Kyocera Corporation Display device, control method, and control program for stereoscopically displaying objects
JP2019522856A (en) * 2016-06-30 2019-08-15 株式会社ソニー・インタラクティブエンタテインメント Operation method and system for participating in virtual reality scene
JPWO2019102676A1 (en) * 2017-11-21 2020-12-24 ソニー株式会社 Information processing equipment, information processing methods, and programs

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012521039A (en) * 2009-03-20 2012-09-10 マイクロソフト コーポレーション Working with virtual objects
US9256282B2 (en) 2009-03-20 2016-02-09 Microsoft Technology Licensing, Llc Virtual object manipulation
WO2011114659A1 (en) * 2010-03-17 2011-09-22 Sony Corporation Information processing device, information processing method, and program
CN102792339A (en) * 2010-03-17 2012-11-21 索尼公司 Information processing device, information processing method, and program
RU2533628C2 (en) * 2010-03-17 2014-11-20 Сони Корпорейшн Information processing device, information processing method and programme
US9076256B2 (en) 2010-03-17 2015-07-07 Sony Corporation Information processing device, information processing method, and program
JP2014071520A (en) * 2012-09-27 2014-04-21 Kyocera Corp Display device, control method and control program
US10341642B2 (en) 2012-09-27 2019-07-02 Kyocera Corporation Display device, control method, and control program for stereoscopically displaying objects
JP2019522856A (en) * 2016-06-30 2019-08-15 株式会社ソニー・インタラクティブエンタテインメント Operation method and system for participating in virtual reality scene
JPWO2019102676A1 (en) * 2017-11-21 2020-12-24 ソニー株式会社 Information processing equipment, information processing methods, and programs

Similar Documents

Publication Publication Date Title
Burdea et al. Virtual reality technology
CN103180893B (en) For providing the method and system of three-dimensional user interface
JP7213899B2 (en) Gaze-Based Interface for Augmented Reality Environments
Zheng et al. Virtual reality
Boman International survey: Virtual-environment research
JP6101793B2 (en) System and method for managing spatiotemporal uncertainty
Poston et al. Dextrous virtual work
Lu et al. Immersive manipulation of virtual objects through glove-based hand gesture interaction
Gallo et al. A user interface for VR-ready 3D medical imaging by off-the-shelf input devices
Holloway et al. Virtual environments: A survey of the technology
CN105074617A (en) Three-dimensional user interface device and three-dimensional operation processing method
JPWO2012081194A1 (en) Medical support device, medical support method, and medical support system
US20190066386A1 (en) Method and apparatus for multiple mode interface
JP2008009646A (en) Image processor and image processing method
Poston et al. The virtual workbench: Dextrous VR
US20230162456A1 (en) Method and apparatus for multiple mode interface
Krapichler et al. VR interaction techniques for medical imaging applications
EP3803540B1 (en) Gesture control of medical displays
Giraldi et al. Introduction to virtual reality
JP2005339266A (en) Information processing method, information processor and imaging device
US20230065505A1 (en) System and method for augmented reality data interaction for ultrasound imaging
JPH11237867A (en) Virtual space display device
KR20040084243A (en) Virtual surgical simulation system for total hip arthroplasty
Aspin et al. Augmenting the CAVE: An initial study into close focused, inward looking, exploration in IPT systems
CN103339660A (en) A method, an apparatus and an arrangement for visualizing information