JPH05324799A - バーチャルリアリティ制御方法および装置 - Google Patents

バーチャルリアリティ制御方法および装置

Info

Publication number
JPH05324799A
JPH05324799A JP4123211A JP12321192A JPH05324799A JP H05324799 A JPH05324799 A JP H05324799A JP 4123211 A JP4123211 A JP 4123211A JP 12321192 A JP12321192 A JP 12321192A JP H05324799 A JPH05324799 A JP H05324799A
Authority
JP
Japan
Prior art keywords
image
virtual reality
information
output
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP4123211A
Other languages
English (en)
Inventor
Tomohito Nakagawa
智仁 中川
Kousuke Sakota
行介 迫田
Hiroshi Ota
寛 太田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP4123211A priority Critical patent/JPH05324799A/ja
Publication of JPH05324799A publication Critical patent/JPH05324799A/ja
Pending legal-status Critical Current

Links

Abstract

(57)【要約】 【目的】 バーチャルリアリティシステムにおいて、動
作と反応の時間遅れを従来より改善する。 【構成】 描画による時間遅れを考慮して、時間遅れに
よって生じる位置的な誤差を画像を平行移動させて補正
することにより、現実との違和感を解消する。具体的に
は、図3(a)の視点Bにおける画像23が出力される
時点で、実際は視点Cに移動している(本当は画像24
となる)場合、画像23を補正して画像25を生成し、
これを出力する方法および実現装置である。 【効果】 とくに、首振りのように運動と画像お動きと
が殆ど一致するべき動作について有効である。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】バーチャルリアリティすなわちコ
ンピュータ上で作り出された仮想的な世界の疑似体験技
術を利用した製品あるいは装置にかかわる。
【0002】
【従来の技術】近年、人工現実感(Artificial Realit
y)・仮想現実感(Virtual Reality)などと呼ばれる技
術が関心を集めている(以下、バーチャルリアルティで
表現を統一する)。この技術は、「計算機により作り出
された人工の世界を人間の周囲に発生させ、あたかもそ
の内部に自分が存在するかのごとく錯覚させる技術(広
瀬:人工現実感はどこまで実現するか:日本機械学会
誌,Vol.93,No.863(Oct.1990))」である。
【0003】図1では、代表的なバーチャルリアリティ
のシステムを示す。ユーザはヘッドマウントディスプレ
ー16およびグローブ型センサ15を装着する。ヘッド
マウントディスプレー16およびグローブ型センサ15
には、それぞれ頭および手の位置を測定するための位置
センサ11の計測部が装着されている。さらに、グロー
ブ型センサには、手の形状を把握するため各指ごとに曲
がりセンサ(例えば、グラスファイバーの屈折率により
評価する)の計測部が装着されている。これらの計測部
によって得られた信号は、位置センサ11あるいは曲が
りセンサ12によって有限ビット長のデジタル信号に変
換され、処理装置13に入力される。処理装置13で
は、人工的な現実感を得るためには、三次元コンピュー
タグラフィックス(CG)における形状モデリング技法
により、予め設定してある仮想世界の三次元モデルに従
って、頭や手の位置や形状をセンサ情報に基づいて解析
し、仮想世界における自分の位置・形状を決定(形状モ
デルを定義)する。そして、仮想世界での人の視点(目
の位置)から見た仮想世界の三次元CGを、全視野型の
ディスプレー(例えば、ヘッドマウントのディスプレ
ー)上の三次元CG画像として表示する。この操作は、
一定の間隔で反復継続的に処理され、人の動きに合った
仮想的な現実感が提供される。
【0004】また、将来的には位置センサ11および曲
がりセンサ12の代わりに、立体カメラ14を用い、画
像認識によって人の現在位置を決定し、ヘッドマウント
ディスプレーの代わりに、パノラマディスプレーのよう
な大画面デスプレー用いてリアリティを表現する方法も
考えられてる。
【0005】従来の方法は、このようにセンサから得ら
れたデータと仮想世界の相互関係から、仮想世界の形状
モデルの修正および自分の位置を決定する(形状を定義
する)作業を行い、その三次元形状モデルに従い三次元
CGを描画していた。従って、センサ入力に対応した画
像は、センサの入力後に膨大な計算量の3DCGの描画
計算を実行したため、高度なレンダリング(例えば、レ
イトレーシング)を施さなくとも、若干の時間遅れは生
じる。
【0006】これに対応する方法として、アルゴリズム
を改善することも考えられるが、一般にはハードウェア
を改善して(より演算速度を向上させ)対応することが
多い。現在では、グラフィック処理に適したワークステ
ーションも数多く製品化されているが、しかし現状では
処理能力が十分とは言えない。画像処理向けのスーパコ
ンピュータ(並列計算機)などの利用も可能であるが、
それではシステム価格が非常に高価になる問題点が生じ
ることになる。
【0007】一方、アルゴリズムの改善法としては、例
えばバーチャルリアリティと類似の技術として、フライ
トシミュレータでのイメージ生成法として「コンピュー
タ・イメージ生成のための予測先読みメモリ管理方式」
(A.f.Griffen et al.Predictive look ahead memory m
anagement for computer image generation in simulat
ors : United States Patent, Patent-Number 4,952,92
2 Aug. 28,1990)が提案されている。この方式は、シミ
ュレートしている飛行機の動特性に基づき、その取りう
べき飛行経路を(すべて)予測し、その(予測された)
地点について操作者が見る光景を描画するのに必要なデ
ータを二次記憶から先読みする方法である。当該方式
は、特に二次記憶の低速性を補う方法として有効であ
る。また、当該明細書には明記されていないが、当該方
法の簡単な応用として、二次記憶から先読みするステッ
プに代えて、画像そのものを描画することにより高速化
することも原理には可能であると思われる。
【0008】
【発明が解決しようとする課題】上記の従来方法におい
て、次のような問題がある。すなわち、先に述べたよう
に、三次元コンピュータグラフィックス(CG)に必要
な計算量は膨大であるため、一般的に使用されるグラフ
ィックワークステーションを用いたシステムでは、若干
のタイムラグ(時間遅れ)が生じる。この時間遅れは、
通常の動作ではあまり気にならないことも多いが、人の
位置の変位が急に大きく変更された場合、大きな違和感
を感じさせることがある。特に、首を横に大きく振った
ような場合、首の回転に画像が付いていかないと、非常
な不快感をもたらす。
【0009】また、フライトシミュレータ等の応用が有
効と思われる「コンピュータ・イメージ生成のための予
測先読みメモリ管理方式」は、フライトシミュレータの
ように対象の動特性が明確で、挙動が明確に予測される
ことが必要であり、人の動きのシミュレーションのよう
に、動作が複雑ですべての事例を予測し尽くすことが不
可能な事例では適用できない。また実際問題として、三
次元モデルそのものを二次記憶から頻繁に呼び出す場合
はともかく、多くのバーチャルリアルティシステムのよ
うに、三次元モデルをメモリ上に置く場合では、あまり
効果がない。
【0010】本発明の目的は、上記の問題点を解決する
ために、バーチャルリアリティ装置において生じる(特
に首振り時における)不快感を解消するための方法を提
供することにある。
【0011】
【課題を解決するための手段】上記目的を達成するため
に、本発明では「人の頭が回転するときのスクリーン画
像の動きの特徴」に着目した。人の頭の回転は水平方向
の回転および垂直方向の回転によって表現できる。今、
図2のように仰角ψで正面方向を向いた人の頭を左方向
にΔθだけ回転させた事例を考える。図2(a)では、
ヘッドマウントディスプレーに係わる前提を示してい
る。では、スクリーンを示している。一般にヘッドマ
ウントディスプレーはステレオタイプのディスプレーと
なっている。ここでは、その一方のディスプレーを例に
したが、視点の位置が異なる(=画像は当然違う)だけ
で、原理的には共通であるから、ここでは一方について
説明する。は視点とスクリーンの関係(上からの図)
を示している。一般には、スクリーンの横の長さ(以下
スクリーン長)とスクリーンの視差との関係からスクリ
ーンと視点の距離(以下画像距離)は論じられもする
が、バーチャルリアリティにおいては、頭(顔)に装着
されるため画像距離は、装置固有の定数となる。も同
様に視点とスクリーンの関係(横からの図)を示してい
る。今、図2(b)のように、上を向いて頭を回転させ
た場合を考える。のように水平方向(人の脊髄を中心
として)の回転を想定する。また、ここでの仰角をに
示している。
【0012】この場合、対象物のスクリーン上での像の
軌跡は、視点から垂直方向に延ばした線とスクリーン
(を含む平面)との交点を中心とする円弧を、自分の回
転と反対方向に動く。これは、ちょうど星が回転するの
と同じ(固定された対象を自ら回転して凝視すると、
(首の)回転軸の方向を中心とした円弧を描いて動くよ
うに見える)原理に他ならない。この円弧の曲率半径R
【0013】
【数1】
【0014】ただし、ここでLはスクリーンと視点との
距離(画像距離)であり
【0015】
【数2】
【0016】すなわち、R∽1/tanψである。従って、
ψ→0 ならば R→∞ であり、ψが十分小さければ、
平行に移動することになる。
【0017】本発明では、この原理に加えて、人の動態
視力が静止視力に比べ劣っていることを勘案し、首の動
きのような急な画像の移動に対しては、すでに生成され
ている画像を現在の入力データによって補正して出力す
る。
【0018】そこで、次に本発明の基本的概念を図3を
用いて説明する。図3(a)には、通常のバーチャルリ
アリティシステムにおける取扱いを示している。首の回
転等により、視点Aから視点Bに視点が移動した場合、
対象Oは画像31から画像32のように変わる。しか
し、現在のグラフィックワークステーションの能力で
は、正確な描写を行った場合(例えば、3次元CG技法
を用い各種レンダリングを施した場合)ある程度時間遅
れが生じる。この間に視点が視点Cへ移動したなら、仮
に描写そのものは正確であったとしても、現在の(視点
Bが生成された時点での)位置関係とは掛け離れたもの
になってしまう。実際、人の受ける違和感は、視点Cで
本来見れるべき画像33と画像32のずれにともなって
増大し、特に首を高速に回転させた場合など、不快感が
大きい。
【0019】そこで、本発明ではイメージ出力として視
点Bにおける諸情報で作成した画像をさらに視点Cの位
置情報によって補正するものである。図3(b)を例に
とって説明すると、視点Bにおいて生成されたイメージ
画像32は、平行移動させイメージ画像33と同じよう
な位置の場所に出力する(画像34)。ここでは、図形
の形状は視点Bのものであるが、全体的な位置関係は視
点Cのものであるため、視点Bの画像をそのまま出力す
る従来法に比べてより実際に近い(具体的には画像33
に近い)イメージ画像を得ることができる。
【0020】もちろん、本発明でも理論上誤差を内包す
ると言えるであろう。しかし、計算機の計算時間がある
一定以上必要な現状においては、バーチャルリアリティ
といっても、現在の視点から正確にグラフィックスを生
成することは厳密には困難であり、如何に現在の視点か
らの画像に近い画像を出力するかが重要であるといえ
る。
【0021】このようなことから、高速に首が回転する
場合にのみ、新たに(センサ入力に対応して修正された
形状モデルに基づいて)三次元CGを生成するのでな
く、既に生成されている画像をセンサ入力に応じてリニ
アに移動させた(偏差に比例的に平行移動させた)画像
を、(近似的に)現在の出力として利用する手段を用
い、これによって従来法より高速に首の動きに追従する
方法を実現した。
【0022】また、特に対象が固定されているシステム
に対しては、背景と対象を別々に生成し合成する描画法
を採用し、それぞれの移動量を変えることで相対的な位
置関係の整合性を確保する。再び図3を例にして説明す
ると、視点Aから視点Bに移動した時、背景と対象Cと
の相対な位置関係は、対象Cが右へ移動するように見え
る。特に相手が決まっているような場合、視点が動いて
も見る対象が固定されていることが多いため、対象の画
像が精細であることが望ましい場合も多い。
【0023】そこで、特に対象が明確なシステムでは、
その対象(例えば対象C)と背景を別々に生成し合成す
る。図4は、近接物体と背景の相対関係を示している。
図4(a)では、視点移動時における、無限遠方の背景
と対象物との視差の変化を示す。移動前の視点を P1′
とし、移動後の視点を P2 とする。ここで、移動距離r
および移動前の視差αは既知である。このとき、移動後
の視差γは次のようになる。
【0024】
【数3】
【0025】これを一般的に示すと図4(b)に示す。
視点が P1(or P1′) から P2 へ移動した場合、近接対
象Aと背景対象Bの視差(スクリーン上の距離は、視差
*画像距離で換算される(図2参照))を考える。回転
前の視差を α とし、回転後の視差を β とする(ここ
で、背景の対象は近似的に距離 R にすべてあり、R=
∞ のときの回転後の視差を γ、β と γ のずれ γ−
β を δ とする)。また、P1, P2 から近接対象Aへ引
いた線と背景(を含む平面)との交点を、それぞれ M1,
M2 とする。また、P2 から背景平面に下ろした足を MH
とする。このときγは上記の(数3)であり、δは言う
までもなく
【0026】
【数4】
【0027】となる。
【0028】以上により、βはγ−δから導けるが、Δ
θが十分小さく、Rが十分大きいければ、sin(Δθ)≒
0, 1/R≒0 となることから、結局βは、
【0029】
【数5】
【0030】によって求められる。対象画像および背景
画像の移動距離はα・βによって一意に決定できる(近
似的に移動距離は視差に比例する)。
【0031】
【作用】本発明の作用は、大きな首の回転のように、局
所的な画像の整合性よりも大局的な運動との一致が重視
される場合には、局所的な画像の整合性より運動との一
致に重みを置いた処理が実現される(小さな移動で局所
的な画像の整合性が重要な場合の処理では、従来の方法
を適用する)。これは、人間の制約条件を巧妙に利用し
たもので、実際に不必要な計算処理をしない作用があ
る。
【0032】なぜなら、視点の動く速さが小さい場合の
人の視力は静止状態に近く識別能力は高く、不完全な描
画は好ましくない。また、一般に時間遅れによる誤差
は、視点の動く速さに比例して大きくなるから、時間遅
れによる誤差のために生じる不快感は小さく、それに比
べて描画の不整合性や描画の粗雑さによる不快感がずっ
と大きいといえる。従って、視点の動く速さの小さい場
合の処理は。現状のように多少の時間遅れを伴っても、
センサ入力に応じて形状モデルを修正し、それに基づい
て三次元CGを描く方法が適当である。
【0033】しかし、視点の動く速さが大きい場合(こ
れは、背景の移動で評価する。従って、例えば首の回転
などは非常に大きい場合に該当する)人の視力は、静止
時の視力に比べて著しく低下する。このような場合、人
は細かな識別をすることが困難であり、時間をかけた緻
密な描画は余り意味はない。ここでは、専ら視点の動き
と背景の移動との関連が認識の主な要素であり、時間遅
れに伴う不快感には非常に敏感である(特に首の回転に
背景が付いていかない場合、もはや現実感とは言い難い
不快感である)。従って、視点の動く速さの大きい場合
の処理は、多少画像の完全性は犠牲にしても、動作に素
早く追従する画像生成が必要であり、本発明により、す
でに生成された画像を利用して、素早い追従が可能とな
る。
【0034】尚、本発明で画像の完全性が若干犠牲にさ
れるが、後述する実施例で説明するように、例えば1ス
テップ前の画像を常に使用するようにすれば、背景の変
化は1ステップ遅れで付いてくる。また、移動の速さに
よって描画方法が切り替わる場合の整合性は、実施例で
示すような補正により十分対処できるため、大きな違和
感はない。
【0035】また、対象画像と背景画像を分離すること
で、特に対話式のバーチャルリアリティシステムにおい
ても、高速処理が可能になる。
【0036】
【実施例】バーチャルリアリティとは、コンピュータに
よって作りだされた仮想的な世界による現実感のことで
ある。すなわち、視野のすべてを覆う表示装置と体の動
きをモニタするセンサをを用い、三次元CGによって表
現された仮想的な世界の中に自分の動きをシミュレーシ
ョンすることにより、仮想的な世界を疑似体験するもの
であることは先に述べた通りである(図1)。このシス
テムに基づいて本発明の実施例を詳細に説明する。
【0037】実施例1では、図1のシステムを基本にし
て、大きな首振りに対し高速に対応するバーチャルリア
リティシステムについて説明する。図2は、首振り時の
処理について、簡単に示している。現在の正面方向を常
にθ=0とし、水平方向の回転をΔθで表す(図2
(b))。また、水平面と視線の成す角をψとし、垂直
方向の回転をΔψとする(図2(c))。このとき、ψ
が大きければディスプレー上での対象点の移動はあまり
大きくないが、θが小さくなるに従って(回転角Δθに
比例して)ディスプレー上の移動量は大きくなる。単位
時間に画面上を移動する大きさが大きくなると、少しの
時間遅れでも感覚的に大きな不快感をもたらすが、細か
い認識をする能力はないため、このような場合、画面の
全体的な動きを首の回転にリンクさせれば実用上十分で
ある。特にψ≒0の場合、図2(a)のように対象は左
右平行に移動する。従って、ψが小さいくΔθとΔψが
相応な水準であれば、既に生成された描画を平行移動す
ることで、近似的に首の回転を表現できる。
【0038】そこで、図3に示したように、視点Bでの
情報に基づいて生成されたCG画像が出力されるとき、
その位置関係を最も新しい位置情報(視点Cでの情報)
によって補正することために、図5のような装置を考え
る。
【0039】図5では、図1の処理装置13に対応する
装置を具体的に示している。中央処理装置101は、例
えば高性能マイクロプロセッサを中心にして、メモリそ
の他を含む、通常のワークステーション(WS)に相当
する部分である。中央処理装置101のメモリ上に仮想
世界の形状データが保存されており、中心のCPUでは
形状モデリングおよび相互関係シミュレーションを実行
する。描画プロセッサ102および主画像描画フレーム
バッファ7は、三次元CG作成のための装置であり、こ
れと中央処理装置103と組合せたものは、一般にグラ
フィックスWS(GWS)と呼ばれる。本実施例では、
このようなGWSの基本構成に、副画像フレームバッフ
ァ104およびアクセス制御装置105・出力画像選択
装置106を付加する。そして、一定の条件(首が大き
く回転する)の入力では、処理を副画像の操作に移す。
【0040】図5の各装置のうち、中央処理装置101
・描画プロセッサ102・主画像フレームバッファ10
3および主画像フレームバッファ104、さらにはビデ
オコントローラ107・ディスプレ16は既に公知の装
置を利用すれば足りる。そこで、アクセス制御装置10
5および出力画像選択装置106の実現例について図6
および図7で説明する。
【0041】図6はアクセス制御装置105の具体例に
ついて示す。本実施例では、副画像フレームバッファは
ディスプレーの画素数の数倍の画像データを管理する。
そして、与えられた位置情報に基づきアクセスする範囲
を決定する。図6(b)はその基本概念を示している。
今、ディスプレーの縦および横の画素数を Nx, Ny とす
る。平行移動原理に基づく場合、それより広範囲の副画
像(メモリ上に画像データとして保持する)を生成す
る。副画像データは主画像(すなわちディスプレで表示
される画像)同じ視野領域(縦および横の画素数を nx,
ny)を中心にし上下左右に伸長させる。大きな動作が
加えられた場合、その動作に応じて平行移動させるが、
これは副画像データから必要なデータを抽出・出力する
ことで実現する。
【0042】この操作を高速に実行するために、例えば
図6(a)のような装置構成を考える。信号線111に
よって伝達された制御情報およびセンサ情報は、主画像
アクセス制御回路118およびセンサ情報解析装置12
0に入力される。
【0043】主画像側アクセス制御回路118は、通常
の(画素数と対応する量の画像情報を持つ)フレームバ
ッファを制御するものであり、公知の装置を利用でき
る。しかし、副画像側フレームバッファにアクセスする
場合、アクセスするアドレスが一様にならない。仮に副
バッファのアドレスを左上から順に1,2,…とする
と、必要なフレームにアクセスする場合、1から nx ま
で、少し飛んで Nx+1 からNx+nx までというように、そ
のままでは連続的にアクセスできない。通常のフレーム
バッファは連続的にアドレスが割り振ってあることが前
提であるから、通常のフレームバッファに少々手を加え
る必要がある。そこで、本実施例では制御回路119を
同様に公知の装置を利用する場合、ルックアップテーブ
ルによるアドレス変換装置121を用いて、実際の飛び
飛びのアドレスに変換し、さらにこれと移動情報に基づ
く画像移動情報を加算器122により加算する。この方
式では、通常のフレームバッファと同様に取り扱える。
【0044】例えば、図6(b)のように横の移動量が
Vx, 縦の移動量が Vy の事例に対しては、アドレス変
換装置121の出力に、Vx+Nx*Vy を単純に加算するこ
とで計算できる(実際は、1画素に必要なデータ量との
積になる)。
【0045】図7は出力画像切替の例について示す。通
常、フレームバッファから画像を出力する場合、一旦シ
フトレジスタヘ転送し、そこから1ビットづつビデオコ
ントローラへ転送する。本実施例では、このシフトレジ
スタからビデオコントローラへの転送経路に画像切替装
置を挿入し、出力画像をコントロールする。
【0046】すなわち、信号線115によって伝達され
た切替情報を、フラグメモリ123へ格納する。信号線
114によって伝達された制御信号に基づいて、画像情
報切替装置121は切替制御を行う。この様子を図7
(b)に示す。この図では、1/f ごとに新しい画像とな
るが、画像が更新されるごとに同期をとる(例えば、各
画像が更新時に信号をおくり両者の同期をとる)切り替
えはこのタイミングで実行する。この図では、画像が一
フレーム更新される時間を k とし、k=0 で副画像であ
る場合を例示している。k=1 と k=2 との中間でフラグ
が設定されても、ここでは切り替わらず、k=2 において
画像が次のフレームの更新されるタイミングで画像を主
画像へ変更する。すなわち、切替情報は一旦フラグメモ
リ123に格納し、切り替え時に参照してフラグが設定
されていた場合にのみ切り替えを実行する(マイコンの
リード端子のように、情報が設定されている時に限って
出力可能な構成とする)。実際は、フレーム更新時のキ
ャリー信号を認識して切替処理を実行させることにな
る。
【0047】図8には、実施例1の一連の処理ステップ
を示している。主プロセッサにおいて、入力されたセン
サ情報を解析し(ステップ131)、自分の位置を解析
する。そして、その位置情報126に基づきモデルを修
正する(ステップ132)。これは、一般のバーチャル
リアリティシステムと共通である。さらに、本発明では
位置情報を解析し(ステップ133)、それに基づき出
力する画像を選択(ステップ134)し、仮に副画像出
力を選択したあ場合、その移動量を決定する(スッテプ
135)。描画プロセッサで、CGを作成するのは通常
のGWSと同様であるが、主画像・副画像が並列に実行
処理される。これらのデータは、いずれか一方だけが選
択されて(ステップ137)、画像として出力される
(ステップ138)。
【0048】図9では、図8で示した処理ステップのう
ち、画像選択および出力切り替えの実行ステップに関し
て、より具体的に示してある。。位置情報126から、
ステップ140で首の回転パラメータであるθとψを入
力する。そして、ステップ141においてΔθi, Δψ
i, Δ2ψ を計算する。ステップ143の首振り条件の
判定では、例えば、条件判定のための評価関数f(Δθ
i,Δψi)を設定し、その符号によって判定する。これ
らの情報を、ステップ142で画像選択装置に入力する
が、特に切り替えの判定に関しては、専用のフラグメモ
リ(図7(a)装置123)に格納する。ステップ14
3では、この専用メモリのフラグをテストすることで出
力変更評価を行う。ステップ144でフラグが認識され
れば、ステップ145のデータバス切り替えを行った後
にステップ138の選択出力系のバッファアドレス計算
を行い、フラグが認識されなければ、そのままステップ
138を実行する。このアドレスに基づき画像データ1
30から必要な情報を取り出して、画像出力139を生
成する。
【0049】一連の処理を時系列で見ると図10ような
になる。現在を基準にして時間 tをt=kT (k=0,±1,±2・
・・) で表現し、センサ入力 (≡ S(k)) によって更新さ
れた形状モデルを M(k) とする。ここで、サンプリング
間隔は、一般に画像更新周期1/f よりも大きい。つま
り、1サンプリング間隔あたり、複数回(一般に十数
回)更新されることを想定する。従来方式(および本発
明における通常の実行)では、形状モデル M(-1) をセ
ンサ入力 S(0)[状態146]で修正した M(0)[処理1
47]に基づき画像 M(0)[状態148]を生成する
が、本発明(首振り対応時)では、形状モデル M(-2)
をセンサ入力 S(-1)[状態149] で修正した M(-1)
[処理150] を利用し、M(-1)[処理150] に基
づき生成した画像を、センサ入力 S(0)[状態151]
によって修正し、出力画像として利用する(画像出力 P
(0+)[状態152])。この画像は、バックグラウンド
で常に作成し、必要に応じて選択する。通常実行時の場
合、移動に対する時間遅れと形状変化に対する時間遅れ
とは、共に T である。これに対し、首振り対応時(ψ
が大きい場合を除く)では、k=-1 でのセンサ入力に対
応する画像出力をバックグラウンドで生成し、k=0 での
センサ入力で出力画像を移動させ出力する。この場合、
形状変化の時間遅れは T+t′ と大きくなるが、移動
に対する時間遅れはt′ となり、相当小さくできる。
【0050】実施例2では、図11に示すようなバーチ
ャルリアリティシステムについて説明する。この例は、
形状処理・主画像描画処理・副画像描画処理・副画像移
動解析処理に専用のプロセッサ(中央処理装置201・
副画像移動解析用プロセッサ202・主画像描画プロセ
ッサ203・副画像描画プロセッサ205)を割当て、
パイプライン的処理をすることで、センサのサンプリン
グ間隔を短くしている(図12で詳述する)。図12で
は、この処理処理経過を示してある。先ほどの例と同様
に、現在を基準に時間 t を t=k′T (k′=0,±1,±2・・
・) で表現し、センサ入力(≡ S(k)) によって更新され
た形状モデルを M(k) とする。また、t=kTにおける生成
画像を P(k) とする。実施例1と比較すると、サンプリ
ング周波数を2倍にしている。もっとも計算時間はプロ
セッサの能力に依存するため、(実施例1と同等のもの
を利用すると)2ステップ必要となる。この事例は、時
間遅れについては基本的にはかわらないが、画像品質を
向上させる(単位時間あたりの画像更新回数が2倍とな
る)ことが可能である。このような事例でも、本発明を
適用できる。
【0051】図13では、通常実行から首振り実行への
移行を示している。k′=0 での位置情報により出力切り
替えが指示される(フラグが設定される)場合、その後
で来た最初のキャリー信号で切り替えが実行される。す
なわち、本来ならば、プロセス218の一連の処理が実
行された後には、プロセス219の処理が実行される
が、首振り対応時ではプロセス218に加え、センサ入
力 S(0)[状態215]により補正し、画像出力を P(0
+)[状態221]を出力する。
【0052】この場合、切替時にすでにプロセス219
の実行は開始されているが、出力画像 P(1)[状態21
4]は出力しない。図14は、この一連の処理を時系列
で表現してある。この図は、それぞれの画像出力が何時
のセンサ情報に基づいて生成されたものかを示してい
る。例えば、画像出力 P(0)[状態211] は動きの情
報が S(-2) 形状の情報が S(-2) であるが、これは画像
出力 P(0)[状態211]が、先に示したプロセス21
8(図13)において、S(-2) に基づいて生成されたこ
とを示す。また、画像出力 P(0+)[状態221] は動
きの情報が S(0)形状の情報が S(-2) であるが、これは
画像出力 P(0+)[状態221]が、先に示したプロセス
220(図13)において、S(-2) に基づいて生成され
た画像がS(0) によって位置の修正されていることを示
している。
【0053】今、画像出力 P(1)[状態211] が出力
された場合の整合性について検討する。この画像は、
k′=-1 の位置および形状を反映しているが、既に出力
された画像出力 P(0+)[状態221]は、形状は k′=-
2 の情報を反映しているが、位置は、k′=0 の位置情報
を反映している。従って、位置に関しては出力画像 P(0
+) と P(1) との間で逆戻りが生じてしまう。そこでこ
の出力を生成せず画像の切り替えを実行する。この場
合、k′=1 の前で既に出力が切り替わっているため、こ
のような不整合は生じない。
【0054】これとは逆に、図15では首振り実行から
通常実行への移行を示している。これを時系列で表現す
ると、図16のようになる。この図16からわかるよう
に、仮に k′=0 での位置情報により出力切り替えが指
示された後、すぐに切り替えの実行を行う(P(1)が出力
される)と動きで逆戻りが生じる。そこで、この問題を
解決するために、すぐに切り替えを実行せず、さらにあ
と一度副画像を出力する。そして、画像出力 P(2) と整
合させるために、逆戻りが生じないように P(0+), P(1
+) を補正する。この補正は、P(2) が S(0) の位置を示
していることから、 P(0+), P(1+) を S(0) と S(-1)
の中間の位置を反映するように、移動量を抑制する。そ
して、P(1+) が出力された後に出力切り替えを実行す
る。
【0055】図17、図18では、この処理のステップ
について示す。ステップ133およびステップ134
は、基本的に実施例1と同じである。ステップ226で
は切り替えフラグのかわりにセマフォを用い、通常から
首振りへの移行には負値(−1)を、首振りから通常へ
の移行切り替えを遅れせる分だけ値を増加させた正値
(本実施例では3に設定)を設定する。ステップ227
・228およびステップ138は、実施例1と共通であ
る。ステップ229は、図18に詳細を示している。ス
テップ230では、セマフォ(出力制御変数)をチェッ
クし、2より大きければ、ステップ233でセマフォを
ディクリメントし、ステップ234で移動量補正する。
移動量補正はその回数に応じて調整するため、セマフォ
の関数として定義する。セマフォが負(通常から首振り
への移行)あるいは1(首振りから通常へ設定回数だけ
ウエイトした)場合、ステップ231により出力バスを
切り替え、ステップ232によってセマフォを初期化す
る。
【0056】移動補正量については、さまざまな補正が
考えられるが、最も簡単なものとしては、Δ2θが大き
い場合 S(0) に近くし、逆に小さい場合 S(1) に近くな
るように補正式を定義する。なぜなら、図18(b)に
示すように、Δ2θが大きい場合、すぐにΔθが0にな
る(動きがとまる)恐れが強く、この場合、P(0+), P(1
+) の画像が P(2) と殆ど同じ方が(動きが抑制された
方が)好ましいからである。しかし、Δ2θ が小さけれ
ば、まだ動き続けることが予想されるために、画像が滑
らかに変化することが望ましく、従って P(0+), P(1+)
での画像移動量は抑制される方が望ましいからである。
また、経験を重視してファジイ推論を応用することも可
能である(入出力の関係をテーブルにしておくことで、
LUTにより容易に実現できる)。
【0057】実施例3では、主な対象の描画と背景の描
画を別々に作成し、最後に合成する方式のVRシステム
の実施例である。首を回転させた場合、図4に示したよ
うに、すぐ近くの物体(以下、近接物体)と遠方の物体
(以下、背景物体)とではスクリーン上で物体が見かけ
上移動する距離が異なる。特に、ユーザが特定の対象を
凝視続けることの多い対話型システム(特定の相手・対
象との関連で意味を持つようなシステム)では、その対
象と背景の相対的な関係をより正確に表現することが望
まれる。そこで、このように対象を特定するような利用
(例えば、ゲームあるいは訓練とかで、特定の相手・対
象を仮定する)に対応するために、特定の対象の描画の
質を向上させるためのものである。
【0058】このように、その特定の相手・対象(以
下、主対象)およびその周囲の描写は精細であることが
望ましい。しかし一方、限られた計算機資源でシステム
を構築する場合、プロセッサの能力などに限界がある。
そこで、対象のみを精細に描画し(当然計算量は大きく
なる)、背景は多少画質をおとしてでも少ない計算の処
理を実行し、最後に合成するVRシステムも必要となろ
う。以下、このようなVRシステムに本発明を適用した
実施例3を説明する。
【0059】図19は、本実施例の処理装置について示
してある。中央処理装置301は、先に示した実施例と
同様に、センサ入力の処理(位置情報の生成)および形
状データの更新を行う。主対象描画プロセッサ302
は、中央処理装置301からは対象の形状データを受取
り、そこで生成された画像データを主対象画像データバ
ッファ305に格納する。同様に、背景映像描画プロセ
ッサ304には、対象以外の全ての形状データを送り、
そこで生成された画像データを背景画像データバッファ
307に格納する。一方、映像移動解析プロセッサ30
3では、ユーザの位置変化に対応する主対象画像および
背景画像の移動を解析し、それぞれの移動量を計算する
(後述)。生成されたそれぞれの画像は、出力画像合成
装置306で合成され、フレームバッファ308に送ら
れる。以下、シフトレジスタ310及びビデオコントロ
ーラ309を経てディスプレーに送られるが、この一連
の処理は通常のシステムと同じである。
【0060】図20では、実施例3の処理手順を示して
ある。主プロセッサでの処理は、実施例1と全く同じで
ある。しかし、実施例3では描画系そのものを2系統に
分け、主対象の画像生成と背景画像の生成のプロセスを
分離している。主対象画像生成321では、与えられた
形状モデルから主対象の三次元モデルのみを抽出して描
画する。一方、背景画像生成322では中央処理装置3
01で更新された形状モデルから主対象を取り除いたモ
デルに基づき描画する(あるいは、主対象の影など考慮
する場合は影そのものをモデルで表現する)。中間生成
画像データ323は、それぞれの画像を別々に保持され
(具体的には、主対象画像データバッファ305および
背景映像画像データ307にそれぞれ格納する。)それ
ぞれが画像合成装置306に伝送され画像合成324が
実行される。ここで合成された画像データはフレームバ
ッファ308、シフトレジスタ310及びビデオコント
ローラ309を経てデータ伝送線18経由でヘッドマウ
ントディスプレーに伝送されるが、この一連のプロセス
を画像の出力325で示す。
【0061】図21では、図20の処理手続きのうち描
画処理系に係わる部分をさらに具体的に説明してある。
形状モデルの入力327では、中央処理装置301から
モデルのパラメータを主対象描画プロセッサ302およ
び背景映像描画プロセッサ304に伝送する。主対象プ
ロセッサ302では、主対象の位置を計算(中央処理装
置301に計算させた値を確認する方法も可)し、それ
に基づいて描画データを作成する。背景描画プロセッサ
304では、背景の画像を生成する(背景の画像生成ス
テップ322)。これらは、一旦それぞれのフレームバ
ッファに蓄えられてから、出力合成装置へ伝送される。
ここでは、主対象画像データを各画素ごとに評価(0か
否かのビットテストを実行するだけでよい)し、0でな
ければそのデータを転送し(主対象画像を出力するステ
ップ332)、0であれば同じスクリーン上の座標の背
景画像の画素データを転送する(背景画像を出力するス
テップ333)ことにより、主対象画像と背景画像を合
成する(フレームバッファへの転送のステップ33
4)。この転送されたデータはフレームバッファ308
に保存され、その後は通常の画像表示装置の例に従って
フレームバッファから出力される(フレームバッファへ
のアクセス処理326)。
【0062】図22には、出力合成装置306を具体的
に示している。主対象画像バッファあるいは背景画像バ
ッファに格納されている画像データを、データレジスタ
335 (R0) あるいはレジスタ337 (R1) に送り、画
像合成演算装置336によって両者を合成する。主対象
画像データバッファには、主対象の像がある領域(画
素)に関しては各画素の画像データ、主対象の像がない
領域(画素)に関しては0が入力されるように実現す
る。 このように、スクリーン上同じ位置に存在する画
素データを比較し適宜選択することで、高速に主対象画
像と背景画像の合成が可能である。
【0063】また、主対象の位置に関しては、背景を基
準とした相対関係によって評価する。図4は、近接物体
と背景の相対関係を示している。図4(b)のように視
点がP1(orP1′)から P2 へ移動した場合、近接対象Aと
背景対象Bの視差(スクリーン上の距離は、視差*映像
距離で換算される(図2参照))を考える。回転前の視
差を α とし、回転後の視差を β とする(ここで、背
景の対象は近似的に距離 R にすべてあり、R=∞ の
ときの回転後の視差を γ、β と γ のずれγ−β を
δ とする)。また、P1, P2 から近接対象Aへ引いた線
と背景(を含む平面)との交点を、それぞれ M1, M2 と
する。また、P2 から背景平面に下ろした足を MH とす
る。
【0064】図4(a)には、β の導出について簡単
に説明している。Aから直線 P1P2に下ろした足を H
とする。回転前の目の位置(P1′)における視差 α は
既知であるとして、まずγ(∠AP2MH)を求める。AH
と P2MH とは平行であるから、∠HAP2=γ である。
従って(△AHP2 に着目すると)、γは
【0065】
【数6】
【0066】となる。また、δは言うまでもなく
【0067】
【数7】
【0068】となる。
【0069】Δθが十分小さく、Rが十分大きいけれ
ば、sin(Δθ)≒0, 1/R≒0 となることから、結
局β(β=γ−δ)は、
【0070】
【数8】
【0071】によって求められる。この式は、三角関数
および逆三角関数を用いているため、直接(テーラー展
開などを用いて)実行すると効率はよくない。しかし、
α やθ などは、多くの場合8ビット程度で表現される
ため、これらを予め計算し配列で定義しても、それほど
メモリを必要としない。従って、式の実行にはあまり負
担とはならない。尚、実際の処理は、実施例1および実
施例2と同様に処理(移動量を計算した後に画像を合成
する)をすればよい。
【0072】
【発明の効果】本発明により、従来の処理能力のハード
ウェアを用いたシステムで、従来以上に高速に動きに追
従するシステムの構築が可能となる。
【図面の簡単な説明】
【図1】現在実用化されているバーチャルリアリティ装
置の一例を示した図である。
【図2】図1のシステムにおいて頭を回転させた場合
の、スクリーン上での対象の移動と頭の動きの関係を説
明するための図である。
【図3】本発明の基本原理説明するため、図3(a)で
画像生成の時間遅れによりずれを生じる様子を示した。
図3(b)で、本発明による補正の原理とその効果を示
した図である。
【図4】頭を回転させた場合の近接物体と背景の相対関
係(位置のずれ)とその計算方法を説明する図である。
【図5】図1のバーチャルリアリティシステムを前提と
した(によって構成した)実施例1に関して、中央処理
装置13を具体的に説明した図である。
【図6】実施例1のアクセス制御装置105を具体的に
説明した図である。
【図7】実施例1の出力画像切替装置106を具体的に
説明した図である。
【図8】実施例1の全体的な処理手順を説明した図であ
る。
【図9】実施例1の処理手順のうち、本発明の重要な要
素に係わる部分をさらに具体的に説明した図である。
【図10】実施例1の通常時の処理(従来の処理)と首
振り対応時の処理(本発明の処理)との処理手順を比較
した図である。
【図11】図1のバーチャルリアリティシステムを前提
とした(によって構成した)実施例2に関して、中央処
理装置13を具体的に説明した図である。
【図12】実施例2の処理経過(通常時)の説明の図で
ある。
【図13】実施例2の処理経過(切替時)の説明の図で
ある。
【図14】実施例2の画像経過(切替時)の説明(その
1)図である。
【図15】実施例2の画像経過(切替時)の説明(その
2)図である。
【図16】実施例2の画像経過(切替時)の説明(その
1)図である。
【図17】実施例2の処理手順のうち、本発明の重要な
要素に係わる部分をさらに具体的に説明した図である。
【図18】図17の処理手順のうち、本発明の重要な要
素に係わる部分をさらに具体的に説明した図である。
【図19】図1のバーチャルリアリティシステムを前提
とした(によって構成した)実施例3に関して、中央処
理装置13を具体的に説明した図である。
【図20】実施例1の全体的な処理手順を説明した図で
ある。
【図21】実施例1の処理手順のうち、本発明の重要な
要素に係わる部分をさらに具体的に説明した図である。
【図22】実施例3の出力合成装置306を具体的に説
明した図である。
【符号の説明】
11…位置センサ,12…曲がりセンサ,13…(情
報)処理装置,14…立体カメラ,15…グローブ型セ
ンサ,16…ヘッドマウントディスプレー,17…大画
面ディスプレー、101…中央処理装置,102…描画
プロセッサ,103…主画像フレームバッファ,104
…副画像フレームバッファ,105…アクセス制御装
置,106…出力画像選択装置,107…ビデオコント
ローラ,201…中央情報処理装置,202…副画像移
動解析用プロセッサ,203…主画像描画プロセッサ,
204…アクセス制御装置,205…副画像描画プロセ
ッサ,206…主画像フレームバッファ,207…出力
画像選択装置,208…副画像フレームバッファ,30
1…中央処理装置,302…主対象描画プロセッサ,3
03…映像移動解析プロセッサ,304…背景映像描画
プロセッサ,305…主対象画像データバッファ,30
6…出力画像合成装置,307…背景画像データバッフ
ァ,308…フレームバッファ,309…ビデオコント
ローラ,310…シフトレジスタ

Claims (5)

    【特許請求の範囲】
  1. 【請求項1】グローブあるいはスーツ型のセンサから得
    られた情報をもとに、ヘッドマウントディスプレー上に
    コンピュータグラフィックスによって、仮想的な現実感
    を提供する際に、 首振りのような大きな動作に対して、1ないし数ステッ
    プ前の入力情報によって得られた画像を、現在の入力情
    報により修正し、現在の画像として出力することを特徴
    とするバーチャルリアリティ制御方法。
  2. 【請求項2】グローブあるいはスーツ型のセンサから得
    られた情報をもとに、ヘッドマウントディスプレー上に
    コンピュータグラフィックスによって、仮想的な現実感
    を提供する装置において、 画素の数倍の容量をもつフレームバッファあるいはそれ
    に相当する画像メモリを用い、過去のセンサ情報に基づ
    き既に生成され、フレームバッファ上にある画像情報
    を、現在のセンサ情報に応じて画像を修正するーすなわ
    ち位置のずれに対応させ平行移動させる操作を、相当す
    るフレームバッファ上のアドレスを計算して、そのアド
    レス上の画像データをシフトレジスタに転送する手段を
    有することを特徴とするバーチャルリアリティ制御装
    置。
  3. 【請求項3】グローブあるいはスーツ型のセンサから得
    られた情報をもとに、ヘッドマウントディスプレー上に
    コンピュータグラフィックスによって、仮想的な現実感
    を提供する際に、 背景の急な動きが生じうるセンサ入力のうち、一ステッ
    プ前の入力との差が予め指定したレベル以上の値となっ
    た場合、センサ入力に対応して修正された形状モデルに
    基づいて新たに三次元CGを生成せずに、既に生成され
    ている画像をセンサ入力に応じてリニアに移動させて偏
    差に比例的に平行移動させた画像を近似的に現在の出力
    として出力することを特徴とするバーチャルリアリティ
    方法。
  4. 【請求項4】グローブあるいはスーツ型のセンサから得
    られた情報をもとに、ヘッドマウントディスプレー上に
    コンピュータグラフィックスによって、仮想的な現実感
    を提供する装置において、 ディスプレーの表示に必要なデータの数倍の容量のフレ
    ームバッファまたはフレームバッファに画像データを転
    送することのできる中間バッファを具備し、ディスプレ
    ーに対応する画像の他にディスプレーで表現される視野
    を中心としたその数倍の画像を生成し、当該中間バッフ
    ァに一時的に格納した後、背景の急な動きが生じうるセ
    ンサ入力のうち、一ステップ前の入力との差が予め指定
    したレベル以上の値となった場合、中間バッファに格納
    した画像をセンサ入力に応じてリニアに移動させて偏差
    に比例的に平行移動させた画像に相当する画像データを
    CRTに転送する手段を有することを特徴とするバーチ
    ャルリアリティ制御装置。
  5. 【請求項5】グローブあるいはスーツ型のセンサから得
    られた情報をもとに、ヘッドマウントディスプレー上に
    コンピュータグラフィックスによって、仮想的な現実感
    を提供する際に、 対象の描画と背景の描画を別々に実行したのち、画像合
    成することにより出力画像を生成し、対象および背景の
    それぞれについて移動量を計算し、その移動情報に基づ
    いて画像合成することを特徴とする請求項1記載のバ−
    チャルリアリティ制御方法。
JP4123211A 1992-05-15 1992-05-15 バーチャルリアリティ制御方法および装置 Pending JPH05324799A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4123211A JPH05324799A (ja) 1992-05-15 1992-05-15 バーチャルリアリティ制御方法および装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4123211A JPH05324799A (ja) 1992-05-15 1992-05-15 バーチャルリアリティ制御方法および装置

Publications (1)

Publication Number Publication Date
JPH05324799A true JPH05324799A (ja) 1993-12-07

Family

ID=14854950

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4123211A Pending JPH05324799A (ja) 1992-05-15 1992-05-15 バーチャルリアリティ制御方法および装置

Country Status (1)

Country Link
JP (1) JPH05324799A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012033038A (ja) * 2010-07-30 2012-02-16 Fujitsu Ltd 模擬映像生成装置、方法、プログラム
JPWO2016092698A1 (ja) * 2014-12-12 2017-09-21 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
CN108446192A (zh) * 2018-02-11 2018-08-24 深圳创维新世界科技有限公司 延时测量设备
WO2021199128A1 (ja) * 2020-03-30 2021-10-07 株式会社ソニー・インタラクティブエンタテインメント 画像データ転送装置、画像生成方法およびコンピュータプログラム
WO2021199184A1 (ja) * 2020-03-30 2021-10-07 株式会社ソニー・インタラクティブエンタテインメント 画像表示システム、画像処理装置、画像表示方法、およびコンピュータプログラム

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012033038A (ja) * 2010-07-30 2012-02-16 Fujitsu Ltd 模擬映像生成装置、方法、プログラム
JPWO2016092698A1 (ja) * 2014-12-12 2017-09-21 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
CN108446192A (zh) * 2018-02-11 2018-08-24 深圳创维新世界科技有限公司 延时测量设备
CN108446192B (zh) * 2018-02-11 2021-05-04 深圳创维新世界科技有限公司 延时测量设备
WO2021199128A1 (ja) * 2020-03-30 2021-10-07 株式会社ソニー・インタラクティブエンタテインメント 画像データ転送装置、画像生成方法およびコンピュータプログラム
WO2021199184A1 (ja) * 2020-03-30 2021-10-07 株式会社ソニー・インタラクティブエンタテインメント 画像表示システム、画像処理装置、画像表示方法、およびコンピュータプログラム

Similar Documents

Publication Publication Date Title
US11402634B2 (en) Hand-locked rendering of virtual objects in artificial reality
US10083538B2 (en) Variable resolution virtual reality display system
US9927870B2 (en) Virtual reality system with control command gestures
US10089790B2 (en) Predictive virtual reality display system with post rendering correction
US9240069B1 (en) Low-latency virtual reality display system
US5630043A (en) Animated texture map apparatus and method for 3-D image displays
US6078329A (en) Virtual object display apparatus and method employing viewpoint updating for realistic movement display in virtual reality
US11170577B2 (en) Generating and modifying representations of objects in an augmented-reality or virtual-reality scene
US9595083B1 (en) Method and apparatus for image producing with predictions of future positions
GB2563688A (en) Graphics processing systems
US11954805B2 (en) Occlusion of virtual objects in augmented reality by physical objects
JPH10247252A (ja) 衝突判定処理装置
TW201907270A (zh) 針對虛擬實境漫步式的掃視重新定向
EP3677994B1 (en) Text display method and device in virtual reality, and virtual reality apparatus
JP4717622B2 (ja) プログラム、情報記録媒体および画像生成システム
JPH05324799A (ja) バーチャルリアリティ制御方法および装置
US20210090322A1 (en) Generating and Modifying Representations of Objects in an Augmented-Reality or Virtual-Reality Scene
WO2023240999A1 (zh) 虚拟现实场景确定方法、装置及系统
JPH11195131A (ja) 仮想現実方法及び装置並びに記憶媒体
JP4592917B2 (ja) 画像生成装置及びゲーム装置
JP2009169471A (ja) プログラム、情報記憶媒体、及び画像生成システム
JP3822929B2 (ja) 画像合成方法及び画像合成装置
JPH10334274A (ja) 仮想現実方法及び装置並びに記憶媒体
JPH0628452A (ja) 3次元画像処理装置
JP5063022B2 (ja) プログラム、情報記憶媒体及び画像生成システム