JP2004054590A - 仮想空間描画表示装置、及び仮想空間描画表示方法 - Google Patents
仮想空間描画表示装置、及び仮想空間描画表示方法 Download PDFInfo
- Publication number
- JP2004054590A JP2004054590A JP2002211122A JP2002211122A JP2004054590A JP 2004054590 A JP2004054590 A JP 2004054590A JP 2002211122 A JP2002211122 A JP 2002211122A JP 2002211122 A JP2002211122 A JP 2002211122A JP 2004054590 A JP2004054590 A JP 2004054590A
- Authority
- JP
- Japan
- Prior art keywords
- virtual space
- viewpoint
- map image
- virtual object
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/003—Navigation within 3D models or images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/028—Multiple view windows (top-side-front-sagittal-orthogonal)
Abstract
【解決手段】ビュー画像レンダリング部102は仮想空間において体験者の視点を示す第1の視点に基づいた仮想空間の映像を生成し、ビュー画像提示部101に表示する。また地図画像レンダリング部104は仮想空間において、第1の視点の位置周辺の領域を示す地図画像を生成し、地図画像提示部103に表示する。そして地図画像提示部103の表示面上に設けられ、第1の視点の位置、視線方向を視点位置・視線方向入力部106を用いて制御し、更に地図画像提示部103の表示面上に設けられ、仮想空間に設置された仮想物体に対する操作制御を仮想物体操作入力部107を用いて行う。
【選択図】 図1
Description
【発明の属する技術分野】
本発明は、体験者に仮想空間を体験させるための仮想空間描画表示装置、仮想空間描画表示方法に関するものである。
【0002】
【従来の技術】
最近の計算機の能力向上とともに、3次元コンピュータグラフィクス(CG)が急速に一般化しつつある。それと相まって、3次元仮想空間を取り扱う言語としてVRML (Virtual Reality Modeling Language)が標準化され、広く使われている。現時点で公表されている最新版のVRML2.0 (ISO/IEC 14772−1:1997)は、エレクトリック・コマース用の仮想モール構築、またはイントラネットでのCAD等の3次元データの管理などで用いられている。
【0003】
体験者はVRML等で記述されている3次元仮想空間を2次元ビュー画面を用いて、3次元仮想空間内に設定された視点の位置または視線方向に応じた仮想空間の映像を観察していた。具体的には体験者は、マウスを用いて2次元ビュー画面上のカーソルを動かしたり、ジョイスティックを前後左右に倒したり、トラックボールを回転させたりすることで、視点位置情報と視線方向情報を変化させる。
【0004】
その結果、この体験者に仮想空間の映像を提示する装置は、変化させた視点位置情報と視線方向情報に応じて上記視点の位置、視線方向を変化させ、変化させた視点の位置、視線方向に応じた仮想空間の映像を生成し、生成した映像を体験者に対して提示する。そして体験者はこのように視点位置情報、視線方向情報を逐次変化させることで、3次元仮想空間をウォークスルーすることができる。
【0005】
また、3次元仮想空間内に操作できる仮想物体がある場合、2次元のビュー画面上のカーソルを操作対象の仮想物体の上に移動させ、同時に例えば何かのキーを押しながらその物体を選択して、または操作モードを切り替えることで、この仮想物体を操作していた。
【0006】
【発明が解決しようとする課題】
しかし従来の方法によれば、3次元仮想空間内における視点からの視界(視野角)には限度があって、2次元のビュー画面を見るだけでは、視点の位置が現在3次元仮想空間全体のどこにいるのかがわかりにくい。
【0007】
また上記視点は、あるサイズを持ったオブジェクトとして3次元仮想空間内に存在することになるが、この場合、このオブジェクトは時として3次元仮想空間内における障害物と衝突することがある。しかし、ウォークスルー中に障害物と衝突した場合にはそれ以上、視点位置を障害物のある方向に移動させることができないのであるが、障害物の位置によっては障害物が上記視界には入っていないことがあるため、なぜ視点位置が変化できないのかがわかりにくいことがある。
【0008】
更に、3次元仮想空間内の仮想物体に対する操作は上述の通り2次元のビュー画面上のカーソルを用いて行うことができるが、操作対象の仮想物体の位置と視点位置との間に別の操作可能物体があると、操作対象の仮想物体を操作するのは困難である。
本発明は以上の問題に鑑みてなされたものであり、3次元仮想空間のウォークスルーや、仮想物体の操作をより簡便に行うことを可能とする仮想空間描画表示装置、及び仮想空間描画表示装置を提供することを目的とする。
【0009】
【課題を解決するための手段】
本発明の目的を達成するために、例えば本発明の仮想空間描画表示装置は以下の構成を備える。
【0010】
すなわち、仮想空間において、体験者の視点を示す第1の視点に基づいた仮想空間の映像を生成する第1の生成手段と、
当該第1の生成手段による仮想空間の映像を表示する第1の表示手段と、
前記仮想空間において、前記第1の視点の位置周辺の領域を示す地図画像を生成する第2の生成手段と、
当該第2の生成手段による地図画像を表示する第2の表示手段と、
当該第2の表示手段の表示面上に設けられ、前記第1の視点の位置、視線方向を制御する視点位置視線方向制御手段と、
当該第2の表示手段の表示面上に設けられ、前記仮想空間に設置された仮想物体に対する操作制御を行う操作制御手段と
を備えることを特徴とする。
【0011】
本発明の目的を達成するために、例えば本発明の仮想空間描画表示方法は以下の構成を備える。
【0012】
すなわち、仮想空間において、体験者の視点を示す第1の視点に基づいた仮想空間の映像を生成する第1の生成工程と、
前記仮想空間において、前記第1の視点の位置周辺の領域を示す地図画像を生成する第2の生成工程と、
前記地図画像を表示する表示部の表示面上に設けられた視点位置視線方向制御手段を用いて前記第1の視点の位置、視線方向を制御する視点位置視線方向制御工程と、
前記表示部の表示面上に設けられた操作制御手段を用いて、前記仮想空間に設置された仮想物体に対する操作制御を行う操作制御工程と
を備えることを特徴とする。
【0013】
【発明の実施の形態】
以下添付図面を参照して、本発明を好適な実施形態に従って詳細に説明する。
【0014】
[第1の実施形態]
3次元仮想空間の体験、即ち3次元仮想空間におけるウォークスルーと仮想物体操作を体験者に体験させるための、本実施形態に係る仮想空間描画表示装置についてまず説明する。ここでウォークスルーとは、3次元仮想空間における体験者の視点位置の移動や視線方向等により、体験者がこの3次元空間内を閲覧することである。
【0015】
本実施形態に係る仮想空間描画表示装置は、VRMLで記述されている3次元仮想空間のデータを用いて3次元仮想空間の映像を生成する。そして、仮想空間における体験者の視点位置と視線方向に応じて体験者の見るべき仮想空間のビュー画像を生成し、ビュー画像提示装置がこれを提示する。
【0016】
また体験者にとって仮想空間内の自身の現在位置(視点位置)を分かりやすくするために、仮想空間内での体験者の視点位置・視線方向を入力するための入力装置を、3次元仮想空間を上から見た2次元の地図画像を表示する表示装置上に設け、その地図上での視点位置・視線方向が体験者の視点の現在位置と視線方向を入力する。
【0017】
本実施形態でも視点はあるサイズを有するオブジェクトとして表現するが、このオブジェクトと仮想空間内の壁や台などとの衝突が起きたときには、体験者は視点位置・視線方向入力装置の周りの地図を見て、オブジェクトと障害物との位置関係を把握し、視点位置・視線方向入力装置を用いてオブジェクトの位置を移動させ、障害物を避ければ良い。
【0018】
また、同じ地図の上に仮想物体を操作するための仮想物体操作入力装置も設ける。そして操作対象の仮想物体が有れば、地図上の仮想物体の画像と仮想物体操作入力部をお互いに近づかせて、仮想物体を選び、物体回転や物体移動等の様な操作を行う。3次元仮想空間データは幾何学モデルに限定されず、例えば光線空間データ等の異なったデータ形式でも良い。
【0019】
図1は、3次元仮想空間の体験、つまり仮想空間におけるウォークスルーと仮想物体操作を体験者に体験させるための仮想空間描画表示装置の機能構成を説明するブロック図である。図2は、体験者が本実施形態の仮想空間描画表示装置を操作する様子を示す図である。
【0020】
以下、図1,2を用いて、本実施形態に係る仮想空間描画提示装置について説明する。
【0021】
ビュー画像提示部101は、体験者が入力した視点位置・視線方向に応じた仮想空間の画像を体験者に提示する。ビュー画像提示部101は画像を表示することができる媒体であれば特に限定されるものはなく、例えばプロジェクタやスクリーン、CRTや液晶ディスプレイ等が適用可能である。また立体映像の表示装置を適用しても良い。また表示する面は一面でも、複数面でもよい。また本実施形態では、仮想空間における体験者の視点からの視野角は固定されているものとするが、動的に変化しても良い。図2に示すビュー画像提示装置201は一つの例である。
【0022】
ビュー画像レンダリング部102は、仮想空間における視点の視野に入っている仮想空間の画像を3次元仮想空間データを元に生成する。3次元仮想空間データは3次元仮想空間データ記憶部110に保存されている。
【0023】
シミュレーション部105は3次元仮想空間のどの部分のビュー画像を体験者に提供するかを判断する判断処理や、ウォークスルー中に視点を示すオブジェクトと仮想空間内に設置された障害物との衝突判定処理等、ウォークスルーに関するメインの処理を行う。例えば体験者は後述の操作部を用いて仮想物体の位置と姿勢を変更することができるが、その際、シミュレーション部105はその操作の結果を3次元仮想空間データに反映させ、常に最新状態を3次元仮想空間データ記憶部110に格納する。
【0024】
またシミュレーション部105は後述の地図画像を生成するために、体験者の視点位置の周囲の領域を示す3次元仮想空間データを3次元仮想空間データ記憶部110が格納する3次元仮想空間データから選び、地図画像レンダリング部104に送る。地図画像レンダリング部104は送られた3次元仮想空間データを用いて、体験者の視点位置の周囲の領域を示す仮想空間の地図の画像を生成する。
【0025】
地図画像提示部103は、地図画像レンダリング部104で生成された地図画像を提示する。地図画像提示部103上には、視点位置・視線方向情報を入力するための装置であるユーザーインタフェイス(UI)と、仮想物体に対する操作の指示を入力するための装置であるUIを設ける。
【0026】
図2では、地図画像提示部103として機能する、プロジェクタ204を用いた地図画像提示装置202を示す。同図では、プロジェクタ204が地図画像提示装置202の表示面の裏に画像を投影するバックプロジェクション方式を示している。一方、フロントプロジェクションを用いても良く、その場合の仮想空間描画表示装置を図3に示す。同図では、プロジェクタ301が地図画像提示装置202の表示面の表に画像を投影するフロントプロジェクション方式を示している。
【0027】
図4は、ビュー画像提示装置201上に提示するビュー画像の一例としてのビュー画像501と、地図画像提示装置202の表示面上に提示する地図画像の一例としての地図画像502と、視点位置・視線方向入力UI205の一例としての地図画像502上の視点位置・視線方向入力UI503とを示す図である。また同図では、仮想物体に対する操作の指示を入力するための装置であるUIは説明上、省略している。
【0028】
本実施形態では視点位置・視線方向入力UI503として、トラックボールを使用し、地図画像提示装置202の表示面上におけるトラックボールの位置が地図上の視点位置を示すものとし、視線方向は同図504に示すように、地図画像提示装置202の表示面上において常に上方向を指しているものとする。なお、視線方向を示す矢印504は説明上同図に示したが、現在の視線方向を体験者が分かり易くするためにこの矢印504の画像を地図画像提示装置202の表示面上に表示しても良い。トラックボールは地図画像の表示面における絶対位置と方向が固定になるため、トラックボールを操作すると、仮想空間の地図画像がスクロール或いは回転する。
【0029】
図5は、トラックボール503を用いた視点位置の制御方法を説明する図、図6は、トラックボール503を用いた視線方向の制御方法を説明する図である。また図5,6では、仮想物体に対する操作の指示を入力するための装置であるUIは説明上、省略している。
【0030】
図5において、例えばトラックボール503を551の方向に回すことで、地図画像502は562の方向にスクロールする。これにより、視点の位置は地図上において上方向に移動することになる。一方、トラックボール503を552の方向に回すことで、地図画像502は561の方向にスクロールする。これにより、視点の位置は地図上において下方向に移動することになる。
【0031】
一方、図6において、例えばトラックボール503を571の方向に回すことで、地図画像502はトラックボール503の位置を中心に、582の方向に回転する。これにより視線方向ベクトル504は地図画像提示装置202の表示面上においてその絶対方向は変化しないが、地図画像の回転により地図画像内において向いている方向は変化するので、結果的に視線方向は地図画像内において左回転方向に向くことになる。
【0032】
一方、トラックボール503を572の方向に回すことで、地図画像502はトラックボール503の位置を中心に、581の方向に回転する。これにより視線方向ベクトル504は地図画像提示装置202の表示面上においてその絶対方向は変化しないが、地図画像の回転により地図画像内において向いている方向は変化するので、結果的に視線方向は地図画像内において右回転方向に向くことになる。
【0033】
以上説明したトラックボール503の制御方法により視点位置、視線方向を制御できると共に、これら制御方法を組み合わせることで、視点位置を地図上を任意に移動させることもできる。
【0034】
視点位置・視線方向入力UI503により制御された視点位置・視線方向に基づいた仮想空間の映像は、ビュー画像提示装置201にビュー画像501として提示される。
【0035】
なお図5,6ではトラックボール503を用いた視点位置、視線方向の制御方法について説明したが、トラックボール503の使用方法はこれに限定されるものではなく、例えばトラックボールの横方向回転(方向571,方向572)により視点位置の真横移動(かに歩き)や視点位置の高さの移動などを行うこともできる。
【0036】
またトラックボールの回転量に応じた視点移動量と視線回転量もいろいろ考えることが可能である。例えばトラックボールの回転量に応じて視点の移動・視線の方向回転の速度を変えても良いし、トラックボールの回転分だけ移動距離・視点方向角度を変える。この場合は、トラックボールを転がしながら視点移動・視線回転が行い、トラックボールを転がさなければ視点位値・視線方向が変わらない。
【0037】
また図3に示すように、フロントプロジェクタ式を採用していれば、トラックボールの上に特別な映像を投影することもできる。例えば、カメラ自体の映像をトラックボールの上に投影すれば、体験者には「トラックボール」ではなく、「仮想空間の中を移動するカメラ」の印象を与えることができる。
【0038】
次に、体験者が仮想空間における仮想物体に対して各種の操作を行うために、体験者が使用する仮想物体操作入力UI206について以下、説明する。本実施形態では仮想物体操作入力UI206として上記視点位置・視線方向入力UI205と同様にトラックボールを用いる。
【0039】
図7は、地図画像を示すと共に、この地図画像を提示する地図画像提示装置202上に設けられた上記視点位置・視線方向入力UI503と、上記仮想物体操作入力UI206として機能する仮想物体操作入力UI701とを示す図である。本実施形態では、地図画像の表示面での仮想物体操作入力UI701の位置は固定されているものとする。
【0040】
また地図画像には、仮想空間中の仮想物体を示す画像が表示される。この画像は、実際の仮想物体の画像でも良いし、何らかの印を用いても良い。図7では、仮想物体が存在する位置に仮想物体を示す印の画像(702乃至707)を表示している。
【0041】
本実施形態では地図画像において仮想物体操作入力UI701に一番近い位置にある仮想物体がまず操作対象として選択される。これは、地図画像における仮想物体操作入力UIの位置は求めることはできるので、求めた位置と夫々の仮想物体の地図画像における位置とを比較することで求めることができる。同図では仮想物体702が操作対象として選択されている。
【0042】
そしてその後、他に選択したい仮想物体がある場合には仮想物体操作入力UI701を用いて他の仮想物体を選択する。選択された仮想物体を視覚的に識別しやすくするために、選択された仮想物体の画像の色を変更したり、画像を点滅させたり、枠を表示したりしても良い。
【0043】
地図画像提示装置202に対してフロントプロジェクション式の投影プロジェクタを採用していれば、仮想物体操作入力UI701を用いて選択された仮想物体の画像を投影しても良い。そして選択された仮想物体の画像は仮想物体操作入力UI701によって操作される。
【0044】
仮想物体の操作としては、物体回転、左右移動、前後移動、上下移動などが考えられる。複数の操作をトラックボールを用いた2つの操作(縦と横方向回転)に対応させるためには、操作モードの切り替えが必要である。モードの切り替えUIとしては、例えばキーボードや、図8に示すように801〜805のモード切り替えボタンも用いることができる。図8はモード切替ボタン群を示す図で、これらのボタン群は地図画像提示装置202においてプロジェクタにより地図画像が表示されない領域に設けても良いし、これらのボタン群は独立した装置に設けても良い
例えばボタン801を押しながらトラックボール701を回転させると、回転させた方向に選択された仮想物体が回転する。同様にボタン802を押しながらトラックボール701を回転(縦方向に回転)させると、回転させた方向に選択された仮想物体が移動する。同様にボタン803を押しながらトラックボール701を回転(縦方向に回転)させると、回転させた方向に選択された仮想物体が移動する。同様にボタン804を押しながらトラックボール701を回転(横方向に回転)させると、回転させた方向に選択された仮想物体が移動する。またボタン805のアノテーション機能を押すと、選択された仮想物体に関する説明が地図画像提示装置202上に表示され、かつ予め録音され、仮想物体操作入力部107に保持されている、選択された仮想物体に関する音声も再生される。
【0045】
なお、ボタン群による機能はこれに限定されるものではなく、他の機能を追加することもできる。また各ボタン群とトラックボールとの組み合わせによる操作方法はこれに限定されるものではない。
【0046】
以上説明した仮想物体操作入力UI206、仮想物体操作モード切り替えUIを用いた仮想物体の操作を行う際に用いる各種の情報は仮想物体操作入力部107が管理し、仮想物体の操作結果をシミュレーション部105に渡す。
【0047】
本実施形態では視点位置・視線方向入力UI503、仮想物体操作入力UI701としてトラックボールを用いたが、これに限定されるものではなく、夫々異なる位置固定の入力装置であれば、例えばジョイスティックやトラックパッド等を代わりに使うこともできる。
【0048】
また上記地図画像に対して体験者が各種の操作を行うこともできる。その場合、体験者はキーボードやマウス、ボタン群等により構成される地図表示操作入力部109を用いる。その操作の内容としては、地図画像の拡大、縮小、地図画像の詳細度の設定(画像生成に使われる幾何学情報の細かさやポリゴン数の設定、地図画像に対してテクスチャ画像を貼り付けるか否かの設定、地図画像をワイヤーフレーム表示するか否かの設定等)、3次元仮想空間においてどの高さから地図画像を生成するかを設定するための高さ設定、広域地図と狭域地図の同時表示を行うか否かの設定等がある。地図表示操作入力部109を用いて入力された上記各種の設定情報はシミュレーション部105に送られる。以下にいくつかの地図表示操作を詳しく説明する。
【0049】
図9(a)、(b)は夫々同じ3次元空間の地図画像ではあるが、異なる高さの設定を行った結果、得られる地図画像の例を示す図である。図9(a)に示した地図画像901は、地図の中心にあるテーブルの上の表面が見える高さに基づいて生成されたものである。一方、図9(b)に示した地図画像は、地図画像901を生成した際の高さよりも低い高さに基づいて生成されている。よって地図画像902では、テーブルの上の表面を表示することができず、テーブルの4本の脚しか表示されない。
【0050】
図10は、広域地図画像と狭域地図画像との同時表示例を示す図である。同図では広域地図画像の表示領域の枠を表示しているが、この枠を地図表示操作入力部109を用いて指示し、表示領域の位置を変更したり、表示領域を拡大、縮小させることができる。また本実施形態では地図画像は視点の位置の真上から3次元仮想空間を見下ろした平面地図の画像を用いたが、これに限定されるものではなく、仮想空間の鳥瞰図としての地図の画像であってもよい。
【0051】
図1においてその他操作入力部108は、他の操作に関する入力を行い、シミュレーション部105にその入力情報を送る。他の操作の例として、ビューの視野角の調整機能や、3次元仮想空間データを初期状態に戻す機能や、仮想空間のコンテンツの切り替えなどがある。
【0052】
また本実施形態では1つの装置でビュー画像のレンダリング、地図画像のレンダリングを行っているが、これらの処理は装置に対して大きな負荷をかけるものである。よって、これらの処理を外部の計算機(夫々の処理を夫々異なる計算機に行わせても良い)に行わせ、処理結果のみをこの計算機から送ってもらうこともできる。
【0053】
以上説明した本実施形態に係る仮想空間描画表示装置が、体験者に3次元仮想空間の体験を行わせるために行う各種の処理のフローチャートを図11に示し、同フローチャートを用いて同処理について以下説明する。
【0054】
まず、仮想空間描画表示装置が起動され、本装置の初期設定が行われる(ステップS101)。そして次に、体験者に3次元仮想空間の体験を行わせるために行う各種の処理のために、3次元仮想空間データの読み込みなどを行ったり、各種の初期化を行うなどの処理を行う(ステップS102)。
【0055】
そしてこれ以降、実際に体験者に3次元仮想空間の体験を行わせるための処理を行うのであるが、まず、視点位置・視線方向情報入力部106は入力される上記各UIからの入力情報に従って、視点位置、視点方向を求め、求めたこれらの情報をシミュレーション部105に送る(ステップS103)。なお、ステップS103ではウォークスルーを行うに関する他の処理も行うが本ステップにおける処理の詳細については後述する。
【0056】
一方、仮想物体操作入力部107は入力される仮想物体に対する操作に関する情報をシミュレーション部105に送る(ステップS104)。本ステップにおける処理の詳細については後述する。また、その他操作入力部108から入力された上記その他の操作入力情報は、シミュレーション部105に送られる(ステップS105)。
【0057】
ここで処理の終了の指示が入力された場合には処理をステップS111に進め、仮想空間描画表示装置の終了処理を行う(ステップS111)。一方、終了の指示が入力されていない場合には処理をステップS107に進め、ビュー画像レンダリング部102は、シミュレーション部105から送られた視点位置、視線方向情報、視野角、3次元仮想空間データを用いて、視点位置、視線方向に応じた仮想空間の画像(ビュー画像)を生成する(ステップS107)。そして生成されたビュー画像はビュー画像提示部101において提示される(ステップS108)。
【0058】
また、地図画像レンダリング部104は、シミュレーション部105から送られた視点位置、視線方向情報や、地図表示操作入力部109から入力された地図画像を表示するための各種情報を用いて、地図画像を生成する(ステップS109)。そして生成された地図画像は地図画像提示部103において提示される(ステップS110)。
【0059】
なお仮想空間描画表示装置が並列処理を行うことができれば、ステップS107における処理とステップS109における処理は並列に行っても良い。また、夫々の処理を外部の装置に行わせる場合、ステップS107における処理とステップS109における処理は夫々、この外部の装置から、処理結果を受ける処理となる。
【0060】
次に、上記ステップS103におけるウォークスルーに関する処理の詳細について、図12に示すフローチャートを用いて説明する。図12はステップS103における処理の詳細を示すフローチャートである。
【0061】
まず、視点位置・視線方向入力部106は視点位置・視線方向入力UI503から入力された視点位置、視線方向情報を用いて、仮想空間内の新しい視点位置、視線方向を求める(ステップS200)。本ステップにおける処理の詳細については後述する。次にシミュレーション部105は仮想空間内の視点の位置を求めた新しい視点位置に移動させ(ステップS201)、この視点の視線方向を求めた新しい視線方向に更新する(ステップS202)。
【0062】
ここで以上の処理を行った結果、シミュレーション部105は仮想空間の視点が移動した際に視点(オブジェクト)と3次元仮想空間における障害物との衝突判定を行い(ステップS203)、衝突が起きたか否かを判断する(ステップS204)。
【0063】
そして衝突が起きた場合には処理をステップS205に進め、シミュレーション部105は視点位置をステップS201で移動させる前の位置に戻す(ステップS205)。なお、ステップS205では視点位置は必ずしも元の位置に戻す必要はなく、障害物と衝突しない位置に移動させる処理であればよい。
【0064】
そしてステップS205における処理の後、もしくは衝突が起きていない場合には、現在の視点位置と視線方向の情報を上記3次元仮想空間データとして3次元仮想空間データ記憶部110に保持する(ステップS206)。
【0065】
次に、上記ステップS200における処理の詳細について、図13に示すフローチャートを用いて説明する。図13は、ステップS200における処理の詳細を示すフローチャートである。
【0066】
まず、視点位置・視線方向入力部106は視点位置・視線方向入力UIからの入力を検出する(ステップS401)。本実施形態では視点位置・視線方向入力UIとしてトラックボールを用いているので、トラックボールの回転情報(回転方向と回転量)を検出する。
【0067】
そして検出した回転方向と回転量に基づいて、視点の移動量(ステップS402)、視線方向の変化量(回転量)(ステップS403)を求める。そして、視点位置(ステップS404)、視線方向(ステップS405)を求めた新しい視点位置、視線方向に更新する。
【0068】
次に、上記ステップS104における処理の詳細について、図14に示すフローチャートを用いて説明する。図14は、上記ステップS104における処理の詳細を示すフローチャートである。
【0069】
まず仮想物体操作入力UIを用いて入力される、もしくは仮想物体操作入力UIの位置に最も近い位置にある、操作対象の仮想物体の選択を待つ(ステップS300)、シミュレーション部105は選択された仮想物体に対する操作内容、すなわち、仮想物体操作入力UIから入力された仮想物体の位置、姿勢情報から、操作対象の仮想物体の新しい位置、姿勢を求め(ステップS301)、仮想物体の位置(ステップS302)、姿勢(ステップS303)を更新する。上記ステップ301における処理の詳細については後述する。そして、更新した位置、姿勢データを、選択された仮想物体の位置、姿勢のデータとして3次元仮想空間データ記憶部110に3次元仮想空間データとして保持する(ステップS304)。
【0070】
次に、上記ステップS301における処理の詳細について、図15に示すフローチャートを用いて説明する。図15は、上記ステップ301における処理の詳細を示すフローチャートである。
【0071】
まず、仮想物体操作入力部107は仮想物体操作入力UIからの入力を検出する(ステップS501)。本実施形態では仮想物体操作入力UIとしてトラックボールを用いているので、トラックボールの回転情報(回転方向と回転量)を検出する。
【0072】
そして検出した回転方向と回転量に基づいて、仮想物体の移動量(ステップS502)、姿勢の変化量(回転量)(ステップS503)を求める。そして、仮想物体の位置(ステップS504)、姿勢(ステップS505)を求めた新しい位置、姿勢に更新する。
【0073】
図16は、本実施形態に係る仮想空間描画表示装置の基本構成を示すブロック図である。1601はCPUで、RAM1602やROM1603に格納されたプログラムやデータなどを読み込んで実行し、コンピュータ全体の制御や、前述の各処理等を実行する。
【0074】
1602はRAMで、記憶媒体のドライブ1604や外部記憶装置1605から読み込んだプログラムやデータなどを一時的に格納するエリアを備えると共に、CPU1601が各種の処理を実行する際に使用するワークエリアなども備える。1603はROMで、コンピュータ全体の制御を行うためのプログラム(ブートプログラムを含む)やデータ(各種の設定などを含む)を格納する。又、文字コードなども格納する。
【0075】
1604は記憶媒体のドライブで、CD−ROMやDVD−ROM等の記憶媒体からプログラムやデータ等を読み込むドライブである。1605は外部記憶装置であって、記憶媒体のドライブ1604から読み込んだプログラムやデータ等を保存する。また、CPU1601が使用するワークエリアのサイズがRAM1602が提供するワークエリアのサイズを越えた場合には、ファイルとしてその越えた分のワークエリアを提供することもできる。
【0076】
1606と1607は表示部で、夫々地図画像表示用、ビュー画像表示用のものであると共に、夫々地図画像提示部103,ビュー画像提示部101として機能する。また夫々の表示部はCRTや液晶画面やプロジェクタなどにより構成されており、実行時のビュー画像や地図画像やその他の必要なGUI等を表示することができる。1608は操作部で、キーボードやマウスなどのポインティングデバイスを含み、各種の指示をコンピュータに入力することができる。操作部1608は、上記モード切替UIとしても用いることができる。
【0077】
1609はインターフェース(I/F)部で、インターネットなどに接続するためのネットワークインターフェースや、プリンタなどの周辺機器と接続するためのインターフェースを含み、外部の装置にレンダリング処理を行わせ、その結果をこの外部装置から受信する場合に用いることができる。またこのI/F部1609を介して、仮想空間描画表示装置において生成したビュー画像と地図画像とを外部の装置に対して送信することもできる。
【0078】
1610はウォークスルー操作部で、上記表示部1606上に設けられ、視点位置・視線方向入力UI、視点位置・視線方向入力部106,その他操作入力部108、地図表示操作入力部109として機能する。1611は仮想物体操作部で、上記表示部1606上に設けられ、仮想物体操作入力UI、仮想物体操作入力部107として機能する。1612は上述の各部を繋ぐバスである。
【0079】
以上のように、第1実施形態によれば、体験者は3次元仮想空間のウォークスルーと仮想空間内の仮想物体の操作を容易かつ直感的に行うことができる。
【0080】
[第2の実施形態]
第1実施形態に係る仮想空間描画表示装置では、視点位置・視線方向入力UIの位置は、地図画像表示面に対して固定であって、ウォークスルーの際に地図画像がスクロールもしくは回転する。また、仮想物体操作入力UIの位置は、地図画像表示面に対して固定であった。
【0081】
本実施形態に係る仮想空間描画表示装置では、視点位置・視線方向入力UIは、地図画像表示面の上を移動できる。また仮想物体操作入力UIは、地図画像表示面の上を移動でき、地図画像は動かず、仮想物体操作入力UIを仮想物体の近くまで移動しその仮想物体を選択する。そして、選択されている間に仮想物体操作入力UIを操作することで、仮想物体がUIに追従して表示される。
【0082】
本実施形態に係る仮想空間描画表示装置の機能構成は図1に示した構成に加えて、位置姿勢センサを備える。また本実施形態に係る視点位置・視線方向情報入力部106と仮想物体操作部107の機能は第1の実施形態の夫々の機能と同じではあるが、その構成が異なる。また、本実施形態では、地図画像として用いる仮想空間の領域の決定方法が第1の実施形態とは異なる。
【0083】
以下、第1の実施形態とは異なるこれらの部分について説明する。図17は、ビュー画像提示部201上に表示されたビュー画像と、地図画像提示装置202に表示されている地図画像と、地図画像上に設けられた視点位置・視線方向入力UI1703とを示す図である。同図では説明のために、仮想物体操作入力UIは省略している。
【0084】
本実施形態では視点位置・視線方向入力UI1703として、後述の磁気式位置姿勢センサから発信された磁場によって、自身の位置、姿勢を検知することができる受信機としてのセンサを用いる。具体的には視点位置・視線方向入力UI1703は自身の位置、姿勢に応じた信号をシミュレーション部105に送り、シミュレーション部105はこの信号に基づいて視点位置・視線方向入力UI1703の地図画像提示装置上の位置、姿勢を求める。
【0085】
また、本実施形態に係る視点位置・視線方向入力UI1703は地図画像提示装置202の表示面上を移動可能であり、体験者が視点位置・視線方向入力UI1703をもって、表示面上の任意の位置に任意の姿勢で置くことができる。このような視点位置・視線方向入力UIを用いることにより、体験者はより直感的に視点位置、視線方向を操作することができる。
【0086】
図18は、体験者が本実施形態の仮想空間描画表示装置を操作する様子を示す図である。本実施形態に係る仮想空間描画表示装置は上述の通り、磁気式位置姿勢センサの発信器1806Aを備え、この発信器から発信された磁場によって、磁気式位置姿勢センサの受信機として機能する視点位置・視線方向入力UIは自身の位置、姿勢を検知することができる。なお、磁気式センサを用いた位置、姿勢の計測方法については公知の技術であるために、ここでの説明は省略する。また、求める位置は地図画像提示装置上の所定の位置を原点となるように予めキャリブレーションを行っておく必要がある。また求める姿勢は予め所定の姿勢が基準となるように予めキャリブレーションを行っておく必要がある。
【0087】
本実施形態では仮想物体操作入力UIも視点位置・視線方向入力UIと同様の構成を備え、磁気式位置姿勢センサの受信機として機能する。なお本実施形態ではセンサとして磁気式のものを用いているが、これに限定されるものではなく、他にも例えば光学式のものを用いても良い。
【0088】
また、上記視点位置・視線方向入力UIを表示されている地図画像の領域外に置きたい場合には、上記その他操作入力部108などを用いて地図画像を回転やスクロールなどを行っても良い。なお、図19に地図画像提示装置202の表示面に表示される地図画像をスクロールさせるための1つの例を示す。
【0089】
図19は地図画像提示装置202の表示面のレイアウトを示す図である。同図において領域1901は地図画像を表示する領域で、領域1902は領域1901に表示される地図画像をスクロールさせるための領域である。領域1902の詳細を図20に示す。
【0090】
同図に示すとおり領域1902は領域2001から2008により構成されており、夫々の領域に視点位置・視線方向入力UIを置くことで対応する方向に領域1901内に表示される地図画像がスクロールする。例えば視点位置・視線方向入力UIを領域2002に置くと、領域1901内に表示される地図画像は右上方向にスクロールする。また視点位置・視線方向入力UIを領域2007に置くことで領域1901内に表示される地図画像は荷駄理法校にスクロールする。なお同図ではスクロールする方向を8方向としているがこれに限定されるものではなく、例えば4方向でも良いし、16方向でも良い。また各方向にスクロールさせるための各領域2002から2008は夫々矢印などにより表現しても良い。
【0091】
次に、本実施形態に係る仮想物体操作入力UIを用いての視点位置・視線方向の制御方法について説明する。図21は地図画像を示すと共に、この地図画像を提示する地図画像提示装置202上に設けられた上記視点位置・視線方向入力UIと、上記仮想物体操作入力UIとを示す図である。
【0092】
本実施形態では仮想物体操作入力UIには2つのモード選択機能を備える。すなわち、仮想物体選択機能と仮想物体操作モードである。これらのモードは例えば仮想物体操作入力UIにこの切り替えを行うボタンを付け、このボタンを押す毎に順次夫々のモードに切り替わるようにしても良い。
【0093】
まず仮想物体選択モードについて説明する。本実施形態では第1の実施形態と同様に地図画像において仮想物体操作入力UIに一番近い位置にある仮想物体がまず操作対象として選択される。これは、地図画像における仮想物体操作入力UIの位置は求めることはできるので、求めた位置と夫々の仮想物体の地図画像における位置とを比較することで求めることができる。同図では仮想物体2102が操作対象として選択されている。
【0094】
そしてその後、他に選択したい仮想物体がある場合には仮想物体操作入力UIを用いて他の仮想物体を選択する。選択された仮想物体を視覚的に識別しやすくするために、選択された仮想物体の画像の色を変更したり、画像を点滅させたり、枠を表示したりしても良い。
【0095】
次に、仮想物体操作モードについて説明する。仮想物体操作モードでは仮想物体操作入力UIを体験者が手にとって、その位置、姿勢を任意に変更することができる。そして地図画像提示装置の表示面上に任意の位置(上記スクロールする領域以外の領域)に任意の姿勢で置くことで、選択された仮想物体はこの位置姿勢と同じ位置姿勢をとる。これは、仮想物体操作入力UIが検知した自身の位置、姿勢に応じた信号をシミュレーション部105に送り、シミュレーション部105がこの信号に応じた仮想物体操作入力UIの位置姿勢を求め、選択された仮想物体の位置姿勢を仮想物体操作入力UIによる位置姿勢に更新することで実現できる。
【0096】
以上説明した本実施形態に係る仮想空間描画表示装置が、体験者に3次元仮想空間の体験を行わせるために行う各種の処理のフローチャートを図22に示し、同フローチャートを用いて同処理について以下説明する。
【0097】
まずステップS101と同様に本装置が起動され(ステップS2201)、そしてステップS102と同様に各種の処理が行われる(ステップS2202)。
【0098】
そしてこれ以降、実際に体験者に3次元仮想空間の体験を行わせるための処理を行うのであるが、まず、視点位置・視線方向情報入力部106は入力される上記各UIからの入力情報に従って、視点位置、視点方向を求め、求めたこれらの情報をシミュレーション部105に送る(ステップS2203)。なお、ステップS2203ではウォークスルーを行うに関する他の処理も行うが本ステップにおける処理の詳細については後述する。
【0099】
一方、仮想物体操作入力部107は入力される仮想物体に対する操作に関する情報をシミュレーション部105に送る(ステップS2204)。本ステップにおける処理の詳細については後述する。また、その他操作入力部108から入力された上記その他の操作入力情報は、シミュレーション部105に送られる(ステップS2205)。
【0100】
ここで処理の終了の指示が入力された場合には処理をステップS2211に進め、仮想空間描画表示装置の終了処理を行う(ステップS2211)。一方、終了の指示が入力されていない場合には処理をステップS2207、ステップS2209に進める。本装置が並列処理が可能であれば、ステップS2207以降の処理とステップS2209以降の処理とを並列に行うことができるが、本装置が並列処理を行うことができないのであれば、ステップS2207以降の処理、ステップS2209以降の処理のいずれかを先にして順次行えばよい。
【0101】
なおステップS2207以降の処理、ステップS2209以降の夫々の処理を外部の装置に行わせる場合、ステップS2207における処理とステップS2209における処理は夫々、この外部の装置から、処理結果を受ける処理となる。
【0102】
まずステップS2207以降の処理について説明する。ビュー画像レンダリング部102は、シミュレーション部105から送られた視点位置、視線方向情報、視野角、3次元仮想空間データを用いて、視点位置、視線方向に応じた仮想空間の画像(ビュー画像)を生成する(ステップS2207)。そして生成されたビュー画像はビュー画像提示部101において提示される(ステップS2208)。
【0103】
次にステップS2209以降の処理について説明する。地図画像レンダリング部104は、シミュレーション部105から送られた視点位置、視線方向情報や、地図表示操作入力部109から入力された地図画像を表示するための各種情報を用いて、地図画像を生成する(ステップS2209)。また地図画像を表示する領域をスクロールさせるための領域に視点位置・視線方向入力UIを置いた場合には本ステップではスクロール処理も行う。そして生成された地図画像は地図画像提示部103において提示される(ステップS2210)。
【0104】
次に、ステップS2203における処理の詳細について、図23に示すフローチャートを用いて以下説明する。図23はステップS2203における処理の詳細を示すフローチャートである。
【0105】
まずシミュレーション部105は視点位置・視線方向入力UI1703から入力された位置、姿勢を示す信号を受け、仮想空間内の新しい視点位置・視線方向入力UI1703の位置、姿勢(すなわち視点位置、視線方向)を求める(ステップS2301)。本ステップにおける処理の詳細については後述する。次にシミュレーション部105は仮想空間内の視点の位置を求めた新しい視点位置に移動させ(ステップS2302)、この視点の視線方向を求めた新しい視線方向に更新する(ステップS2303)。
【0106】
ここで以上の処理を行った結果、シミュレーション部105は仮想空間の視点が移動した際に視点(オブジェクト)と3次元仮想空間における障害物との衝突判定を行い(ステップS2304)、衝突が起きたか否かを判断する(ステップS2305)。
【0107】
そして衝突が起きた場合には処理をステップS2306に進め、シミュレーション部105は視点位置をステップS2302で移動させる前の位置に戻す(ステップS2302)。なお、ステップS2306では視点位置は必ずしも元の位置に戻す必要はなく、障害物と衝突しない位置に移動させる処理であればよい。
【0108】
そしてステップS2306における処理の後、もしくは衝突が起きていない場合には、現在の視点位置と視線方向の情報を上記3次元仮想空間データとして3次元仮想空間データ記憶部110に保持する(ステップS2307)。
【0109】
次に、上記ステップS2301における処理の詳細について、図24に示すフローチャートを用いて説明する。図24は、ステップS2301における処理の詳細を示すフローチャートである。
【0110】
まず、シミュレーション部105が、地図画像提示装置の表示面上の視点位置・視線方向入力UI1703の位置と姿勢を検出する(ステップS801)。またシミュレーション部105は、地図画像提示装置が表示している地図画像が3次元仮想空間においてどの領域を示しているのかを獲得する(ステップS802)。そしてシミュレーション部105は獲得した領域における視点位置・視線方向入力UIの位置を求める(ステップS803)。そしてシミュレーション部105は更に、ステップS803で求めた位置が3次元仮想空間においてどの位置であるかを求める(ステップS804)。
【0111】
次に、シミュレーション部105はステップS802で獲得した領域における視点位置・視線方向入力UIの姿勢を求める(ステップS805)。そしてシミュレーション部105は更に、ステップS803で求めた姿勢が3次元仮想空間においてどのような姿勢であるかを求める(ステップS806)。
【0112】
次に、上記ステップS2204における処理の詳細について、図25に示すフローチャートを用いて説明する。図25は上記ステップS2204における処理の詳細を示すフローチャートである。
【0113】
まずシミュレーション部105が、仮想物体操作入力UIから入力される信号に基づいた3次元仮想空間における位置、姿勢を求める(ステップS2501)。ステップS2501における処理の詳細については後述する。次に、現在設定されているモードを参照し(ステップS2502)、仮想物体選択モードである場合には処理をステップS2503に進め、上記選択条件に応じた仮想物体を操作対象として選択する(ステップS2503)。
【0114】
なお、仮想物体選択モードである場合に、仮想物体操作入力UI1803を地図画像上で移動させていると、選択する仮想物体が他の仮想物体に変わることもある。地図画像提示装置にフロントプロジェクション式の投影プロジェクタを採用していれば、仮想物体操作入力UI1803に選択された仮想物体の画像を投影しても良い。
【0115】
一方、仮想物体を操作(移動、回転)するモードの場合、処理をステップS2504に進め、ステップS2503で選択された仮想物体の位置をステップS2501で求めた位置に更新する(ステップS2504)。同様に、ステップS2503で選択された仮想物体の姿勢をステップS2501で求めた姿勢に更新する(ステップS2505)。
【0116】
そして、更新した位置、姿勢データを、選択された仮想物体の位置、姿勢のデータとして3次元仮想空間データ記憶部110に3次元仮想空間データとして保持する(ステップS2506)。
【0117】
次に、ステップS2501における処理の詳細について、図26に示すフローチャートを用いて説明する。図26は上記ステップS2501における処理の詳細をを示すフローチャートである。
【0118】
まず、シミュレーション部105が、地図画像提示装置の表示面上の仮想物体操作入力UI1803の位置と姿勢を検出する(ステップS901)。またシミュレーション部105は、地図画像提示装置が表示している地図画像が3次元仮想空間においてどの領域を示しているのかを獲得する(ステップS902)。そしてシミュレーション部105は獲得した領域における仮想物体操作入力UI1803の位置を求める(ステップS903)。そしてシミュレーション部105は更に、ステップS903で求めた位置が3次元仮想空間においてどの位置であるかを求める(ステップS904)。
【0119】
次に、シミュレーション部105はステップS902で獲得した領域における仮想物体操作入力UI1803の姿勢を求める(ステップS905)。そしてシミュレーション部105は更に、ステップS903で求めた姿勢が3次元仮想空間においてどのような姿勢であるかを求める(ステップS906)。
【0120】
以上説明したように、本実施形態によって、仮想空間の地図上で仮想カメラを動かしている感覚で体験者が3次元仮想空間のウォークスルーを行うことを可能にする。さらに、地図画像上の仮想物体を直接掴み、操作している感覚で、体験者が3次元仮想空間内の仮想物体の操作を行うことを可能にする。
【0121】
[他の実施形態]
本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体(または記録媒体)を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
【0122】
さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
【0123】
本発明を上記記憶媒体に適用する場合、その記憶媒体には、先に説明した(図11、及び/又は図12、及び/又は図13、及び/又は図14、及び/又は図15、及び/又は図22、及び/又は図23、及び/又は図24、及び/又は図25、及び/又は図26に示したフローチャート)に対応するプログラムコードが格納されることになる。
【0124】
【発明の効果】
以上の説明により、本発明によって、3次元仮想空間のウォークスルーや、仮想物体の操作をより簡便に行うことを目的とする。
【図面の簡単な説明】
【図1】本発明の第1の実施形態に係る仮想空間描画表示装置の機能構成を説明するブロック図である。
【図2】体験者が本発明の第1の実施形態の仮想空間描画表示装置を操作する様子を示す図である。
【図3】フロントプロジェクションを用いた仮想空間描画表示装置を示す図である。
【図4】ビュー画像提示装置201上に提示するビュー画像の一例としてのビュー画像501と、地図画像提示装置202の表示面上に提示する地図画像の一例としての地図画像502と、視点位置・視線方向入力UI205の一例としての地図画像502上の視点位置・視線方向入力UI503とを示す図である。
【図5】トラックボール503を用いた視点位置の制御方法を説明する図である。
【図6】トラックボール503を用いた視線方向の制御方法を説明する図である。
【図7】地図画像を示すと共に、この地図画像を提示する地図画像提示装置202上に設けられた上記視点位置・視線方向入力UI503と、上記仮想物体操作入力UI206として機能する仮想物体操作入力UI701とを示す図である。
【図8】モード切替ボタン群を示す図である。
【図9】異なる高さの設定を行った結果、得られる地図画像の例を示す図である。
【図10】広域地図画像と狭域地図画像との同時表示例を示す図である。
【図11】本発明の第1の実施形態に係る仮想空間描画表示装置が、体験者に3次元仮想空間の体験を行わせるために行う各種の処理のフローチャートである。
【図12】ステップS103における処理の詳細を示すフローチャートである。
【図13】ステップS200における処理の詳細を示すフローチャートである。
【図14】ステップS104における処理の詳細を示すフローチャートである。
【図15】ステップ301における処理の詳細を示すフローチャートである。
【図16】本発明の実施形態に係る仮想空間描画表示装置の基本構成を示すブロック図である。
【図17】ビュー画像提示部201上に表示されたビュー画像と、地図画像提示装置202に表示されている地図画像と、地図画像上に設けられた視点位置・視線方向入力UI1703とを示す図である。
【図18】体験者が本発明の第2の実施形態の仮想空間描画表示装置を操作する様子を示す図である。
【図19】地図画像提示装置202の表示面のレイアウトを示す図である。
【図20】領域1902の詳細を示す図である。
【図21】地図画像を示すと共に、この地図画像を提示する地図画像提示装置202上に設けられた上記視点位置・視線方向入力UIと、上記仮想物体操作入力UIとを示す図である。
【図22】本発明の第2の実施形態に係る仮想空間描画表示装置が、体験者に3次元仮想空間の体験を行わせるために行う各種の処理のフローチャートである。
【図23】ステップS2203における処理の詳細を示すフローチャートである。
【図24】ステップS2301における処理の詳細を示すフローチャートである。
【図25】ステップS2204における処理の詳細を示すフローチャートである。
【図26】ステップS2501における処理の詳細をを示すフローチャートである。
Claims (11)
- 仮想空間において、体験者の視点を示す第1の視点に基づいた仮想空間の映像を生成する第1の生成手段と、
当該第1の生成手段による仮想空間の映像を表示する第1の表示手段と、
前記仮想空間において、前記第1の視点の位置周辺の領域を示す地図画像を生成する第2の生成手段と、
当該第2の生成手段による地図画像を表示する第2の表示手段と、
当該第2の表示手段の表示面上に設けられ、前記第1の視点の位置、視線方向を制御する視点位置視線方向制御手段と、
当該第2の表示手段の表示面上に設けられ、前記仮想空間に設置された仮想物体に対する操作制御を行う操作制御手段と
を備えることを特徴とする仮想空間描画表示装置。 - 前記第2の生成手段は、前記第1の視点の周辺の領域を、前記第1の視点の真上から見下ろした平面地図の画像を生成することを特徴とする請求項1に記載の仮想空間描画表示装置。
- 前記第2の生成手段は、鳥瞰図としての前記地図画像を生成することを特徴とする請求項1に記載の仮想空間描画表示装置。
- 前記視点位置視線方向制御手段は、前記第2の表示手段の表示面上に固定されたトラックボールを備え、
前記視点位置視線方向制御手段は、前記表示面上における当該トラックボールの位置を当該表示面上に表示された地図における前記第1の視点の位置とし、当該トラックボールを回転させる方向に応じて前記第2の表示手段に表示される前記地図画像をスクロール表示させ、前記第1の視点の位置、視線方向を制御することを特徴とする請求項1に記載の仮想空間描画表示装置。 - 前記視点位置視線方向制御手段は、前記第2の表示手段の表示面上を移動可能で、自身の位置、姿勢を計測可能なセンサの受信装置を備え、
前記視点位置視線方向制御手段は、当該センサの位置、姿勢に応じて前記第1の視点の位置、姿勢を制御することを特徴とする請求項1に記載の仮想空間描画表示装置。 - 前記第2の表示手段の表示面には、前記地図画像を表示する第1の領域と、前記視点位置視線方向制御手段を置くことで、置いた領域に応じた方向に当該第1の領域に表示される地図画像をスクロールさせる第2の領域が設けられていることを特徴とする請求項5に記載の仮想空間描画表示装置。
- 前記操作制御手段は、
前記仮想空間に設置された仮想物体において、操作対象の仮想物体を選択するための第1のモードと、
当該第1のモードで選択された操作対象の仮想物体の位置、姿勢を制御する第2のモードのいずれかを実行することを特徴とする請求項1に記載の仮想空間描画表示装置。 - 仮想空間において、体験者の視点を示す第1の視点に基づいた仮想空間の映像を生成する第1の生成工程と、
前記仮想空間において、前記第1の視点の位置周辺の領域を示す地図画像を生成する第2の生成工程と、
前記地図画像を表示する表示部の表示面上に設けられた視点位置視線方向制御手段を用いて前記第1の視点の位置、視線方向を制御する視点位置視線方向制御工程と、
前記表示部の表示面上に設けられた操作制御手段を用いて、前記仮想空間に設置された仮想物体に対する操作制御を行う操作制御工程と
を備えることを特徴とする仮想空間描画表示方法。 - コンピュータを請求項1乃至7のいずれか1項に記載の仮想空間描画表示装置として機能させることを特徴とするプログラム。
- コンピュータに請求項8に記載の仮想空間描画表示方法を実行させるためのプログラム。
- 請求項9又は10に記載のプログラムを格納する記憶媒体。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002211122A JP4115188B2 (ja) | 2002-07-19 | 2002-07-19 | 仮想空間描画表示装置 |
US10/618,610 US7492362B2 (en) | 2002-07-19 | 2003-07-15 | Virtual space rendering/display apparatus and virtual space rendering/display method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002211122A JP4115188B2 (ja) | 2002-07-19 | 2002-07-19 | 仮想空間描画表示装置 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2004054590A true JP2004054590A (ja) | 2004-02-19 |
JP2004054590A5 JP2004054590A5 (ja) | 2007-08-16 |
JP4115188B2 JP4115188B2 (ja) | 2008-07-09 |
Family
ID=31934448
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002211122A Expired - Fee Related JP4115188B2 (ja) | 2002-07-19 | 2002-07-19 | 仮想空間描画表示装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US7492362B2 (ja) |
JP (1) | JP4115188B2 (ja) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007226417A (ja) * | 2006-02-22 | 2007-09-06 | Katsuhide Tsushima | コンテンツ出力装置、およびプログラム |
JP2007226416A (ja) * | 2006-02-22 | 2007-09-06 | Katsuhide Tsushima | コンテンツ生成装置、およびプログラム |
JP2007299062A (ja) * | 2006-04-27 | 2007-11-15 | Canon Inc | 情報処理方法、情報処理装置 |
JP2010512885A (ja) * | 2006-12-19 | 2010-04-30 | インターナショナル・ビジネス・マシーンズ・コーポレーション | 仮想環境との対話方法、処理システム、及びコンピュータ・プログラム |
JP2010268109A (ja) * | 2009-05-13 | 2010-11-25 | Keizo Ota | 表示制御プログラムおよび情報処理装置 |
US9019261B2 (en) | 2009-10-20 | 2015-04-28 | Nintendo Co., Ltd. | Storage medium storing display control program, storage medium storing library program, information processing system, and display control method |
JP6330072B1 (ja) * | 2017-03-08 | 2018-05-23 | 株式会社コロプラ | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム |
CN108292490A (zh) * | 2015-12-02 | 2018-07-17 | 索尼互动娱乐股份有限公司 | 显示控制装置和显示控制方法 |
US10365784B2 (en) | 2017-03-08 | 2019-07-30 | Colopl, Inc. | Information processing method and apparatus for executing the information processing method |
JP2019185363A (ja) * | 2018-04-09 | 2019-10-24 | Necパーソナルコンピュータ株式会社 | 表示制御装置、表示制御方法、及びプログラム |
US11089290B2 (en) | 2009-11-04 | 2021-08-10 | Nintendo Co., Ltd. | Storage medium storing display control program, information processing system, and storage medium storing program utilized for controlling stereoscopic display |
JP7438368B2 (ja) | 2020-01-02 | 2024-02-26 | ベイカー ヒューズ ホールディングス エルエルシー | オブジェクトの相互作用的三次元表現 |
Families Citing this family (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050219695A1 (en) * | 2004-04-05 | 2005-10-06 | Vesely Michael A | Horizontal perspective display |
US20050219240A1 (en) * | 2004-04-05 | 2005-10-06 | Vesely Michael A | Horizontal perspective hands-on simulator |
US20050248566A1 (en) * | 2004-04-05 | 2005-11-10 | Vesely Michael A | Horizontal perspective hands-on simulator |
US20050264559A1 (en) * | 2004-06-01 | 2005-12-01 | Vesely Michael A | Multi-plane horizontal perspective hands-on simulator |
WO2006112896A2 (en) * | 2004-11-30 | 2006-10-26 | Vesely Michael A | Horizontal perspective representation |
US20110214085A1 (en) * | 2004-12-23 | 2011-09-01 | Vanbree Ken | Method of user display associated with displaying registered images |
JP2006305176A (ja) * | 2005-04-28 | 2006-11-09 | Nintendo Co Ltd | ゲームプログラムおよびゲーム装置 |
US20060252979A1 (en) * | 2005-05-09 | 2006-11-09 | Vesely Michael A | Biofeedback eyewear system |
US7907167B2 (en) | 2005-05-09 | 2011-03-15 | Infinite Z, Inc. | Three dimensional horizontal perspective workstation |
US8717423B2 (en) | 2005-05-09 | 2014-05-06 | Zspace, Inc. | Modifying perspective of stereoscopic images based on changes in user viewpoint |
US20070040905A1 (en) * | 2005-08-18 | 2007-02-22 | Vesely Michael A | Stereoscopic display using polarized eyewear |
US20070043466A1 (en) * | 2005-08-18 | 2007-02-22 | Vesely Michael A | Stereoscopic display using polarized eyewear |
JP2007304667A (ja) * | 2006-05-08 | 2007-11-22 | Sony Computer Entertainment Inc | ユーザインタフェース装置、ユーザインタフェース方法及びプログラム |
US9329743B2 (en) * | 2006-10-04 | 2016-05-03 | Brian Mark Shuster | Computer simulation method with user-defined transportation and layout |
CN102132091B (zh) * | 2007-09-21 | 2013-10-16 | 皇家飞利浦电子股份有限公司 | 借助投影仪以3d对象的更改的2d图像来照明该3d对象的方法,以及适合于执行该方法的投影仪 |
US8392853B2 (en) * | 2009-07-17 | 2013-03-05 | Wxanalyst, Ltd. | Transparent interface used to independently manipulate and interrogate N-dimensional focus objects in virtual and real visualization systems |
JP2011035592A (ja) * | 2009-07-31 | 2011-02-17 | Nintendo Co Ltd | 表示制御プログラムおよび情報処理システム |
US8271905B2 (en) | 2009-09-15 | 2012-09-18 | International Business Machines Corporation | Information presentation in virtual 3D |
US20110175918A1 (en) * | 2010-01-21 | 2011-07-21 | Cheng-Yun Karen Liu | Character animation control interface using motion capure |
US8717360B2 (en) | 2010-01-29 | 2014-05-06 | Zspace, Inc. | Presenting a view within a three dimensional scene |
US8786529B1 (en) | 2011-05-18 | 2014-07-22 | Zspace, Inc. | Liquid crystal variable drive voltage |
FR2976681B1 (fr) * | 2011-06-17 | 2013-07-12 | Inst Nat Rech Inf Automat | Systeme de colocalisation d'un ecran tactile et d'un objet virtuel et dispostif pour la manipulation d'objets virtuels mettant en oeuvre un tel systeme |
US20150169059A1 (en) * | 2012-04-18 | 2015-06-18 | Nokia Corporation | Display apparatus with haptic feedback |
US20140095244A1 (en) * | 2012-10-02 | 2014-04-03 | Computer Sciences Corporation | Facility visualization and monitoring |
US9672747B2 (en) | 2015-06-15 | 2017-06-06 | WxOps, Inc. | Common operating environment for aircraft operations |
US10025375B2 (en) | 2015-10-01 | 2018-07-17 | Disney Enterprises, Inc. | Augmented reality controls for user interactions with a virtual world |
CN106814842A (zh) * | 2015-11-30 | 2017-06-09 | 丰唐物联技术(深圳)有限公司 | 基于虚拟现实的光标移动方法及系统 |
AU2017204099A1 (en) * | 2017-06-16 | 2019-01-17 | Canon Kabushiki Kaisha | System and method of configuring a virtual camera |
AU2017204643B2 (en) | 2017-07-07 | 2020-05-14 | Canon Kabushiki Kaisha | Method, apparatus and system for encoding and decoding video data |
CN109756728B (zh) * | 2019-01-02 | 2021-12-07 | 京东方科技集团股份有限公司 | 图像显示方法及装置,电子设备,计算机可读存储介质 |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3049672B2 (ja) | 1991-12-26 | 2000-06-05 | キヤノン株式会社 | 画像処理方法及び装置 |
WO1995012877A1 (en) | 1993-11-05 | 1995-05-11 | Denny Jaeger | Operator/circuit interface with integrated display screen |
KR19990008158A (ko) * | 1995-04-28 | 1999-01-25 | 모리시타요우이치 | 인터페이스 장치 |
JP3141737B2 (ja) * | 1995-08-10 | 2001-03-05 | 株式会社セガ | 仮想画像生成装置及びその方法 |
JPH0981032A (ja) | 1995-09-19 | 1997-03-28 | Hitachi Eng Co Ltd | 地図情報システム及び画面スクロール制御方法 |
US5825308A (en) * | 1996-11-26 | 1998-10-20 | Immersion Human Interface Corporation | Force feedback interface having isotonic and isometric functionality |
US6445807B1 (en) * | 1996-03-22 | 2002-09-03 | Canon Kabushiki Kaisha | Image processing method and apparatus |
US20010055039A1 (en) * | 1996-09-30 | 2001-12-27 | Koichi Matsuda | Three-dimensional virtual reality space display processing apparatus, a three-dimensional virtual reality space display processing method, and an information providing medium |
JPH10111953A (ja) | 1996-10-07 | 1998-04-28 | Canon Inc | 画像処理方法および装置および記憶媒体 |
JPH10111776A (ja) | 1996-10-08 | 1998-04-28 | Sharp Corp | 情報処理装置 |
US6226008B1 (en) * | 1997-09-04 | 2001-05-01 | Kabushiki Kaisha Sega Enterprises | Image processing device |
JP3890781B2 (ja) * | 1997-10-30 | 2007-03-07 | 株式会社セガ | コンピュータ読み取り可能な記憶媒体、ゲーム装置、及びゲームの画像表示方法 |
US6286387B1 (en) * | 1999-03-03 | 2001-09-11 | Suzuki Motor Corporation | Three-dimensional input manipulator |
US6433775B1 (en) * | 1999-03-25 | 2002-08-13 | Monkeymedia, Inc. | Virtual force feedback interface |
JP2000348079A (ja) | 1999-06-04 | 2000-12-15 | Sekisui House Ltd | 通信回線を用いた建築物の設計方法 |
JP3619063B2 (ja) * | 1999-07-08 | 2005-02-09 | キヤノン株式会社 | 立体画像処理装置、その方法、立体視パラメータ設定装置、その方法そしてコンピュータプログラム記憶媒体 |
EP1074943A3 (en) * | 1999-08-06 | 2004-03-24 | Canon Kabushiki Kaisha | Image processing method and apparatus |
JP4172108B2 (ja) | 1999-08-09 | 2008-10-29 | 株式会社セガ | ゲーム装置及びその制御方法 |
JP2001195491A (ja) * | 1999-11-02 | 2001-07-19 | Matsushita Electric Works Ltd | 住空間関連商品の販売支援方法と課金方法及びそのためのシステムと記録媒体 |
JP2001216527A (ja) | 2000-02-04 | 2001-08-10 | Nippon Telegr & Teleph Corp <Ntt> | マルチメディア情報空間入出力装置およびその方法、ならびにそのプログラムを記録した記録媒体 |
JP2002023956A (ja) | 2000-07-06 | 2002-01-25 | Namco Ltd | 入力手段の入力位置の検知方法 |
JP4356983B2 (ja) * | 2004-02-10 | 2009-11-04 | キヤノン株式会社 | 画像処理方法、画像処理装置 |
-
2002
- 2002-07-19 JP JP2002211122A patent/JP4115188B2/ja not_active Expired - Fee Related
-
2003
- 2003-07-15 US US10/618,610 patent/US7492362B2/en not_active Expired - Fee Related
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007226416A (ja) * | 2006-02-22 | 2007-09-06 | Katsuhide Tsushima | コンテンツ生成装置、およびプログラム |
JP2007226417A (ja) * | 2006-02-22 | 2007-09-06 | Katsuhide Tsushima | コンテンツ出力装置、およびプログラム |
JP2007299062A (ja) * | 2006-04-27 | 2007-11-15 | Canon Inc | 情報処理方法、情報処理装置 |
JP2010512885A (ja) * | 2006-12-19 | 2010-04-30 | インターナショナル・ビジネス・マシーンズ・コーポレーション | 仮想環境との対話方法、処理システム、及びコンピュータ・プログラム |
JP2010268109A (ja) * | 2009-05-13 | 2010-11-25 | Keizo Ota | 表示制御プログラムおよび情報処理装置 |
US9019261B2 (en) | 2009-10-20 | 2015-04-28 | Nintendo Co., Ltd. | Storage medium storing display control program, storage medium storing library program, information processing system, and display control method |
US11089290B2 (en) | 2009-11-04 | 2021-08-10 | Nintendo Co., Ltd. | Storage medium storing display control program, information processing system, and storage medium storing program utilized for controlling stereoscopic display |
US11768383B2 (en) | 2015-12-02 | 2023-09-26 | Sony Interactive Entertainment Inc. | Display control apparatus and display control method |
CN108292490A (zh) * | 2015-12-02 | 2018-07-17 | 索尼互动娱乐股份有限公司 | 显示控制装置和显示控制方法 |
JP2018147378A (ja) * | 2017-03-08 | 2018-09-20 | 株式会社コロプラ | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム |
US10599286B2 (en) | 2017-03-08 | 2020-03-24 | Colopl, Inc. | Information processing method and apparatus for executing the information processing method |
US10936149B2 (en) | 2017-03-08 | 2021-03-02 | Colopl, Inc. | Information processing method and apparatus for executing the information processing method |
US10365784B2 (en) | 2017-03-08 | 2019-07-30 | Colopl, Inc. | Information processing method and apparatus for executing the information processing method |
JP6330072B1 (ja) * | 2017-03-08 | 2018-05-23 | 株式会社コロプラ | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム |
JP2019185363A (ja) * | 2018-04-09 | 2019-10-24 | Necパーソナルコンピュータ株式会社 | 表示制御装置、表示制御方法、及びプログラム |
JP7438368B2 (ja) | 2020-01-02 | 2024-02-26 | ベイカー ヒューズ ホールディングス エルエルシー | オブジェクトの相互作用的三次元表現 |
Also Published As
Publication number | Publication date |
---|---|
US20070109296A1 (en) | 2007-05-17 |
JP4115188B2 (ja) | 2008-07-09 |
US7492362B2 (en) | 2009-02-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4115188B2 (ja) | 仮想空間描画表示装置 | |
CN103324453B (zh) | 显示器 | |
EP3050030B1 (en) | Method for representing points of interest in a view of a real environment on a mobile device and mobile device therefor | |
CN100353293C (zh) | 图像信息显示装置 | |
US7292240B2 (en) | Virtual reality presentation device and information processing method | |
US20080030461A1 (en) | Mixed reality presentation apparatus and control method thereof, and program | |
EP1808210B1 (en) | Storage medium having game program stored thereon and game apparatus | |
US7382374B2 (en) | Computerized method and computer system for positioning a pointer | |
EP1374019A2 (en) | Browser system and method of using it | |
JP6290754B2 (ja) | 仮想空間表示装置、仮想空間表示方法及びプログラム | |
CN105074617A (zh) | 三维用户界面装置和三维操作处理方法 | |
CN107168534B (zh) | 一种基于cave系统的渲染优化方法及投影方法 | |
WO2004036503A1 (en) | Method and system for producing a pseudo three-dimensional display utilizing a two-dimensional display device | |
CN101784980A (zh) | 遥控操作装置及遥控操作方法 | |
US11733825B2 (en) | Interactive three-dimensional representations of objects | |
EP3594906B1 (en) | Method and device for providing augmented reality, and computer program | |
JP7292597B2 (ja) | 表示システム、画像処理装置、およびプログラム | |
JP3413145B2 (ja) | 仮想空間の編集方法及び仮想空間の編集装置 | |
JP2004362408A (ja) | 3次元データ表示操作装置 | |
JP5247398B2 (ja) | 表示調整装置、表示調整方法及びコンピュータプログラム | |
JPH11175758A (ja) | 立体表示方法および装置 | |
JP2001175890A (ja) | 3次元画像形成システム、3次元画像形成方法および入力装置 | |
JP7475625B2 (ja) | 3次元空間における入力受付および入力表示方法、プログラム、および3次元空間における入力受付および入力表示装置 | |
JP3533029B2 (ja) | 仮想物体表示装置 | |
EP1720090B1 (en) | Computerized method and computer system for positioning a pointer |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20041118 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070628 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20070815 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070824 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20071018 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20071210 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080108 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20080218 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080407 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080415 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110425 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110425 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130425 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130425 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140425 Year of fee payment: 6 |
|
LAPS | Cancellation because of no payment of annual fees |