JP2005044102A - Image reproduction method and device - Google Patents
Image reproduction method and device Download PDFInfo
- Publication number
- JP2005044102A JP2005044102A JP2003202525A JP2003202525A JP2005044102A JP 2005044102 A JP2005044102 A JP 2005044102A JP 2003202525 A JP2003202525 A JP 2003202525A JP 2003202525 A JP2003202525 A JP 2003202525A JP 2005044102 A JP2005044102 A JP 2005044102A
- Authority
- JP
- Japan
- Prior art keywords
- image
- annotation
- virtual space
- observer
- viewpoint position
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、仮想空間ウォークスルーシステムにおいて、仮想空間内のオブジェクトに関するアノテーションを観察できる視点位置及び視線方向を観察者にあらかじめ知らせる機能を備えた画像再生装置及び方法に関する。
【0002】
【従来の技術】
近年、デジタルアーカイビングの一形態として、文化遺産や都市などを計算機の中に取り込んで仮想空間として構築する試みが多数行われている。また、CPUやグラフィクスハードウェアなどの発達により、パーソナルコンピュータ上でもリアリティの高い仮想空間をリアルタイムにウォークスルーすることが可能になってきている。
【0003】
仮想空間の構築方法の一つとして、幾何形状モデルとテクスチャを用いた一般的なコンピュータグラフィックス(CG)によるモデリングが挙げられる。CGによるモデリングでは、残存する図面や実際の測量を用いたり、レーザレンジファインダなどによって直接幾何形状を計測して実物の幾何形状モデルを生成・復元している。また、物体の幾何形状モデルにその物体の実写画像をテクスチャマッピングすることにより、リアリティを高めている。
【0004】
一方、もう一つの仮想空間の構築方法としては、実写画像のみを用いて仮想空間を構築するImage−Based Rendering(IBR)による方法が挙げられる。CGによるモデリングでは、モデルが正確でない場合にはリアリティが損なわれるが、IBRでは実写画像をそのまま用いているためリアリティの高い仮想空間の表現が可能である。また、モデリングに時間がかからず、広い範囲の仮想空間の構築に向いている。但しIBRでは多数の実写画像を用いるためデータ量が膨大になる。そのため、CGによるモデリングとIBRによるモデリングを併用したモデリング手法の研究も広く行われている。
【0005】
これらの方法を用いて構築された仮想空間においては、仮想空間内のオブジェクトに対してアノテーション(注釈)を表示することにより、仮想空間内をウォークスルー体験する観察者に、今どの建物を見ているかといった付加的な情報を提供することができる(例えば特許文献1参照)。アノテーションは、オブジェクト上に表示することによってオブジェクトに追従するように見せたり、画面の固定位置に表示することによってテロップのように見せたりすることができる。
観察者はアノテーション表示された仮想空間を観察することにより、ガイドがなくても自分の希望するように仮想空間をウォークスルーすることが可能になるほか、アノテーションにより様々な情報を入手することができる。なお、本明細書においてアノテーションとして表示する情報には特に制限はなく、仮想空間画像中の何らかのオブジェクトに関する任意の情報を表示しうる。
【0006】
さらに、仮想空間の地図を観察者に呈示すると共に、地図中に観察者の視点位置・視線方向とアノテーションが表示されるオブジェクトの位置を表示することにより、観察者が地図上で観察者とアノテーションが表示されるオブジェクトとの位置関係を把握することも可能である。
【0007】
【特許文献1】
特開2002−163670号公報
【0008】
【発明が解決しようとする課題】
しかし、地図上に観察者の視点位置・視線方向とアノテーションが表示されるオブジェクトの位置が表示されていても、オブジェクトと観察者の位置が離れていると別のオブジェクトによって隠されたりすることにより、実際にはアノテーションを見ることができない場合がある。また、コンテンツ(この場合は仮想空間)制作者の意図などにより、アノテーションを見ることができる視点位置・視線方向が限られている場合がある。
【0009】
このような場合、観察者は手探りで自分が観察したいアノテーションを観察することができる視点位置・視線方向を探さなければならない。
【0010】
本発明は、上記の課題に鑑みてなされたものであり、その目的は、観察者に仮想空間のウォークスルー体験を提供する画像再生装置において、観察者が仮想空間中のオブジェクトに対するアノテーションを観察できる視点位置・視線方向を容易に認識可能とすることにある。
【0011】
さらに、本発明の別の目的は、上述の画像再生装置において、観察者の利便性をより高めることにある。
【0012】
【課題を解決するための手段】
すなわち、本発明による画像再生方法は、観察者の仮想空間中における視点位置及び視線方向を検出し、対応する仮想空間画像を呈示することにより観察者に仮想空間中のウォークスルーを体験させる画像再生方法であって、観察者の仮想空間中における視点位置及び視線方向と、仮想空間データ記憶手段に記憶された仮想空間データとに基づき、観察者に呈示すべき仮想空間画像を生成する仮想空間画像生成ステップと、地図画像記憶手段から、観察者の仮想空間中における視点位置に基づいて地図画像を読み出し、少なくとも観察者の仮想空間中における視点位置を含む仮想空間の所定の範囲を表す地図画像を生成する地図画像生成ステップと、仮想空間画像と地図画像とを合成して観察者に呈示する呈示ステップとを有し、地図画像生成ステップが、アノテーション情報記憶手段に記憶された、仮想空間中のオブジェクトに関するアノテーション画像を観察可能な領域に関する情報と、観察者の仮想空間中における視点位置及び視線方向とに基づいて、アノテーション画像を観察可能な領域を表すマークと、観察者の視点位置及び視線方向を表すマークとを、地図画像中に合成するマーク合成ステップを有することを特徴とする。
【0013】
また、本発明による画像再生装置は、観察者の仮想空間中における視点位置及び視線方向を検出し、対応する仮想空間画像を呈示することにより観察者に仮想空間中のウォークスルーを体験させる画像再生装置であって、観察者の仮想空間中における視点位置及び視線方向と、仮想空間データ記憶手段に記憶された仮想空間データとに基づき、観察者に呈示すべき仮想空間画像を生成する仮想空間画像生成手段と、地図画像記憶手段から、観察者の仮想空間中における視点位置に基づいて地図画像を読み出し、少なくとも観察者の仮想空間中における視点位置を含む仮想空間の所定の範囲を表す地図画像を生成する地図画像生成手段と、仮想空間画像と地図画像とを合成して観察者に呈示する呈示手段とを有し、地図画像生成手段が、アノテーション情報記憶手段に記憶された、仮想空間中のオブジェクトに関するアノテーション画像を観察可能な領域に関する情報と、観察者の仮想空間中における視点位置及び視線方向とに基づいて、アノテーション画像を観察可能な領域を表すマークと、観察者の視点位置及び視線方向を表すマークとを、地図画像中に合成するマーク合成手段を有することを特徴とする。
【0014】
また、本発明の目的は、コンピュータに本発明の画像再生方法を実行させるためのプログラムによっても達成される。
【0015】
【発明の実施の形態】
以下、添付図面を参照しながら、本発明の好適な実施形態を説明する。
【0016】
■《第1実施形態》
図1は本実施形態によるウォークスルーシステムの機能構成を説明するブロック図である。本ウォークスルーシステムを構成する画像再生装置1は、操作部10、視点位置・視線方向決定部20、仮想空間データ保存部30、アノテーションデータ保存部40、地図データ保存部50、画像再生制御部60、表示部70を有する。
【0017】
図2は、本実施形態における画像再生装置1のハードウェア構成例を示すブロック図である。図2に示したハードウェア構成は市場でパーソナルコンピュータとして通常に入手可能な汎用コンピュータ装置及びその周辺機器によって実現できる。図2において、ディスク105は例えば、ハードディスクドライブを代表とする大容量記憶装置であり、図1における仮想空間データ保存部30、アノテーションデータ保存部40、地図データ保存部50を構成する。
【0018】
CPU101は、ディスク105またはROM106、または外部記憶装置(不図示)に保存されているプログラムを実行することにより、視点位置・視線方向決定部20、画像再生制御部60として機能する。
【0019】
CPU101が表示コントローラ(CRTC)102に対して各種の表示指示を行うことにより、表示コントローラ102及びフレームバッファ103によって表示器(CRT)104に所望の表示がなされる。なお、図では表示コントローラ102としてCRTC、表示器104としてCRTを示したが、表示器としては陰極線管に限らず、液晶表示器等を用いてもよい。また表示器104は固定型であってもよいし、例えば頭部装着型ディスプレイ(HMD)の様な可搬型であってもよいことはもちろんである。なお、CRTC102、フレームバッファ103及びCRT104は、上述の表示部70を構成する。
【0020】
マウス108、キーボード109及びジョイスティック110は、観察者が当該画像再生装置1へ操作入力を行うためのものであり、上述の操作部10を構成する。
【0021】
次に、以上の構成を備えた画像再生装置1の動作の概要について説明する。
操作部10は、マウス、キーボード、ジョイスティック等を備える。操作部10は、視点位置の移動パラメータ、視線方向の回転パラメータを生成する。本実施形態では、視点位置・視線方向の制御にジョイスティックを用いているが、ゲームコントローラ等の他の入力装置で行ってもよいし、磁気センサや光学センサなどの出力を用いてもよい。ジョイスティックは、スティックの傾斜角と回転角を独立に制御することができる。本実施形態では、ジョイスティックを傾斜させる操作を仮想空間内での視点位置の移動に、ジョイスティックを左右に回転させる操作を視線方向の回転に対応させる。なお本実施形態では、視線方向の回転に関して、ロール回転は考慮しない。
【0022】
地図データ保存部50は、2次元地図画像データを格納する。2次元地図画像データは、仮想空間データ保存部30に保存されている仮想空間データと対応付けられている。
【0023】
アノテーションデータ保存部40は、アノテーションデータを保存する。アノテーションデータは、アノテーション用の画像データと、観察者の仮想空間内での視点位置(又は地図上での視点位置)と、アノテーションとの対応データ(アノテーション対応データ)からなる。図3にアノテーション対応データの構成例を示す。アノテーション対応データはオブジェクトごとに定義される。図3の例では、位置(xA,yA)のオブジェクト建物Aについては、観察者の地図上での視点位置(x,y)に対し、アノテーション観察可能領域が同じく地図上での座標(x0,y0),(x1,y1)で規定される。また、表示するアノテーション画像はファイル名(又はファイルパス)で規定される(建物A.jpg)。
【0024】
なお、アノテーション観察可能領域は、観察可能領域内から対象オブジェクトまでの間に他のオブジェクトが存在しないか、存在してもアノテーションが隠されないような位置として規定される。後者の場合には、予め定められたアノテーションの画像中における表示位置と観察者の視点位置(高さ)及び対象オブジェクトとアノテーション観察可能領域の間に存在する他のオブジェクトの高さを考慮して決定することができる。
【0025】
また、アノテーション観察可能領域の形状は長方形に限らず、他の形状であってもよいし、他の方法で規定しても良い。例えば、頂点座標を全て規定しても良いし、中心と半径を指定して円形の領域を指定する等が考えられる。
【0026】
図3の例では、観察者の地図上での視点位置(x、y)が、(x0,y0),(x1,y1)を対角頂点とする長方形で規定される範囲内に存在することが、建物Aについてのアノテーション表示の必要条件となる。
【0027】
実際にアノテーション表示を行うか否か、またアノテーション表示を行う場合の観察画面上の位置は、観察者の地図上での視点位置がアノテーション観察可能領域内に存在し、かつ、アノテーションを表示するオブジェクト(上述の場合、建物A)の位置(xA,yA)と観察者の視点位置・視線方向から決定される(図4)。
【0028】
図4は、アノテーション表示を行うか否かの判定方法例について、図3における建物Aについてのアノテーション対応データを例として示す図である。
図4において、観察者の地図上における視点位置(x、y)は、(x0,y0),(x1,y1)を対角頂点とする、建物Aについて規定された長方形状のアノテーション観察可能領域内に存在している。この場合、観察者の視線方向と、システムにおいて規定された画角θ0(例えば視線方向を中心に±α°とする)で規定される観察者の視野に建物Aが含まれれば、建物Aに対するアノテーション表示を行う。
【0029】
具体的には、観察者の視点位置(x、y)と建物Aの位置(xA,yA)とを結ぶ直線(図4に点線で示す)と、視線方向とのなす角度(β°)が、
β≦α
を満たす場合に、建物Aに対するアノテーション表示を行う。なお、観察者の視野に建物Aが含まれるか否かの判定は、他の方法によって行っても良い。
【0030】
なお、アノテーション表示の判定に用いられる建物Aの位置(xA,yA)は、例えば建物Aの地図画像上での中心又は重心位置であってもよいし、他の位置であってもよい。また、アノテーション観察可能領域からみた建物Aの幅が大きい場合などは、中心位置や重心位置といった一点での判定ではなく、範囲を有する座標値をオブジェクトの位置として用いても良い。
【0031】
この場合、アノテーション対応データにおけるオブジェクトの位置データは、xAとyAの少なくとも一方について範囲を有するデータとなる。そして、図4に示す判定においては、オブジェクト位置に範囲を有する座標値が用いられている場合、範囲の上限値と下限値(x、yの両方が範囲を有する場合には個々の範囲の上限値と下限値との組み合わせ)について判定を行い、いずれかが視野に含まれるか否かによって表示可否を決定すればよい。
【0032】
なお、アノテーション対応データは、比較する観察者の視点位置を表現する座標系と等しい座標系で設定しておくことは言うまでもない。すなわち、観察者の仮想空間における座標位置を用いてアノテーション表示可否の判定を行う場合には、アノテーション対応データとして記憶する座標は、地図上での座標値ではなく仮想空間における座標系での値になる。
【0033】
アノテーションの表示位置は任意に設定可能であるが、図4の例では、観察者の視線方向と直交し、視点位置から所定距離離れた位置にある面として予め定めた画像面上で、観察者の視点位置と対象オブジェクト(建物A)の位置とを結ぶ直線とが交差する点を中心としてアノテーション画像が存在するものとして表示を行う。画像面の上下方向における表示位置(図4の紙面に直交する方向における表示位置)は、例えば画像面の最下部または最上部とすることができる。もちろん、対象オブジェクトとの関係が明確に理解できさえすれば、画像面の任意の位置にアノテーションを表示することが可能である。
【0034】
仮想空間データ保存部30は、仮想空間を構築するためのデータ(仮想空間データ)を格納する。仮想空間が幾何形状モデルとテクスチャ画像で構築されている場合には、幾何形状モデルとテクスチャ画像が仮想空間データとして格納される。また、仮想空間がIBR技術を用いて構築されている場合には、実写画像データが仮想空間データとして格納される。また、仮想空間データには、仮想空間中において観察者の視点が移動可能な範囲を規定するためのデータ(移動範囲データ)も必要に応じて含まれる。
【0035】
なお、画像再生装置1がネットワークインタフェースを有する場合、仮想空間データ保存部30は、画像再生装置1のローカルに存在する必要はなく、ネットワーク上に設置して、ネットワークを介して仮想空間データを読み出してもよい。
【0036】
視点位置・視線方向決定部20は、操作部10からの移動パラメータ、回転パラメータと、必要であれば仮想空間データ保存部30の移動範囲データを用いて仮想空間内での観察者の視点位置・視線方向を決定する。この決定は、ウォークスルーアプリケーションにおいて従来行われている任意の方法に基づいて行うことができる。また、視点位置・視線方向決定部20は、決定された仮想空間内での視点位置・視線方向をもとに、地図データ保存部50に格納されている2次元地図画像データにおける観察者の視点位置(地図上での視点位置)・視線方向を決定する。
【0037】
■(全体処理)
図5は上述の画像再生装置1の全体処理を示すフローチャートである。この処理は画像再生制御部60を構成するCPU101がディスク105等に記憶されるプログラムを実行し、画像再生装置の各構成要素を制御することにより実現される。
【0038】
ステップS10で、画像再生制御部60は、視点位置・視線方向決定部20から、観察者の仮想空間内での視点位置及び視線方向を受け取る。そして、ステップS20で、観察者の視点位置、視線方向に基づいて、表示すべき観察画像(仮想空間画像)を、仮想空間データ保存部30に保存された仮想空間データから生成する。
【0039】
ステップS30で、観察者の地図上での視点位置及び視線方向、地図画像の表示サイズ、縮尺等に基づいて、表示すべき地図画像データを地図データ保存部50から読み出すとともに、地図画像に対して後述するアノテーションマーク及び観察者マークを合成する。そして、得られた地図画像を仮想空間画像に合成する。
【0040】
ステップS40で、観察者の地図上での視点位置及び視線方向と、アノテーションデータ保存部40内のアノテーション観察可能領域データを元に、表示すべきアノテーション画像を取得し、仮想空間画像に合成する。
【0041】
そして、画像再生制御部60は、最終的に得られた画像を表示部70に渡す。表示部70は画像再生制御部60において生成された画像を表示する。
【0042】
なお、表示すべき地図画像の縮尺は、固定であっても良いし、また観察者の指示によって可変としても良い。可変縮尺の場合には、地図画像データとして複数の縮尺のデータを保持し、設定されている縮尺に対応する地図画像データを読み出すようにしても良いし、共通の地図データを縮尺に応じて単に拡大/縮小表示してもよい。また、観察者の視点位置がアノテーション観察可能領域に近づくなどの条件を満たした場合に、縮尺を変更して詳細な表示に変更することも可能である。
【0043】
■(マーク表示の例)
次に、上述した画像再生制御部60の地図画像表示処理についてさらに詳細に説明する。画像再生制御部60は、地図情報表示部62を持ち、視点位置・視線方向制御部20で決定された2次元地図画像上での観察者の視点位置・視線方向を表す画像(観察者マーク)を地図画像上に描画(合成)する。また画像再生制御部60は、観察者が仮想空間内のどの位置に行けばアノテーションを観察できるか、観察されるアノテーションの対象オブジェクトの位置はどこか、また、どちらの方向にあるのか、といったアノテーション関連情報を表す画像(アノテーションマーク)を地図上に描画する観察可能領域表示部64を持つ。
【0044】
図6は、地図情報表示部62と観察可能領域表示部64によって実現される地図表示の例を示す図である。
ここでは、図3上段に示した建物Aを例にして説明する。すなわち、図6(a)に示すように、2次元地図上においてオブジェクト(建物A)の位置が(xA,yA),建物Aについてのアノテーションが観察できる領域を(x0,y0),(x1,y0),(x1,y1),(x0,y1)で決定される長方形の内部とした場合である。
【0045】
この場合、図6(b)に示すように、地図情報表示部62と観察可能領域表示部64は、アノテーション観察可能領域と表示対象オブジェクトの位置を表す画像をアノテーションマークとして地図上に示し、さらに観察者自身の視点位置と視線方向を表す画像を観察者マークとして地図上に示す。これにより、観察者はアノテーションを観察できる領域と、そこで観察できるアノテーションの対象オブジェクトの方向とを知ることができ、また、現在の観察者自身の視点位置とアノテーション観察可能領域との相対的な位置関係を知ることができる。
【0046】
また、図6(b)の例では、アノテーション観察可能領域全体を示す画像と対象オブジェクトの位置を示す画像の2つをアノテーションマークとして示していたが、図6(c)に示すように、アノテーション観察可能領域の中心((x0+x1)/2, (y0+y1)/2)に、対象オブジェクトの方向θ(図6(a)参照)を表す画像をアノテーションマークとして示してもよい。
【0047】
また、この際アノテーションマークを観察者マークと同じ形状とすれば、観察者は、地図画像上で観察者マークの表示がアノテーションマークと同じ位置、方向に近づくように制御すればアノテーションが観察できることを直感的に理解できる。また、図6(c)では表示対象オブジェクトを示す画像をアノテーションマークとして表示していないが、表示するようにしても良い。
【0048】
なお、アノテーションマークを観察者マークと同じ形状にする場合には、両者の混同を避けるために、異なる色や透明度で表示することも可能である。また、図6中ではいずれのマークも二等辺三角形で表し、一般的な矢印と同様に位置と方向を認識できるようにしているが、位置と方向が認識できればどのような形でもよい。
【0049】
また、図6では、アノテーションを観察できる領域を長方形としたが、上述のように任意の多角形領域としてもよい。また、円や楕円などを用いてもよい。さらに、地図画像の表示形式が遠近感や立体感のある形式であれば、それに併せて立方体や直方体などの3次元空間を表すようなマークとすることも可能である。この場合、アノテーション対応データの形式を併せて変更すればよい。
【0050】
図7は、このような地図画像の生成、更新処理を示すフローチャートであり、図5のステップS30における処理に相当する。
ステップS32で、地図情報表示部62は、観察者の地図上での視点位置及び視線方向に加え、必要であれば地図画像の表示サイズ、縮尺等を考慮して、表示すべき地図画像データを地図データ保存部50から読み出す。次に、ステップS34で、観察可能領域表示部64は、観察者の地図上での視点位置、地図画像の表示サイズ、縮尺、アノテーション対応データの観察可能領域に基づいて、地図画像上に表示すべきアノテーションマークを探索する。
【0051】
ステップS36で、観察可能領域表示部64は、ステップS34で探索した結果得られた、表示すべき観察可能領域についてのアノテーションマークと、観察者マークをそれぞれ地図画像上に合成する。
【0052】
■(アノテーション表示処理)
次に、図8に示すフローチャートを用いて、画像再生制御部60におけるアノテーション表示処理(図5におけるステップS40に相当)について説明する。
ここでは、上述したように、アノテーション対応データが地図画像上での座標で定義されているものとするが、仮想空間上での座標で定義されている場合には、観察者の視点位置に仮想空間での座標を用いて同様の処理を行えばよい。
【0053】
まずステップS101において、視点位置・視線方向決定部20から観察者の地図画像上における視点位置・視線方向を獲得する。次に、ステップS102において変数iを1にセットする。変数iは、アノテーションを表示する総数nのオブジェクトOiについて順次処理を行うための変数であり、1からnの整数値をとる。
【0054】
ステップS103において、i≦nであるか、即ちアノテーションを表示するオブジェクト(表示対象オブジェクト)の全てについて処理を行ったか否かを判別する。まだ全ての表示対象オブジェクトについて処理を行っていない場合(i≦nである場合)は、ステップS104において、ステップS101で取得した観察者の地図上での視点位置が、オブジェクトOiに対応するアノテーション対応データに定義されたアノテーション観察可能領域(Riとする)に含まれるかどうかを判別する。
【0055】
視点位置がアノテーション観察可能領域Ri中に含まれる場合にはステップS105に進み、観察者の視点位置、視点方向とオブジェクトOiの位置、及び、予め設定された画角θとから、オブジェクトOiが観察者の視野に入るかどうかを判別する。視野に入る場合は、ステップS106においてi番目のアノテーションに対応するフラグFiを1にセットする。視野に入らない場合、またはステップS104において観察者の視点位置がアノテーション観察可能領域Riに含まれない場合には、ステップS107においてフラグFiを0にセットする。ステップS106、S107からはステップS108に進み、iを1増やしてステップS103に戻る。
【0056】
ステップS103において、i>nとなり、すべての表示対象オブジェクトについて処理が終了したことが判別された場合には、ステップS109に進む。ステップ109では、1にセットされたフラグFi(i=1〜n)に対応するアノテーションの画像をアノテーションデータ保存部40から取得し、仮想空間画像上に合成する。その後ステップS110において終了判定を行い、継続する場合にはステップS101に戻る。
【0057】
■(観察者マークとの関係に応じたアノテーションマークの表示制御)
地図画像に観察者マーク及びアノテーションマークを表示することにより、観察者はアノテーション観察可能領域との距離関係や対象オブジェクトとの方向との関係について、視覚的に容易に理解することが可能になる。しかし、観察者の視点位置とアノテーション観察可能領域との関係や、観察者の視線方向と対象オブジェクトの方向との関係に応じて、マークの表示方法を視覚的に異ならせることにより、観察者にとってさらに利便性の高いアプリケーションを提供することが可能になる。以下、本実施形態において、地図画像表示処理で実施可能なマークの表示制御例について説明する。
【0058】
(1)観察者マークがアノテーションマークに接近した場合(その1)
観察者の視点位置がアノテーション観察可能領域に入り、かつ観察者の視野に表示対象オブジェクトが入ると、仮想空間画像中にアノテーション表示が行われる。
その際、地図画像上のアノテーションマーク表示方法を変化させることにより、表示されているアノテーションと観察可能領域との対応を観察者がより明確に認識することが可能となる。
【0059】
例えば、図9の左に示したような状態で、観察者の視点位置がアノテーション観察可能領域に入り、かつ観察者の視野に表示対象オブジェクトが入るというアノテーション表示条件を満たした場合、図9(a)では、条件を満たす前と、アノテーションマークとしての観察可能領域を示すマークの表示色を変えている。また、図9(b)では、アノテーション表示条件を満たすと、観察可能領域を示すマークを点滅させている。さらに、図9(c)では、アノテーション表示条件を満たす前には観察可能領域を示すマークの透明度を高くしておき、条件を満たしたら透明度を低く(例えば不透明に)している。
【0060】
また、図10に示すように、アノテーションマークが観察可能領域を示すマークと表示対象オブジェクトを示すマークの両方からなる場合には、アノテーション表示条件を満たすと両方のマークの表示方法を変更させることも可能である。
【0061】
図10(a)では、アノテーション表示条件を満たす前と後で、観察可能領域とオブジェクトを示すマークの両方の色を変えている。また、図10(b)では、アノテーション表示条件を満たすと、観察可能領域とオブジェクトを示すマークを点滅させる。さらに、図10(c)では、アノテーション表示条件を満たす前には観察可能領域とオブジェクトを示すマークの透明度を高くしておき、観察可能領域に入ったら不透明にする。
【0062】
このようにして、画像再生制御部60は、観察者の仮想空間内での視点位置・視線方向に対応した仮想空間画像と、アノテーションマークと観察者マークを合成した地図画像と、観察されるアノテーション画像とを合成して、表示部70に渡す。画像再生制御部60が生成する画像の一例を図11に示す。
【0063】
以上のように、本発明の第1実施形態に係る画像再生装置によれば、仮想空間画像に地図画像を合成表示するとともに、地図画像上にアノテーション観察可能領域やアノテーション対象オブジェクト等のアノテーション情報を表すアノテーションマーク及び観察者の視点位置、視点方向を表す観察者マークを示すので、観察者は仮想空間中でアノテーションを観察できる視点位置・視線方向を容易に知ることができ、アノテーション観察可能位置へ移動することができるようになる。また、アノテーション観察可能領域を示すマークの表示方法を、アノテーションが表示されている場合と表示されていない場合で変化させることで、観察しているアノテーションと観察可能領域との対応を観察者に明確に認識させることが可能になる。
【0064】
■《第2実施形態》
第1実施形態では、アノテーション観察可能領域を地図画像上に示すことにより、観察者が仮想空間中でアノテーションを観察できる領域を容易に知ることができるようにした。第2実施形態では、地図画像上に表示されるアノテーション観察可能領域の表示方法を目的に応じて変えることによって、観察者が領域内で観察するアノテーションを判別できるようにする。なお、本実施形態に係る画像再生装置の構成は、第1図及び第2図に関して説明したものと同一で良いため、その説明を省略する。
【0065】
図12は第2実施形態に係る画像再生装置において、仮想空間画像に合成して表示する地図画像表示の一例を示す図である。図12(a)は、アノテーション(又は表示対象オブジェクト)の重要度によって、観察可能領域を表すマークの表示方法を変える(視覚的に異なる表示を意味する)例を示している。図12(a)の例では、重要なアノテーションに対応するマークは、他のマークと異なる模様(黒丸)を有している。
【0066】
例えば、文化遺産などを仮想空間として実現し、そのウォークスルーアプリケーションを提供する際には、歴史的な価値の高い建物や有名な建物に対するアノテーションの重要度を高め、地図画像上で他のアノテーションマークと異なる表示方法で観察者に提示することにより、観察者が重要度の高いアノテーションから観察することが可能になり、効率的にその文化遺産についての学習を行うことができる。ここでは、マークの形の違い(黒丸の有無)によって重要度を区別しているが、マークの色や大きさ、透明度など、他のマークと視覚的に区別可能な任意の方法を用いることができる。
【0067】
また、図12(b)は、アノテーション(又は表示対象オブジェクト)のジャンルによってマークの表示方法、ここでは表示色を変える例を示している。ジャンルは、例えば歴史、地理、買い物、食事、公共施設などに分けられる。ジャンルによってマークが色分けされているため、観察者は、地図上に表示されているアノテーション観察可能領域のうち、自分が興味のあるジャンルのアノテーションをどこで観察できるのかを知ることができる。ここでは、アノテーション観察可能領域のマークの色によってジャンルを区別しているが、マークの形を変えるなどしてもよい。また、地図画像に付加して、或いは別の画像として、マークの色とジャンル、重要度等の対応を説明する凡例画像を表示するようにしても良い。
【0068】
図12に示す表示方法を実現するためには、アノテーションデータ保存部40に記憶するアノテーション対応データに重要度やジャンルの項目を設定しておき、表示時にこれら項目の設定値を考慮して表示方法を選択すればよい。図13に、ジャンル及び重要度を付加したアノテーション対応データの例を示す。なお、図13の例では、重要度、ジャンルは説明のために「高」「低」等の意味のある言葉で記載しているが、数値や記号など、重要度のランクやジャンルの種別に対応する任意形式のデータを使用可能である。
【0069】
また、アノテーション観察可能領域を表すマークのうち、表示すべきものをジャンル、重要度を観察者が指定可能に構成することも可能である。この場合、観察者は、例えば図14に示すようなユーザインタフェースを用いて、所望の重要度とジャンルを設定することにより、地図上に表示させるアノテーション観察可能領域を示すマークを選択することが可能である。
【0070】
図14(a)は重要度の選択用ユーザインタフェース画面、図14(b)はジャンルの選択用ユーザインタフェース画面の例を示す。このような画面の表示は、例えば操作部10を構成するキーボートやマウスなどのキーや操作に画面呼び出し用の操作を割り当てておき、視点位置・視線方向決定部20がこの呼び出し操作を検出すると、画像再生制御部60にその旨を通知し、画像再生制御部60が例えば仮想空間データ保存部50から画面データを呼び出して表示部70に表示することによって実現できる。
【0071】
また、ユーザインタフェース画面の表示中は、実質的に操作部10と画像再生制御部60とが直接やりとりを行い、操作部10による選択操作を画像再生制御部60が検知、処理し、設定結果を例えばアノテーションデータ保存部40に記憶する。設定処理が終わると、操作部10の操作内容は仮想空間内の移動として視点位置・視線方向決定部20が処理するように復帰する。
【0072】
また、図7を用いて説明した地図画像表示処理において、ステップS34において表示すべきアノテーションマークを決定する際に、図14に示すユーザインタフェースにおいてチェックされた重要度やジャンルのアノテーションマークのみを選択するようにする。また、図8に示したアノテーション表示処理においても、ステップS105からS106へ至る間に、表示すべきジャンルであるか否かを判別する処理を追加し、表示すべきジャンルのオブジェクトについてのみフラグFiを1にセットする。
【0073】
なお、図12(a)に示した表示方法は、予め重要度に対応付けしたアノテーションマーク画像を用意しておき、表示時に重要度に対応するアノテーションマーク画像を用いることにより実現可能である。
【0074】
このようなマーク表示を行うことにより、観察者は自身が望むジャンルだけのアノテーションの観察可能領域を地図画像上で観察することが可能になる。また、重要なアノテーションのみを観察するなど、観察者のニーズに応じたウォークスルー体験が可能になる。
【0075】
なお、上述の説明においては、重要度に応じて表示方法を変えること、また設定されたジャンルに合致するもののみを表示することについて説明したが、所定の重要度に合致するもののみを表示するようにしてもよい。要するに、本実施形態においては、アノテーション又はオブジェクトに設定された重要度、ジャンル等の属性に応じて表示方法を変化させる(非表示を含む)ことを特徴とするものであり、具体的な属性の種別やそれに応じた表示方法は任意に設定することが可能である。
【0076】
■《第3実施形態》
例えばウォークスルーアプリケーションにおいて、同じ場所を通る度に同じアノテーション表示がなされると、観察者に不快感を与える虞がある。そのため、第3及び第4実施形態では、同一領域において観察可能なアノテーション表示を複数持たせ、条件に応じて表示するアノテーションの内容を変化させることを特徴とする。これにより、観察者が同じアノテーションを何度も観察して不快感を感じることをなくし、豊かな情報を提供することを可能にする。
【0077】
図15は、第3実施形態における、観察者へのアノテーション提示方法を説明する図である。図15において、観察者が境界Aからアノテーション観察可能領域に入った場合と、境界Bからアノテーション観察可能領域に入った場合とで、同じオブジェクトでも提示されるアノテーションを変えている。これにより、例えば境界Aから入った場合には、対象オブジェクトを建築学の立場から見たアノテーションを表示し、境界Bから入った場合には、考古学の立場から見たアノテーションを表示することで、観察者に多様な情報を与えることができる。
【0078】
また、観察者は、一度見たアノテーションは二度見る必要がない場合が多く、同じアノテーションを提示すると煩雑だと感じる可能性がある。その観察者が感じる煩雑さをなくすために、アノテーション観察可能領域に入った場合とで、提示されるアノテーションを変えることによって、同じアノテーションが表示されない、または表示される回数を減らすことが可能である。
【0079】
なお、図15では、地図画像上の2次元領域のどの“辺”からアノテーション観察領域に進入するかによって提示するアノテーションを変えているが、例えば観察者の視点位置が3次元空間内を移動可能なアプリケーション(観察者があたかも空を飛んでいるかのように視点を移動可能なアプリケーション等)においてはアノテーション観察領域は3次元の領域でもよく、多面体のどの“面”からアノテーション観察領域に進入したかによって提示するアノテーションを変えてもよい。
【0080】
図16に、アノテーション観察可能領域にどこから進入したかによって表示するアノテーションを変更する場合の、アノテーション対応データの保存形式例を示す。各オブジェクトは、進入箇所(この場合は辺)と表示するアノテーション画像の対応テーブルを持つ。図16では、建物Aに関しては、境界Aから進入した場合には、“建物A1.jpg”のアノテーション画像を表示し、境界Bから進入した場合には、“建物A2.jpg”のアノテーション画像を表示する。また、境界A、B以外から進入した場合はデフォルトの画像(建物A.jpg)を表示する。建物Bに関しては、デフォルトしか設定されていないので、どの境界から進入した場合でも、“建物B.jpg”のアノテーション画像を表示する。デフォルトの記述がない場合は、アノテーション画像は表示しない。
【0081】
なお、図16の例においては、各境界がアノテーション観察可能領域とどのように対応するかについては予め定められていることを仮定しているが、必要に応じ、アノテーション観察可能領域を指定する座標を用いるなどして境界を定義するデータ項目を付加しても良い。
【0082】
図17に、第3実施形態における、アノテーション画像決定のフローチャートを示す。このフローチャートは、図8におけるステップS109のアノテーション描画処理に対応するものである。図17の処理は、図8のフローチャートにおいて、フラグFi=1であるすべてのオブジェクトに対して行われる。
【0083】
各オブジェクトについて、まずステップS301において、進入した境界に対応するアノテーション画像が存在するかどうかを判別する。なお、観察者がどの境界からアノテーション観察可能領域に進入したかについては、例えば観察者の視点位置の移動履歴を記録しておき、図8のステップS104において観察者の視点位置がアノテーション観察可能領域に含まれることが検出された際に移動履歴を元に決定することが可能である。また、決定結果はフラグFiを1にセットする際に境界を特定可能な情報を併せてオブジェクトにセットしておくことが可能である。
【0084】
そして、ステップS301では、Fi=1のオブジェクトに対し、境界が特定可能な情報の有無もしくはその内容と、図16に示したアノテーション対応データの画像テーブルとを参照することにより、観察者が進入した境界に対応するアノテーション画像の有無を判定することが可能である。
【0085】
ステップS301で、観察者が進入した境界に対応するアノテーション画像が存在する場合にはステップS303に進み、対応するアノテーション画像を描画する。存在しない場合にはステップS302に進み、デフォルトのアノテーション画像が存在するかどうかを判別する。デフォルトのアノテーション画像が存在する場合には、ステップS304に進み、デフォルトのアノテーション画像を描画する。デフォルトのアノテーション画像が存在しない場合には、何も描画しない。
【0086】
以上のように、第3実施形態によれば、アノテーション観察可能領域への進入経路によって同じオブジェクトに対するアノテーションを変化させることによって、観察者が感じる不快感を解消したり、豊かな情報を提供したりすることが可能になる。
【0087】
■《第4実施形態》
第3実施形態では、アノテーション観察可能領域にどこから入るかによって提示するアノテーションを変更することにより、観察者が感じる繁雑さを解消したり、豊かな情報を提供したりすることを可能にした。第4実施形態では、アノテーションに履歴情報を持たせ、履歴に基づいてアノテーションや地図上のアノテーションマークの表示方法を変化させることにより、同様の効果を実現する。
【0088】
図18は、第4実施形態における画像再生装置が行うアノテーション提示方法の例を説明する図である。本実施形態において、画像再生装置は各オブジェクトのアノテーション表示履歴情報をディスク105等に保持する。また、表示履歴情報は観察者が変わったり、前回の表示から一定の時間が経過したり、マウスやキーボードから特定のコマンドが入力されたり、観察者の視点位置が所定の距離離れた領域に移動したり、観察者に呈示するコンテンツが切替えされる等、さまざまな条件によってリセットされるものとする。
【0089】
あるオブジェクトについて履歴情報がリセットされると、そのオブジェクトに対応するアノテーション画像の観察回数が0にセットされる。観察者の変更は、ウォークスルーシステムの再起動や、ユーザ認証、キーボードやマウスなどのユーザインタフェースによる入力によって検知される。オブジェクトAのアノテーション表示条件を観察者の視点位置及び視線方向が初めて満たした場合には、例えば第1実施形態で説明したようにしてアノテーション画像が仮想空間画像に合成されて表示される。一方、同一アノテーションに対して表示条件を満たすのが所定回数以上、例えば2回目以降である場合には、アノテーション画像の表示は行わない。これによって、観察者は、一度見たアノテーションを二度見なくてもよくなり、ウォークスルー時に同じアノテーション観察可能領域を多数回通る場合であっても不快感を感じずに済む。
【0090】
図19は、第4実施形態におけるもう一つのアノテーション提示方法を説明する図である。ウォークスルーシステムは、同一オブジェクトに対して複数のアノテーション画像を保持し、履歴情報を参照して、観察可能領域への進入回数に応じたアノテーション画像を選択して合成表示する。これによって、例えば最初はオブジェクトに関する大まかな情報のアノテーションを表示し、進入回数が増えるごとに細かい情報に関するアノテーションを表示することが可能になる。また、履歴情報を参照せずに、ランダムに選択したアノテーション画像を表示することも可能になる。
【0091】
また、地図上のアノテーション観察可能領域を示すマークも、履歴情報に応じて表示方法を変更してもよい。図20(a)は、図18で示した一回目の進入の際だけにアノテーションを表示する場合のアノテーション観察可能領域を示すマークの変化である。一回目に進入するまでは、地図上にアノテーション観察可能領域を示すマークは表示されているが、一度アノテーション観察可能領域を出たら、履歴情報がリセットされるまでは表示しない。これによって、地図上にマークがあってもアノテーションが表示されないことに観察者が違和感を覚えることがなくなる。
【0092】
また、アノテーション観察可能領域を示すマークは常に表示しておき、一回目の観察可能領域への進入の際には自動的にアノテーションを表示し、二回目以降の進入の際には、マウスやキーボードなどのユーザインタフェースからの入力があった(例:ボタンを押す)場合のみ表示されることも可能である。また、一回目の観察可能領域への進入の際には自動的にアノテーションを表示し、二回目以降の進入の際には、アノテーション観察可能領域に留まっている時間が一定値を超えたらアノテーションを表示させることも可能である。
【0093】
図20(b)は、図19で示した進入回数に応じて異なるアノテーションを表示する場合のアノテーション観察可能領域を示すマークの変化である。ここでは、回数を重ねるごとに、透明度が増して徐々に見えなくなっていくが、回数を重ねるごとに色が変わってもよい。これによって、観察者は同じオブジェクトについて異なるアノテーションを観察していることを認識できる。
【0094】
図21に、保存される履歴情報の例を示す。履歴情報は、オブジェクト又はアノテーション画像毎に設けられ、システム起動と同時にメモリ上に作成され、観察者が変わったり、一定の時間が経過したり、マウスやキーボードのボタンが押されたり、遠く離れた領域に移動したり、コンテンツを切替えたりするごとにリセットされ、システム終了とともに消去される。しかしながら、システム終了とともにファイルとして保存し、システムが再び起動したときにそれを読み込んで履歴情報の初期値としてもよい。保存される履歴情報のファイルは観察者ごとのプロファイル・データとして作成され、システムが再び起動する際には、観察者のプロファイル・データが存在していればそれを読み込んで履歴情報の初期値とする。
【0095】
図21に示すように、履歴情報はオブジェクトごとにアノテーションを表示した回数を記録する。この回数に応じて、表示/非表示を切替えたり、表示するアノテーションを変更したりする。また、前回アノテーション観察可能領域に侵入した際の境界も履歴情報として残しておくことで、進入回数と進入境界の履歴情報を用いて多様なアノテーションを表示することが可能になる。
【0096】
【他の実施形態】
なお、上述の実施形態で説明したアノテーション画像やマークの表示方法はその2つ以上を組み合わせて実施することも可能であることは言うまでもない。
【0097】
また、画像再生装置が再生、呈示する仮想空間は2次元画像のみならず、視差画像を利用した立体表示や、裸眼立体視の原理を利用した立体表示によってもよい。このような画像表示技術は周知であるため、ここでこれ以上の説明は行わない。
【0098】
また、上述の実施形態においては、観察者自体は移動することなく、仮想的な観察者の視点を操作部を用いて移動させるウォークスルーシステムについてのみ説明した。しかしながら、例えば頭部装着型ディスプレイ(HMD)を観察者が装着し、トレッドミルの上などで実際に歩行して仮想空間内の移動を行い、また実際の視線方向をセンサ等によって検出することにより、観察者の視点位置及び視線方向を取得して、適切な仮想空間画像をHMDに表示させるようなシステムであっても本発明を適用可能である。
【0099】
また、上述の画像再生装置と同等の機能を複数の機器から構成されるシステムによって実現しても良い。
尚、前述した実施形態の機能を実現するソフトウェアのプログラムを、記録媒体から直接、或いは有線/無線通信を用いて当該プログラムを実行可能なコンピュータを有するシステム又は装置に供給し、そのシステム或いは装置のコンピュータが該供給されたプログラムを実行することによって同等の機能が達成される場合も本発明に含む。
【0100】
従って、本発明の機能処理をコンピュータで実現するために、該コンピュータに供給、インストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明の機能処理を実現するためのコンピュータプログラム自体も本発明に含まれる。
【0101】
その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等、プログラムの形態を問わない。
【0102】
プログラムを供給するための記録媒体としては、例えば、フレキシブルディスク、ハードディスク、磁気テープ等の磁気記録媒体、MO、CD−ROM、CD−R、CD−RW、DVD−ROM、DVD−R、DVD−RW等の光/光磁気記憶媒体、不揮発性の半導体メモリなどがある。
【0103】
有線/無線通信を用いたプログラムの供給方法としては、コンピュータネットワーク上のサーバに本発明を形成するコンピュータプログラムそのもの、もしくは圧縮され自動インストール機能を含むファイル等、クライアントコンピュータ上で本発明を形成するコンピュータプログラムとなりうるデータファイル(プログラムデータファイル)を記憶し、接続のあったクライアントコンピュータにプログラムデータファイルをダウンロードする方法などが挙げられる。この場合、プログラムデータファイルを複数のセグメントファイルに分割し、セグメントファイルを異なるサーバに配置することも可能である。
【0104】
つまり、本発明の機能処理をコンピュータで実現するためのプログラムデータファイルを複数のユーザに対してダウンロードさせるサーバ装置も本発明に含む。
【0105】
また、本発明のプログラムを暗号化してCD−ROM等の記憶媒体に格納してユーザに配布し、所定の条件を満たしたユーザに対して暗号化を解く鍵情報を、例えばインターネットを介してホームページからダウンロードさせることによって供給し、その鍵情報を使用することにより暗号化されたプログラムを実行してコンピュータにインストールさせて実現することも可能である。
【0106】
また、コンピュータが、読み出したプログラムを実行することによって、前述した実施形態の機能が実現される他、そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどが、実際の処理の一部または全部を行ない、その処理によっても前述した実施形態の機能が実現され得る。
【0107】
さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行ない、その処理によっても前述した実施形態の機能が実現され得る。
【0108】
【発明の効果】
以上説明したように、本発明によれば、アノテーションマークを合成した地図画像を仮想空間画像に合成して呈示することにより、観察者がアノテーションを観察できる領域を容易に知ることが可能になる。
【0109】
また、本発明によれば、アノテーションマークの表現を様々な条件によって変化させることによって、観察者が自らの興味や希望に応じて観察すべきアノテーションを判別することが可能になるほか、観察者が不快感を感じることをなくし、豊かな情報を提供することが可能になる。
【図面の簡単な説明】
【図1】本発明の実施形態に係るウォークスルーシステムを構成する画像再生装置の機能構成例を説明するブロック図である。
【図2】図1における画像再生装置を実現可能なハードウェア構成例を示すブロック図である。
【図3】アノテーション対応データの構成例を説明する図である。
【図4】アノテーション表示可否決定方法及び表示位置を説明する図である。
【図5】画像再生装置の全体処理を説明するフローチャートである。
【図6】アノテーションマーク及び観察者マークの表示例を説明する図である。
【図7】地図画像表示処理を説明するフローチャートである。
【図8】アノテーション表示処理を説明するフローチャートである。
【図9】アノテーションマークの表示方法の他の例について説明する図である。
【図10】アノテーションマークの表示方法のさらに他の例について説明する図である。
【図11】画像再生装置1の表示画面の一例を示す図である。
【図12】第2実施形態に係る画像再生装置が行うマーク表示方法を説明する図である。
【図13】図12の表示方法を実現するためのアノテーション対応データの構成例を説明する図である。
【図14】第2実施形態において、観察者が表示するマークの属性を指定するためのユーザインタフェース例を示す図である。
【図15】第3実施形態に係る画像再生装置が行うマーク表示方法を説明する図である。
【図16】図15の表示方法を実現するためのアノテーション対応データの構成例を説明する図である。
【図17】第3実施形態に係る画像再生装置が行うアノテーション表示処理のうち、図8に示したフローチャートと異なる処理を説明するフローチャートである。
【図18】第4実施形態に係る画像再生装置が行うマーク表示方法を説明する図である。
【図19】第4実施形態に係る画像再生装置が行う別のマーク表示方法を説明する図である。
【図20】第4実施形態に係る画像再生装置が行うさらに別のマーク表示方法を説明する図である。
【図21】第4実施形態に係る画像再生装置が用いる履歴情報データの例を説明する図である。[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image reproducing apparatus and method having a function of notifying an observer in advance of a viewpoint position and a line-of-sight direction where an annotation related to an object in a virtual space can be observed in a virtual space walk-through system.
[0002]
[Prior art]
In recent years, as one form of digital archiving, many attempts have been made to incorporate a cultural heritage or city into a computer and construct it as a virtual space. Also, with the development of CPUs and graphics hardware, it has become possible to walk through a virtual space with high reality on a personal computer in real time.
[0003]
One method for constructing a virtual space is modeling by general computer graphics (CG) using a geometric model and texture. In modeling by CG, a real geometric model is generated / restored by using a remaining drawing or an actual survey, or by directly measuring a geometric shape using a laser range finder or the like. Also, the reality is enhanced by texture mapping the actual image of the object onto the geometric model of the object.
[0004]
On the other hand, as another method for constructing a virtual space, there is a method based on Image-Based Rendering (IBR) that constructs a virtual space using only a photographed image. In modeling by CG, if the model is not accurate, the reality is lost. However, in IBR, since a real image is used as it is, a virtual space with high reality can be expressed. In addition, modeling does not take time, and it is suitable for construction of a wide range of virtual spaces. However, since IBR uses a large number of actual images, the amount of data becomes enormous. Therefore, research on modeling methods that combine modeling by CG and modeling by IBR is also widely performed.
[0005]
In a virtual space constructed using these methods, an annotation (annotation) is displayed on an object in the virtual space, so that an observer who walks through the virtual space can see which building is now. It is possible to provide additional information such as whether or not (see, for example, Patent Document 1). An annotation can appear to follow the object by being displayed on the object, or can be made to appear as a telop by being displayed at a fixed position on the screen.
By observing the annotated virtual space, the observer can walk through the virtual space as desired without a guide, and can obtain various information through annotation. . In addition, there is no restriction | limiting in particular in the information displayed as an annotation in this specification, Arbitrary information regarding a certain object in a virtual space image can be displayed.
[0006]
In addition, the virtual space map is presented to the observer, and the observer's viewpoint position / gaze direction and the position of the object on which the annotation is displayed are displayed on the map, so that the observer It is also possible to grasp the positional relationship with the object on which is displayed.
[0007]
[Patent Document 1]
JP 2002-163670 A
[0008]
[Problems to be solved by the invention]
However, even if the observer's viewpoint position / gaze direction and the position of the object on which the annotation is displayed are displayed on the map, if the object is far away from the observer, it may be hidden by another object. Actually, you may not be able to see the annotation. In addition, depending on the intention of the creator of the content (in this case, virtual space), the viewpoint position / line-of-sight direction where the annotation can be viewed may be limited.
[0009]
In such a case, the observer has to search for a viewpoint position / line-of-sight direction where he can observe the annotation he / she wants to observe by groping.
[0010]
The present invention has been made in view of the above problems, and an object of the present invention is to enable an observer to observe annotations on objects in a virtual space in an image reproduction device that provides the observer with a walk-through experience in a virtual space. This is to make it easy to recognize the viewpoint position and the line-of-sight direction.
[0011]
Furthermore, another object of the present invention is to further improve the convenience of the observer in the above-described image reproduction device.
[0012]
[Means for Solving the Problems]
That is, the image reproduction method according to the present invention detects the viewpoint position and the line-of-sight direction in the observer's virtual space, and presents the corresponding virtual space image to allow the observer to experience a walk-through in the virtual space. A virtual space image for generating a virtual space image to be presented to an observer based on a viewpoint position and a line-of-sight direction in the observer's virtual space and virtual space data stored in a virtual space data storage unit A map image is read out based on the viewpoint position in the observer's virtual space from the generation step and the map image storage means, and a map image representing a predetermined range of the virtual space including at least the viewpoint position in the observer's virtual space is obtained. A map image generation step for generating, and a presentation step for synthesizing the virtual space image and the map image and presenting the map image to the observer. The step observes the annotation image based on the information about the area where the annotation image relating to the object in the virtual space where the annotation information storage means can be observed and the viewpoint position and the line-of-sight direction in the observer's virtual space. The method includes a mark composition step of combining a mark representing a possible area and a mark representing an observer's viewpoint position and line-of-sight direction into a map image.
[0013]
In addition, the image reproducing apparatus according to the present invention detects the viewpoint position and the line-of-sight direction in the observer's virtual space, and presents the corresponding virtual space image to allow the observer to experience a walk-through in the virtual space. A virtual space image for generating a virtual space image to be presented to an observer based on a viewpoint position and a line-of-sight direction in the observer's virtual space and virtual space data stored in the virtual space data storage means A map image is read out based on the viewpoint position in the observer's virtual space from the generation means and the map image storage means, and a map image representing a predetermined range of the virtual space including at least the viewpoint position in the observer's virtual space is obtained. A map image generating means for generating, and a presenting means for synthesizing the virtual space image and the map image and presenting them to an observer. Area where the annotation image can be observed based on the information about the area where the annotation image related to the object in the virtual space is observable, and the viewpoint position and the line-of-sight direction in the virtual space of the observer And a mark synthesizing unit that synthesizes a mark representing the viewpoint position and line-of-sight direction of the observer into a map image.
[0014]
The object of the present invention is also achieved by a program for causing a computer to execute the image reproduction method of the present invention.
[0015]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings.
[0016]
<First Embodiment>
FIG. 1 is a block diagram illustrating a functional configuration of the walk-through system according to the present embodiment. The
[0017]
FIG. 2 is a block diagram illustrating a hardware configuration example of the
[0018]
The
[0019]
When the
[0020]
The mouse 108, the
[0021]
Next, an outline of the operation of the
The
[0022]
The map
[0023]
The annotation
[0024]
Note that the annotation observable region is defined as a position where no other object exists between the observable region and the target object, or the annotation is not hidden even if it exists. In the latter case, the display position in the image of the predetermined annotation, the viewpoint position (height) of the observer, and the height of other objects existing between the target object and the annotation observable area are taken into consideration. Can be determined.
[0025]
The shape of the annotation observable region is not limited to a rectangle, and may be another shape or may be defined by another method. For example, all vertex coordinates may be specified, or a circular area may be specified by specifying the center and radius.
[0026]
In the example of FIG. 3, the viewpoint position (x, y) on the map of the observer is (x 0 , Y 0 ), (X 1 , Y 1 ) Within a range defined by a rectangle having diagonal vertices as a diagonal vertex is a necessary condition for the annotation display for the building A.
[0027]
Whether the annotation is actually displayed, and the position on the observation screen when the annotation is displayed is the object whose viewpoint position on the observer's map is in the annotation observable area and that displays the annotation (In the above case, the location (x A , Y A ) And the viewpoint position / line-of-sight direction of the observer (FIG. 4).
[0028]
FIG. 4 is a diagram illustrating, as an example, annotation correspondence data for the building A in FIG. 3 with respect to an example of a method for determining whether to perform annotation display.
In FIG. 4, the viewpoint position (x, y) on the observer's map is (x 0 , Y 0 ), (X 1 , Y 1 ) In the rectangular annotation observable area defined for the building A, with the diagonal vertices. In this case, the viewing direction of the observer and the angle of view θ defined in the system 0 If the building A is included in the visual field of the observer defined by (for example, ± α ° centered on the line-of-sight direction), the annotation display for the building A is performed.
[0029]
Specifically, the observer's viewpoint position (x, y) and the position of building A (x A , Y A ) And the angle (β °) between the line-of-sight direction (shown by the dotted line in FIG. 4),
β ≦ α
When the condition is satisfied, the annotation for the building A is displayed. In addition, you may perform determination of whether the building A is contained in an observer's visual field by another method.
[0030]
Note that the position of the building A (x A , Y A ) May be, for example, the center or barycentric position on the map image of the building A, or may be another position. Further, when the width of the building A as viewed from the annotation observable region is large, the coordinate value having the range may be used as the position of the object instead of the determination at one point such as the center position or the center of gravity position.
[0031]
In this case, the position data of the object in the annotation correspondence data is x A And y A The data has a range for at least one of the above. In the determination shown in FIG. 4, when a coordinate value having a range at the object position is used, the upper limit value and the lower limit value of the range (if both x and y have ranges, the upper limit of each range The combination of the value and the lower limit value) is determined, and whether or not display is possible is determined depending on whether or not one is included in the field of view.
[0032]
Needless to say, the annotation correspondence data is set in a coordinate system that is the same as the coordinate system representing the viewpoint position of the observer to be compared. That is, when determining whether or not annotation display is possible using the coordinate position of the observer's virtual space, the coordinates stored as annotation correspondence data are not coordinate values on the map but values in the coordinate system in the virtual space. Become.
[0033]
Although the display position of the annotation can be arbitrarily set, in the example of FIG. 4, the observer is placed on an image plane that is predetermined as a plane that is orthogonal to the observer's line-of-sight direction and is a predetermined distance away from the viewpoint position. Display is performed assuming that an annotation image exists centering on a point where a straight line connecting the viewpoint position of the target object and the position of the target object (building A) intersects. The display position in the vertical direction of the image plane (display position in the direction orthogonal to the paper plane of FIG. 4) can be, for example, the lowermost part or the uppermost part of the image plane. Of course, as long as the relationship with the target object can be clearly understood, an annotation can be displayed at an arbitrary position on the image plane.
[0034]
The virtual space
[0035]
When the
[0036]
The viewpoint position / line-of-sight
[0037]
■ (Overall processing)
FIG. 5 is a flowchart showing the overall processing of the
[0038]
In step S <b> 10, the image
[0039]
In step S30, the map image data to be displayed is read from the map
[0040]
In step S40, an annotation image to be displayed is acquired based on the viewpoint position and line-of-sight direction on the map of the observer and the annotation observable area data in the annotation
[0041]
Then, the image
[0042]
Note that the scale of the map image to be displayed may be fixed, or may be variable according to an instruction from the observer. In the case of a variable scale, data of a plurality of scales may be held as map image data, and map image data corresponding to a set scale may be read out, or common map data may be simply displayed according to the scale. You may enlarge / reduce the display. In addition, when a condition such as the observer's viewpoint position approaches an annotation observable region is satisfied, the scale can be changed to change to a detailed display.
[0043]
■ (Example of mark display)
Next, the map image display process of the above-described image
[0044]
FIG. 6 is a diagram illustrating an example of map display realized by the map
Here, the building A shown in the upper part of FIG. 3 will be described as an example. That is, as shown in FIG. 6A, the position of the object (building A) on the two-dimensional map is (x A , Y A ),building A The region where the annotations on can be observed (x 0 , Y 0 ), (X 1 , Y 0 ), (X 1 , Y 1 ), (X 0 , Y 1 ) In the rectangle determined by
[0045]
In this case, as shown in FIG. 6B, the map
[0046]
In the example of FIG. 6B, two images, the image showing the entire annotation observable region and the image showing the position of the target object, are shown as annotation marks. However, as shown in FIG. The center of the observable area ((x 0 + X 1 ) / 2, (y 0 + Y 1 ) / 2), an image representing the direction θ of the target object (see FIG. 6A) may be shown as an annotation mark.
[0047]
In this case, if the annotation mark has the same shape as the observer mark, the observer can observe the annotation by controlling the display of the observer mark on the map image so as to approach the same position and direction as the annotation mark. Intuitively understand. Further, in FIG. 6C, an image indicating the display target object is not displayed as an annotation mark, but may be displayed.
[0048]
When the annotation mark has the same shape as the observer mark, the annotation mark can be displayed in different colors and transparency in order to avoid confusion between the two. Also, in FIG. 6, each mark is represented by an isosceles triangle, and the position and direction can be recognized in the same manner as a general arrow. However, any shape may be used as long as the position and direction can be recognized.
[0049]
In FIG. 6, the region where the annotation can be observed is a rectangle, but may be an arbitrary polygonal region as described above. Further, a circle or an ellipse may be used. Further, if the display format of the map image is a format with a sense of perspective or a three-dimensional effect, it can be combined with a mark representing a three-dimensional space such as a cube or a rectangular parallelepiped. In this case, the format of the annotation correspondence data may be changed together.
[0050]
FIG. 7 is a flowchart showing such map image generation and update processing, and corresponds to the processing in step S30 of FIG.
In step S32, the map
[0051]
In step S36, the observable
[0052]
■ (Annotation display processing)
Next, annotation display processing (corresponding to step S40 in FIG. 5) in the image
Here, as described above, it is assumed that the annotation correspondence data is defined by the coordinates on the map image. However, when the annotation correspondence data is defined by the coordinates on the virtual space, the virtual position is virtually set at the observer's viewpoint position. A similar process may be performed using the coordinates in the space.
[0053]
First, in step S101, the viewpoint position / gaze direction on the map image of the observer is acquired from the viewpoint position / gaze
[0054]
In step S103, it is determined whether or not i ≦ n, that is, whether or not processing has been performed for all objects (display target objects) that display annotations. If all the display target objects have not been processed (if i ≦ n), in step S104, the viewpoint position on the map of the observer acquired in step S101 is the object O. i Annotation observable area defined in the annotation correspondence data corresponding to (R i To determine whether it is included.
[0055]
Annotation observation area R i If it is included, the process proceeds to step S105, where the observer's viewpoint position, viewpoint direction, and object O i And the object angle O from the preset angle of view θ. i Is determined to be in the observer's field of view. When entering the field of view, the flag F corresponding to the i-th annotation in step S106. i Is set to 1. If it does not enter the field of view, or the viewpoint position of the observer is the annotation observable region R in step S104 i Is not included in the flag F in step S107 i Is set to 0. From steps S106 and S107, the process proceeds to step S108, i is incremented by 1, and the process returns to step S103.
[0056]
If i> n in step S103 and it is determined that the processing has been completed for all the display target objects, the process proceeds to step S109. In
[0057]
■ (Annotation mark display control according to the relationship with the observer mark)
By displaying the observer mark and the annotation mark on the map image, the observer can easily visually understand the distance relationship with the annotation observable region and the relationship with the direction of the target object. However, by visually varying the mark display method according to the relationship between the observer's viewpoint position and the annotation observable area and the relationship between the observer's line-of-sight direction and the direction of the target object, Further, it becomes possible to provide a highly convenient application. Hereinafter, an example of mark display control that can be performed in the map image display process in the present embodiment will be described.
[0058]
(1) When the observer mark approaches the annotation mark (part 1)
When the observer's viewpoint position enters the annotation observable region and the display target object enters the observer's field of view, annotation display is performed in the virtual space image.
At that time, by changing the annotation mark display method on the map image, the observer can more clearly recognize the correspondence between the displayed annotation and the observable region.
[0059]
For example, in the state shown in the left of FIG. 9, when the annotation display condition that the observer's viewpoint position enters the annotation observable region and the display target object enters the observer's field of view is satisfied, FIG. In a), the display color of the mark indicating the observable area as the annotation mark is changed before the condition is satisfied. In FIG. 9B, when an annotation display condition is satisfied, a mark indicating an observable area is blinked. Further, in FIG. 9C, the transparency of the mark indicating the observable area is increased before the annotation display condition is satisfied, and the transparency is decreased (for example, opaque) when the condition is satisfied.
[0060]
In addition, as shown in FIG. 10, when the annotation mark includes both a mark indicating the observable area and a mark indicating the display target object, the display method of both marks may be changed when the annotation display condition is satisfied. Is possible.
[0061]
In FIG. 10A, the colors of both the observable region and the mark indicating the object are changed before and after the annotation display condition is satisfied. In FIG. 10B, when the annotation display condition is satisfied, the mark indicating the observable region and the object is blinked. Further, in FIG. 10C, the transparency of the mark indicating the observable region and the object is increased before the annotation display condition is satisfied, and the mark is rendered opaque when entering the observable region.
[0062]
In this way, the image
[0063]
As described above, according to the image reproducing device according to the first embodiment of the present invention, a map image is synthesized and displayed on a virtual space image, and annotation information such as an annotation observable region and an annotation target object is displayed on the map image. An annotation mark to represent and an observer mark to represent the observer's viewpoint position and viewpoint direction, so that the observer can easily know the viewpoint position and line-of-sight direction in which the annotation can be observed in the virtual space, and to the annotation observable position You will be able to move. In addition, by changing the display method of the mark that indicates the annotation observable area between when the annotation is displayed and when it is not displayed, the correspondence between the observed annotation and the observable area is clarified to the observer. Can be recognized.
[0064]
■ <Second Embodiment>
In the first embodiment, by displaying the annotation observable area on the map image, the observer can easily know the area where the annotation can be observed in the virtual space. In the second embodiment, by changing the display method of the annotation observable area displayed on the map image according to the purpose, the observer can discriminate the annotation observed in the area. Note that the configuration of the image reproducing apparatus according to the present embodiment may be the same as that described with reference to FIGS.
[0065]
FIG. 12 is a diagram illustrating an example of a map image display that is synthesized and displayed on the virtual space image in the image reproduction device according to the second embodiment. FIG. 12A shows an example in which the display method of the mark representing the observable region is changed (meaning a visually different display) depending on the importance of the annotation (or the display target object). In the example of FIG. 12A, a mark corresponding to an important annotation has a pattern (black circle) different from other marks.
[0066]
For example, when realizing cultural heritage as a virtual space and providing its walk-through application, the importance of annotation for buildings with high historical value and famous buildings is increased, and other annotation marks are displayed on the map image. By presenting the viewer with a different display method, it becomes possible for the viewer to observe the annotation with high importance, and to learn the cultural heritage efficiently. Here, the importance is distinguished by the difference in the shape of the mark (the presence or absence of a black circle), but any method that can be visually distinguished from other marks, such as the color, size, and transparency of the mark, can be used. .
[0067]
FIG. 12B shows an example in which the mark display method, here the display color, is changed depending on the genre of the annotation (or display target object). The genre is divided into, for example, history, geography, shopping, meals, and public facilities. Since the mark is color-coded according to the genre, the observer can know where the annotation of the genre that he is interested in can be observed in the annotation observable area displayed on the map. Here, the genre is distinguished by the color of the mark in the annotation observable area, but the shape of the mark may be changed. Further, a legend image explaining the correspondence between the mark color and the genre, importance, etc. may be displayed in addition to the map image or as another image.
[0068]
In order to realize the display method shown in FIG. 12, items of importance and genre are set in the annotation correspondence data stored in the annotation
[0069]
In addition, it is possible to configure the genre and the importance of the mark to be displayed among the marks representing the annotation observable area so that the observer can specify the importance. In this case, the observer can select a mark indicating the annotation observable area to be displayed on the map by setting a desired importance and genre using a user interface as shown in FIG. 14, for example. It is.
[0070]
FIG. 14A shows an example of an importance selection user interface screen, and FIG. 14B shows an example of a genre selection user interface screen. For such screen display, for example, an operation for calling a screen is assigned to a key or operation such as a keyboard or a mouse constituting the
[0071]
In addition, while the user interface screen is displayed, the
[0072]
Further, in the map image display processing described with reference to FIG. 7, when determining the annotation mark to be displayed in step S34, only the annotation mark of importance or genre checked in the user interface shown in FIG. 14 is selected. Like that. In addition, in the annotation display process shown in FIG. 8, a process for determining whether or not the genre should be displayed is added during steps S105 to S106, and only the flag F is displayed for the genre object to be displayed. i Is set to 1.
[0073]
Note that the display method shown in FIG. 12A can be realized by preparing an annotation mark image associated with the importance in advance and using the annotation mark image corresponding to the importance during display.
[0074]
By performing such mark display, the observer can observe on the map image the observable region of the annotation of only the genre he / she desires. In addition, it is possible to have a walk-through experience according to the needs of the observer, such as observing only important annotations.
[0075]
In the above description, the display method is changed according to the importance, and only the items that match the set genre are displayed. However, only the items that match the predetermined importance are displayed. You may do it. In short, the present embodiment is characterized in that the display method is changed (including non-display) according to attributes such as the importance level and genre set in the annotation or object. The type and the display method corresponding to it can be arbitrarily set.
[0076]
■ <Third Embodiment>
For example, in the walk-through application, if the same annotation is displayed every time the same place is passed, there is a possibility that the observer may feel uncomfortable. Therefore, the third and fourth embodiments are characterized in that a plurality of observable annotation displays are provided in the same region, and the contents of the displayed annotations are changed according to conditions. As a result, it is possible to provide a wealth of information by preventing the observer from feeling uncomfortable by observing the same annotation many times.
[0077]
FIG. 15 is a diagram for explaining an annotation presentation method to an observer in the third embodiment. In FIG. 15, the annotations presented for the same object are changed depending on whether the observer enters the annotation observable region from the boundary A and enters the annotation observable region from the boundary B. Thus, for example, when entering from the boundary A, the annotation of the target object from the viewpoint of architecture is displayed, and when entering from the boundary B, the annotation from the viewpoint of archeology is displayed. , Can give a variety of information to the observer.
[0078]
Also, an observer often does not need to see an annotation once viewed, and there is a possibility that it will be complicated if the same annotation is presented. In order to eliminate the troublesomeness felt by the observer, it is possible to reduce the number of times the same annotation is not displayed or displayed by changing the displayed annotation when entering the annotation observable area. .
[0079]
In FIG. 15, the annotation to be presented is changed depending on which “side” of the two-dimensional area on the map image enters the annotation observation area. For example, the viewpoint position of the observer can move in the three-dimensional space. An application that can move the viewpoint as if the observer is flying in the sky, etc., the annotation observation area may be a three-dimensional area, and from which “surface” of the polyhedron has entered the annotation observation area You may change the annotation presented.
[0080]
FIG. 16 shows an example of a storage format of annotation corresponding data when the annotation to be displayed is changed depending on where the annotation enters the viewable area. Each object has a correspondence table between an entry location (in this case, a side) and an annotation image to be displayed. In FIG. 16, regarding the building A, when entering from the boundary A, the annotation image of “building A1.jpg” is displayed, and when entering from the boundary B, the annotation image of “building A2.jpg” is displayed. indicate. Further, when entering from other than the boundaries A and B, a default image (building A.jpg) is displayed. Since only the default is set for the building B, an annotation image of “building B.jpg” is displayed when entering from any boundary. If there is no default description, no annotation image is displayed.
[0081]
In the example of FIG. 16, it is assumed that how each boundary corresponds to the annotation observable region is determined in advance, but coordinates that specify the annotation observable region as necessary. A data item that defines the boundary may be added by using, for example.
[0082]
FIG. 17 shows a flowchart of annotation image determination in the third embodiment. This flowchart corresponds to the annotation drawing process in step S109 in FIG. The process of FIG. 17 is the same as the flag F in the flowchart of FIG. i For all objects with = 1.
[0083]
For each object, first, in step S301, it is determined whether or not an annotation image corresponding to the entered boundary exists. As for the boundary from which the observer enters the annotation observable area, for example, the movement history of the observer's viewpoint position is recorded, and the observer's viewpoint position is the annotation observable area in step S104 in FIG. It is possible to determine based on the movement history when it is detected to be included in. The decision result is flag F i When the value is set to 1, it is possible to set information that can specify the boundary in the object.
[0084]
In step S301, F i For the object of = 1, the presence or absence of information whose boundary can be specified or its content and the annotation correspondence data image table shown in FIG. The presence or absence can be determined.
[0085]
If there is an annotation image corresponding to the boundary where the observer has entered in step S301, the process proceeds to step S303, and the corresponding annotation image is drawn. If it does not exist, the process proceeds to step S302 to determine whether or not a default annotation image exists. If a default annotation image exists, the process advances to step S304 to draw a default annotation image. If there is no default annotation image, nothing is drawn.
[0086]
As described above, according to the third embodiment, by changing the annotation for the same object according to the approach path to the annotation observable region, the discomfort felt by the observer can be eliminated, or rich information can be provided. It becomes possible to do.
[0087]
■ <Fourth Embodiment>
In the third embodiment, by changing the annotation to be presented depending on where to enter the annotation observable region, it is possible to eliminate the complexity felt by the observer or provide rich information. In the fourth embodiment, the same effect is realized by giving history information to the annotation and changing the display method of the annotation and the annotation mark on the map based on the history.
[0088]
FIG. 18 is a diagram illustrating an example of an annotation presentation method performed by the image reproduction device according to the fourth embodiment. In the present embodiment, the image playback apparatus holds annotation display history information of each object on the
[0089]
When history information is reset for a certain object, the number of observations of the annotation image corresponding to that object is set to zero. The change of the observer is detected by restarting the walk-through system, user authentication, or input through a user interface such as a keyboard or a mouse. When the viewer's viewpoint position and line-of-sight direction satisfy the annotation display conditions of the object A for the first time, the annotation image is combined with the virtual space image and displayed as described in the first embodiment, for example. On the other hand, if the display condition for the same annotation satisfies the predetermined number of times or more, for example, after the second time, the annotation image is not displayed. As a result, the observer does not have to see the annotation once viewed, and does not feel uncomfortable even when the same annotation observable area is passed many times during the walk-through.
[0090]
FIG. 19 is a diagram for explaining another annotation presentation method in the fourth embodiment. The walk-through system holds a plurality of annotation images for the same object, refers to history information, selects an annotation image corresponding to the number of times of entry into the observable region, and displays the combined image. As a result, for example, it is possible to display an annotation of rough information about an object at first, and to display an annotation about detailed information as the number of times of entry increases. It is also possible to display a randomly selected annotation image without referring to history information.
[0091]
The display method of the mark indicating the annotation observable area on the map may be changed according to the history information. FIG. 20A shows a change in the mark indicating the annotation observable area when the annotation is displayed only at the first approach shown in FIG. The mark indicating the annotation observable area is displayed on the map until the first entry, but once the annotation observable area is exited, it is not displayed until the history information is reset. This prevents the observer from feeling uncomfortable that the annotation is not displayed even if there is a mark on the map.
[0092]
In addition, the mark indicating the annotation observable area is always displayed, the annotation is automatically displayed when entering the first observable area, and the mouse and keyboard are used for the second and subsequent entry. It is also possible to display only when there is an input from the user interface such as (eg, pressing a button). An annotation is automatically displayed when entering the first observable area, and when entering for the second time and after, the annotation is displayed when the time remaining in the annotation observable area exceeds a certain value. It can also be displayed.
[0093]
FIG. 20B shows a change in the mark indicating the annotation observable region when different annotations are displayed according to the number of times of entry shown in FIG. Here, the transparency increases and disappears gradually as the number of times increases, but the color may change as the number of times increases. Thereby, the observer can recognize that different annotations are observed for the same object.
[0094]
FIG. 21 shows an example of history information to be saved. History information is provided for each object or annotation image, and is created in memory at the same time the system is started. The observer changes, a certain amount of time has passed, a mouse or keyboard button is pressed, or is far away. It is reset every time it moves to an area or when content is switched, and is erased when the system ends. However, it may be saved as a file with the end of the system and read as the initial value of the history information when the system is restarted. The saved history information file is created as profile data for each observer. When the system is restarted, if the observer's profile data exists, it is read and the initial value of the history information is read. To do.
[0095]
As shown in FIG. 21, the history information records the number of times an annotation is displayed for each object. Depending on the number of times, display / non-display is switched and the annotation to be displayed is changed. In addition, by leaving the boundary when entering the annotation observable area last time as history information, it is possible to display various annotations using the number of entries and the history information of the entry boundary.
[0096]
[Other Embodiments]
Needless to say, the annotation image and mark display methods described in the above embodiments can be implemented in combination of two or more thereof.
[0097]
Further, the virtual space reproduced and presented by the image reproducing device may be not only a two-dimensional image but also a stereoscopic display using a parallax image or a stereoscopic display using the principle of autostereoscopic viewing. Such an image display technique is well known and will not be described further here.
[0098]
In the above-described embodiment, only the walk-through system that moves the viewpoint of the virtual observer using the operation unit without moving the observer itself has been described. However, for example, when an observer wears a head-mounted display (HMD), actually walks on a treadmill or the like, moves in a virtual space, and detects an actual line-of-sight direction with a sensor or the like. The present invention can also be applied to a system that acquires the observer's viewpoint position and line-of-sight direction and displays an appropriate virtual space image on the HMD.
[0099]
In addition, a function equivalent to that of the above-described image reproduction device may be realized by a system including a plurality of devices.
A software program that realizes the functions of the above-described embodiments is supplied directly from a recording medium or to a system or apparatus having a computer that can execute the program using wired / wireless communication. The present invention includes a case where an equivalent function is achieved by a computer executing the supplied program.
[0100]
Accordingly, the program code itself supplied and installed in the computer in order to implement the functional processing of the present invention by the computer also realizes the present invention. That is, the computer program itself for realizing the functional processing of the present invention is also included in the present invention.
[0101]
In this case, the program may be in any form as long as it has a program function, such as an object code, a program executed by an interpreter, or script data supplied to the OS.
[0102]
As a recording medium for supplying the program, for example, a magnetic recording medium such as a flexible disk, a hard disk, a magnetic tape, MO, CD-ROM, CD-R, CD-RW, DVD-ROM, DVD-R, DVD- There are optical / magneto-optical storage media such as RW, and non-volatile semiconductor memory.
[0103]
As a program supply method using wired / wireless communication, a computer program itself that forms the present invention on a server on a computer network, or a computer that forms the present invention on a client computer such as a compressed file including an automatic installation function A method of storing a data file (program data file) that can be a program and downloading the program data file to a connected client computer can be used. In this case, the program data file can be divided into a plurality of segment files, and the segment files can be arranged on different servers.
[0104]
That is, the present invention includes a server device that allows a plurality of users to download a program data file for realizing the functional processing of the present invention on a computer.
[0105]
In addition, the program of the present invention is encrypted, stored in a storage medium such as a CD-ROM, distributed to the user, and key information for decrypting the encryption for a user who satisfies a predetermined condition is provided via a homepage via the Internet, for example. It is also possible to realize the program by downloading it from the computer and executing the encrypted program using the key information and installing it on the computer.
[0106]
In addition to the functions of the above-described embodiments being realized by the computer executing the read program, the OS running on the computer based on the instruction of the program is a part of the actual processing. Alternatively, the functions of the above-described embodiment can be realized by performing all of them and performing the processing.
[0107]
Furthermore, after the program read from the recording medium is written to a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer, the function expansion board or The CPU of the function expansion unit performs part or all of the actual processing, and the functions of the above-described embodiments can also be realized by the processing.
[0108]
【The invention's effect】
As described above, according to the present invention, it is possible to easily know the region where the observer can observe the annotation by synthesizing and presenting the map image obtained by combining the annotation marks with the virtual space image.
[0109]
Further, according to the present invention, by changing the expression of the annotation mark according to various conditions, it becomes possible for the observer to determine the annotation to be observed according to his / her own interests and desires. It is possible to provide a wealth of information without feeling uncomfortable.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating an example of a functional configuration of an image playback device that constitutes a walk-through system according to an embodiment of the present invention.
FIG. 2 is a block diagram illustrating an example of a hardware configuration that can realize the image reproduction apparatus in FIG. 1;
FIG. 3 is a diagram for explaining a configuration example of annotation correspondence data;
FIG. 4 is a diagram illustrating an annotation display availability determination method and a display position.
FIG. 5 is a flowchart illustrating an overall process of the image reproduction device.
FIG. 6 is a diagram illustrating a display example of an annotation mark and an observer mark.
FIG. 7 is a flowchart for explaining map image display processing;
FIG. 8 is a flowchart for explaining annotation display processing;
FIG. 9 is a diagram illustrating another example of an annotation mark display method.
FIG. 10 is a diagram for explaining yet another example of a method for displaying annotation marks.
FIG. 11 is a diagram showing an example of a display screen of the
FIG. 12 is a diagram for explaining a mark display method performed by the image reproduction apparatus according to the second embodiment.
13 is a diagram for explaining a configuration example of annotation correspondence data for realizing the display method of FIG. 12;
FIG. 14 is a diagram illustrating an example of a user interface for designating attributes of marks displayed by an observer in the second embodiment.
FIG. 15 is a diagram for explaining a mark display method performed by the image reproduction apparatus according to the third embodiment;
16 is a diagram for explaining a configuration example of annotation correspondence data for realizing the display method of FIG. 15;
FIG. 17 is a flowchart for explaining processing different from the flowchart shown in FIG. 8 among annotation display processing performed by the image reproduction device according to the third embodiment.
FIG. 18 is a diagram illustrating a mark display method performed by the image reproduction device according to the fourth embodiment.
FIG. 19 is a diagram illustrating another mark display method performed by the image reproduction device according to the fourth embodiment.
FIG. 20 is a diagram illustrating still another mark display method performed by the image reproduction device according to the fourth embodiment.
FIG. 21 is a diagram illustrating an example of history information data used by the image reproduction device according to the fourth embodiment.
Claims (12)
前記観察者の仮想空間中における視点位置及び視線方向と、仮想空間データ記憶手段に記憶された仮想空間データとに基づき、前記観察者に呈示すべき仮想空間画像を生成する仮想空間画像生成ステップと、
地図画像記憶手段から、前記観察者の仮想空間中における視点位置に基づいて地図画像を読み出し、少なくとも前記観察者の仮想空間中における視点位置を含む前記仮想空間の所定の範囲を表す地図画像を生成する地図画像生成ステップと、
前記仮想空間画像と前記地図画像とを合成して前記観察者に呈示する呈示ステップとを有し、
前記地図画像生成ステップが、
アノテーション情報記憶手段に記憶された、前記仮想空間中のオブジェクトに関するアノテーション画像を観察可能な領域に関する情報と、前記観察者の仮想空間中における視点位置及び視線方向とに基づいて、前記アノテーション画像を観察可能な領域を表すマークと、前記観察者の視点位置及び視線方向を表すマークとを、前記地図画像中に合成するマーク合成ステップを有することを特徴とする画像再生方法。An image reproduction method for causing the observer to experience a walk-through in the virtual space by detecting a viewpoint position and a gaze direction in the virtual space of the observer and presenting a corresponding virtual space image,
A virtual space image generation step for generating a virtual space image to be presented to the observer based on the viewpoint position and line-of-sight direction in the observer's virtual space and the virtual space data stored in the virtual space data storage means; ,
A map image is read from the map image storage means based on the viewpoint position in the observer's virtual space, and a map image representing a predetermined range of the virtual space including at least the viewpoint position in the observer's virtual space is generated. A map image generation step,
A presentation step of synthesizing the virtual space image and the map image to present to the observer;
The map image generation step includes
Observe the annotation image based on the information about the region where the annotation image related to the object in the virtual space is observable stored in the annotation information storage means and the viewpoint position and the line-of-sight direction of the observer in the virtual space. An image reproduction method comprising: a mark composition step of combining a mark representing a possible area and a mark representing the viewpoint position and line-of-sight direction of the observer into the map image.
前記観察者の仮想空間中における視点位置及び視線方向と、仮想空間データ記憶手段に記憶された仮想空間データとに基づき、前記観察者に呈示すべき仮想空間画像を生成する仮想空間画像生成手段と、
地図画像記憶手段から、前記観察者の仮想空間中における視点位置に基づいて地図画像を読み出し、少なくとも前記観察者の仮想空間中における視点位置を含む前記仮想空間の所定の範囲を表す地図画像を生成する地図画像生成手段と、
前記仮想空間画像と前記地図画像とを合成して前記観察者に呈示する呈示手段とを有し、
前記地図画像生成手段が、
アノテーション情報記憶手段に記憶された、前記仮想空間中のオブジェクトに関するアノテーション画像を観察可能な領域に関する情報と、前記観察者の仮想空間中における視点位置及び視線方向とに基づいて、前記アノテーション画像を観察可能な領域を表すマークと、前記観察者の視点位置及び視線方向を表すマークとを、前記地図画像中に合成するマーク合成手段を有することを特徴とする画像再生装置。An image reproduction apparatus that detects a viewpoint position and a line-of-sight direction in a virtual space of an observer and causes the observer to experience a walk-through in the virtual space by presenting a corresponding virtual space image,
Virtual space image generation means for generating a virtual space image to be presented to the observer based on the viewpoint position and line-of-sight direction in the observer's virtual space and the virtual space data stored in the virtual space data storage means; ,
A map image is read from the map image storage means based on the viewpoint position in the observer's virtual space, and a map image representing a predetermined range of the virtual space including at least the viewpoint position in the observer's virtual space is generated. Map image generating means for
Presenting means for synthesizing the virtual space image and the map image and presenting it to the observer;
The map image generating means
Observe the annotation image based on the information about the region where the annotation image related to the object in the virtual space is observable stored in the annotation information storage means and the viewpoint position and the line-of-sight direction of the observer in the virtual space. An image reproducing apparatus, comprising: a mark composition unit that composes a mark representing a possible area and a mark representing the viewpoint position and line-of-sight direction of the observer into the map image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003202525A JP2005044102A (en) | 2003-07-28 | 2003-07-28 | Image reproduction method and device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003202525A JP2005044102A (en) | 2003-07-28 | 2003-07-28 | Image reproduction method and device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005044102A true JP2005044102A (en) | 2005-02-17 |
Family
ID=34262220
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003202525A Withdrawn JP2005044102A (en) | 2003-07-28 | 2003-07-28 | Image reproduction method and device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005044102A (en) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011215412A (en) * | 2010-03-31 | 2011-10-27 | Zenrin Datacom Co Ltd | Map image processing device, map image processing method, and map image processing program |
JP2014120109A (en) * | 2012-12-19 | 2014-06-30 | Kddi Corp | Program for determining prospect area according to road information, information terminal, server and method |
JP2015529873A (en) * | 2012-06-29 | 2015-10-08 | ノキア コーポレイション | Method and apparatus for modifying the presentation of information based on the visual complexity of environmental information |
JP2017058969A (en) * | 2015-09-16 | 2017-03-23 | グリー株式会社 | Virtual image display program, virtual image display device, and virtual image display method |
JP6347375B1 (en) * | 2017-03-07 | 2018-06-27 | 株式会社コナミデジタルエンタテインメント | Display control apparatus and program |
JP2019101330A (en) * | 2017-12-06 | 2019-06-24 | 株式会社スクウェア・エニックス | Display system and display method |
CN110275619A (en) * | 2015-08-31 | 2019-09-24 | 北京三星通信技术研究有限公司 | The method and its head-mounted display of real-world object are shown in head-mounted display |
JP2019174811A (en) * | 2019-04-23 | 2019-10-10 | 株式会社スクウェア・エニックス | Display system and display method |
JP2020177482A (en) * | 2019-04-19 | 2020-10-29 | キヤノンメディカルシステムズ株式会社 | Medical information processing apparatus, and medical information processing method |
JP6937948B1 (en) * | 2020-09-07 | 2021-09-22 | Bulb株式会社 | Furniture layout VR system, furniture layout VR method and program |
-
2003
- 2003-07-28 JP JP2003202525A patent/JP2005044102A/en not_active Withdrawn
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011215412A (en) * | 2010-03-31 | 2011-10-27 | Zenrin Datacom Co Ltd | Map image processing device, map image processing method, and map image processing program |
JP2017182814A (en) * | 2012-06-29 | 2017-10-05 | ノキア テクノロジーズ オサケユイチア | Method and apparatus for modification of presentation of information based on visual complexity of environment information |
JP2015529873A (en) * | 2012-06-29 | 2015-10-08 | ノキア コーポレイション | Method and apparatus for modifying the presentation of information based on the visual complexity of environmental information |
US9339726B2 (en) | 2012-06-29 | 2016-05-17 | Nokia Technologies Oy | Method and apparatus for modifying the presentation of information based on the visual complexity of environment information |
JP2014120109A (en) * | 2012-12-19 | 2014-06-30 | Kddi Corp | Program for determining prospect area according to road information, information terminal, server and method |
CN110275619A (en) * | 2015-08-31 | 2019-09-24 | 北京三星通信技术研究有限公司 | The method and its head-mounted display of real-world object are shown in head-mounted display |
JP2017058969A (en) * | 2015-09-16 | 2017-03-23 | グリー株式会社 | Virtual image display program, virtual image display device, and virtual image display method |
JP6347375B1 (en) * | 2017-03-07 | 2018-06-27 | 株式会社コナミデジタルエンタテインメント | Display control apparatus and program |
JP2018147309A (en) * | 2017-03-07 | 2018-09-20 | 株式会社コナミデジタルエンタテインメント | Display control device and program |
JP2019101330A (en) * | 2017-12-06 | 2019-06-24 | 株式会社スクウェア・エニックス | Display system and display method |
JP2020177482A (en) * | 2019-04-19 | 2020-10-29 | キヤノンメディカルシステムズ株式会社 | Medical information processing apparatus, and medical information processing method |
JP7346066B2 (en) | 2019-04-19 | 2023-09-19 | キヤノンメディカルシステムズ株式会社 | Medical information processing device and medical information processing method |
JP2019174811A (en) * | 2019-04-23 | 2019-10-10 | 株式会社スクウェア・エニックス | Display system and display method |
JP6937948B1 (en) * | 2020-09-07 | 2021-09-22 | Bulb株式会社 | Furniture layout VR system, furniture layout VR method and program |
WO2022049777A1 (en) * | 2020-09-07 | 2022-03-10 | Bulb株式会社 | Furniture layout vr system, furniture layout vr method and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107590771B (en) | 2D video with options for projection viewing in modeled 3D space | |
JP6518582B2 (en) | Information processing apparatus and operation reception method | |
TW412429B (en) | Video game system with vertical array of cursor images | |
JP5592011B2 (en) | Multi-scale 3D orientation | |
US20140225922A1 (en) | System and method for an augmented reality software application | |
US20120236029A1 (en) | System and method for embedding and viewing media files within a virtual and augmented reality scene | |
US9594399B2 (en) | Computer-readable storage medium, display control apparatus, display control method and display control system for controlling displayed virtual objects with symbol images | |
EP1549084A1 (en) | Device capable of easily creating and editing a content which can be viewed in three-dimensional way | |
JPH09152954A (en) | Method and device for presenting information | |
JP2007133776A (en) | Avatar image editing system and method thereof, and device and program used for these | |
US20230073750A1 (en) | Augmented reality (ar) imprinting methods and systems | |
US20230142566A1 (en) | System and method for precise positioning with touchscreen gestures | |
JP2005044102A (en) | Image reproduction method and device | |
TW202248808A (en) | Augmented reality data presentation method, electronic equipment and computer-readable storage medium | |
JP2018077616A (en) | Information terminal device, three-dimensional image generation server, three-dimensional image display system, three-dimensional image display method and three-dimensional image display program | |
JP7381556B2 (en) | Media content planning system | |
JP2007282861A (en) | Game apparatus, method of displaying character, program and recording medium | |
US9275075B2 (en) | Information processing device, information processing method, information storage medium and program | |
JP4447896B2 (en) | Image processing apparatus and method | |
JP6152888B2 (en) | Information processing apparatus, control method and program thereof, and information processing system, control method and program thereof | |
JP5920858B1 (en) | Program, information processing apparatus, depth definition method, and recording medium | |
JP2018124746A (en) | Information processing device, information processing system, information processing method and program | |
JP2004199159A (en) | Information processing method, information processing device, program, and recording medium | |
JPH11174950A (en) | Processor and method for information processing, and computer-readable memory | |
JP4493082B2 (en) | CG presentation device, program thereof, and CG display system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20061003 |