JP2005044102A - Image reproduction method and device - Google Patents

Image reproduction method and device Download PDF

Info

Publication number
JP2005044102A
JP2005044102A JP2003202525A JP2003202525A JP2005044102A JP 2005044102 A JP2005044102 A JP 2005044102A JP 2003202525 A JP2003202525 A JP 2003202525A JP 2003202525 A JP2003202525 A JP 2003202525A JP 2005044102 A JP2005044102 A JP 2005044102A
Authority
JP
Japan
Prior art keywords
image
annotation
virtual space
observer
viewpoint position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2003202525A
Other languages
Japanese (ja)
Inventor
Daisuke Kotake
大輔 小竹
Akihiro Katayama
昭宏 片山
Yukio Sakakawa
幸雄 坂川
Takaaki Endo
隆明 遠藤
Shuichi Yamada
修一 山田
Takahiro Hiraoka
隆宏 平岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Toppan Inc
Original Assignee
Canon Inc
Toppan Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc, Toppan Printing Co Ltd filed Critical Canon Inc
Priority to JP2003202525A priority Critical patent/JP2005044102A/en
Publication of JP2005044102A publication Critical patent/JP2005044102A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To solve the problem with an image reproduction device which provides an observer with an experience of walking through a virtual space wherein annotations to objects within the virtual space are sometimes not easy to observe. <P>SOLUTION: Map information is displayed in a virtual space image which represents the virtual space. A mark indicating the observer's viewing position and direction and a mark indicating an area and a direction in which the annotations can be observed are displayed together in the map information. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、仮想空間ウォークスルーシステムにおいて、仮想空間内のオブジェクトに関するアノテーションを観察できる視点位置及び視線方向を観察者にあらかじめ知らせる機能を備えた画像再生装置及び方法に関する。
【0002】
【従来の技術】
近年、デジタルアーカイビングの一形態として、文化遺産や都市などを計算機の中に取り込んで仮想空間として構築する試みが多数行われている。また、CPUやグラフィクスハードウェアなどの発達により、パーソナルコンピュータ上でもリアリティの高い仮想空間をリアルタイムにウォークスルーすることが可能になってきている。
【0003】
仮想空間の構築方法の一つとして、幾何形状モデルとテクスチャを用いた一般的なコンピュータグラフィックス(CG)によるモデリングが挙げられる。CGによるモデリングでは、残存する図面や実際の測量を用いたり、レーザレンジファインダなどによって直接幾何形状を計測して実物の幾何形状モデルを生成・復元している。また、物体の幾何形状モデルにその物体の実写画像をテクスチャマッピングすることにより、リアリティを高めている。
【0004】
一方、もう一つの仮想空間の構築方法としては、実写画像のみを用いて仮想空間を構築するImage−Based Rendering(IBR)による方法が挙げられる。CGによるモデリングでは、モデルが正確でない場合にはリアリティが損なわれるが、IBRでは実写画像をそのまま用いているためリアリティの高い仮想空間の表現が可能である。また、モデリングに時間がかからず、広い範囲の仮想空間の構築に向いている。但しIBRでは多数の実写画像を用いるためデータ量が膨大になる。そのため、CGによるモデリングとIBRによるモデリングを併用したモデリング手法の研究も広く行われている。
【0005】
これらの方法を用いて構築された仮想空間においては、仮想空間内のオブジェクトに対してアノテーション(注釈)を表示することにより、仮想空間内をウォークスルー体験する観察者に、今どの建物を見ているかといった付加的な情報を提供することができる(例えば特許文献1参照)。アノテーションは、オブジェクト上に表示することによってオブジェクトに追従するように見せたり、画面の固定位置に表示することによってテロップのように見せたりすることができる。
観察者はアノテーション表示された仮想空間を観察することにより、ガイドがなくても自分の希望するように仮想空間をウォークスルーすることが可能になるほか、アノテーションにより様々な情報を入手することができる。なお、本明細書においてアノテーションとして表示する情報には特に制限はなく、仮想空間画像中の何らかのオブジェクトに関する任意の情報を表示しうる。
【0006】
さらに、仮想空間の地図を観察者に呈示すると共に、地図中に観察者の視点位置・視線方向とアノテーションが表示されるオブジェクトの位置を表示することにより、観察者が地図上で観察者とアノテーションが表示されるオブジェクトとの位置関係を把握することも可能である。
【0007】
【特許文献1】
特開2002−163670号公報
【0008】
【発明が解決しようとする課題】
しかし、地図上に観察者の視点位置・視線方向とアノテーションが表示されるオブジェクトの位置が表示されていても、オブジェクトと観察者の位置が離れていると別のオブジェクトによって隠されたりすることにより、実際にはアノテーションを見ることができない場合がある。また、コンテンツ(この場合は仮想空間)制作者の意図などにより、アノテーションを見ることができる視点位置・視線方向が限られている場合がある。
【0009】
このような場合、観察者は手探りで自分が観察したいアノテーションを観察することができる視点位置・視線方向を探さなければならない。
【0010】
本発明は、上記の課題に鑑みてなされたものであり、その目的は、観察者に仮想空間のウォークスルー体験を提供する画像再生装置において、観察者が仮想空間中のオブジェクトに対するアノテーションを観察できる視点位置・視線方向を容易に認識可能とすることにある。
【0011】
さらに、本発明の別の目的は、上述の画像再生装置において、観察者の利便性をより高めることにある。
【0012】
【課題を解決するための手段】
すなわち、本発明による画像再生方法は、観察者の仮想空間中における視点位置及び視線方向を検出し、対応する仮想空間画像を呈示することにより観察者に仮想空間中のウォークスルーを体験させる画像再生方法であって、観察者の仮想空間中における視点位置及び視線方向と、仮想空間データ記憶手段に記憶された仮想空間データとに基づき、観察者に呈示すべき仮想空間画像を生成する仮想空間画像生成ステップと、地図画像記憶手段から、観察者の仮想空間中における視点位置に基づいて地図画像を読み出し、少なくとも観察者の仮想空間中における視点位置を含む仮想空間の所定の範囲を表す地図画像を生成する地図画像生成ステップと、仮想空間画像と地図画像とを合成して観察者に呈示する呈示ステップとを有し、地図画像生成ステップが、アノテーション情報記憶手段に記憶された、仮想空間中のオブジェクトに関するアノテーション画像を観察可能な領域に関する情報と、観察者の仮想空間中における視点位置及び視線方向とに基づいて、アノテーション画像を観察可能な領域を表すマークと、観察者の視点位置及び視線方向を表すマークとを、地図画像中に合成するマーク合成ステップを有することを特徴とする。
【0013】
また、本発明による画像再生装置は、観察者の仮想空間中における視点位置及び視線方向を検出し、対応する仮想空間画像を呈示することにより観察者に仮想空間中のウォークスルーを体験させる画像再生装置であって、観察者の仮想空間中における視点位置及び視線方向と、仮想空間データ記憶手段に記憶された仮想空間データとに基づき、観察者に呈示すべき仮想空間画像を生成する仮想空間画像生成手段と、地図画像記憶手段から、観察者の仮想空間中における視点位置に基づいて地図画像を読み出し、少なくとも観察者の仮想空間中における視点位置を含む仮想空間の所定の範囲を表す地図画像を生成する地図画像生成手段と、仮想空間画像と地図画像とを合成して観察者に呈示する呈示手段とを有し、地図画像生成手段が、アノテーション情報記憶手段に記憶された、仮想空間中のオブジェクトに関するアノテーション画像を観察可能な領域に関する情報と、観察者の仮想空間中における視点位置及び視線方向とに基づいて、アノテーション画像を観察可能な領域を表すマークと、観察者の視点位置及び視線方向を表すマークとを、地図画像中に合成するマーク合成手段を有することを特徴とする。
【0014】
また、本発明の目的は、コンピュータに本発明の画像再生方法を実行させるためのプログラムによっても達成される。
【0015】
【発明の実施の形態】
以下、添付図面を参照しながら、本発明の好適な実施形態を説明する。
【0016】
■《第1実施形態》
図1は本実施形態によるウォークスルーシステムの機能構成を説明するブロック図である。本ウォークスルーシステムを構成する画像再生装置1は、操作部10、視点位置・視線方向決定部20、仮想空間データ保存部30、アノテーションデータ保存部40、地図データ保存部50、画像再生制御部60、表示部70を有する。
【0017】
図2は、本実施形態における画像再生装置1のハードウェア構成例を示すブロック図である。図2に示したハードウェア構成は市場でパーソナルコンピュータとして通常に入手可能な汎用コンピュータ装置及びその周辺機器によって実現できる。図2において、ディスク105は例えば、ハードディスクドライブを代表とする大容量記憶装置であり、図1における仮想空間データ保存部30、アノテーションデータ保存部40、地図データ保存部50を構成する。
【0018】
CPU101は、ディスク105またはROM106、または外部記憶装置(不図示)に保存されているプログラムを実行することにより、視点位置・視線方向決定部20、画像再生制御部60として機能する。
【0019】
CPU101が表示コントローラ(CRTC)102に対して各種の表示指示を行うことにより、表示コントローラ102及びフレームバッファ103によって表示器(CRT)104に所望の表示がなされる。なお、図では表示コントローラ102としてCRTC、表示器104としてCRTを示したが、表示器としては陰極線管に限らず、液晶表示器等を用いてもよい。また表示器104は固定型であってもよいし、例えば頭部装着型ディスプレイ(HMD)の様な可搬型であってもよいことはもちろんである。なお、CRTC102、フレームバッファ103及びCRT104は、上述の表示部70を構成する。
【0020】
マウス108、キーボード109及びジョイスティック110は、観察者が当該画像再生装置1へ操作入力を行うためのものであり、上述の操作部10を構成する。
【0021】
次に、以上の構成を備えた画像再生装置1の動作の概要について説明する。
操作部10は、マウス、キーボード、ジョイスティック等を備える。操作部10は、視点位置の移動パラメータ、視線方向の回転パラメータを生成する。本実施形態では、視点位置・視線方向の制御にジョイスティックを用いているが、ゲームコントローラ等の他の入力装置で行ってもよいし、磁気センサや光学センサなどの出力を用いてもよい。ジョイスティックは、スティックの傾斜角と回転角を独立に制御することができる。本実施形態では、ジョイスティックを傾斜させる操作を仮想空間内での視点位置の移動に、ジョイスティックを左右に回転させる操作を視線方向の回転に対応させる。なお本実施形態では、視線方向の回転に関して、ロール回転は考慮しない。
【0022】
地図データ保存部50は、2次元地図画像データを格納する。2次元地図画像データは、仮想空間データ保存部30に保存されている仮想空間データと対応付けられている。
【0023】
アノテーションデータ保存部40は、アノテーションデータを保存する。アノテーションデータは、アノテーション用の画像データと、観察者の仮想空間内での視点位置(又は地図上での視点位置)と、アノテーションとの対応データ(アノテーション対応データ)からなる。図3にアノテーション対応データの構成例を示す。アノテーション対応データはオブジェクトごとに定義される。図3の例では、位置(x,y)のオブジェクト建物Aについては、観察者の地図上での視点位置(x,y)に対し、アノテーション観察可能領域が同じく地図上での座標(x,y),(x,y)で規定される。また、表示するアノテーション画像はファイル名(又はファイルパス)で規定される(建物A.jpg)。
【0024】
なお、アノテーション観察可能領域は、観察可能領域内から対象オブジェクトまでの間に他のオブジェクトが存在しないか、存在してもアノテーションが隠されないような位置として規定される。後者の場合には、予め定められたアノテーションの画像中における表示位置と観察者の視点位置(高さ)及び対象オブジェクトとアノテーション観察可能領域の間に存在する他のオブジェクトの高さを考慮して決定することができる。
【0025】
また、アノテーション観察可能領域の形状は長方形に限らず、他の形状であってもよいし、他の方法で規定しても良い。例えば、頂点座標を全て規定しても良いし、中心と半径を指定して円形の領域を指定する等が考えられる。
【0026】
図3の例では、観察者の地図上での視点位置(x、y)が、(x,y),(x,y)を対角頂点とする長方形で規定される範囲内に存在することが、建物Aについてのアノテーション表示の必要条件となる。
【0027】
実際にアノテーション表示を行うか否か、またアノテーション表示を行う場合の観察画面上の位置は、観察者の地図上での視点位置がアノテーション観察可能領域内に存在し、かつ、アノテーションを表示するオブジェクト(上述の場合、建物A)の位置(x,y)と観察者の視点位置・視線方向から決定される(図4)。
【0028】
図4は、アノテーション表示を行うか否かの判定方法例について、図3における建物Aについてのアノテーション対応データを例として示す図である。
図4において、観察者の地図上における視点位置(x、y)は、(x,y),(x,y)を対角頂点とする、建物Aについて規定された長方形状のアノテーション観察可能領域内に存在している。この場合、観察者の視線方向と、システムにおいて規定された画角θ(例えば視線方向を中心に±α°とする)で規定される観察者の視野に建物Aが含まれれば、建物Aに対するアノテーション表示を行う。
【0029】
具体的には、観察者の視点位置(x、y)と建物Aの位置(x,y)とを結ぶ直線(図4に点線で示す)と、視線方向とのなす角度(β°)が、
β≦α
を満たす場合に、建物Aに対するアノテーション表示を行う。なお、観察者の視野に建物Aが含まれるか否かの判定は、他の方法によって行っても良い。
【0030】
なお、アノテーション表示の判定に用いられる建物Aの位置(x,y)は、例えば建物Aの地図画像上での中心又は重心位置であってもよいし、他の位置であってもよい。また、アノテーション観察可能領域からみた建物Aの幅が大きい場合などは、中心位置や重心位置といった一点での判定ではなく、範囲を有する座標値をオブジェクトの位置として用いても良い。
【0031】
この場合、アノテーション対応データにおけるオブジェクトの位置データは、xとyの少なくとも一方について範囲を有するデータとなる。そして、図4に示す判定においては、オブジェクト位置に範囲を有する座標値が用いられている場合、範囲の上限値と下限値(x、yの両方が範囲を有する場合には個々の範囲の上限値と下限値との組み合わせ)について判定を行い、いずれかが視野に含まれるか否かによって表示可否を決定すればよい。
【0032】
なお、アノテーション対応データは、比較する観察者の視点位置を表現する座標系と等しい座標系で設定しておくことは言うまでもない。すなわち、観察者の仮想空間における座標位置を用いてアノテーション表示可否の判定を行う場合には、アノテーション対応データとして記憶する座標は、地図上での座標値ではなく仮想空間における座標系での値になる。
【0033】
アノテーションの表示位置は任意に設定可能であるが、図4の例では、観察者の視線方向と直交し、視点位置から所定距離離れた位置にある面として予め定めた画像面上で、観察者の視点位置と対象オブジェクト(建物A)の位置とを結ぶ直線とが交差する点を中心としてアノテーション画像が存在するものとして表示を行う。画像面の上下方向における表示位置(図4の紙面に直交する方向における表示位置)は、例えば画像面の最下部または最上部とすることができる。もちろん、対象オブジェクトとの関係が明確に理解できさえすれば、画像面の任意の位置にアノテーションを表示することが可能である。
【0034】
仮想空間データ保存部30は、仮想空間を構築するためのデータ(仮想空間データ)を格納する。仮想空間が幾何形状モデルとテクスチャ画像で構築されている場合には、幾何形状モデルとテクスチャ画像が仮想空間データとして格納される。また、仮想空間がIBR技術を用いて構築されている場合には、実写画像データが仮想空間データとして格納される。また、仮想空間データには、仮想空間中において観察者の視点が移動可能な範囲を規定するためのデータ(移動範囲データ)も必要に応じて含まれる。
【0035】
なお、画像再生装置1がネットワークインタフェースを有する場合、仮想空間データ保存部30は、画像再生装置1のローカルに存在する必要はなく、ネットワーク上に設置して、ネットワークを介して仮想空間データを読み出してもよい。
【0036】
視点位置・視線方向決定部20は、操作部10からの移動パラメータ、回転パラメータと、必要であれば仮想空間データ保存部30の移動範囲データを用いて仮想空間内での観察者の視点位置・視線方向を決定する。この決定は、ウォークスルーアプリケーションにおいて従来行われている任意の方法に基づいて行うことができる。また、視点位置・視線方向決定部20は、決定された仮想空間内での視点位置・視線方向をもとに、地図データ保存部50に格納されている2次元地図画像データにおける観察者の視点位置(地図上での視点位置)・視線方向を決定する。
【0037】
■(全体処理)
図5は上述の画像再生装置1の全体処理を示すフローチャートである。この処理は画像再生制御部60を構成するCPU101がディスク105等に記憶されるプログラムを実行し、画像再生装置の各構成要素を制御することにより実現される。
【0038】
ステップS10で、画像再生制御部60は、視点位置・視線方向決定部20から、観察者の仮想空間内での視点位置及び視線方向を受け取る。そして、ステップS20で、観察者の視点位置、視線方向に基づいて、表示すべき観察画像(仮想空間画像)を、仮想空間データ保存部30に保存された仮想空間データから生成する。
【0039】
ステップS30で、観察者の地図上での視点位置及び視線方向、地図画像の表示サイズ、縮尺等に基づいて、表示すべき地図画像データを地図データ保存部50から読み出すとともに、地図画像に対して後述するアノテーションマーク及び観察者マークを合成する。そして、得られた地図画像を仮想空間画像に合成する。
【0040】
ステップS40で、観察者の地図上での視点位置及び視線方向と、アノテーションデータ保存部40内のアノテーション観察可能領域データを元に、表示すべきアノテーション画像を取得し、仮想空間画像に合成する。
【0041】
そして、画像再生制御部60は、最終的に得られた画像を表示部70に渡す。表示部70は画像再生制御部60において生成された画像を表示する。
【0042】
なお、表示すべき地図画像の縮尺は、固定であっても良いし、また観察者の指示によって可変としても良い。可変縮尺の場合には、地図画像データとして複数の縮尺のデータを保持し、設定されている縮尺に対応する地図画像データを読み出すようにしても良いし、共通の地図データを縮尺に応じて単に拡大/縮小表示してもよい。また、観察者の視点位置がアノテーション観察可能領域に近づくなどの条件を満たした場合に、縮尺を変更して詳細な表示に変更することも可能である。
【0043】
■(マーク表示の例)
次に、上述した画像再生制御部60の地図画像表示処理についてさらに詳細に説明する。画像再生制御部60は、地図情報表示部62を持ち、視点位置・視線方向制御部20で決定された2次元地図画像上での観察者の視点位置・視線方向を表す画像(観察者マーク)を地図画像上に描画(合成)する。また画像再生制御部60は、観察者が仮想空間内のどの位置に行けばアノテーションを観察できるか、観察されるアノテーションの対象オブジェクトの位置はどこか、また、どちらの方向にあるのか、といったアノテーション関連情報を表す画像(アノテーションマーク)を地図上に描画する観察可能領域表示部64を持つ。
【0044】
図6は、地図情報表示部62と観察可能領域表示部64によって実現される地図表示の例を示す図である。
ここでは、図3上段に示した建物Aを例にして説明する。すなわち、図6(a)に示すように、2次元地図上においてオブジェクト(建物A)の位置が(x,y),建物についてのアノテーションが観察できる領域を(x,y),(x,y),(x,y),(x,y)で決定される長方形の内部とした場合である。
【0045】
この場合、図6(b)に示すように、地図情報表示部62と観察可能領域表示部64は、アノテーション観察可能領域と表示対象オブジェクトの位置を表す画像をアノテーションマークとして地図上に示し、さらに観察者自身の視点位置と視線方向を表す画像を観察者マークとして地図上に示す。これにより、観察者はアノテーションを観察できる領域と、そこで観察できるアノテーションの対象オブジェクトの方向とを知ることができ、また、現在の観察者自身の視点位置とアノテーション観察可能領域との相対的な位置関係を知ることができる。
【0046】
また、図6(b)の例では、アノテーション観察可能領域全体を示す画像と対象オブジェクトの位置を示す画像の2つをアノテーションマークとして示していたが、図6(c)に示すように、アノテーション観察可能領域の中心((x+x)/2, (y+y)/2)に、対象オブジェクトの方向θ(図6(a)参照)を表す画像をアノテーションマークとして示してもよい。
【0047】
また、この際アノテーションマークを観察者マークと同じ形状とすれば、観察者は、地図画像上で観察者マークの表示がアノテーションマークと同じ位置、方向に近づくように制御すればアノテーションが観察できることを直感的に理解できる。また、図6(c)では表示対象オブジェクトを示す画像をアノテーションマークとして表示していないが、表示するようにしても良い。
【0048】
なお、アノテーションマークを観察者マークと同じ形状にする場合には、両者の混同を避けるために、異なる色や透明度で表示することも可能である。また、図6中ではいずれのマークも二等辺三角形で表し、一般的な矢印と同様に位置と方向を認識できるようにしているが、位置と方向が認識できればどのような形でもよい。
【0049】
また、図6では、アノテーションを観察できる領域を長方形としたが、上述のように任意の多角形領域としてもよい。また、円や楕円などを用いてもよい。さらに、地図画像の表示形式が遠近感や立体感のある形式であれば、それに併せて立方体や直方体などの3次元空間を表すようなマークとすることも可能である。この場合、アノテーション対応データの形式を併せて変更すればよい。
【0050】
図7は、このような地図画像の生成、更新処理を示すフローチャートであり、図5のステップS30における処理に相当する。
ステップS32で、地図情報表示部62は、観察者の地図上での視点位置及び視線方向に加え、必要であれば地図画像の表示サイズ、縮尺等を考慮して、表示すべき地図画像データを地図データ保存部50から読み出す。次に、ステップS34で、観察可能領域表示部64は、観察者の地図上での視点位置、地図画像の表示サイズ、縮尺、アノテーション対応データの観察可能領域に基づいて、地図画像上に表示すべきアノテーションマークを探索する。
【0051】
ステップS36で、観察可能領域表示部64は、ステップS34で探索した結果得られた、表示すべき観察可能領域についてのアノテーションマークと、観察者マークをそれぞれ地図画像上に合成する。
【0052】
■(アノテーション表示処理)
次に、図8に示すフローチャートを用いて、画像再生制御部60におけるアノテーション表示処理(図5におけるステップS40に相当)について説明する。
ここでは、上述したように、アノテーション対応データが地図画像上での座標で定義されているものとするが、仮想空間上での座標で定義されている場合には、観察者の視点位置に仮想空間での座標を用いて同様の処理を行えばよい。
【0053】
まずステップS101において、視点位置・視線方向決定部20から観察者の地図画像上における視点位置・視線方向を獲得する。次に、ステップS102において変数iを1にセットする。変数iは、アノテーションを表示する総数nのオブジェクトOについて順次処理を行うための変数であり、1からnの整数値をとる。
【0054】
ステップS103において、i≦nであるか、即ちアノテーションを表示するオブジェクト(表示対象オブジェクト)の全てについて処理を行ったか否かを判別する。まだ全ての表示対象オブジェクトについて処理を行っていない場合(i≦nである場合)は、ステップS104において、ステップS101で取得した観察者の地図上での視点位置が、オブジェクトOに対応するアノテーション対応データに定義されたアノテーション観察可能領域(Rとする)に含まれるかどうかを判別する。
【0055】
視点位置がアノテーション観察可能領域R中に含まれる場合にはステップS105に進み、観察者の視点位置、視点方向とオブジェクトOの位置、及び、予め設定された画角θとから、オブジェクトOが観察者の視野に入るかどうかを判別する。視野に入る場合は、ステップS106においてi番目のアノテーションに対応するフラグFを1にセットする。視野に入らない場合、またはステップS104において観察者の視点位置がアノテーション観察可能領域Rに含まれない場合には、ステップS107においてフラグFを0にセットする。ステップS106、S107からはステップS108に進み、iを1増やしてステップS103に戻る。
【0056】
ステップS103において、i>nとなり、すべての表示対象オブジェクトについて処理が終了したことが判別された場合には、ステップS109に進む。ステップ109では、1にセットされたフラグF(i=1〜n)に対応するアノテーションの画像をアノテーションデータ保存部40から取得し、仮想空間画像上に合成する。その後ステップS110において終了判定を行い、継続する場合にはステップS101に戻る。
【0057】
■(観察者マークとの関係に応じたアノテーションマークの表示制御)
地図画像に観察者マーク及びアノテーションマークを表示することにより、観察者はアノテーション観察可能領域との距離関係や対象オブジェクトとの方向との関係について、視覚的に容易に理解することが可能になる。しかし、観察者の視点位置とアノテーション観察可能領域との関係や、観察者の視線方向と対象オブジェクトの方向との関係に応じて、マークの表示方法を視覚的に異ならせることにより、観察者にとってさらに利便性の高いアプリケーションを提供することが可能になる。以下、本実施形態において、地図画像表示処理で実施可能なマークの表示制御例について説明する。
【0058】
(1)観察者マークがアノテーションマークに接近した場合(その1)
観察者の視点位置がアノテーション観察可能領域に入り、かつ観察者の視野に表示対象オブジェクトが入ると、仮想空間画像中にアノテーション表示が行われる。
その際、地図画像上のアノテーションマーク表示方法を変化させることにより、表示されているアノテーションと観察可能領域との対応を観察者がより明確に認識することが可能となる。
【0059】
例えば、図9の左に示したような状態で、観察者の視点位置がアノテーション観察可能領域に入り、かつ観察者の視野に表示対象オブジェクトが入るというアノテーション表示条件を満たした場合、図9(a)では、条件を満たす前と、アノテーションマークとしての観察可能領域を示すマークの表示色を変えている。また、図9(b)では、アノテーション表示条件を満たすと、観察可能領域を示すマークを点滅させている。さらに、図9(c)では、アノテーション表示条件を満たす前には観察可能領域を示すマークの透明度を高くしておき、条件を満たしたら透明度を低く(例えば不透明に)している。
【0060】
また、図10に示すように、アノテーションマークが観察可能領域を示すマークと表示対象オブジェクトを示すマークの両方からなる場合には、アノテーション表示条件を満たすと両方のマークの表示方法を変更させることも可能である。
【0061】
図10(a)では、アノテーション表示条件を満たす前と後で、観察可能領域とオブジェクトを示すマークの両方の色を変えている。また、図10(b)では、アノテーション表示条件を満たすと、観察可能領域とオブジェクトを示すマークを点滅させる。さらに、図10(c)では、アノテーション表示条件を満たす前には観察可能領域とオブジェクトを示すマークの透明度を高くしておき、観察可能領域に入ったら不透明にする。
【0062】
このようにして、画像再生制御部60は、観察者の仮想空間内での視点位置・視線方向に対応した仮想空間画像と、アノテーションマークと観察者マークを合成した地図画像と、観察されるアノテーション画像とを合成して、表示部70に渡す。画像再生制御部60が生成する画像の一例を図11に示す。
【0063】
以上のように、本発明の第1実施形態に係る画像再生装置によれば、仮想空間画像に地図画像を合成表示するとともに、地図画像上にアノテーション観察可能領域やアノテーション対象オブジェクト等のアノテーション情報を表すアノテーションマーク及び観察者の視点位置、視点方向を表す観察者マークを示すので、観察者は仮想空間中でアノテーションを観察できる視点位置・視線方向を容易に知ることができ、アノテーション観察可能位置へ移動することができるようになる。また、アノテーション観察可能領域を示すマークの表示方法を、アノテーションが表示されている場合と表示されていない場合で変化させることで、観察しているアノテーションと観察可能領域との対応を観察者に明確に認識させることが可能になる。
【0064】
■《第2実施形態》
第1実施形態では、アノテーション観察可能領域を地図画像上に示すことにより、観察者が仮想空間中でアノテーションを観察できる領域を容易に知ることができるようにした。第2実施形態では、地図画像上に表示されるアノテーション観察可能領域の表示方法を目的に応じて変えることによって、観察者が領域内で観察するアノテーションを判別できるようにする。なお、本実施形態に係る画像再生装置の構成は、第1図及び第2図に関して説明したものと同一で良いため、その説明を省略する。
【0065】
図12は第2実施形態に係る画像再生装置において、仮想空間画像に合成して表示する地図画像表示の一例を示す図である。図12(a)は、アノテーション(又は表示対象オブジェクト)の重要度によって、観察可能領域を表すマークの表示方法を変える(視覚的に異なる表示を意味する)例を示している。図12(a)の例では、重要なアノテーションに対応するマークは、他のマークと異なる模様(黒丸)を有している。
【0066】
例えば、文化遺産などを仮想空間として実現し、そのウォークスルーアプリケーションを提供する際には、歴史的な価値の高い建物や有名な建物に対するアノテーションの重要度を高め、地図画像上で他のアノテーションマークと異なる表示方法で観察者に提示することにより、観察者が重要度の高いアノテーションから観察することが可能になり、効率的にその文化遺産についての学習を行うことができる。ここでは、マークの形の違い(黒丸の有無)によって重要度を区別しているが、マークの色や大きさ、透明度など、他のマークと視覚的に区別可能な任意の方法を用いることができる。
【0067】
また、図12(b)は、アノテーション(又は表示対象オブジェクト)のジャンルによってマークの表示方法、ここでは表示色を変える例を示している。ジャンルは、例えば歴史、地理、買い物、食事、公共施設などに分けられる。ジャンルによってマークが色分けされているため、観察者は、地図上に表示されているアノテーション観察可能領域のうち、自分が興味のあるジャンルのアノテーションをどこで観察できるのかを知ることができる。ここでは、アノテーション観察可能領域のマークの色によってジャンルを区別しているが、マークの形を変えるなどしてもよい。また、地図画像に付加して、或いは別の画像として、マークの色とジャンル、重要度等の対応を説明する凡例画像を表示するようにしても良い。
【0068】
図12に示す表示方法を実現するためには、アノテーションデータ保存部40に記憶するアノテーション対応データに重要度やジャンルの項目を設定しておき、表示時にこれら項目の設定値を考慮して表示方法を選択すればよい。図13に、ジャンル及び重要度を付加したアノテーション対応データの例を示す。なお、図13の例では、重要度、ジャンルは説明のために「高」「低」等の意味のある言葉で記載しているが、数値や記号など、重要度のランクやジャンルの種別に対応する任意形式のデータを使用可能である。
【0069】
また、アノテーション観察可能領域を表すマークのうち、表示すべきものをジャンル、重要度を観察者が指定可能に構成することも可能である。この場合、観察者は、例えば図14に示すようなユーザインタフェースを用いて、所望の重要度とジャンルを設定することにより、地図上に表示させるアノテーション観察可能領域を示すマークを選択することが可能である。
【0070】
図14(a)は重要度の選択用ユーザインタフェース画面、図14(b)はジャンルの選択用ユーザインタフェース画面の例を示す。このような画面の表示は、例えば操作部10を構成するキーボートやマウスなどのキーや操作に画面呼び出し用の操作を割り当てておき、視点位置・視線方向決定部20がこの呼び出し操作を検出すると、画像再生制御部60にその旨を通知し、画像再生制御部60が例えば仮想空間データ保存部50から画面データを呼び出して表示部70に表示することによって実現できる。
【0071】
また、ユーザインタフェース画面の表示中は、実質的に操作部10と画像再生制御部60とが直接やりとりを行い、操作部10による選択操作を画像再生制御部60が検知、処理し、設定結果を例えばアノテーションデータ保存部40に記憶する。設定処理が終わると、操作部10の操作内容は仮想空間内の移動として視点位置・視線方向決定部20が処理するように復帰する。
【0072】
また、図7を用いて説明した地図画像表示処理において、ステップS34において表示すべきアノテーションマークを決定する際に、図14に示すユーザインタフェースにおいてチェックされた重要度やジャンルのアノテーションマークのみを選択するようにする。また、図8に示したアノテーション表示処理においても、ステップS105からS106へ至る間に、表示すべきジャンルであるか否かを判別する処理を追加し、表示すべきジャンルのオブジェクトについてのみフラグFを1にセットする。
【0073】
なお、図12(a)に示した表示方法は、予め重要度に対応付けしたアノテーションマーク画像を用意しておき、表示時に重要度に対応するアノテーションマーク画像を用いることにより実現可能である。
【0074】
このようなマーク表示を行うことにより、観察者は自身が望むジャンルだけのアノテーションの観察可能領域を地図画像上で観察することが可能になる。また、重要なアノテーションのみを観察するなど、観察者のニーズに応じたウォークスルー体験が可能になる。
【0075】
なお、上述の説明においては、重要度に応じて表示方法を変えること、また設定されたジャンルに合致するもののみを表示することについて説明したが、所定の重要度に合致するもののみを表示するようにしてもよい。要するに、本実施形態においては、アノテーション又はオブジェクトに設定された重要度、ジャンル等の属性に応じて表示方法を変化させる(非表示を含む)ことを特徴とするものであり、具体的な属性の種別やそれに応じた表示方法は任意に設定することが可能である。
【0076】
■《第3実施形態》
例えばウォークスルーアプリケーションにおいて、同じ場所を通る度に同じアノテーション表示がなされると、観察者に不快感を与える虞がある。そのため、第3及び第4実施形態では、同一領域において観察可能なアノテーション表示を複数持たせ、条件に応じて表示するアノテーションの内容を変化させることを特徴とする。これにより、観察者が同じアノテーションを何度も観察して不快感を感じることをなくし、豊かな情報を提供することを可能にする。
【0077】
図15は、第3実施形態における、観察者へのアノテーション提示方法を説明する図である。図15において、観察者が境界Aからアノテーション観察可能領域に入った場合と、境界Bからアノテーション観察可能領域に入った場合とで、同じオブジェクトでも提示されるアノテーションを変えている。これにより、例えば境界Aから入った場合には、対象オブジェクトを建築学の立場から見たアノテーションを表示し、境界Bから入った場合には、考古学の立場から見たアノテーションを表示することで、観察者に多様な情報を与えることができる。
【0078】
また、観察者は、一度見たアノテーションは二度見る必要がない場合が多く、同じアノテーションを提示すると煩雑だと感じる可能性がある。その観察者が感じる煩雑さをなくすために、アノテーション観察可能領域に入った場合とで、提示されるアノテーションを変えることによって、同じアノテーションが表示されない、または表示される回数を減らすことが可能である。
【0079】
なお、図15では、地図画像上の2次元領域のどの“辺”からアノテーション観察領域に進入するかによって提示するアノテーションを変えているが、例えば観察者の視点位置が3次元空間内を移動可能なアプリケーション(観察者があたかも空を飛んでいるかのように視点を移動可能なアプリケーション等)においてはアノテーション観察領域は3次元の領域でもよく、多面体のどの“面”からアノテーション観察領域に進入したかによって提示するアノテーションを変えてもよい。
【0080】
図16に、アノテーション観察可能領域にどこから進入したかによって表示するアノテーションを変更する場合の、アノテーション対応データの保存形式例を示す。各オブジェクトは、進入箇所(この場合は辺)と表示するアノテーション画像の対応テーブルを持つ。図16では、建物Aに関しては、境界Aから進入した場合には、“建物A1.jpg”のアノテーション画像を表示し、境界Bから進入した場合には、“建物A2.jpg”のアノテーション画像を表示する。また、境界A、B以外から進入した場合はデフォルトの画像(建物A.jpg)を表示する。建物Bに関しては、デフォルトしか設定されていないので、どの境界から進入した場合でも、“建物B.jpg”のアノテーション画像を表示する。デフォルトの記述がない場合は、アノテーション画像は表示しない。
【0081】
なお、図16の例においては、各境界がアノテーション観察可能領域とどのように対応するかについては予め定められていることを仮定しているが、必要に応じ、アノテーション観察可能領域を指定する座標を用いるなどして境界を定義するデータ項目を付加しても良い。
【0082】
図17に、第3実施形態における、アノテーション画像決定のフローチャートを示す。このフローチャートは、図8におけるステップS109のアノテーション描画処理に対応するものである。図17の処理は、図8のフローチャートにおいて、フラグF=1であるすべてのオブジェクトに対して行われる。
【0083】
各オブジェクトについて、まずステップS301において、進入した境界に対応するアノテーション画像が存在するかどうかを判別する。なお、観察者がどの境界からアノテーション観察可能領域に進入したかについては、例えば観察者の視点位置の移動履歴を記録しておき、図8のステップS104において観察者の視点位置がアノテーション観察可能領域に含まれることが検出された際に移動履歴を元に決定することが可能である。また、決定結果はフラグFを1にセットする際に境界を特定可能な情報を併せてオブジェクトにセットしておくことが可能である。
【0084】
そして、ステップS301では、F=1のオブジェクトに対し、境界が特定可能な情報の有無もしくはその内容と、図16に示したアノテーション対応データの画像テーブルとを参照することにより、観察者が進入した境界に対応するアノテーション画像の有無を判定することが可能である。
【0085】
ステップS301で、観察者が進入した境界に対応するアノテーション画像が存在する場合にはステップS303に進み、対応するアノテーション画像を描画する。存在しない場合にはステップS302に進み、デフォルトのアノテーション画像が存在するかどうかを判別する。デフォルトのアノテーション画像が存在する場合には、ステップS304に進み、デフォルトのアノテーション画像を描画する。デフォルトのアノテーション画像が存在しない場合には、何も描画しない。
【0086】
以上のように、第3実施形態によれば、アノテーション観察可能領域への進入経路によって同じオブジェクトに対するアノテーションを変化させることによって、観察者が感じる不快感を解消したり、豊かな情報を提供したりすることが可能になる。
【0087】
■《第4実施形態》
第3実施形態では、アノテーション観察可能領域にどこから入るかによって提示するアノテーションを変更することにより、観察者が感じる繁雑さを解消したり、豊かな情報を提供したりすることを可能にした。第4実施形態では、アノテーションに履歴情報を持たせ、履歴に基づいてアノテーションや地図上のアノテーションマークの表示方法を変化させることにより、同様の効果を実現する。
【0088】
図18は、第4実施形態における画像再生装置が行うアノテーション提示方法の例を説明する図である。本実施形態において、画像再生装置は各オブジェクトのアノテーション表示履歴情報をディスク105等に保持する。また、表示履歴情報は観察者が変わったり、前回の表示から一定の時間が経過したり、マウスやキーボードから特定のコマンドが入力されたり、観察者の視点位置が所定の距離離れた領域に移動したり、観察者に呈示するコンテンツが切替えされる等、さまざまな条件によってリセットされるものとする。
【0089】
あるオブジェクトについて履歴情報がリセットされると、そのオブジェクトに対応するアノテーション画像の観察回数が0にセットされる。観察者の変更は、ウォークスルーシステムの再起動や、ユーザ認証、キーボードやマウスなどのユーザインタフェースによる入力によって検知される。オブジェクトAのアノテーション表示条件を観察者の視点位置及び視線方向が初めて満たした場合には、例えば第1実施形態で説明したようにしてアノテーション画像が仮想空間画像に合成されて表示される。一方、同一アノテーションに対して表示条件を満たすのが所定回数以上、例えば2回目以降である場合には、アノテーション画像の表示は行わない。これによって、観察者は、一度見たアノテーションを二度見なくてもよくなり、ウォークスルー時に同じアノテーション観察可能領域を多数回通る場合であっても不快感を感じずに済む。
【0090】
図19は、第4実施形態におけるもう一つのアノテーション提示方法を説明する図である。ウォークスルーシステムは、同一オブジェクトに対して複数のアノテーション画像を保持し、履歴情報を参照して、観察可能領域への進入回数に応じたアノテーション画像を選択して合成表示する。これによって、例えば最初はオブジェクトに関する大まかな情報のアノテーションを表示し、進入回数が増えるごとに細かい情報に関するアノテーションを表示することが可能になる。また、履歴情報を参照せずに、ランダムに選択したアノテーション画像を表示することも可能になる。
【0091】
また、地図上のアノテーション観察可能領域を示すマークも、履歴情報に応じて表示方法を変更してもよい。図20(a)は、図18で示した一回目の進入の際だけにアノテーションを表示する場合のアノテーション観察可能領域を示すマークの変化である。一回目に進入するまでは、地図上にアノテーション観察可能領域を示すマークは表示されているが、一度アノテーション観察可能領域を出たら、履歴情報がリセットされるまでは表示しない。これによって、地図上にマークがあってもアノテーションが表示されないことに観察者が違和感を覚えることがなくなる。
【0092】
また、アノテーション観察可能領域を示すマークは常に表示しておき、一回目の観察可能領域への進入の際には自動的にアノテーションを表示し、二回目以降の進入の際には、マウスやキーボードなどのユーザインタフェースからの入力があった(例:ボタンを押す)場合のみ表示されることも可能である。また、一回目の観察可能領域への進入の際には自動的にアノテーションを表示し、二回目以降の進入の際には、アノテーション観察可能領域に留まっている時間が一定値を超えたらアノテーションを表示させることも可能である。
【0093】
図20(b)は、図19で示した進入回数に応じて異なるアノテーションを表示する場合のアノテーション観察可能領域を示すマークの変化である。ここでは、回数を重ねるごとに、透明度が増して徐々に見えなくなっていくが、回数を重ねるごとに色が変わってもよい。これによって、観察者は同じオブジェクトについて異なるアノテーションを観察していることを認識できる。
【0094】
図21に、保存される履歴情報の例を示す。履歴情報は、オブジェクト又はアノテーション画像毎に設けられ、システム起動と同時にメモリ上に作成され、観察者が変わったり、一定の時間が経過したり、マウスやキーボードのボタンが押されたり、遠く離れた領域に移動したり、コンテンツを切替えたりするごとにリセットされ、システム終了とともに消去される。しかしながら、システム終了とともにファイルとして保存し、システムが再び起動したときにそれを読み込んで履歴情報の初期値としてもよい。保存される履歴情報のファイルは観察者ごとのプロファイル・データとして作成され、システムが再び起動する際には、観察者のプロファイル・データが存在していればそれを読み込んで履歴情報の初期値とする。
【0095】
図21に示すように、履歴情報はオブジェクトごとにアノテーションを表示した回数を記録する。この回数に応じて、表示/非表示を切替えたり、表示するアノテーションを変更したりする。また、前回アノテーション観察可能領域に侵入した際の境界も履歴情報として残しておくことで、進入回数と進入境界の履歴情報を用いて多様なアノテーションを表示することが可能になる。
【0096】
【他の実施形態】
なお、上述の実施形態で説明したアノテーション画像やマークの表示方法はその2つ以上を組み合わせて実施することも可能であることは言うまでもない。
【0097】
また、画像再生装置が再生、呈示する仮想空間は2次元画像のみならず、視差画像を利用した立体表示や、裸眼立体視の原理を利用した立体表示によってもよい。このような画像表示技術は周知であるため、ここでこれ以上の説明は行わない。
【0098】
また、上述の実施形態においては、観察者自体は移動することなく、仮想的な観察者の視点を操作部を用いて移動させるウォークスルーシステムについてのみ説明した。しかしながら、例えば頭部装着型ディスプレイ(HMD)を観察者が装着し、トレッドミルの上などで実際に歩行して仮想空間内の移動を行い、また実際の視線方向をセンサ等によって検出することにより、観察者の視点位置及び視線方向を取得して、適切な仮想空間画像をHMDに表示させるようなシステムであっても本発明を適用可能である。
【0099】
また、上述の画像再生装置と同等の機能を複数の機器から構成されるシステムによって実現しても良い。
尚、前述した実施形態の機能を実現するソフトウェアのプログラムを、記録媒体から直接、或いは有線/無線通信を用いて当該プログラムを実行可能なコンピュータを有するシステム又は装置に供給し、そのシステム或いは装置のコンピュータが該供給されたプログラムを実行することによって同等の機能が達成される場合も本発明に含む。
【0100】
従って、本発明の機能処理をコンピュータで実現するために、該コンピュータに供給、インストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明の機能処理を実現するためのコンピュータプログラム自体も本発明に含まれる。
【0101】
その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等、プログラムの形態を問わない。
【0102】
プログラムを供給するための記録媒体としては、例えば、フレキシブルディスク、ハードディスク、磁気テープ等の磁気記録媒体、MO、CD−ROM、CD−R、CD−RW、DVD−ROM、DVD−R、DVD−RW等の光/光磁気記憶媒体、不揮発性の半導体メモリなどがある。
【0103】
有線/無線通信を用いたプログラムの供給方法としては、コンピュータネットワーク上のサーバに本発明を形成するコンピュータプログラムそのもの、もしくは圧縮され自動インストール機能を含むファイル等、クライアントコンピュータ上で本発明を形成するコンピュータプログラムとなりうるデータファイル(プログラムデータファイル)を記憶し、接続のあったクライアントコンピュータにプログラムデータファイルをダウンロードする方法などが挙げられる。この場合、プログラムデータファイルを複数のセグメントファイルに分割し、セグメントファイルを異なるサーバに配置することも可能である。
【0104】
つまり、本発明の機能処理をコンピュータで実現するためのプログラムデータファイルを複数のユーザに対してダウンロードさせるサーバ装置も本発明に含む。
【0105】
また、本発明のプログラムを暗号化してCD−ROM等の記憶媒体に格納してユーザに配布し、所定の条件を満たしたユーザに対して暗号化を解く鍵情報を、例えばインターネットを介してホームページからダウンロードさせることによって供給し、その鍵情報を使用することにより暗号化されたプログラムを実行してコンピュータにインストールさせて実現することも可能である。
【0106】
また、コンピュータが、読み出したプログラムを実行することによって、前述した実施形態の機能が実現される他、そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどが、実際の処理の一部または全部を行ない、その処理によっても前述した実施形態の機能が実現され得る。
【0107】
さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行ない、その処理によっても前述した実施形態の機能が実現され得る。
【0108】
【発明の効果】
以上説明したように、本発明によれば、アノテーションマークを合成した地図画像を仮想空間画像に合成して呈示することにより、観察者がアノテーションを観察できる領域を容易に知ることが可能になる。
【0109】
また、本発明によれば、アノテーションマークの表現を様々な条件によって変化させることによって、観察者が自らの興味や希望に応じて観察すべきアノテーションを判別することが可能になるほか、観察者が不快感を感じることをなくし、豊かな情報を提供することが可能になる。
【図面の簡単な説明】
【図1】本発明の実施形態に係るウォークスルーシステムを構成する画像再生装置の機能構成例を説明するブロック図である。
【図2】図1における画像再生装置を実現可能なハードウェア構成例を示すブロック図である。
【図3】アノテーション対応データの構成例を説明する図である。
【図4】アノテーション表示可否決定方法及び表示位置を説明する図である。
【図5】画像再生装置の全体処理を説明するフローチャートである。
【図6】アノテーションマーク及び観察者マークの表示例を説明する図である。
【図7】地図画像表示処理を説明するフローチャートである。
【図8】アノテーション表示処理を説明するフローチャートである。
【図9】アノテーションマークの表示方法の他の例について説明する図である。
【図10】アノテーションマークの表示方法のさらに他の例について説明する図である。
【図11】画像再生装置1の表示画面の一例を示す図である。
【図12】第2実施形態に係る画像再生装置が行うマーク表示方法を説明する図である。
【図13】図12の表示方法を実現するためのアノテーション対応データの構成例を説明する図である。
【図14】第2実施形態において、観察者が表示するマークの属性を指定するためのユーザインタフェース例を示す図である。
【図15】第3実施形態に係る画像再生装置が行うマーク表示方法を説明する図である。
【図16】図15の表示方法を実現するためのアノテーション対応データの構成例を説明する図である。
【図17】第3実施形態に係る画像再生装置が行うアノテーション表示処理のうち、図8に示したフローチャートと異なる処理を説明するフローチャートである。
【図18】第4実施形態に係る画像再生装置が行うマーク表示方法を説明する図である。
【図19】第4実施形態に係る画像再生装置が行う別のマーク表示方法を説明する図である。
【図20】第4実施形態に係る画像再生装置が行うさらに別のマーク表示方法を説明する図である。
【図21】第4実施形態に係る画像再生装置が用いる履歴情報データの例を説明する図である。
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image reproducing apparatus and method having a function of notifying an observer in advance of a viewpoint position and a line-of-sight direction where an annotation related to an object in a virtual space can be observed in a virtual space walk-through system.
[0002]
[Prior art]
In recent years, as one form of digital archiving, many attempts have been made to incorporate a cultural heritage or city into a computer and construct it as a virtual space. Also, with the development of CPUs and graphics hardware, it has become possible to walk through a virtual space with high reality on a personal computer in real time.
[0003]
One method for constructing a virtual space is modeling by general computer graphics (CG) using a geometric model and texture. In modeling by CG, a real geometric model is generated / restored by using a remaining drawing or an actual survey, or by directly measuring a geometric shape using a laser range finder or the like. Also, the reality is enhanced by texture mapping the actual image of the object onto the geometric model of the object.
[0004]
On the other hand, as another method for constructing a virtual space, there is a method based on Image-Based Rendering (IBR) that constructs a virtual space using only a photographed image. In modeling by CG, if the model is not accurate, the reality is lost. However, in IBR, since a real image is used as it is, a virtual space with high reality can be expressed. In addition, modeling does not take time, and it is suitable for construction of a wide range of virtual spaces. However, since IBR uses a large number of actual images, the amount of data becomes enormous. Therefore, research on modeling methods that combine modeling by CG and modeling by IBR is also widely performed.
[0005]
In a virtual space constructed using these methods, an annotation (annotation) is displayed on an object in the virtual space, so that an observer who walks through the virtual space can see which building is now. It is possible to provide additional information such as whether or not (see, for example, Patent Document 1). An annotation can appear to follow the object by being displayed on the object, or can be made to appear as a telop by being displayed at a fixed position on the screen.
By observing the annotated virtual space, the observer can walk through the virtual space as desired without a guide, and can obtain various information through annotation. . In addition, there is no restriction | limiting in particular in the information displayed as an annotation in this specification, Arbitrary information regarding a certain object in a virtual space image can be displayed.
[0006]
In addition, the virtual space map is presented to the observer, and the observer's viewpoint position / gaze direction and the position of the object on which the annotation is displayed are displayed on the map, so that the observer It is also possible to grasp the positional relationship with the object on which is displayed.
[0007]
[Patent Document 1]
JP 2002-163670 A
[0008]
[Problems to be solved by the invention]
However, even if the observer's viewpoint position / gaze direction and the position of the object on which the annotation is displayed are displayed on the map, if the object is far away from the observer, it may be hidden by another object. Actually, you may not be able to see the annotation. In addition, depending on the intention of the creator of the content (in this case, virtual space), the viewpoint position / line-of-sight direction where the annotation can be viewed may be limited.
[0009]
In such a case, the observer has to search for a viewpoint position / line-of-sight direction where he can observe the annotation he / she wants to observe by groping.
[0010]
The present invention has been made in view of the above problems, and an object of the present invention is to enable an observer to observe annotations on objects in a virtual space in an image reproduction device that provides the observer with a walk-through experience in a virtual space. This is to make it easy to recognize the viewpoint position and the line-of-sight direction.
[0011]
Furthermore, another object of the present invention is to further improve the convenience of the observer in the above-described image reproduction device.
[0012]
[Means for Solving the Problems]
That is, the image reproduction method according to the present invention detects the viewpoint position and the line-of-sight direction in the observer's virtual space, and presents the corresponding virtual space image to allow the observer to experience a walk-through in the virtual space. A virtual space image for generating a virtual space image to be presented to an observer based on a viewpoint position and a line-of-sight direction in the observer's virtual space and virtual space data stored in a virtual space data storage unit A map image is read out based on the viewpoint position in the observer's virtual space from the generation step and the map image storage means, and a map image representing a predetermined range of the virtual space including at least the viewpoint position in the observer's virtual space is obtained. A map image generation step for generating, and a presentation step for synthesizing the virtual space image and the map image and presenting the map image to the observer. The step observes the annotation image based on the information about the area where the annotation image relating to the object in the virtual space where the annotation information storage means can be observed and the viewpoint position and the line-of-sight direction in the observer's virtual space. The method includes a mark composition step of combining a mark representing a possible area and a mark representing an observer's viewpoint position and line-of-sight direction into a map image.
[0013]
In addition, the image reproducing apparatus according to the present invention detects the viewpoint position and the line-of-sight direction in the observer's virtual space, and presents the corresponding virtual space image to allow the observer to experience a walk-through in the virtual space. A virtual space image for generating a virtual space image to be presented to an observer based on a viewpoint position and a line-of-sight direction in the observer's virtual space and virtual space data stored in the virtual space data storage means A map image is read out based on the viewpoint position in the observer's virtual space from the generation means and the map image storage means, and a map image representing a predetermined range of the virtual space including at least the viewpoint position in the observer's virtual space is obtained. A map image generating means for generating, and a presenting means for synthesizing the virtual space image and the map image and presenting them to an observer. Area where the annotation image can be observed based on the information about the area where the annotation image related to the object in the virtual space is observable, and the viewpoint position and the line-of-sight direction in the virtual space of the observer And a mark synthesizing unit that synthesizes a mark representing the viewpoint position and line-of-sight direction of the observer into a map image.
[0014]
The object of the present invention is also achieved by a program for causing a computer to execute the image reproduction method of the present invention.
[0015]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings.
[0016]
<First Embodiment>
FIG. 1 is a block diagram illustrating a functional configuration of the walk-through system according to the present embodiment. The image playback device 1 constituting the walk-through system includes an operation unit 10, a viewpoint position / gaze direction determination unit 20, a virtual space data storage unit 30, an annotation data storage unit 40, a map data storage unit 50, and an image playback control unit 60. The display unit 70 is included.
[0017]
FIG. 2 is a block diagram illustrating a hardware configuration example of the image reproduction device 1 according to the present embodiment. The hardware configuration shown in FIG. 2 can be realized by a general-purpose computer apparatus that is normally available as a personal computer in the market and its peripheral devices. In FIG. 2, a disk 105 is a mass storage device represented by a hard disk drive, for example, and constitutes the virtual space data storage unit 30, the annotation data storage unit 40, and the map data storage unit 50 in FIG.
[0018]
The CPU 101 functions as the viewpoint position / gaze direction determination unit 20 and the image reproduction control unit 60 by executing a program stored in the disk 105 or the ROM 106 or an external storage device (not shown).
[0019]
When the CPU 101 issues various display instructions to the display controller (CRTC) 102, a desired display is made on the display (CRT) 104 by the display controller 102 and the frame buffer 103. In the figure, a CRTC is shown as the display controller 102 and a CRT is shown as the display 104. However, the display is not limited to a cathode ray tube, and a liquid crystal display or the like may be used. Of course, the display device 104 may be a fixed type or a portable type such as a head-mounted display (HMD). The CRTC 102, the frame buffer 103, and the CRT 104 constitute the display unit 70 described above.
[0020]
The mouse 108, the keyboard 109, and the joystick 110 are used by an observer to perform an operation input to the image reproduction apparatus 1, and constitute the operation unit 10 described above.
[0021]
Next, an outline of the operation of the image reproduction apparatus 1 having the above configuration will be described.
The operation unit 10 includes a mouse, a keyboard, a joystick, and the like. The operation unit 10 generates a viewpoint position movement parameter and a line-of-sight rotation parameter. In this embodiment, the joystick is used for controlling the viewpoint position and the line-of-sight direction, but it may be performed by another input device such as a game controller, or an output from a magnetic sensor or an optical sensor may be used. The joystick can independently control the tilt angle and rotation angle of the stick. In the present embodiment, the operation of tilting the joystick corresponds to the movement of the viewpoint position in the virtual space, and the operation of rotating the joystick left and right corresponds to the rotation in the line of sight. In the present embodiment, the roll rotation is not considered for the rotation in the line-of-sight direction.
[0022]
The map data storage unit 50 stores two-dimensional map image data. The two-dimensional map image data is associated with virtual space data stored in the virtual space data storage unit 30.
[0023]
The annotation data storage unit 40 stores annotation data. The annotation data includes annotation image data, a viewpoint position (or a viewpoint position on a map) in the virtual space of the observer, and correspondence data (annotation correspondence data) with the annotation. FIG. 3 shows a configuration example of annotation correspondence data. Annotation correspondence data is defined for each object. In the example of FIG. 3, the position (x A , Y A For the object building A of), the annotation observable area has the same coordinates (x on the map) with respect to the viewpoint position (x, y) on the map of the observer. 0 , Y 0 ), (X 1 , Y 1 ). An annotation image to be displayed is defined by a file name (or file path) (building A.jpg).
[0024]
Note that the annotation observable region is defined as a position where no other object exists between the observable region and the target object, or the annotation is not hidden even if it exists. In the latter case, the display position in the image of the predetermined annotation, the viewpoint position (height) of the observer, and the height of other objects existing between the target object and the annotation observable area are taken into consideration. Can be determined.
[0025]
The shape of the annotation observable region is not limited to a rectangle, and may be another shape or may be defined by another method. For example, all vertex coordinates may be specified, or a circular area may be specified by specifying the center and radius.
[0026]
In the example of FIG. 3, the viewpoint position (x, y) on the map of the observer is (x 0 , Y 0 ), (X 1 , Y 1 ) Within a range defined by a rectangle having diagonal vertices as a diagonal vertex is a necessary condition for the annotation display for the building A.
[0027]
Whether the annotation is actually displayed, and the position on the observation screen when the annotation is displayed is the object whose viewpoint position on the observer's map is in the annotation observable area and that displays the annotation (In the above case, the location (x A , Y A ) And the viewpoint position / line-of-sight direction of the observer (FIG. 4).
[0028]
FIG. 4 is a diagram illustrating, as an example, annotation correspondence data for the building A in FIG. 3 with respect to an example of a method for determining whether to perform annotation display.
In FIG. 4, the viewpoint position (x, y) on the observer's map is (x 0 , Y 0 ), (X 1 , Y 1 ) In the rectangular annotation observable area defined for the building A, with the diagonal vertices. In this case, the viewing direction of the observer and the angle of view θ defined in the system 0 If the building A is included in the visual field of the observer defined by (for example, ± α ° centered on the line-of-sight direction), the annotation display for the building A is performed.
[0029]
Specifically, the observer's viewpoint position (x, y) and the position of building A (x A , Y A ) And the angle (β °) between the line-of-sight direction (shown by the dotted line in FIG. 4),
β ≦ α
When the condition is satisfied, the annotation for the building A is displayed. In addition, you may perform determination of whether the building A is contained in an observer's visual field by another method.
[0030]
Note that the position of the building A (x A , Y A ) May be, for example, the center or barycentric position on the map image of the building A, or may be another position. Further, when the width of the building A as viewed from the annotation observable region is large, the coordinate value having the range may be used as the position of the object instead of the determination at one point such as the center position or the center of gravity position.
[0031]
In this case, the position data of the object in the annotation correspondence data is x A And y A The data has a range for at least one of the above. In the determination shown in FIG. 4, when a coordinate value having a range at the object position is used, the upper limit value and the lower limit value of the range (if both x and y have ranges, the upper limit of each range The combination of the value and the lower limit value) is determined, and whether or not display is possible is determined depending on whether or not one is included in the field of view.
[0032]
Needless to say, the annotation correspondence data is set in a coordinate system that is the same as the coordinate system representing the viewpoint position of the observer to be compared. That is, when determining whether or not annotation display is possible using the coordinate position of the observer's virtual space, the coordinates stored as annotation correspondence data are not coordinate values on the map but values in the coordinate system in the virtual space. Become.
[0033]
Although the display position of the annotation can be arbitrarily set, in the example of FIG. 4, the observer is placed on an image plane that is predetermined as a plane that is orthogonal to the observer's line-of-sight direction and is a predetermined distance away from the viewpoint position. Display is performed assuming that an annotation image exists centering on a point where a straight line connecting the viewpoint position of the target object and the position of the target object (building A) intersects. The display position in the vertical direction of the image plane (display position in the direction orthogonal to the paper plane of FIG. 4) can be, for example, the lowermost part or the uppermost part of the image plane. Of course, as long as the relationship with the target object can be clearly understood, an annotation can be displayed at an arbitrary position on the image plane.
[0034]
The virtual space data storage unit 30 stores data (virtual space data) for constructing a virtual space. When the virtual space is constructed with a geometric model and a texture image, the geometric model and the texture image are stored as virtual space data. In addition, when the virtual space is constructed using the IBR technology, the photographed image data is stored as virtual space data. The virtual space data also includes data (moving range data) for defining a range in which the observer's viewpoint can move in the virtual space as necessary.
[0035]
When the image playback device 1 has a network interface, the virtual space data storage unit 30 does not need to exist locally on the image playback device 1 and is installed on the network and reads the virtual space data via the network. May be.
[0036]
The viewpoint position / line-of-sight direction determination unit 20 uses the movement parameter and rotation parameter from the operation unit 10 and, if necessary, the movement range data of the virtual space data storage unit 30, the viewpoint position / observer of the observer in the virtual space. Determine the line-of-sight direction. This determination can be made based on any method conventionally used in walkthrough applications. The viewpoint position / line-of-sight direction determination unit 20 also uses the viewpoint of the observer in the two-dimensional map image data stored in the map data storage unit 50 based on the determined viewpoint position / line-of-sight direction in the virtual space. Determine the position (viewpoint position on the map) and line-of-sight direction.
[0037]
■ (Overall processing)
FIG. 5 is a flowchart showing the overall processing of the image reproduction apparatus 1 described above. This processing is realized by the CPU 101 constituting the image reproduction control unit 60 executing a program stored in the disk 105 or the like and controlling each component of the image reproduction apparatus.
[0038]
In step S <b> 10, the image reproduction control unit 60 receives the viewpoint position and line-of-sight direction in the observer's virtual space from the viewpoint position / line-of-sight direction determination unit 20. In step S <b> 20, an observation image (virtual space image) to be displayed is generated from the virtual space data stored in the virtual space data storage unit 30 based on the viewpoint position and line-of-sight direction of the observer.
[0039]
In step S30, the map image data to be displayed is read from the map data storage unit 50 based on the viewpoint position and line-of-sight direction on the map of the observer, the display size of the map image, the scale, etc. An annotation mark and an observer mark described later are synthesized. Then, the obtained map image is synthesized with the virtual space image.
[0040]
In step S40, an annotation image to be displayed is acquired based on the viewpoint position and line-of-sight direction on the map of the observer and the annotation observable area data in the annotation data storage unit 40, and is synthesized with the virtual space image.
[0041]
Then, the image reproduction control unit 60 passes the finally obtained image to the display unit 70. The display unit 70 displays the image generated by the image reproduction control unit 60.
[0042]
Note that the scale of the map image to be displayed may be fixed, or may be variable according to an instruction from the observer. In the case of a variable scale, data of a plurality of scales may be held as map image data, and map image data corresponding to a set scale may be read out, or common map data may be simply displayed according to the scale. You may enlarge / reduce the display. In addition, when a condition such as the observer's viewpoint position approaches an annotation observable region is satisfied, the scale can be changed to change to a detailed display.
[0043]
■ (Example of mark display)
Next, the map image display process of the above-described image reproduction control unit 60 will be described in more detail. The image reproduction control unit 60 has a map information display unit 62 and an image (observer mark) representing the observer's viewpoint position / gaze direction on the two-dimensional map image determined by the viewpoint position / gaze direction control unit 20. Is drawn (synthesized) on the map image. Further, the image reproduction control unit 60 can indicate the annotation in which position in the virtual space the observer can observe the annotation, the position of the target object of the observed annotation, and in which direction it is. It has an observable area display section 64 for drawing an image (annotation mark) representing related information on a map.
[0044]
FIG. 6 is a diagram illustrating an example of map display realized by the map information display unit 62 and the observable region display unit 64.
Here, the building A shown in the upper part of FIG. 3 will be described as an example. That is, as shown in FIG. 6A, the position of the object (building A) on the two-dimensional map is (x A , Y A ),building A The region where the annotations on can be observed (x 0 , Y 0 ), (X 1 , Y 0 ), (X 1 , Y 1 ), (X 0 , Y 1 ) In the rectangle determined by
[0045]
In this case, as shown in FIG. 6B, the map information display unit 62 and the observable region display unit 64 display an image representing the annotation observable region and the position of the display target object on the map as an annotation mark. An image representing the observer's own viewpoint position and line-of-sight direction is shown on the map as an observer mark. As a result, the observer can know the area where the annotation can be observed and the direction of the target object of the annotation that can be observed there, and the relative position between the current observer's own viewpoint position and the annotation observable area. You can know the relationship.
[0046]
In the example of FIG. 6B, two images, the image showing the entire annotation observable region and the image showing the position of the target object, are shown as annotation marks. However, as shown in FIG. The center of the observable area ((x 0 + X 1 ) / 2, (y 0 + Y 1 ) / 2), an image representing the direction θ of the target object (see FIG. 6A) may be shown as an annotation mark.
[0047]
In this case, if the annotation mark has the same shape as the observer mark, the observer can observe the annotation by controlling the display of the observer mark on the map image so as to approach the same position and direction as the annotation mark. Intuitively understand. Further, in FIG. 6C, an image indicating the display target object is not displayed as an annotation mark, but may be displayed.
[0048]
When the annotation mark has the same shape as the observer mark, the annotation mark can be displayed in different colors and transparency in order to avoid confusion between the two. Also, in FIG. 6, each mark is represented by an isosceles triangle, and the position and direction can be recognized in the same manner as a general arrow. However, any shape may be used as long as the position and direction can be recognized.
[0049]
In FIG. 6, the region where the annotation can be observed is a rectangle, but may be an arbitrary polygonal region as described above. Further, a circle or an ellipse may be used. Further, if the display format of the map image is a format with a sense of perspective or a three-dimensional effect, it can be combined with a mark representing a three-dimensional space such as a cube or a rectangular parallelepiped. In this case, the format of the annotation correspondence data may be changed together.
[0050]
FIG. 7 is a flowchart showing such map image generation and update processing, and corresponds to the processing in step S30 of FIG.
In step S32, the map information display unit 62 determines the map image data to be displayed in consideration of the display size and scale of the map image, if necessary, in addition to the viewpoint position and line-of-sight direction on the map of the observer. Read from the map data storage unit 50. Next, in step S34, the observable area display unit 64 displays the map on the map image based on the viewpoint position of the observer on the map, the display size and scale of the map image, and the observable area of the annotation correspondence data. Search for annotation marks that should be used.
[0051]
In step S36, the observable area display unit 64 combines the annotation mark and the observer mark for the observable area to be displayed, obtained as a result of the search in step S34, on the map image.
[0052]
■ (Annotation display processing)
Next, annotation display processing (corresponding to step S40 in FIG. 5) in the image reproduction control unit 60 will be described using the flowchart shown in FIG.
Here, as described above, it is assumed that the annotation correspondence data is defined by the coordinates on the map image. However, when the annotation correspondence data is defined by the coordinates on the virtual space, the virtual position is virtually set at the observer's viewpoint position. A similar process may be performed using the coordinates in the space.
[0053]
First, in step S101, the viewpoint position / gaze direction on the map image of the observer is acquired from the viewpoint position / gaze direction determination unit 20. Next, the variable i is set to 1 in step S102. The variable i is the total number n of objects O that display annotations. i Is a variable for sequentially processing, and takes an integer value from 1 to n.
[0054]
In step S103, it is determined whether or not i ≦ n, that is, whether or not processing has been performed for all objects (display target objects) that display annotations. If all the display target objects have not been processed (if i ≦ n), in step S104, the viewpoint position on the map of the observer acquired in step S101 is the object O. i Annotation observable area defined in the annotation correspondence data corresponding to (R i To determine whether it is included.
[0055]
Annotation observation area R i If it is included, the process proceeds to step S105, where the observer's viewpoint position, viewpoint direction, and object O i And the object angle O from the preset angle of view θ. i Is determined to be in the observer's field of view. When entering the field of view, the flag F corresponding to the i-th annotation in step S106. i Is set to 1. If it does not enter the field of view, or the viewpoint position of the observer is the annotation observable region R in step S104 i Is not included in the flag F in step S107 i Is set to 0. From steps S106 and S107, the process proceeds to step S108, i is incremented by 1, and the process returns to step S103.
[0056]
If i> n in step S103 and it is determined that the processing has been completed for all the display target objects, the process proceeds to step S109. In step 109, the flag F set to 1 i An annotation image corresponding to (i = 1 to n) is acquired from the annotation data storage unit 40 and synthesized on the virtual space image. Thereafter, an end determination is made in step S110, and if it is continued, the process returns to step S101.
[0057]
■ (Annotation mark display control according to the relationship with the observer mark)
By displaying the observer mark and the annotation mark on the map image, the observer can easily visually understand the distance relationship with the annotation observable region and the relationship with the direction of the target object. However, by visually varying the mark display method according to the relationship between the observer's viewpoint position and the annotation observable area and the relationship between the observer's line-of-sight direction and the direction of the target object, Further, it becomes possible to provide a highly convenient application. Hereinafter, an example of mark display control that can be performed in the map image display process in the present embodiment will be described.
[0058]
(1) When the observer mark approaches the annotation mark (part 1)
When the observer's viewpoint position enters the annotation observable region and the display target object enters the observer's field of view, annotation display is performed in the virtual space image.
At that time, by changing the annotation mark display method on the map image, the observer can more clearly recognize the correspondence between the displayed annotation and the observable region.
[0059]
For example, in the state shown in the left of FIG. 9, when the annotation display condition that the observer's viewpoint position enters the annotation observable region and the display target object enters the observer's field of view is satisfied, FIG. In a), the display color of the mark indicating the observable area as the annotation mark is changed before the condition is satisfied. In FIG. 9B, when an annotation display condition is satisfied, a mark indicating an observable area is blinked. Further, in FIG. 9C, the transparency of the mark indicating the observable area is increased before the annotation display condition is satisfied, and the transparency is decreased (for example, opaque) when the condition is satisfied.
[0060]
In addition, as shown in FIG. 10, when the annotation mark includes both a mark indicating the observable area and a mark indicating the display target object, the display method of both marks may be changed when the annotation display condition is satisfied. Is possible.
[0061]
In FIG. 10A, the colors of both the observable region and the mark indicating the object are changed before and after the annotation display condition is satisfied. In FIG. 10B, when the annotation display condition is satisfied, the mark indicating the observable region and the object is blinked. Further, in FIG. 10C, the transparency of the mark indicating the observable region and the object is increased before the annotation display condition is satisfied, and the mark is rendered opaque when entering the observable region.
[0062]
In this way, the image reproduction control unit 60, the virtual space image corresponding to the viewpoint position / line-of-sight direction in the observer's virtual space, the map image in which the annotation mark and the observer mark are combined, and the observed annotation The image is synthesized and passed to the display unit 70. An example of an image generated by the image reproduction control unit 60 is shown in FIG.
[0063]
As described above, according to the image reproducing device according to the first embodiment of the present invention, a map image is synthesized and displayed on a virtual space image, and annotation information such as an annotation observable region and an annotation target object is displayed on the map image. An annotation mark to represent and an observer mark to represent the observer's viewpoint position and viewpoint direction, so that the observer can easily know the viewpoint position and line-of-sight direction in which the annotation can be observed in the virtual space, and to the annotation observable position You will be able to move. In addition, by changing the display method of the mark that indicates the annotation observable area between when the annotation is displayed and when it is not displayed, the correspondence between the observed annotation and the observable area is clarified to the observer. Can be recognized.
[0064]
■ <Second Embodiment>
In the first embodiment, by displaying the annotation observable area on the map image, the observer can easily know the area where the annotation can be observed in the virtual space. In the second embodiment, by changing the display method of the annotation observable area displayed on the map image according to the purpose, the observer can discriminate the annotation observed in the area. Note that the configuration of the image reproducing apparatus according to the present embodiment may be the same as that described with reference to FIGS.
[0065]
FIG. 12 is a diagram illustrating an example of a map image display that is synthesized and displayed on the virtual space image in the image reproduction device according to the second embodiment. FIG. 12A shows an example in which the display method of the mark representing the observable region is changed (meaning a visually different display) depending on the importance of the annotation (or the display target object). In the example of FIG. 12A, a mark corresponding to an important annotation has a pattern (black circle) different from other marks.
[0066]
For example, when realizing cultural heritage as a virtual space and providing its walk-through application, the importance of annotation for buildings with high historical value and famous buildings is increased, and other annotation marks are displayed on the map image. By presenting the viewer with a different display method, it becomes possible for the viewer to observe the annotation with high importance, and to learn the cultural heritage efficiently. Here, the importance is distinguished by the difference in the shape of the mark (the presence or absence of a black circle), but any method that can be visually distinguished from other marks, such as the color, size, and transparency of the mark, can be used. .
[0067]
FIG. 12B shows an example in which the mark display method, here the display color, is changed depending on the genre of the annotation (or display target object). The genre is divided into, for example, history, geography, shopping, meals, and public facilities. Since the mark is color-coded according to the genre, the observer can know where the annotation of the genre that he is interested in can be observed in the annotation observable area displayed on the map. Here, the genre is distinguished by the color of the mark in the annotation observable area, but the shape of the mark may be changed. Further, a legend image explaining the correspondence between the mark color and the genre, importance, etc. may be displayed in addition to the map image or as another image.
[0068]
In order to realize the display method shown in FIG. 12, items of importance and genre are set in the annotation correspondence data stored in the annotation data storage unit 40, and the display method is performed in consideration of the setting values of these items at the time of display. Should be selected. FIG. 13 shows an example of annotation correspondence data to which a genre and importance are added. In the example of FIG. 13, the importance and genre are described with meaningful words such as “high” and “low” for the sake of explanation. However, the importance rank and genre type such as numerical values and symbols are used. Corresponding arbitrary format data can be used.
[0069]
In addition, it is possible to configure the genre and the importance of the mark to be displayed among the marks representing the annotation observable area so that the observer can specify the importance. In this case, the observer can select a mark indicating the annotation observable area to be displayed on the map by setting a desired importance and genre using a user interface as shown in FIG. 14, for example. It is.
[0070]
FIG. 14A shows an example of an importance selection user interface screen, and FIG. 14B shows an example of a genre selection user interface screen. For such screen display, for example, an operation for calling a screen is assigned to a key or operation such as a keyboard or a mouse constituting the operation unit 10, and when the viewpoint position / line-of-sight direction determination unit 20 detects this call operation, This can be realized by notifying the image reproduction control unit 60 to that effect, and the image reproduction control unit 60 calling screen data from the virtual space data storage unit 50 and displaying it on the display unit 70, for example.
[0071]
In addition, while the user interface screen is displayed, the operation unit 10 and the image reproduction control unit 60 substantially exchange directly, and the image reproduction control unit 60 detects and processes a selection operation by the operation unit 10, and the setting result is displayed. For example, it is stored in the annotation data storage unit 40. When the setting process is completed, the operation content of the operation unit 10 returns so that the viewpoint position / line-of-sight direction determination unit 20 processes the movement in the virtual space.
[0072]
Further, in the map image display processing described with reference to FIG. 7, when determining the annotation mark to be displayed in step S34, only the annotation mark of importance or genre checked in the user interface shown in FIG. 14 is selected. Like that. In addition, in the annotation display process shown in FIG. 8, a process for determining whether or not the genre should be displayed is added during steps S105 to S106, and only the flag F is displayed for the genre object to be displayed. i Is set to 1.
[0073]
Note that the display method shown in FIG. 12A can be realized by preparing an annotation mark image associated with the importance in advance and using the annotation mark image corresponding to the importance during display.
[0074]
By performing such mark display, the observer can observe on the map image the observable region of the annotation of only the genre he / she desires. In addition, it is possible to have a walk-through experience according to the needs of the observer, such as observing only important annotations.
[0075]
In the above description, the display method is changed according to the importance, and only the items that match the set genre are displayed. However, only the items that match the predetermined importance are displayed. You may do it. In short, the present embodiment is characterized in that the display method is changed (including non-display) according to attributes such as the importance level and genre set in the annotation or object. The type and the display method corresponding to it can be arbitrarily set.
[0076]
■ <Third Embodiment>
For example, in the walk-through application, if the same annotation is displayed every time the same place is passed, there is a possibility that the observer may feel uncomfortable. Therefore, the third and fourth embodiments are characterized in that a plurality of observable annotation displays are provided in the same region, and the contents of the displayed annotations are changed according to conditions. As a result, it is possible to provide a wealth of information by preventing the observer from feeling uncomfortable by observing the same annotation many times.
[0077]
FIG. 15 is a diagram for explaining an annotation presentation method to an observer in the third embodiment. In FIG. 15, the annotations presented for the same object are changed depending on whether the observer enters the annotation observable region from the boundary A and enters the annotation observable region from the boundary B. Thus, for example, when entering from the boundary A, the annotation of the target object from the viewpoint of architecture is displayed, and when entering from the boundary B, the annotation from the viewpoint of archeology is displayed. , Can give a variety of information to the observer.
[0078]
Also, an observer often does not need to see an annotation once viewed, and there is a possibility that it will be complicated if the same annotation is presented. In order to eliminate the troublesomeness felt by the observer, it is possible to reduce the number of times the same annotation is not displayed or displayed by changing the displayed annotation when entering the annotation observable area. .
[0079]
In FIG. 15, the annotation to be presented is changed depending on which “side” of the two-dimensional area on the map image enters the annotation observation area. For example, the viewpoint position of the observer can move in the three-dimensional space. An application that can move the viewpoint as if the observer is flying in the sky, etc., the annotation observation area may be a three-dimensional area, and from which “surface” of the polyhedron has entered the annotation observation area You may change the annotation presented.
[0080]
FIG. 16 shows an example of a storage format of annotation corresponding data when the annotation to be displayed is changed depending on where the annotation enters the viewable area. Each object has a correspondence table between an entry location (in this case, a side) and an annotation image to be displayed. In FIG. 16, regarding the building A, when entering from the boundary A, the annotation image of “building A1.jpg” is displayed, and when entering from the boundary B, the annotation image of “building A2.jpg” is displayed. indicate. Further, when entering from other than the boundaries A and B, a default image (building A.jpg) is displayed. Since only the default is set for the building B, an annotation image of “building B.jpg” is displayed when entering from any boundary. If there is no default description, no annotation image is displayed.
[0081]
In the example of FIG. 16, it is assumed that how each boundary corresponds to the annotation observable region is determined in advance, but coordinates that specify the annotation observable region as necessary. A data item that defines the boundary may be added by using, for example.
[0082]
FIG. 17 shows a flowchart of annotation image determination in the third embodiment. This flowchart corresponds to the annotation drawing process in step S109 in FIG. The process of FIG. 17 is the same as the flag F in the flowchart of FIG. i For all objects with = 1.
[0083]
For each object, first, in step S301, it is determined whether or not an annotation image corresponding to the entered boundary exists. As for the boundary from which the observer enters the annotation observable area, for example, the movement history of the observer's viewpoint position is recorded, and the observer's viewpoint position is the annotation observable area in step S104 in FIG. It is possible to determine based on the movement history when it is detected to be included in. The decision result is flag F i When the value is set to 1, it is possible to set information that can specify the boundary in the object.
[0084]
In step S301, F i For the object of = 1, the presence or absence of information whose boundary can be specified or its content and the annotation correspondence data image table shown in FIG. The presence or absence can be determined.
[0085]
If there is an annotation image corresponding to the boundary where the observer has entered in step S301, the process proceeds to step S303, and the corresponding annotation image is drawn. If it does not exist, the process proceeds to step S302 to determine whether or not a default annotation image exists. If a default annotation image exists, the process advances to step S304 to draw a default annotation image. If there is no default annotation image, nothing is drawn.
[0086]
As described above, according to the third embodiment, by changing the annotation for the same object according to the approach path to the annotation observable region, the discomfort felt by the observer can be eliminated, or rich information can be provided. It becomes possible to do.
[0087]
■ <Fourth Embodiment>
In the third embodiment, by changing the annotation to be presented depending on where to enter the annotation observable region, it is possible to eliminate the complexity felt by the observer or provide rich information. In the fourth embodiment, the same effect is realized by giving history information to the annotation and changing the display method of the annotation and the annotation mark on the map based on the history.
[0088]
FIG. 18 is a diagram illustrating an example of an annotation presentation method performed by the image reproduction device according to the fourth embodiment. In the present embodiment, the image playback apparatus holds annotation display history information of each object on the disk 105 or the like. In addition, the display history information changes the observer, a certain amount of time has passed since the previous display, a specific command is input from the mouse or keyboard, or the observer's viewpoint position moves to an area that is a predetermined distance away Or the content to be presented to the viewer is switched according to various conditions.
[0089]
When history information is reset for a certain object, the number of observations of the annotation image corresponding to that object is set to zero. The change of the observer is detected by restarting the walk-through system, user authentication, or input through a user interface such as a keyboard or a mouse. When the viewer's viewpoint position and line-of-sight direction satisfy the annotation display conditions of the object A for the first time, the annotation image is combined with the virtual space image and displayed as described in the first embodiment, for example. On the other hand, if the display condition for the same annotation satisfies the predetermined number of times or more, for example, after the second time, the annotation image is not displayed. As a result, the observer does not have to see the annotation once viewed, and does not feel uncomfortable even when the same annotation observable area is passed many times during the walk-through.
[0090]
FIG. 19 is a diagram for explaining another annotation presentation method in the fourth embodiment. The walk-through system holds a plurality of annotation images for the same object, refers to history information, selects an annotation image corresponding to the number of times of entry into the observable region, and displays the combined image. As a result, for example, it is possible to display an annotation of rough information about an object at first, and to display an annotation about detailed information as the number of times of entry increases. It is also possible to display a randomly selected annotation image without referring to history information.
[0091]
The display method of the mark indicating the annotation observable area on the map may be changed according to the history information. FIG. 20A shows a change in the mark indicating the annotation observable area when the annotation is displayed only at the first approach shown in FIG. The mark indicating the annotation observable area is displayed on the map until the first entry, but once the annotation observable area is exited, it is not displayed until the history information is reset. This prevents the observer from feeling uncomfortable that the annotation is not displayed even if there is a mark on the map.
[0092]
In addition, the mark indicating the annotation observable area is always displayed, the annotation is automatically displayed when entering the first observable area, and the mouse and keyboard are used for the second and subsequent entry. It is also possible to display only when there is an input from the user interface such as (eg, pressing a button). An annotation is automatically displayed when entering the first observable area, and when entering for the second time and after, the annotation is displayed when the time remaining in the annotation observable area exceeds a certain value. It can also be displayed.
[0093]
FIG. 20B shows a change in the mark indicating the annotation observable region when different annotations are displayed according to the number of times of entry shown in FIG. Here, the transparency increases and disappears gradually as the number of times increases, but the color may change as the number of times increases. Thereby, the observer can recognize that different annotations are observed for the same object.
[0094]
FIG. 21 shows an example of history information to be saved. History information is provided for each object or annotation image, and is created in memory at the same time the system is started. The observer changes, a certain amount of time has passed, a mouse or keyboard button is pressed, or is far away. It is reset every time it moves to an area or when content is switched, and is erased when the system ends. However, it may be saved as a file with the end of the system and read as the initial value of the history information when the system is restarted. The saved history information file is created as profile data for each observer. When the system is restarted, if the observer's profile data exists, it is read and the initial value of the history information is read. To do.
[0095]
As shown in FIG. 21, the history information records the number of times an annotation is displayed for each object. Depending on the number of times, display / non-display is switched and the annotation to be displayed is changed. In addition, by leaving the boundary when entering the annotation observable area last time as history information, it is possible to display various annotations using the number of entries and the history information of the entry boundary.
[0096]
[Other Embodiments]
Needless to say, the annotation image and mark display methods described in the above embodiments can be implemented in combination of two or more thereof.
[0097]
Further, the virtual space reproduced and presented by the image reproducing device may be not only a two-dimensional image but also a stereoscopic display using a parallax image or a stereoscopic display using the principle of autostereoscopic viewing. Such an image display technique is well known and will not be described further here.
[0098]
In the above-described embodiment, only the walk-through system that moves the viewpoint of the virtual observer using the operation unit without moving the observer itself has been described. However, for example, when an observer wears a head-mounted display (HMD), actually walks on a treadmill or the like, moves in a virtual space, and detects an actual line-of-sight direction with a sensor or the like. The present invention can also be applied to a system that acquires the observer's viewpoint position and line-of-sight direction and displays an appropriate virtual space image on the HMD.
[0099]
In addition, a function equivalent to that of the above-described image reproduction device may be realized by a system including a plurality of devices.
A software program that realizes the functions of the above-described embodiments is supplied directly from a recording medium or to a system or apparatus having a computer that can execute the program using wired / wireless communication. The present invention includes a case where an equivalent function is achieved by a computer executing the supplied program.
[0100]
Accordingly, the program code itself supplied and installed in the computer in order to implement the functional processing of the present invention by the computer also realizes the present invention. That is, the computer program itself for realizing the functional processing of the present invention is also included in the present invention.
[0101]
In this case, the program may be in any form as long as it has a program function, such as an object code, a program executed by an interpreter, or script data supplied to the OS.
[0102]
As a recording medium for supplying the program, for example, a magnetic recording medium such as a flexible disk, a hard disk, a magnetic tape, MO, CD-ROM, CD-R, CD-RW, DVD-ROM, DVD-R, DVD- There are optical / magneto-optical storage media such as RW, and non-volatile semiconductor memory.
[0103]
As a program supply method using wired / wireless communication, a computer program itself that forms the present invention on a server on a computer network, or a computer that forms the present invention on a client computer such as a compressed file including an automatic installation function A method of storing a data file (program data file) that can be a program and downloading the program data file to a connected client computer can be used. In this case, the program data file can be divided into a plurality of segment files, and the segment files can be arranged on different servers.
[0104]
That is, the present invention includes a server device that allows a plurality of users to download a program data file for realizing the functional processing of the present invention on a computer.
[0105]
In addition, the program of the present invention is encrypted, stored in a storage medium such as a CD-ROM, distributed to the user, and key information for decrypting the encryption for a user who satisfies a predetermined condition is provided via a homepage via the Internet, for example. It is also possible to realize the program by downloading it from the computer and executing the encrypted program using the key information and installing it on the computer.
[0106]
In addition to the functions of the above-described embodiments being realized by the computer executing the read program, the OS running on the computer based on the instruction of the program is a part of the actual processing. Alternatively, the functions of the above-described embodiment can be realized by performing all of them and performing the processing.
[0107]
Furthermore, after the program read from the recording medium is written to a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer, the function expansion board or The CPU of the function expansion unit performs part or all of the actual processing, and the functions of the above-described embodiments can also be realized by the processing.
[0108]
【The invention's effect】
As described above, according to the present invention, it is possible to easily know the region where the observer can observe the annotation by synthesizing and presenting the map image obtained by combining the annotation marks with the virtual space image.
[0109]
Further, according to the present invention, by changing the expression of the annotation mark according to various conditions, it becomes possible for the observer to determine the annotation to be observed according to his / her own interests and desires. It is possible to provide a wealth of information without feeling uncomfortable.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating an example of a functional configuration of an image playback device that constitutes a walk-through system according to an embodiment of the present invention.
FIG. 2 is a block diagram illustrating an example of a hardware configuration that can realize the image reproduction apparatus in FIG. 1;
FIG. 3 is a diagram for explaining a configuration example of annotation correspondence data;
FIG. 4 is a diagram illustrating an annotation display availability determination method and a display position.
FIG. 5 is a flowchart illustrating an overall process of the image reproduction device.
FIG. 6 is a diagram illustrating a display example of an annotation mark and an observer mark.
FIG. 7 is a flowchart for explaining map image display processing;
FIG. 8 is a flowchart for explaining annotation display processing;
FIG. 9 is a diagram illustrating another example of an annotation mark display method.
FIG. 10 is a diagram for explaining yet another example of a method for displaying annotation marks.
FIG. 11 is a diagram showing an example of a display screen of the image playback device 1;
FIG. 12 is a diagram for explaining a mark display method performed by the image reproduction apparatus according to the second embodiment.
13 is a diagram for explaining a configuration example of annotation correspondence data for realizing the display method of FIG. 12;
FIG. 14 is a diagram illustrating an example of a user interface for designating attributes of marks displayed by an observer in the second embodiment.
FIG. 15 is a diagram for explaining a mark display method performed by the image reproduction apparatus according to the third embodiment;
16 is a diagram for explaining a configuration example of annotation correspondence data for realizing the display method of FIG. 15;
FIG. 17 is a flowchart for explaining processing different from the flowchart shown in FIG. 8 among annotation display processing performed by the image reproduction device according to the third embodiment.
FIG. 18 is a diagram illustrating a mark display method performed by the image reproduction device according to the fourth embodiment.
FIG. 19 is a diagram illustrating another mark display method performed by the image reproduction device according to the fourth embodiment.
FIG. 20 is a diagram illustrating still another mark display method performed by the image reproduction device according to the fourth embodiment.
FIG. 21 is a diagram illustrating an example of history information data used by the image reproduction device according to the fourth embodiment.

Claims (12)

観察者の仮想空間中における視点位置及び視線方向を検出し、対応する仮想空間画像を呈示することにより前記観察者に仮想空間中のウォークスルーを体験させる画像再生方法であって、
前記観察者の仮想空間中における視点位置及び視線方向と、仮想空間データ記憶手段に記憶された仮想空間データとに基づき、前記観察者に呈示すべき仮想空間画像を生成する仮想空間画像生成ステップと、
地図画像記憶手段から、前記観察者の仮想空間中における視点位置に基づいて地図画像を読み出し、少なくとも前記観察者の仮想空間中における視点位置を含む前記仮想空間の所定の範囲を表す地図画像を生成する地図画像生成ステップと、
前記仮想空間画像と前記地図画像とを合成して前記観察者に呈示する呈示ステップとを有し、
前記地図画像生成ステップが、
アノテーション情報記憶手段に記憶された、前記仮想空間中のオブジェクトに関するアノテーション画像を観察可能な領域に関する情報と、前記観察者の仮想空間中における視点位置及び視線方向とに基づいて、前記アノテーション画像を観察可能な領域を表すマークと、前記観察者の視点位置及び視線方向を表すマークとを、前記地図画像中に合成するマーク合成ステップを有することを特徴とする画像再生方法。
An image reproduction method for causing the observer to experience a walk-through in the virtual space by detecting a viewpoint position and a gaze direction in the virtual space of the observer and presenting a corresponding virtual space image,
A virtual space image generation step for generating a virtual space image to be presented to the observer based on the viewpoint position and line-of-sight direction in the observer's virtual space and the virtual space data stored in the virtual space data storage means; ,
A map image is read from the map image storage means based on the viewpoint position in the observer's virtual space, and a map image representing a predetermined range of the virtual space including at least the viewpoint position in the observer's virtual space is generated. A map image generation step,
A presentation step of synthesizing the virtual space image and the map image to present to the observer;
The map image generation step includes
Observe the annotation image based on the information about the region where the annotation image related to the object in the virtual space is observable stored in the annotation information storage means and the viewpoint position and the line-of-sight direction of the observer in the virtual space. An image reproduction method comprising: a mark composition step of combining a mark representing a possible area and a mark representing the viewpoint position and line-of-sight direction of the observer into the map image.
前記呈示ステップが、前記観察者の視点位置が前記アノテーション画像を観察可能な領域に入り、かつ前記観察者の視線方向が特定範囲の方向にある場合に、さらに前記アノテーション画像を前記仮想空間画像に合成することを特徴とする請求項1記載の画像再生方法。In the presenting step, when the viewpoint position of the observer is in an area where the annotation image can be observed and the viewing direction of the observer is in a specific range, the annotation image is further converted into the virtual space image. The image reproducing method according to claim 1, wherein the images are synthesized. 同一の領域で観察可能なアノテーション画像が複数登録されている場合に、前記呈示ステップが、前記観察者の視点位置が前記アノテーション画像を観察可能な領域に入った経路に応じて前記複数のアノテーション画像から1つを選択し、当該選択したアノテーション画像を前記仮想空間画像に合成することを特徴とする請求項2記載の画像再生方法。When a plurality of annotation images that can be observed in the same region are registered, the presenting step includes the plurality of annotation images according to a route in which the observer's viewpoint position enters the region where the annotation image can be observed. 3. The image reproduction method according to claim 2, wherein one of the selected annotation images is selected, and the selected annotation image is combined with the virtual space image. 同一の領域で観察可能なアノテーション画像が複数登録されている場合に、前記呈示ステップが、前記観察者の視点位置が前記アノテーション画像を観察可能な領域に入った回数に応じて、又は無作為に前記複数のアノテーション画像から1つを選択し、当該選択したアノテーション画像を前記仮想空間画像に合成することを特徴とする請求項2記載の画像再生方法。When a plurality of annotation images that can be observed in the same region are registered, the presenting step depends on the number of times that the viewpoint position of the observer has entered the region where the annotation image can be observed, or at random 3. The image reproduction method according to claim 2, wherein one of the plurality of annotation images is selected, and the selected annotation image is combined with the virtual space image. 同一の領域で観察可能なアノテーション画像が複数登録されている場合に、前記呈示ステップが、前記観察者の視点位置が前記アノテーション画像を観察可能な領域に入った回数が所定回数以上の場合には、アノテーション画像を前記仮想空間画像に合成しないことを特徴とする請求項2記載の画像再生方法。When a plurality of annotation images that can be observed in the same region are registered, and when the number of times that the observer's viewpoint position has entered the region in which the annotation image can be observed is a predetermined number of times or more 3. The image reproducing method according to claim 2, wherein the annotation image is not synthesized with the virtual space image. 前記アノテーション画像を観察可能な領域を表すマークが、前記特定範囲の方向をも表すマークであることを特徴とする請求項2記載の画像再生方法。The image reproducing method according to claim 2, wherein the mark that represents the region where the annotation image can be observed is a mark that also represents the direction of the specific range. 前記マーク合成ステップが、前記アノテーション画像に対応する前記仮想空間中のオブジェクトを表すマークをさらに前記地図画像中に合成することを特徴とする請求項1乃至請求項6のいずれか1項に記載の画像再生方法。The mark composing step further composes a mark representing an object in the virtual space corresponding to the annotation image into the map image. Image playback method. 前記マーク合成ステップが、前記アノテーション画像を観察可能な領域を表すマークの視覚的な表現を、前記観察者の視点位置と前記アノテーション画像を観察可能な領域との距離関係に応じて変化させることを特徴とする請求項1乃至請求項7のいずれか1項に記載の画像再生方法。The mark synthesis step changes a visual representation of a mark representing an area where the annotation image can be observed according to a distance relationship between the observer's viewpoint position and the area where the annotation image can be observed. The image reproduction method according to claim 1, wherein the image reproduction method is any one of claims 1 to 7. 前記マーク合成ステップが、前記アノテーション画像を観察可能な領域を表すマークの視覚的な表現を、予め定められた前記アノテーション画像の重要度又は種類の少なくとも一方に応じて変化させることを特徴とする請求項1乃至請求項8のいずれか1項に記載の画像再生方法。The mark combining step changes a visual expression of a mark representing an area where the annotation image can be observed according to at least one of a predetermined importance level or type of the annotation image. The image reproduction method according to any one of claims 1 to 8. 前記マーク合成ステップが、前記アノテーション画像を観察可能な領域を表すマークの視覚的な表現を、前記観察者の視点位置が当該領域に進入した回数に応じて変化させることを特徴とする請求項1乃至請求項9のいずれか1項に記載の画像再生方法。The mark combining step changes a visual expression of a mark representing an area where the annotation image can be observed according to the number of times the observer's viewpoint position has entered the area. The image reproduction method according to claim 9. 観察者の仮想空間中における視点位置及び視線方向を検出し、対応する仮想空間画像を呈示することにより前記観察者に仮想空間中のウォークスルーを体験させる画像再生装置であって、
前記観察者の仮想空間中における視点位置及び視線方向と、仮想空間データ記憶手段に記憶された仮想空間データとに基づき、前記観察者に呈示すべき仮想空間画像を生成する仮想空間画像生成手段と、
地図画像記憶手段から、前記観察者の仮想空間中における視点位置に基づいて地図画像を読み出し、少なくとも前記観察者の仮想空間中における視点位置を含む前記仮想空間の所定の範囲を表す地図画像を生成する地図画像生成手段と、
前記仮想空間画像と前記地図画像とを合成して前記観察者に呈示する呈示手段とを有し、
前記地図画像生成手段が、
アノテーション情報記憶手段に記憶された、前記仮想空間中のオブジェクトに関するアノテーション画像を観察可能な領域に関する情報と、前記観察者の仮想空間中における視点位置及び視線方向とに基づいて、前記アノテーション画像を観察可能な領域を表すマークと、前記観察者の視点位置及び視線方向を表すマークとを、前記地図画像中に合成するマーク合成手段を有することを特徴とする画像再生装置。
An image reproduction apparatus that detects a viewpoint position and a line-of-sight direction in a virtual space of an observer and causes the observer to experience a walk-through in the virtual space by presenting a corresponding virtual space image,
Virtual space image generation means for generating a virtual space image to be presented to the observer based on the viewpoint position and line-of-sight direction in the observer's virtual space and the virtual space data stored in the virtual space data storage means; ,
A map image is read from the map image storage means based on the viewpoint position in the observer's virtual space, and a map image representing a predetermined range of the virtual space including at least the viewpoint position in the observer's virtual space is generated. Map image generating means for
Presenting means for synthesizing the virtual space image and the map image and presenting it to the observer;
The map image generating means
Observe the annotation image based on the information about the region where the annotation image related to the object in the virtual space is observable stored in the annotation information storage means and the viewpoint position and the line-of-sight direction of the observer in the virtual space. An image reproducing apparatus, comprising: a mark composition unit that composes a mark representing a possible area and a mark representing the viewpoint position and line-of-sight direction of the observer into the map image.
コンピュータに請求項1記載の画像再生方法を実行させるためのプログラム。A program for causing a computer to execute the image reproduction method according to claim 1.
JP2003202525A 2003-07-28 2003-07-28 Image reproduction method and device Withdrawn JP2005044102A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003202525A JP2005044102A (en) 2003-07-28 2003-07-28 Image reproduction method and device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003202525A JP2005044102A (en) 2003-07-28 2003-07-28 Image reproduction method and device

Publications (1)

Publication Number Publication Date
JP2005044102A true JP2005044102A (en) 2005-02-17

Family

ID=34262220

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003202525A Withdrawn JP2005044102A (en) 2003-07-28 2003-07-28 Image reproduction method and device

Country Status (1)

Country Link
JP (1) JP2005044102A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011215412A (en) * 2010-03-31 2011-10-27 Zenrin Datacom Co Ltd Map image processing device, map image processing method, and map image processing program
JP2014120109A (en) * 2012-12-19 2014-06-30 Kddi Corp Program for determining prospect area according to road information, information terminal, server and method
JP2015529873A (en) * 2012-06-29 2015-10-08 ノキア コーポレイション Method and apparatus for modifying the presentation of information based on the visual complexity of environmental information
JP2017058969A (en) * 2015-09-16 2017-03-23 グリー株式会社 Virtual image display program, virtual image display device, and virtual image display method
JP6347375B1 (en) * 2017-03-07 2018-06-27 株式会社コナミデジタルエンタテインメント Display control apparatus and program
JP2019101330A (en) * 2017-12-06 2019-06-24 株式会社スクウェア・エニックス Display system and display method
CN110275619A (en) * 2015-08-31 2019-09-24 北京三星通信技术研究有限公司 The method and its head-mounted display of real-world object are shown in head-mounted display
JP2019174811A (en) * 2019-04-23 2019-10-10 株式会社スクウェア・エニックス Display system and display method
JP2020177482A (en) * 2019-04-19 2020-10-29 キヤノンメディカルシステムズ株式会社 Medical information processing apparatus, and medical information processing method
JP6937948B1 (en) * 2020-09-07 2021-09-22 Bulb株式会社 Furniture layout VR system, furniture layout VR method and program

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011215412A (en) * 2010-03-31 2011-10-27 Zenrin Datacom Co Ltd Map image processing device, map image processing method, and map image processing program
JP2017182814A (en) * 2012-06-29 2017-10-05 ノキア テクノロジーズ オサケユイチア Method and apparatus for modification of presentation of information based on visual complexity of environment information
JP2015529873A (en) * 2012-06-29 2015-10-08 ノキア コーポレイション Method and apparatus for modifying the presentation of information based on the visual complexity of environmental information
US9339726B2 (en) 2012-06-29 2016-05-17 Nokia Technologies Oy Method and apparatus for modifying the presentation of information based on the visual complexity of environment information
JP2014120109A (en) * 2012-12-19 2014-06-30 Kddi Corp Program for determining prospect area according to road information, information terminal, server and method
CN110275619A (en) * 2015-08-31 2019-09-24 北京三星通信技术研究有限公司 The method and its head-mounted display of real-world object are shown in head-mounted display
JP2017058969A (en) * 2015-09-16 2017-03-23 グリー株式会社 Virtual image display program, virtual image display device, and virtual image display method
JP6347375B1 (en) * 2017-03-07 2018-06-27 株式会社コナミデジタルエンタテインメント Display control apparatus and program
JP2018147309A (en) * 2017-03-07 2018-09-20 株式会社コナミデジタルエンタテインメント Display control device and program
JP2019101330A (en) * 2017-12-06 2019-06-24 株式会社スクウェア・エニックス Display system and display method
JP2020177482A (en) * 2019-04-19 2020-10-29 キヤノンメディカルシステムズ株式会社 Medical information processing apparatus, and medical information processing method
JP7346066B2 (en) 2019-04-19 2023-09-19 キヤノンメディカルシステムズ株式会社 Medical information processing device and medical information processing method
JP2019174811A (en) * 2019-04-23 2019-10-10 株式会社スクウェア・エニックス Display system and display method
JP6937948B1 (en) * 2020-09-07 2021-09-22 Bulb株式会社 Furniture layout VR system, furniture layout VR method and program
WO2022049777A1 (en) * 2020-09-07 2022-03-10 Bulb株式会社 Furniture layout vr system, furniture layout vr method and program

Similar Documents

Publication Publication Date Title
CN107590771B (en) 2D video with options for projection viewing in modeled 3D space
JP6518582B2 (en) Information processing apparatus and operation reception method
TW412429B (en) Video game system with vertical array of cursor images
JP5592011B2 (en) Multi-scale 3D orientation
US20140225922A1 (en) System and method for an augmented reality software application
US20120236029A1 (en) System and method for embedding and viewing media files within a virtual and augmented reality scene
US9594399B2 (en) Computer-readable storage medium, display control apparatus, display control method and display control system for controlling displayed virtual objects with symbol images
EP1549084A1 (en) Device capable of easily creating and editing a content which can be viewed in three-dimensional way
JPH09152954A (en) Method and device for presenting information
JP2007133776A (en) Avatar image editing system and method thereof, and device and program used for these
US20230073750A1 (en) Augmented reality (ar) imprinting methods and systems
US20230142566A1 (en) System and method for precise positioning with touchscreen gestures
JP2005044102A (en) Image reproduction method and device
TW202248808A (en) Augmented reality data presentation method, electronic equipment and computer-readable storage medium
JP2018077616A (en) Information terminal device, three-dimensional image generation server, three-dimensional image display system, three-dimensional image display method and three-dimensional image display program
JP7381556B2 (en) Media content planning system
JP2007282861A (en) Game apparatus, method of displaying character, program and recording medium
US9275075B2 (en) Information processing device, information processing method, information storage medium and program
JP4447896B2 (en) Image processing apparatus and method
JP6152888B2 (en) Information processing apparatus, control method and program thereof, and information processing system, control method and program thereof
JP5920858B1 (en) Program, information processing apparatus, depth definition method, and recording medium
JP2018124746A (en) Information processing device, information processing system, information processing method and program
JP2004199159A (en) Information processing method, information processing device, program, and recording medium
JPH11174950A (en) Processor and method for information processing, and computer-readable memory
JP4493082B2 (en) CG presentation device, program thereof, and CG display system

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20061003