JP2004234455A - 情報処理方法および画像再生装置 - Google Patents

情報処理方法および画像再生装置 Download PDF

Info

Publication number
JP2004234455A
JP2004234455A JP2003023823A JP2003023823A JP2004234455A JP 2004234455 A JP2004234455 A JP 2004234455A JP 2003023823 A JP2003023823 A JP 2003023823A JP 2003023823 A JP2003023823 A JP 2003023823A JP 2004234455 A JP2004234455 A JP 2004234455A
Authority
JP
Japan
Prior art keywords
annotation
image
display position
map
annotation display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003023823A
Other languages
English (en)
Inventor
Daisuke Kotake
大輔 小竹
Masahiro Suzuki
雅博 鈴木
Akihiro Katayama
昭宏 片山
Takaaki Endo
隆明 遠藤
Yukio Sakakawa
幸雄 坂川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2003023823A priority Critical patent/JP2004234455A/ja
Priority to US10/763,222 priority patent/US20040174386A1/en
Publication of JP2004234455A publication Critical patent/JP2004234455A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Processing Or Creating Images (AREA)
  • Studio Circuits (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Image Generation (AREA)

Abstract

【課題】アノテーションの表示位置の決定を簡便にすることによって、多数の画像に対しても少ない労力や時間でアノテーションを合成表示可能にする。
【解決手段】地図上での視点位置、視線方向を決定する視点位置・視線方向決定し、複数のパノラマ画像におけるオブジェクトの観察方向によって決定される該オブジェクトの地図上での位置と、前記視点位置、視線方向から該オブジェクトのアノテーション表示位置を決定し、前記視点位置に対応した実写画像上の前記アノテーション表示位置にアノテーション画像を合成する。
【選択図】 図1

Description

【0001】
【発明の属する技術分野】
本発明は、実写画像をもとに構築される仮想空間において、実写画像上に表示するアノテーション位置を設定するものに関する。
【0002】
【従来の技術】
移動体に搭載された撮影装置によって現実空間を撮影し、撮影された実写画像データをもとに、撮影した現実空間を、計算機を用いて仮想空間として表現する試みが提案されている(例えば遠藤、片山、田村、廣瀬、渡辺、谷川:“移動車輌搭載カメラを用いた都市空間の電脳映像化について”(信学ソサイエティ、PA−3−4、pp.276−277、1997年)、または廣瀬、渡辺、谷川、遠藤、片山、田村:“移動車輌搭載カメラを用いた電脳映像都市空間の構築(2)−実写画像を用いた広域仮想空間の生成−”(日本バーチャルリアリティ学会第2回大会論文集、pp.67−70、1997年)などを参照)。
【0003】
実写画像データをもとに撮影した現実空間を仮想空間として表現する手法としては、実写画像データから現実空間の幾何形状モデルを再現し、従来のCG技術で表現する手法が挙げられるが、モデルの正確性や写実性の点で限界がある。一方、幾何形状モデルの再現を行わずに、実写画像を用いて仮想空間を表現するImage−Based Rendering(IBR)技術が近年注目を集めている。IBR技術は実写画像に基づいているために、写実的な仮想空間の表現が可能である。また、都市や町のような広大な空間の幾何形状モデルを作成するためには膨大な時間や労力が必要とされるが、IBR技術ではそのような時間や労力は必要とされない。
【0004】
IBR技術を用いてウォークスルー可能な仮想空間を構築するためには、体験者の仮想空間内の位置に応じた画像の生成・呈示を行う必要がある。そのため、この種のシステムにおいては、実写画像データの各画像フレームと仮想空間内の位置を対応付けて保存しておき、体験者の仮想空間における位置と視線方向に基づいて対応する画像フレームを取得し、これを再生する。
【0005】
このような仮想空間内のウォークスルーにおいて、体験者が各視点位置で所望の方向を見ることができるように、各視点位置に対応する画像フレームを再生時の画角よりも広い範囲をカバーするパノラマ画像で保存しておく。再生時には、体験者の仮想空間内の視点位置に基づいてパノラマ画像を読出し、視線方向に基づいて部分画像をパノラマ画像から切出して表示する。仮想空間における視点位置の軌跡が撮影装置を搭載した車輌の軌跡と同一である場合、観察者はあたかも自分がその車輌に乗って走っているかのような感覚を味わうことができる。
【0006】
さらに、画像内のビルの上にビルの名前などのアノテーション(注釈)を合成して表示することにより、観察者により豊かな情報を提供することができる。また実写画像上では暗くて見えにくい標識などをアノテーションとして見やすく表示することも可能である。
【0007】
【発明が解決しようとする課題】
仮想空間が幾何形状モデルにより記述されている場合には容易にアノテーションを所望の位置に合成表示することが可能であるが、幾何形状モデルを持たないIBR技術により仮想空間が構築されている場合には、画像ごとにアノテーションの表示位置を決定しなければならない。
【0008】
しかし、これまで、前述のようなIBR技術によって構築されている仮想空間にアノテーションを合成表示する際には、画像ごとに手作業で表示位置を決定する必要があるため、画像の数が膨大な場合にはアノテーション表示位置を決定する作業にかなりの手間がかかっていた。
【0009】
本発明は、上記の課題に鑑みてなされたものであり、その目的は、アノテーションの表示位置の決定を簡便にすることにある。
【0010】
【課題を解決するための手段】
以上の目的を達成するために、本発明は以下の構成を有することを特徴とする。
【0011】
本願請求項1の発明は、地図上での視点位置、視線方向を決定する視点位置・視線方向決定工程と、複数のパノラマ画像におけるオブジェクトの観察方向によって決定される該オブジェクトの地図上での位置と、前記視点位置、視線方向から該オブジェクトのアノテーション表示位置を決定するアノテーション表示位置決定工程と、前記視点位置に対応した実写画像上の前記アノテーション表示位置にアノテーション画像を合成する合成工程を備えることを特徴とする。
【0012】
本願請求項7の発明は、実写画像を用いて表現される仮想空間内においてウォークスルーを実現する画像再生装置で用いる実写画像にアノテーション画像を合成するための情報処理方法であって、複数の実写画像のそれぞれにおけるアノテーション表示位置を設定し、
前記複数の実写画像のそれぞれにおいて設定されたアノテーション表示位置を用いて、該複数の実写画像間に位置する他の実写画像に対するアノテーション表示位置を算出し、
前記算出されたアノテーション表示位置に基づき、実写画像にアノテーション画像を合成することを特徴とする。
【0013】
【発明の実施の形態】
以下、添付図面を参照しながら、本発明の好適な実施形態を説明する。
【0014】
<第1実施形態>
まず、本実施形態による仮想空間のウォークスルーシステムについて説明する。本実施形態では、例えば自動車などの移動体に搭載された複数の撮影装置によって撮影して得られた実写画像データからパノラマ画像データを生成し、このパノラマ画像データを、現実空間の位置に対応する地図上の位置と対応付けて保持する。そして、体験者の仮想空間における視点位置(地図上の位置)と視線方向に応じて、保持されているパノラマ画像データから表示画像を生成することにより、仮想空間内のウォークスルーを実現する。
【0015】
図1は本実施形態によるウォークスルーシステムの機能構成を説明するブロック図である。本ウォークスルーシステムを構成する画像再生装置1は、操作部10、視点位置・視線方向決定部20、地図データ保存部30、画像再生制御部40、アノテーション表示位置決定部50、アノテーションデータ保存部60、画像データ保存部70、表示部80を有する。
【0016】
図2は、本実施形態における画像再生装置1のハード構成を示すブロック図である。図2に示したハード構成は通常のパーソナルコンピュータの構成と同等である。図2において、ディスク105は画像データ保存部70を構成するものである。なおディスク105は、同時に地図データ保存部30、アノテーションデータ保存部60をも構成する。
【0017】
CPU101は、ディスク105またはROM106、または外部記憶装置(不図示)に保存されているプログラムを実行することにより、視点位置・視線方向決定部20、画像再生制御部40、アノテーション表示位置決定部50として機能する。
【0018】
CPU101が表示コントローラ102に対して各種の表示指示を行うことにより、表示コントローラ102及びフレームバッファ103によって表示器104に所望の表示がなされる。なお、図では表示コントローラ102としてCRTC、表示器104としてCRTを示したが、表示器としては陰極線管に限らず、液晶表示器等を用いてもよいことはもちろんである。なお、CRTC102、フレームバッファ103及びCRT104は、上述の表示部80を構成する。
【0019】
マウス108、キーボード109及びジョイスティック110は、当該画像再生装置1へのユーザの操作入力を行うためのものであり、上述の操作部10を構成する。
【0020】
次に、以上の構成を備えた本実施形態のウォークスルーシステムにおける、画像再生装置1の動作の概要について説明する。
【0021】
操作部10は、マウス、キーボード、ジョイスティック等を備える。操作部10は、視点位置の移動パラメータ、視線方向の回転パラメータを生成する。本実施形態では、視点位置・視線方向の制御にジョイスティックを用いているが、ゲームコントローラ等の他の入力装置で行ってもよい。ジョイスティックは、スティックの傾斜角と回転角を独立に制御することができる。本実施形態では、ジョイスティックを傾斜させる操作を仮想空間内での視点位置の移動に、ジョイスティックを左右に回転させる操作を視線方向の回転に対応させる。
【0022】
地図データ保存部30は、2次元地図画像データを格納する。
【0023】
視点位置・視線方向決定部20は、操作部10からの移動パラメータ、回転パラメータをもとに、地図データ保存部30に保存されている地図画像上における観察者の視点位置、視線方向を決定する。
【0024】
画像データ保存部70は、地図上の各位置に対応したパノラマ画像データを格納する。画像データ保存部70は、画像再生装置1のローカルに存在する必要はなく、ネットワーク上に設置して、ネットワークを介して画像データを読み出してもよい。
【0025】
画像再生制御部40は、視点位置・視線方向決定部20から、観察者の地図上での視点位置及び視線方向を受け取り、その視点位置に対応した画像データを画像データ保存部70から読み出す。なお、本実施形態において、地図上の視点位置と画像データを対応づける対応付けデータは、次のデータ格納形態をとる。
【0026】
すなわち、観察者の移動を撮影経路上に限定して、経路を交差点(分岐点)や曲がり角といった区分点で区切り、区分点と、2つの区分点に挟まれた道として表現する。区分点は2次元地図画像上に設定され、道は区分点に挟まれた線分となる。各区分点や道にはIDが割り当てられ、区分点には対応する実空間の位置で撮影されたパノラマ画像が、道には両端の区分点に割り当てられたパノラマ画像に挟まれたパノラマ画像群が割り当てられる。図3はこの様子を説明する図である。図3において、IDがC1である区分点とC2である区分点に挟まれた線分(道)にR1というIDが付与されている。そしてGPSデータ等に基づいて区分点C1とC2に対応するパノラマ画像が特定されると、区分点C1にはフレーム番号nのパノラマ画像が、区分点C2にはフレーム番号n+mのパノラマ画像が割り当てられる。区分点にパノラマ画像が割り当てられると、道R1には自動的にフレーム番号n+1からn+m−1までのパノラマ画像群が割り当てられる。
【0027】
また、図4に示すように、各区分点、各パノラマ画像は地図上での2次元座標を属性として持つ。地図上での2次元座標は、GPSデータによって得られる緯度・経度データから求められるが、コンピュータ・ビジョンを利用して画像情報から求めてもよい。また、両端の区分点の座標のみを求め、区分点間の道に含まれる各パノラマ画像の地図上の2次元座標は補間によって求めてもよい。
【0028】
画像再生制御部40は、アノテーション表示位置決定部50に地図上の視点位置を与える。アノテーション表示位置決定部50は、受け取った視点位置情報をもとにアノテーションの表示位置を決定し、画像再生制御部40にアノテーション表示位置を与える。アノテーションの表示位置の決定方法は後述する。画像再生制御部40は、表示部80に表示する画角にあわせてパノラマ画像を切出して射影変換を行い、アノテーション表示位置に従ってアノテーション画像を合成して表示部80に表示する画像を生成する。
【0029】
表示部80は画像再生制御部40において生成された画像を表示する。
【0030】
次に、アノテーション表示位置決定部50の動作について詳細に説明する。図5に示すように、本実施形態では、区分点に挟まれる道上において、パノラマ画像の正面方向は道の方向に平行、つまり撮影時の進行方向に平行であるとする。
【0031】
図6はアノテーション表示位置決定部50におけるアノテーション表示位置決定方法を示す図である。簡単のために、区分点C1をxy平面の原点とし、区分点C2をx軸上に取る(すなわち道R1はx軸の一部となる)。
【0032】
図6において、区分点C1、区分点C2、建物Aのアノテーションを表示したい位置の地図上の座標はそれぞれ(0,0)、(x,0)、(x,y)である。区分点C1に対応するパノラマ画像において、建物Aのアノテーションを表示する水平方向の位置は、パノラマ画像の正面方向からの相対角度θ(rad)で表すと、次式で表される。
【0033】
【外1】
Figure 2004234455
【0034】
また、区分点C2に対応するパノラマ画像において、建物Aのアノテーションを表示する水平方向の位置は、パノラマ画像の正面方向からの相対角度θ(rad)で表すと、次式で表される。
【0035】
【外2】
Figure 2004234455
【0036】
同様にして、道R1上の点(x,0)に対応するパノラマ画像において、建物Aのアノテーションを表示する水平方向の位置は、パノラマ画像の正面方向からの相対角度θで表すと、次式で表される。
【0037】
【外3】
Figure 2004234455
【0038】
アノテーション表示位置決定部50は、上記の式によりアノテーションを表示する水平方向の位置を決定する。図7は、アノテーション表示位置決定部50の動作を説明するフローチャートである。まずステップS101において、新たな視点情報(視点位置、視線方向)を獲得する。次にステップS102において、ステップS101で獲得した視点情報から決定される道が、前のフレームと同じ道である場合にはステップS105に進む。前のフレームと異なる新たな道である場合には、ステップS103に進む。ステップS103において、該当する道においてアノテーションを表示するオブジェクトを決定する。本実施形態では、複数のオブジェクトに対してアノテーションを表示することができる。ステップS103においてアノテーションを表示するオブジェクトを決定した後、ステップS104に進む。ステップS104において、該当する道の両端の区分点のうちどちらか一方の区分点をxy平面の原点とし、道がx軸となるよう座標軸を回転させて、アノテーションを表示するすべてのオブジェクトの相対位置を計算する。次にステップS105において、アノテーションを表示するすべてのオブジェクトについて、上記の式により該当する視点位置に対応したパノラマ画像におけるアノテーションの表示位置(パノラマ画像の正面方向からの相対角度)θを求める。ステップS106において終了判定を行い、まだ終了しない場合は、ステップS101において新たに視点情報を獲得する。
【0039】
図8は、画像再生制御部40におけるアノテーション合成の処理を説明する図である。アノテーション表示位置決定部50においてアノテーション表示位置θが決定されると、画像再生制御部40は視線方向と画角αに応じてパノラマ画像を切出す。切出したパノラマ画像上に、アノテーションデータ保存部から読み出されたアノテーション画像が合成され、表示画像が生成される。パノラマ画像を透視投影画像に変換する斜影変換はパノラマ画像に対してのみ行われる。
【0040】
以上のように、第1実施形態によれば、アノテーションを表示したいオブジェクト位置と観察者の視点位置の2次元地図上での座標から、アノテーションの表示位置を決定することにより、多数の画像に対してアノテーション表示位置を決定する際の労力や時間を節約することが可能になる。
【0041】
<第2実施形態>
上記第1実施形態では、アノテーションを表示したいオブジェクト位置と観察者の視点位置の地図上での座標によって、アノテーションの表示位置を決定した。第2実施形態では、オブジェクトの地図上での位置を、2枚のパノラマ画像における該オブジェクトの観察方向によって決定することにより、オブジェクト位置や視点位置の地図上での座標の精度が低い場合でも適切な位置にアノテーションを表示する。
【0042】
図9は、2枚のパノラマ画像からオブジェクト位置を決定する方法を説明する図である。本実施形態においては、視点位置の地図上での座標をもとにオブジェクトの地図上の位置を決定する。オブジェクトの地図上での位置は、道ごとに決定され、アノテーション表示位置を計算する際には、視点位置が存在する道で決定されたオブジェクトの地図上での位置を用いる。図9では、簡単のために区分点C1をxy平面の原点とし、区分点C2をx軸上に取る(すなわち道R1はx軸の一部となる)。区分点C1、C2の座標はそれぞれ(0,0)、(x,0)である。道R1では、パノラマ画像の正面方向は常にx軸の正の方向である。
アノテーションを表示したいオブジェクトAの区分点C1からの観察方向(正面方向からの相対方向)がθ、区分点C2からの観察方向がθである場合、オブジェクトの地図上での座標(x,y)は次式から求められる。
【0043】
【外4】
Figure 2004234455
【0044】
【外5】
Figure 2004234455
【0045】
図10は、オブジェクトごとに2枚のパノラマ画像からオブジェクトの地図上の位置を決定する手順を説明するフローチャートである。まずステップS201において、アノテーションを表示したいオブジェクトを決定する。次に、ステップS202において、該オブジェクトのアノテーションを表示するすべての道においてオブジェクトの位置決定が終了したかどうかを判別する。すべての道において位置決定が終了していない場合には、ステップS203に進み、該オブジェクトの位置決定を行う道を決定し、ステップS204において、上記の式によって該道におけるオブジェクトの位置を算出する。ステップS202においてすべての道においてオブジェクトの位置決定が終了している場合には、ステップS205に進む。ステップS205において、アノテーションを表示させたいオブジェクトすべてについて位置決定が終了している場合には、位置決定を終了し、終了していない場合には、ステップS201に戻って次のオブジェクトを決定する。
【0046】
図11は、本実施形態におけるオブジェクトの位置決定を行うためのグラフィカルユーザインタフェース(GUI)1000の図である。GUIは、2次元地図画像を表示する地図表示ウィンドウ1010、地図表示ウィンドウ上で選択した道の両端の区分点に対応するパノラマ画像を表示するパノラマ画像表示ウィンドウ1020、1021、オブジェクト追加ボタン1030、既存オブジェクトボタン1040、更新ボタン1050より構成される。
【0047】
まだ位置決定を行っていない新規のオブジェクトの位置決定を行う場合には、オブジェクト追加ボタン1030をマウスでクリックする。すでに位置決定を行ったオブジェクトの位置を修正する場合には、既存オブジェクトボタン1040をマウスでクリックし、表示されるオブジェクトのリストの中から所望のオブジェクトを選択する。
【0048】
地図表示ウィンドウ1010には、2次元地図画像の上に区分点と道が表示されている。ユーザがオブジェクトの位置決定をしたい道をマウスでクリックすると、パノラマ画像表示ウィンドウ1020、1021に、選択した道の両端の区分点に対応するパノラマ画像が表示される。
【0049】
なお、2枚の代表的なパノラマ画像は道の両端の区分点に対応するパノラマ画像でなくても構わず、地図上からユーザが独立に指定した位置におけるパノラマ画像であっても構わない。たとえば、同一の道上の区分点でない位置のパノラマ画像を用いても構わない。
【0050】
図12は、上記のGUIにおけるオブジェクトの位置決定方法を示す図である。ここでは、区分点C1と区分点C2に挟まれた道R1におけるオブジェクトAの位置決定を行う場合について説明する。道R1をマウスでクリックするとパノラマ画像表示ウィンドウ1020、1021にはそれぞれ区分点C1、C2に対応したパノラマ画像が表示される。まず、パノラマ画像表示ウィンドウ1020において、オブジェクトAが観察される方向をマウスでクリックする。クリックすると、パノラマ画像表示ウィンドウ1020上のクリックした点上を通るパノラマ画像の垂直方向に平行な直線が引かれ、地図表示ウィンドウ1010には、クリックされた方向を示す直線が引かれる。次に、パノラマ表示ウィンドウ1021において、同様の操作を行う。その結果、地図表示ウィンドウ1010上で2直線が交わる点が道R1におけるオブジェクトAの位置であると算出される。
【0051】
オブジェクトの位置決定を、すべてのアノテーションを表示したい道について行ったら、更新ボタン1050をクリックすることにより位置データを保存する。
【0052】
図13は、アノテーションを表示したいオブジェクトと区分点・道を地図上に示した図である。図13では、オブジェクト(建物A)が、道R1、R2、R3、R4から観察することが可能になっている。このオブジェクトに対して、道R1と道R2においてアノテーションを表示する場合には、道R1に対しては区分点C1とC2に対応するパノラマ画像からオブジェクトの位置を算出し、道R2に対しては区分点C2とC3に対応するパノラマ画像からオブジェクトの位置を算出する。図14に、アノテーションを表示するオブジェクトの属性を示す。道R1においてアノテーション表示位置を決定する場合にはオブジェクトの地図上の位置座標として(xo1,yo1)を用い、道R2においてアノテーション表示位置を決定する場合にはオブジェクトの地図上の位置座標として(xo2,yo2)を用いる。アノテーション画像は道ごとに異なる画像を表示してもよい。
また、図14ではアノテーション画像はJPEG画像であるが、他の画像フォーマットでもよいし、動画像でもよい。
【0053】
アノテーション表示位置決定部50は、上述のように決められたオブジェクトの地図上の位置座標を用いて、アノテーションを表示する位置を決定する。
【0054】
以上のように、第2実施形態によれば、オブジェクトの地図上での位置を、2枚のパノラマ画像における該オブジェクトの観察方向によって決定することにより、オブジェクト位置や視点位置の地図上での座標の精度が低い場合でも適切な位置にアノテーションを表示することが可能になる。
【0055】
また、GUIを用いることにより、オブジェクトの地図上での位置決定を簡便に行うことが可能になる。
【0056】
<第3実施形態>
上記第2実施形態では、アノテーションを表示したいオブジェクトの地図上での位置を、2枚のパノラマ画像における該オブジェクトの観察方向によって決定した。第3実施形態では、パノラマ画像単位でアノテーション表示位置を設定可能にして優先的に用いることで、より適切な位置へのアノテーション表示を行う。
【0057】
図15は、パノラマ画像単位でアノテーション表示位置の設定を行うGUI2000の図である。地図表示ウィンドウ1010、パノラマ画像表示ウィンドウ1020、1021、オブジェクト追加ボタン1030、既存オブジェクトボタン1040、更新ボタン1050は図11と同一であるので説明を省略する。パノラマ画像表示ウィンドウ1022は、選択されている道上の任意の点に対応するパノラマ画像を表示する。
【0058】
図16は、上記のGUIにおけるパノラマ画像単位のアノテーション表示位置決定方法を説明する図である。オブジェクトAの位置を2つの区分点におけるパノラマ画像の観察方向から決定した後、道上の点をマウスでクリックする。クリックすると、パノラマ画像表示ウィンドウ1022に、クリックした点に対応するパノラマ画像が表示され、同時にオブジェクトAの位置から決定されるアノテーション表示位置が、パノラマ画像の垂直方向に平行な直線で示される。パノラマ画像の地図上での位置座標の精度が低い場合、示されたアノテーション表示位置は、実際に表示したい位置よりずれることがある。そのため、パノラマ画像表示ウィンドウ1022上で適切なアノテーション表示位置をクリックする。このようにパノラマ画像単位で決定されたアノテーション表示位置は、アノテーション表示位置決定部50において、オブジェクトの地図上の位置と視点位置から決定されるアノテーション表示位置よりも優先的に用いられる。
【0059】
図17は、第3実施形態における、アノテーションを表示したいオブジェクトの属性を示す図である。オブジェクト(建物A)は、道R1において2枚のパノラマ画像(フレーム番号n、m)に対して個別にアノテーション表示位置を設定している。個別に設定されるアノテーション表示位置はパノラマ画像の正面方向からの相対角度θ、θによって記述される。
【0060】
図18は、第3実施形態におけるパノラマ画像単位でアノテーション表示位置を決定する手順を説明するフローチャートである。ステップS201からステップS205は図10と同一であるので説明を省略する。図19において、ステップS301でパノラマ画像単位でアノテーション表示位置を決定しない場合はBに進む。決定する場合は、ステップS302において、アノテーション表示位置を決定するパノラマ画像を選択し決定する。次にステップS303において、該パノラマ画像におけるアノテーション表示位置を設定する。ステップS304において終了判定を行い、他のパノラマ画像についてアノテーション表示位置を決定する場合には、ステップS302に戻る。
【0061】
図20は、アノテーション表示位置決定部50において、あるオブジェクトのアノテーション表示位置を決定する手順を示すフローチャートである。ステップS311において、該オブジェクトに対して視点位置に対応するパノラマ画像においてアノテーション表示位置が設定されている場合には、そのアノテーション表示位置をそのまま用いる。設定されていない場合には、オブジェクト位置と視点位置からアノテーション表示位置を決定し、それを用いる。その後、ステップS313においてアノテーション表示位置を決定し、終了する。
【0062】
以上のように、第3実施形態によれば、パノラマ画像単位でアノテーション表示位置を設定可能にして優先的に用いることで、より適切な位置へのアノテーション表示を行うことが可能になる。
【0063】
また、GUIを用いることにより、パノラマ画像単位でのアノテーション表示位置を簡便に設定することが可能になる。
【0064】
<第4実施形態>
上記第1実施形態〜第3実施形態では、観察者の地図上での視点位置およびオブジェクトの地図上での位置からアノテーションの表示位置を決定したが、第4実施形態では、地図上での位置を用いずに簡便にアノテーション表示位置を決定する。
【0065】
図21は、第4実施形態におけるアノテーション表示位置の決定方法を説明する図である。区分点C1から始まり区分点C2で終わる道R1は、直線で表され、区分点C1、区分点C2に対応するパノラマ画像及び道R1に対応付けられたパノラマ画像群の正面方向はすべて同一(区分点C1からC2へ向かう方向)であるとする。また、区分点C1にはフレーム番号nのパノラマ画像が、区分点C2にはフレーム番号n+m(m>0)のパノラマ画像が、道R1にはフレーム番号n+1からn+m−1までのパノラマ画像が対応付けされているとする。
【0066】
図21における建物Aのアノテーションを、道R1に対応付けられたパノラマ画像群に表示する場合、まず道R1の両端の区分点C1、C2における建物Aの観察方向θ、θを求める。観察方向θ、θはあらかじめ前処理で求めておく。また、θ、θは、道ごとに求める。
【0067】
アノテーション表示位置決定部50において、区分点C1、区分点C2からの建物Aの観察方向がそれぞれθ、θである場合、道R1上のフレーム番号n+i(i>0)のパノラマ画像における建物Aのアノテーション表示位置θは、以下の式に示すように線形補間で求める。
【0068】
【外6】
Figure 2004234455
【0069】
以上のように、第4実施形態によれば、2地点のパノラマ画像におけるオブジェクトの観察方向を線形補間することにより、2地点に挟まれる道に対応付けられたパノラマ画像群へのアノテーション表示位置の決定を簡便に行うことが可能になる。また、線形補間であるため、計算量を減らすことが可能になる。
【0070】
<第5実施形態>
上記第4実施形態では、2地点のパノラマ画像におけるオブジェクトの観察方向を線形補間することによりアノテーション表示位置を求めた。第5実施形態では、非線形の補間を行うことでより精度高くアノテーション表示位置を求める。
【0071】
図22は、図21に示されるθ、θと、θとの関係を示す図である。横軸はフレーム番号、縦軸はオブジェクトの観察方向を示す。図22ではθ、θの範囲を、
【外7】
Figure 2004234455
に限定している。また、道R1において、各フレームの撮影位置の間隔は等間隔であるとする。図22(a)は
【外8】
Figure 2004234455
の場合の、道R1の各フレームにおけるオブジェクトの観察方向を示す図である。また、図22(b)は
【外9】
Figure 2004234455
の場合の、道R1の各フレームにおけるオブジェクトの観察方向を示す図である。また、図22(c)は、
Figure 2004234455
の場合の、道R1の各フレームにおけるオブジェクトの観察方向を示す図である。図22に示すように、パノラマ画像が等間隔で撮影されていると仮定すると、オブジェクトの観察方向は線形に変化するのではなく、非線形に変化する。図22に示す非線形曲線は、θ、θより求まる逆正接関数となる。
【0072】
アノテーション表示位置決定部50は、オブジェクトのアノテーション表示位置を決定する際に、道を挟む2つの区分点からのオブジェクトの観察方向θ1、θ2からも泊まる逆正接関数を補間関数として用いてアノテーション表示位置θを決定する。計算量を減らすために、補間関数は上記の逆正接関数を直線近似したものを用いてもよい。
【0073】
また、逆正接関数の計算量を減らすために、フレーム番号とアノテーション表示位置の関係をあらかじめテーブルとして持っておいてもよい。図23に示すように、−π<θ≦π、−π<θ≦πである場合、オブジェクトの観察方向θ、θの値によって、フレーム番号とアノテーション表示位置の対応関係は6種類の逆正接関数の形に分類される。アノテーション表示位置決定部50は、あらかじめ代表的なθ、θの値で6種類のパターンのフレーム番号とアノテーション表示位置の関係の対応テーブルを保持しておき、現在の道の両端の区分点からのオブジェクトの観察方向θ、θから、6つパターンのうちどれに近いかを判別し、フレーム番号によってテーブルの値を参照する。6つのパターンのうちどれに近いかどうかはあらかじめ判別しておいてもよい。対応テーブルは、道に対応付けられたパノラマ画像の枚数によって変化するが、あらかじめ十分細かい解像度で対応テーブルを作成しておき、該当する道のパノラマ画像の枚数によってスケーリングすることで対応テーブルの数を抑制する。なお、本実施形態では対応テーブルの数を6つにしているが、RAMの容量などに応じて増やすことが可能である。また、最初は少ない数の対応テーブルにしておき、実際のアノテーション表示位置を見て現在の対応テーブルでは近似しきれない場合は、表示がずれている道の両端の区分点におけるオブジェクトの観察方向を用いて決定される補間関数を随時追加していって精度を上げることが可能である。
【0074】
以上のように、第5実施形態によれば、2地点のパノラマ画像におけるオブジェクトの観察方向から求めた逆正接関数を用いた補間を行うことにより、2地点に挟まれる道に対応付けられたパノラマ画像群へのアノテーション表示位置の決定をより精度高く行うことが可能になる。
【0075】
<その他の実施形態>
上記実施形態ではパノラマ画像を用いているがパノラマ画像でなくても構わない。
【0076】
また前述した実施形態の機能を実現するためのソフトウエアのプログラムコードをネットワークを介して供給し供給することも本発明の範疇に含まれる。
【0077】
またこの場合、前記ソフトウエアのプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコード自体、及びそのプログラムコードをコンピュータに供給するための手段は本発明を構成する。
またコンピュータが供給されたプログラムコードを実行することにより、前述の実施形態の機能が実現されるだけではなく、そのプログラムコードがコンピュータにおいて稼働しているOS(オペレーティングシステム)、あるいは他のアプリケーションソフト等と共同して前述の実施形態の機能が実現される場合にもかかるプログラムコードは本発明の実施形態に含まれることは言うまでもない。
【0078】
【発明の効果】
以上説明したように、本発明によれば、アノテーションの表示位置の決定を簡便にすることができる。
【図面の簡単な説明】
【図1】本実施形態におけるウォークスルーシステムの機能構成を説明するブロック図である。
【図2】本実施形態における画像再生装置1のハード構成を示す図である。
【図3】本実施形態における仮想空間の表現方法を説明する図である。
【図4】区分点、道の属性の一例を示す図である。
【図5】パノラマ画像と道の方向の対応を説明する図である。
【図6】アノテーション表示位置決定部50におけるアノテーション表示位置決定方法を示す図である。
【図7】アノテーション表示位置決定部50の動作を説明するフローチャートである。
【図8】画像再生制御部40におけるアノテーション合成の処理を説明する図である。
【図9】2枚のパノラマ画像からオブジェクト位置を決定する方法を説明する図である。
【図10】オブジェクトごとに2枚のパノラマ画像からオブジェクトの地図上の位置を決定する手順を説明するフローチャートである。
【図11】オブジェクトの位置決定を行うためのグラフィカルユーザインタフェース(GUI)1000を示す図である。
【図12】GUI1000におけるオブジェクトの位置決定方法を示す図である。
【図13】アノテーションを表示したいオブジェクトと区分点・道を地図上に示した図である。
【図14】アノテーションを表示するオブジェクトの属性の一例を示す図である。
【図15】パノラマ画像単位でアノテーション表示位置の設定を行うGUI2000を示す図である。
【図16】GUI2000におけるパノラマ画像単位のアノテーション表示位置決定方法を説明する図である。
【図17】第3実施形態における、アノテーションを表示したいオブジェクトの属性を示す図である。
【図18】第3実施形態におけるパノラマ画像単位でアノテーション表示位置を決定する手順を説明するフローチャートである。
【図19】第3実施形態におけるパノラマ画像単位でアノテーション表示位置を決定する手順を説明するフローチャートである。
【図20】アノテーション表示位置決定部50において、あるオブジェクトのアノテーションを決定する手順を示すフローチャートである。
【図21】第4実施形態におけるアノテーション表示位置の決定方法を説明する図である。
【図22】2地点のパノラマ画像からのオブジェクトの観察方向θ、θと、2地点に挟まれる道上のパノラマ画像からのオブジェクトの観察方向θとの関係を示す図である。
【図23】オブジェクトの観察方向θ、θの値による、フレーム番号とアノテーション表示位置の対応関係を示す図である。

Claims (12)

  1. 地図上での視点位置、視線方向を決定する視点位置・視線方向決定工程と、
    複数のパノラマ画像におけるオブジェクトの観察方向によって決定される該オブジェクトの地図上での位置と、前記視点位置、視線方向から該オブジェクトのアノテーション表示位置を決定するアノテーション表示位置決定工程と、
    前記視点位置に対応した実写画像上の前記アノテーション表示位置にアノテーション画像を合成する合成工程を備えることを特徴とする情報処理方法。
  2. 前記地図は、2次元地図画像であることを特徴とする請求項1に記載の画像再生方法。
  3. 前記アノテーション表示位置決定工程は、前記複数のパノラマ画像間に挟まれるパノラマ画像のアノテーション表示位置を、前記決定されたオブジェクトの地図上での位置を用いて決定することを特徴とする請求項1または2に記載の情報処理方法。
  4. 前記決定されたアノテーション表示位置を、マニュアル調整できることを特徴とする請求項3記載の情報処理方法。
  5. 地図表示部とパノラマ画像表示部を有するグラフィカルユーザインターフェースを有し、
    該地図表示部を用いて前記複数のパノラマ画像を選択し、
    前記パノラマ画像表示部に表示された前記選択されたパノラマ画像上で、前記オブジェクトの観察方向を指定することを特徴とする請求項1乃至4のいずれかに記載の情報処理方法。
  6. 請求項1乃至5のいずれかに記載の画像再生方法をコンピュータによって実現させるための制御プログラム。
  7. 実写画像を用いて表現される仮想空間内においてウォークスルーを実現する画像再生装置で用いる実写画像にアノテーション画像を合成するための情報処理方法であって、
    複数の実写画像のそれぞれにおけるアノテーション表示位置を設定し、
    前記複数の実写画像のそれぞれにおいて設定されたアノテーション表示位置を用いて、該複数の実写画像間に位置する他の実写画像に対するアノテーション表示位置を算出し、
    前記算出されたアノテーション表示位置に基づき、実写画像にアノテーション画像を合成することを特徴とする情報処理方法。
  8. 前記複数の実写画像のそれぞれにおけるアノテーション表示位置の設定は、ユーザのマニュアル指示に応じて行われ、
    さらに、前記算出されたアノテーション表示位置を、ユーザのマニュアル指示に基づく調整可能であることを特徴とする請求項7記載の情報処理方法。
  9. 前記他の実写画像に対するアノテーション表示位置は、前記複数の実写画像のそれぞれにおいて設定されたアノテーション表示位置を補間することにより算出されることを特徴とする請求項7または8記載の情報処理方法。
  10. 前記補間は非線形補間であり、
    あらかじめ保持されている複数の非線形曲線から、前記複数の実写画像におけるオブジェクトのアノテーション位置に基づき非線形曲線が決定されることを特徴する請求項9に記載の情報処理方法。
  11. 請求項1乃至10のいずれかに記載の情報処理方法を実現するためのプログラム。
  12. 地図上での視点位置、視線方向を決定する視点位置・視線方向決定手段と、
    複数のパノラマ画像におけるオブジェクトの観察方向によって決定される該オブジェクトの地図上での位置と、前記視点位置、視線方向から該オブジェクトのアノテーション表示位置を決定するアノテーション表示位置決定手段と、
    前記視点位置に対応した実写画像上の前記アノテーション表示位置にアノテーション画像を合成する画像再生制御手段を備えることを特徴とする画像再生装置。
JP2003023823A 2003-01-31 2003-01-31 情報処理方法および画像再生装置 Pending JP2004234455A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2003023823A JP2004234455A (ja) 2003-01-31 2003-01-31 情報処理方法および画像再生装置
US10/763,222 US20040174386A1 (en) 2003-01-31 2004-01-26 Information processing method and image reproduction apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003023823A JP2004234455A (ja) 2003-01-31 2003-01-31 情報処理方法および画像再生装置

Publications (1)

Publication Number Publication Date
JP2004234455A true JP2004234455A (ja) 2004-08-19

Family

ID=32923211

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003023823A Pending JP2004234455A (ja) 2003-01-31 2003-01-31 情報処理方法および画像再生装置

Country Status (2)

Country Link
US (1) US20040174386A1 (ja)
JP (1) JP2004234455A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014162823A1 (ja) * 2013-04-04 2014-10-09 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
JP2015153426A (ja) * 2014-02-18 2015-08-24 ハーマン インターナショナル インダストリーズ インコーポレイテッド 着目場所の拡張視界の生成
WO2019043755A1 (ja) * 2017-08-28 2019-03-07 三菱電機株式会社 拡張現実コンテンツ生成装置および拡張現実コンテンツ生成方法
KR20200010909A (ko) * 2018-07-23 2020-01-31 (주)지니트 파노라마 크로마키 합성 시스템 및 방법

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2559726C (en) * 2004-03-24 2015-10-20 A9.Com, Inc. System and method for displaying images in an online directory
WO2007013231A1 (ja) * 2005-07-29 2007-02-01 Matsushita Electric Industrial Co., Ltd. 撮影領域調整装置
US8855856B2 (en) * 2007-05-08 2014-10-07 GM Global Technology Operations LLC Vehicle roll control method using controllable friction force of MR dampers
US8009178B2 (en) * 2007-06-29 2011-08-30 Microsoft Corporation Augmenting images for panoramic display
US9164975B2 (en) 2008-06-24 2015-10-20 Monmouth University System and method for viewing and marking maps
US20110096091A1 (en) * 2008-06-24 2011-04-28 Monmouth University System and method for viewing and marking maps
US20120105577A1 (en) * 2010-11-01 2012-05-03 Olympus Imaging Corp. Panoramic image generation device and panoramic image generation method
WO2013031155A1 (ja) * 2011-08-30 2013-03-07 パナソニック株式会社 撮像装置
US9606992B2 (en) * 2011-09-30 2017-03-28 Microsoft Technology Licensing, Llc Personal audio/visual apparatus providing resource management
JP6056127B2 (ja) * 2011-10-31 2017-01-11 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP6346445B2 (ja) 2014-01-10 2018-06-20 キヤノン株式会社 処理装置、処理装置の制御方法、およびプログラム
JP2016062486A (ja) * 2014-09-19 2016-04-25 株式会社ソニー・コンピュータエンタテインメント 画像生成装置および画像生成方法
EP3040835B1 (en) * 2014-12-31 2021-12-01 Nokia Technologies Oy Image navigation
US20170103558A1 (en) * 2015-10-13 2017-04-13 Wipro Limited Method and system for generating panoramic images with real-time annotations
US10764494B2 (en) 2018-05-25 2020-09-01 Microsoft Technology Licensing, Llc Adaptive panoramic video streaming using composite pictures
US10666863B2 (en) * 2018-05-25 2020-05-26 Microsoft Technology Licensing, Llc Adaptive panoramic video streaming using overlapping partitioned sections

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10255069A (ja) * 1997-03-10 1998-09-25 Canon Inc 画像処理システム
JPH10255081A (ja) * 1997-03-10 1998-09-25 Canon Inc 画像処理方法及び画像処理装置
US6064399A (en) * 1998-04-03 2000-05-16 Mgi Software Corporation Method and system for panel alignment in panoramas
JP4146938B2 (ja) * 1998-09-08 2008-09-10 オリンパス株式会社 パノラマ画像合成装置及びパノラマ画像合成プログラムを格納した記録媒体
US6563529B1 (en) * 1999-10-08 2003-05-13 Jerry Jongerius Interactive system for displaying detailed view and direction in panoramic images
JP2002258740A (ja) * 2001-03-02 2002-09-11 Mixed Reality Systems Laboratory Inc 画像記録装置及び画像再生装置とそれらの方法
JP4072330B2 (ja) * 2001-10-31 2008-04-09 キヤノン株式会社 表示装置および情報処理方法
US7411594B2 (en) * 2002-01-15 2008-08-12 Canon Kabushiki Kaisha Information processing apparatus and method
US6968973B2 (en) * 2003-05-31 2005-11-29 Microsoft Corporation System and process for viewing and navigating through an interactive video tour

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014162823A1 (ja) * 2013-04-04 2014-10-09 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
CN105264572A (zh) * 2013-04-04 2016-01-20 索尼公司 信息处理设备、信息处理方法和程序
JPWO2014162823A1 (ja) * 2013-04-04 2017-02-16 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
CN105264572B (zh) * 2013-04-04 2018-09-21 索尼公司 信息处理设备、信息处理方法和程序
JP2015153426A (ja) * 2014-02-18 2015-08-24 ハーマン インターナショナル インダストリーズ インコーポレイテッド 着目場所の拡張視界の生成
WO2019043755A1 (ja) * 2017-08-28 2019-03-07 三菱電機株式会社 拡張現実コンテンツ生成装置および拡張現実コンテンツ生成方法
JPWO2019043755A1 (ja) * 2017-08-28 2019-12-19 三菱電機株式会社 拡張現実コンテンツ生成装置および拡張現実コンテンツ生成方法
KR20200010909A (ko) * 2018-07-23 2020-01-31 (주)지니트 파노라마 크로마키 합성 시스템 및 방법
KR102133735B1 (ko) 2018-07-23 2020-07-21 (주)지니트 파노라마 크로마키 합성 시스템 및 방법

Also Published As

Publication number Publication date
US20040174386A1 (en) 2004-09-09

Similar Documents

Publication Publication Date Title
JP2004234455A (ja) 情報処理方法および画像再生装置
US7411594B2 (en) Information processing apparatus and method
US7626596B2 (en) Image reproducing method and apparatus for displaying annotations on a real image in virtual space
US20200082501A1 (en) Digital Mapping System
CA2820299C (en) A digital mapping system
JP5145414B2 (ja) パノラマのイメージを描画すること、閲覧すること、および注釈をつけること、ならびにそのアプリケーション
US7382374B2 (en) Computerized method and computer system for positioning a pointer
WO2011111239A1 (ja) 3次元地図描画システム
JP2000020757A (ja) 立体画像処理装置、ユーザ・インタフェース装置、立体表示用バッファ制御方法及びその制御装置、立体画像表示装置、そしてプログラム記憶媒体
US6714198B2 (en) Program and apparatus for displaying graphical objects
JP2003067784A (ja) 情報処理装置
JP2012150823A (ja) 3次元地図描画システム
JP2002140731A (ja) 画像処理装置および方法、画像処理システム、記録媒体
JP2005174024A (ja) 画像生成装置及び方法
JP2004062755A (ja) 画像提示装置および情報処理方法
JPH05135154A (ja) 3次元ウインドウを用いたグラフイツクデータ処理システム
JP2014222446A (ja) 映像出力装置、映像出力方法、及びプログラム
JP2004070609A (ja) 画像再生装置及び方法
JPH11238143A (ja) 画像処理方法、仮想現実感の提示方法およびそのプログラムの記憶媒体
Tatzgern et al. Embedded virtual views for augmented reality navigation
EP1720090B1 (en) Computerized method and computer system for positioning a pointer
JP2004326443A (ja) 3次元情報提示方法、サーバシステム、クライアントシステム、およびプログラム
JPH08194834A (ja) 三次元画像表示制御装置および三次元画像表示制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040513

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060822

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061017

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20061114