JP5044817B2 - 仮想空間を構築するための画像処理方法、装置 - Google Patents

仮想空間を構築するための画像処理方法、装置 Download PDF

Info

Publication number
JP5044817B2
JP5044817B2 JP2007303392A JP2007303392A JP5044817B2 JP 5044817 B2 JP5044817 B2 JP 5044817B2 JP 2007303392 A JP2007303392 A JP 2007303392A JP 2007303392 A JP2007303392 A JP 2007303392A JP 5044817 B2 JP5044817 B2 JP 5044817B2
Authority
JP
Japan
Prior art keywords
image
shooting
image information
display
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2007303392A
Other languages
English (en)
Other versions
JP2009129183A (ja
Inventor
和敏 杉本
達 相原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
International Business Machines Corp
Original Assignee
International Business Machines Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by International Business Machines Corp filed Critical International Business Machines Corp
Priority to JP2007303392A priority Critical patent/JP5044817B2/ja
Priority to US12/275,374 priority patent/US8493380B2/en
Publication of JP2009129183A publication Critical patent/JP2009129183A/ja
Application granted granted Critical
Publication of JP5044817B2 publication Critical patent/JP5044817B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Description

本発明は、仮想空間を構築するための画像処理方法、装置に関する。より詳しくは、撮影した画像を表示空間に基づいてレンダリングする、仮想空間を構築するための画像処理方法、装置に関する。
従来より、現実世界を再現した仮想空間を構築しユーザに提供するコンピュータシステムが知られている。この仮想空間に、仮想世界(Virtual World)を生成し、アバタと呼ばれる自分の分身を登場させるゲームや、調査、解析又は予測などのシミュレーションを行うシステムなどが存在する。
これらのVirtual Worldの生成において、現実世界を再現した仮想空間を構築するには、現実世界で撮影された写真を使用し、ユーザを含む空間内部にそれらの写真を貼り付ける(テクスチャ・マッピング)ことで擬似的な仮想空間を構築するPhoto−based Rendering(画像作成)技術がある。
このPhoto−based Rendering技術を用いたものとして、Virtual Worldの生成を目的として、専用の撮影システムにおいて、同時にシーケンシャルに撮影した複数の実写をそれら撮影した位置情報とともに効率よく画像データベースシステムに記憶し、再生時には任意の位置からリアルタイムに画像を再生し表示するシステムが知られている(特許文献1参照)。
また、Photo−based Renderingに関する技術として、注視点方向が異なる複数の高精細画像及び複数の背景画像をそれぞれの注視点方向を検索インデックスとして記録媒体に記録しておき、再生時に観察者の視線方向を検出し画像処理により合成し表示する技術(特許文献2参照)や、位置及び姿勢を利用した電子工学式視覚システム(特許文献3参照)や、全天周方向に向けて配置したカメラから得られた複数の画像から天周画像を補間生成する方法(特許文献4参照)などが知られている。
一方、現実世界を撮影するカメラとして、コンピュータにデジタルデータによる精密な画像を提供することができるデジタルカメラが存在する。このデジタルカメラにGPS(Global Positioning System)と方位センサーあるいは3次元ジャイロセンサーを取り付けて撮影位置、撮影方向、撮影仰角を記録することができるデジタルカメラが知られている(特許文献5参照)。
特開平11−168754号公報 特開平7−236113号公報 特表平9−505138号公報 特開2002−92597号公報 特開2004−080359号公報
しかしながら、現実世界を再現した仮想空間を生成するには、現実世界に存在する“もの”の3次元形状モデル及び属性情報(テクスチャ、色、材質など)を構築し、Photo−realisticにレンダリングする方法もあるが、このための3次元形状モデルの構築、及びその形状の面ごとの属性情報としてデジタルカメラによって撮影された画像を準備することは、膨大な労力と時間がかかり現実的でない。また、特許文献1では、広大な現実世界をシーケンシャルに撮像する必要があり、これも現実的ではない。また、特許文献2〜4は個々の表示技術であって、仮想空間の構築の基礎となる技術ではない。
一方、忠実に現実世界をPhoto−based Rendering技術によって再現するためには、さまざまな場所から実際に撮影した膨大な数の写真を収集する必要があり、大勢の人たちの協力を必要とする。また、これらの膨大な数の写真を利用するために撮影条件や、属性情報などを備えた画像として記憶し、管理する必要もある。
そこで、現実世界を忠実に再現した仮想世界を迅速に生成するために、大勢の人たちの協力が得られ、誰もが自由に画像として登録するという共同作業によって仮想世界を生成できるシステムが求められている。
本発明は、自由に参加した多くの人たちによって撮影された画像を記憶する画像データベースに基づいて、撮影された画像を用いた仮想世界(Photo−based Virtual World)を生成する装置を提供することを目的とする。
本発明は、複数のユーザが記憶させた画像情報と、仮想空間の領域とを対応付けて記憶する画像データベースから、視点位置の座標に基づいて画像情報を取得し、表示空間に基づいてレンダリングする。より詳細には本発明は、次の特徴を備える。
本発明の画像処理装置は、座標によって表された視点位置を含む領域に対応付けられた画像情報を、画像データベースからネットワークを介して取得し、領域を視覚化するための表示空間に基づいてレンダリングし、表示手段に表示する。画像情報は、複数のユーザが撮影した画像と、ユーザの間で用いられる共通の座標によって表された撮影位置と、撮影するための撮影条件と、撮影した画像の画像属性とを含み、画像データベースは、仮想空間の領域と、その領域に含まれる撮影位置を有する画像情報とを対応付けて記憶する。
このことにより、本発明は、複数のユーザが撮影した画像情報を視点位置の座標に基づいて取得し、表示空間に基づいてレンダリングする。よって、自由に参加した多くの人たちが撮影した画像に基づいて、現実世界を忠実に再現した仮想空間を迅速に構築することができる。
さらに、本発明は、画像を処理する条件を受付け、制御手段は、取得した画像情報を、受付けた条件に基づいてレンダリングする。よって、現実世界を忠実に再現した仮想空間を構築することができる。
さらに、本発明において、ユーザの間で用いられる共通の座標は、緯度及び経度であることを特徴とする。このことにより、共通の座標として緯度及び経度を用いるので、多くの人たちが自由に参加し、提供した画像を仮想空間の構築のために利用することができる。
さらに、本発明において、制御手段は、視点位置を含む領域に対応付けられた画像情報を取得できない場合には、視点位置を含む領域に隣接する領域に対応付けられた画像情報を取得し、表示空間に基づいて取得した1つあるいは複数の画像情報を補間してレンダリングする。このことにより、領域に対応する画像情報がない場合には、領域に隣接した領域に対応する画像情報を利用することができる。よって、隣接する領域の画像を流用することで、現実世界に対して粗い近似ではあるが迅速に仮想世界として運用でき、また、運用期間が長くなるにつれ、近似の精度が向上する。
さらに、本発明において、撮影条件は、撮影距離を含み、制御手段は、視点位置を含む領域に対応付けられた一の画像情報を取得し、視点位置を含む領域に隣接する領域に対応付けられた二の画像情報を取得する。そして、取得した一の画像情報及び二の画像情報に含まれる撮影距離に応じて表示空間に基づいてレンダリングする。よって、自由に参加した多くの人たちが撮影した画像に基づいて、現実世界を忠実に再現した仮想空間を構築することができる。
さらに、本発明において、撮影条件は、撮影時刻を含み、制御手段は、受付手段が受付けた撮影時刻の指定に基づいて、視点位置を含む領域に対応付けられた画像情報を表示空間に基づいてレンダリングする。よって、自由に参加した多くの人たちが撮影した画像に基づいて、現実世界を忠実に再現した仮想空間を構築することができる。
本発明によれば、撮影された画像に基づいて現実世界を忠実に再現した仮想世界の構築がネットワークを通じて大勢の人たちによる自由参加型でできるようになる。これにより、仮想世界の広範囲な場所を早期に構築できるようになり、しかもその情報は大勢の人たちによって常に更新され得る。また、更新された履歴などを記録することで、過去の世界を再現することもできる。
さらに、領域分割手段によって分割された領域に撮影された画像を記憶し、画像の再生時に、画像が記憶されていない領域については、隣接する領域の画像によって補間できる。よって、必要最小限の領域で撮影された画像のみを記憶すれば足りる。
また、撮影した写真の内容が不明である場合に、その撮影位置、撮影方向、撮影仰角などの情報を仮想空間の表示内容と照合することにより明瞭にすることが可能である。
本発明によれば、自由に参加した多くの人たちによって撮影された画像を記憶する画像データベースに基づいて、撮影された画像を用いた仮想世界(Photo−based Virtual World)を生成する装置を提供することができる。
以下、本発明の実施形態について述べる。
仮想空間を構築するための画像は、仮想空間の領域と対応付けるための撮影位置情報を有する。撮影位置情報は、参加した多くの人の間で用いられる共通の座標(例えば、緯度及び経度)で表される。また、参加した多くの人が提供する画像は、それらの画像を接合したり、合成したり、障害物を除去したりすることができるために実際に現実世界を撮影した画像である。本実施形態では、例えば、デジタルカメラにより撮影された画像を対象とする。この画像の撮影位置は、デジタルカメラ内臓のGPS機能などにより求められた緯度及び経度情報が好ましいが、別途画像データに追加入力された位置情報(例えば、入力された緯度及び経度)であってもよい。
参加した多くの人が提供する画像の撮影条件として、撮影位置の他に、撮影方向、撮影仰角、撮影距離、撮影日時(日付、時刻)などがある。また、属性情報として、画像サイズ、解像度、シャッター速度、レンズ口径焦点距離などがある。これらの情報は、デジタルカメラの性能により自動的に画像に付加される場合や、別装置において追加入力されることにより付加される場合がある。このように、実際に撮影された画像であって位置情報、撮影条件、属性情報を有する画像を実写画像という。
参加した多くの人が提供する実写画像は、実写画像の撮影位置に基づいて仮想空間の領域と対応付けて記憶される。撮影位置は、例えば、緯度及び経度によって表され、仮想空間の領域の範囲は、例えば、緯度及び経度の範囲によって定められる。よって、撮影位置と、撮影位置を含む仮想空間の領域とを対応付けることができる。そして、撮影された画像と、仮想空間の領域とを対応付けて記憶することにより画像データベース(DB)に登録される。
登録は、次の様に行われる。撮影位置を含む仮想空間の領域に画像が登録されていない場合には、その画像をその領域に対応させて登録する。撮影位置を含む仮想空間の領域に画像が登録されている場合は、登録されている画像と比較判定する。比較判定し、撮影条件(撮影方向、撮影仰角など)が所定の範囲外であることを条件として、同じ領域に登録される。また、撮影条件(撮影方向、撮影仰角など)が所定の範囲内であること、及び画像の類似度が所定の範囲内であることを条件として、その画像は同様に、同じ領域に登録される。一方、比較判定し、撮影条件(撮影方向、撮影仰角など)が所定の範囲内であること、及び画像の類似度が所定の範囲外であることを条件として、仮想空間の領域を分割し、その画像は、異なる領域に登録される。領域の分割と比較判定とは、その画像を登録する条件が満たされるまで繰り返し行われる。
仮想空間の領域に対応付けて登録された実写画像は、仮想空間で画像を見る視点位置及び視点方向に基づいてレンダリングされる。すなわち、視点位置に基づいて視点位置に相当する撮影位置を含む領域が求められ、求められた領域に対応付けられた実写画像のうち視点方向に相当する撮影方向の実写画像が取得される。そして取得された実写画像は表示空間に基づいてレンダリングされることにより仮想空間が構築される。
以下、図に従って説明する。
図1は、本発明の実施形態に係る発明の概要を示す図である。画像データベースから取得した実写画像に基づいて仮想空間を構築することを説明している。
図1(1)は、仮想空間を構成する表示空間501を、ユーザが表示空間501の外から眺めた場合を示している図である。図1(2)は、表示空間501をユーザが移動し、視線方向531の表示空間内を見ていることを示している図である。この表示空間内は、ユーザの視点位置の座標に基づいて、画像データベースから取得された実写画像がレンダリングされている。よって、ユーザは移動することによって現実世界を忠実に再現した仮想世界を感じることができる。
図2は、本実施形態に係るシステムの概要を示す図である。実写画像を撮影位置に基づいて仮想空間の領域に登録し、画像データベース(DB)及びパノラマ画像データベース(DB)を生成する。生成した画像DBに登録されている実写画像に基づいて表示空間を構築し仮想空間を生成することを説明している。
現実の世界において撮影された実写画像は、撮影された撮影位置、撮影方向、撮影条件、パノラマ用画像情報(パノラマ用画像の登録も可能にする連続画像フラグなど)などの情報を含んでいる。画像DB321生成において、領域分割処理301は、類似度判定処理302の判定結果に基づいて、仮想空間の領域を分割する。画像管理処理303は、分割された領域に、実写画像を撮影方向、撮影条件(撮影日時、焦点距離)などに分類し、画像DB321に登録する。一方、レンダリング処理において、表示空間設定306(仮想空間における位置、移動軌跡、視線方向)と、表示条件設定307(表示条件として、例えば、表示モード、季節、時間帯など)とに基づいて、表示空間生成308を行う。表示空間生成308には、パネル壁面表示309、パネル焦点位置表示310、パノラマ画像表示311に必要な空間(円柱、半球、全球などの形状やパネルを貼り付ける形状など)が生成される。また、パノラマ画像生成処理においては、画像DB321に基づいて、画像合成処理304によってパノラマ画像生成305を行い、パノラマ画像DB322を生成する。
図3は、撮影位置、撮影条件を説明する図である。
図3(1)は、ある撮影位置からある撮影方向の現実の風景の写真を撮影していることを示す図である。このようにして撮影された実写画像は、撮影位置、撮影方向などの撮影条件を備える。
図3(2)は、撮影方向を8方向(North(N)、NorthEast(NE)、East(E)、SouthEast(SE)、South(S)、SouthWest(SW)、West(W)、NorthWest(NE))に分類した例を示す図である。8方向に分類した場合には、例えば、撮影方向331は、撮影方向Nの範囲に含まれる。撮影方向は16方向、32方向などとすることも可能である。
図3(3)は、撮影仰角を5方向(上方(U)、斜め上方(UH)、水平(H)、斜め下方(DH)、下方(D))に分類した例を示す図である。5方向に分類した場合には、例えば、撮影仰角341は、撮影仰角の範囲Hに含まれる。撮影仰角は9方向などとすることも可能である。
図4は、4分岐ツリー(Quadtree)で領域管理する例を示す図である。仮想空間の領域を4分割し、分割した領域に実写画像を登録することを説明している。
図4(1)は、領域Sの分割結果の例を示している。領域IDとして、S−1〜S−4を時計回りに付し、さらにS−1の分割結果をS−11〜S−14、S−3をS−31〜S−34に分割していることを示している。領域の分割は、緯度及び経度によって定められる範囲を4つに分割することにより行われる。そして、撮影位置を含む分割した領域に登録されている画像との比較判定を行い所定の要件を満たすことを条件として同じ領域に登録される。領域の分割は、画像を登録することができる要件が満たされるまで繰り返し行われる。
図4(2)は、分割した領域を4分岐ツリー(Quadtree)で領域管理していることを示している。領域Sが4分割され領域IDとして、S―1〜S―4となり、S―1がさらに分割されS―11〜S―14となっている。同様に、S−12がS−121〜S−124と分割され、S−3がS−31〜S−34、S−33がS−331〜S−334となっていることを示している。したがって、撮影位置から、撮影位置を含む領域を求めることができる。なお、分割を縦方向、横方向と順次2分割し、2分岐(Binarytree)で管理することも可能である。
図5は、障害物が存在する場合の例を示す図である。障害物が存在する場合の領域の分割と、分割した領域に実写画像を登録することを説明している。
図5(1)は撮影位置P1と撮影位置P2との間に障害物401が存在する場合を示している。図5(2)は、撮影位置P1で撮影された画像は、撮影位置P1を含む仮想空間の領域Sに登録されることを示している。図5(3)は、撮影位置P1で撮影された画像が登録された後に、撮影位置P2で撮影された画像は、撮影位置P2を含む仮想空間の領域Sに登録されている画像とは異なるので、領域Sを撮影位置P1とP2とが別の領域に含まれるようになるまで繰り返し分割し、撮影位置P2を含む仮想空間の分割された領域S−1に登録され、撮影位置P1で撮影された画像は、撮影位置P1を含む仮想空間のS−3に登録し直されることを示している。
図6は、4分岐ツリーで領域管理する画像データベースの例を示す図である。分割した領域ごとに実写画像のデータと、撮影条件及び画像属性とを分類して登録した画像データベースの構成の概要を示している。
領域Sは、S−1〜S−4に分割され、さらにS−1がS−11〜S−14に分割されている。そして、分割された領域ごとに、データ管理用情報(領域の座標、領域数、下位、上位ノードへのポインタ、領域IDなど)を備え、サーチ処理の高速化のためのデータ(撮影方向のデータが存在する情報など)を備えている。さらに、撮影条件管理情報として撮影方向ごとに、撮影時刻などが記憶され、撮影時刻ごとに画像及び画像属性情報(画像サイズ、解像度、その他カメラの属性情報など)が記憶され、分類管理される。さらに、パノラマ画像DBへのポインタを備えている。
例えば、所定の範囲の撮影方向ごとに実写画像のデータを備えている。撮影方向ごとの実写画像データは、例えば8方向ごとのポインタで示される。さらに実写画像は、例えば、撮影時刻(季節、朝昼夜、時間など)に分類管理される。さらに、フォーカスのあった対象物までの距離データがあればさらに対象物までの距離によって分類管理される。
現実の世界を撮影する場合、同じ場所、同じ方向の写真でも、季節や一日の時間帯によって画像が異なるので、時間軸上において画像の類似度をチェックし、類似度が所定の範囲内でない場合には時間空間を分割してコンテンツを管理する。すなわち、撮影時刻などの時間帯に分類して領域に登録する。
画像データを検索する方法は、画像データベースの構成に基づいて行われる。すなわち、画像を登録する場合に、撮影位置に基づいて、撮影位置を含む仮想空間の領域を求め、領域に登録された実写画像を取得することができる。すなわち、仮想空間の領域は4分岐ツリー構造で領域管理されているので、ツリー構造をたどり、領域の範囲の座標と比較することにより撮影位置を含む領域を求めることができる。
例えば、位置P(X、Y)が与えられた場合、ツリー構造をたどり、領域の座標((X0、Y0)、(X1、Y1))と比較し、X0≦X≦X1かつY0≦Y≦Y1を満たす領域を求めることができる。そして、求めた領域に登録されている実写画像を取得することができる。さらに、実写画像を再生(レンダリング)し、仮想的な表示空間を構成する場合において、表示空間を眺める視点位置及び視線方向を、実写画像の撮影位置及び撮影方向として画像データベースを検索し、取得した実写画像をレンダリングすることにより、現実世界を忠実に再現した仮想的な表示空間を構築することができる。
ある位置から眺めた全方位の実写画像を再生する場合に、その位置を含む領域に全ての方向の実写画像が登録されていない場合がある。その場合に、隣接する領域に、該当する撮影方向の実写画像が登録されていればそれを代用することによって類似の画像を生成できる可能性が高い。この場合、4分岐ツリー構造でデータを管理することにより、明快なサーチルールによって隣接する領域の画像を取得することができる。
例えば、S−13の領域に隣接する領域は、領域が均質に分割されている場合は、北から時計回りにS−12、S−21、S−24、S−31、S−42、S−41、S−14、S−11である(図4において、S−12、S−21、S−24、S−41,S−42を補って参照)。しかし、領域の分割は均質に行われるとは限らないので、ツリー構造に領域が管理されていない場合は上位の領域が隣接領域となる。すなわち、S−21、S−24は、S−2が、S−42、S−41はS4が隣接領域となる。
上述した隣接領域の探索について領域のラベルを2進数で表現する方法で説明する。左下端を(0,0)、右上を(1,1)とした正規化空間に対して、再帰的に4分割を行い、領域を分割する。n回均等に4分割を繰り返すと、2×2個の領域に分割される。その場合の領域の左下端及び右上端の座標は、それぞれ(k/2、j/2)及び((k+1)/2、(j+1)/2)となる。ここで、0≦k、j<2の整数値である。すなわち、分割の度合n、位置k、jの3変数で識別される。例えば、領域の2進数のラベルとして(0、0)は、領域IDのS−4、(1、1)はS−2、(00、00)は(S−44)にそれぞれ対応する。
そして、領域(k(1/2)、j(1/2))の隣接領域は、均等に分割されている場合、次のようにして求めることができる。
North側の隣接領域は、(k(1/2)、(j+1)(1/2))、j<2−1で表される。ここで、j=2−1の場合は最北端の領域であり、隣接領域は存在しない。
NorthEast側の隣接領域は、((k+1)(1/2)、(j+1)(1/2))、k<2−1かつj<2−1で表される。ここで、k=2−1又はj=2−1の場合は最北端又は最東端の領域であり、隣接領域は存在しない。
East側の隣接領域は、((k+1)(1/2)、j(1/2))、k<2−1で表される。ここで、k=2−1の場合は最東端の領域であり、隣接領域は存在しない。
SouthEast側の隣接領域は、((k+1)(1/2)、(j−1)(1/2))、k<2−1で表される。ここで、k=2−1又はj=0の場合は最南端又は最東端の領域であり、隣接領域は存在しない。
South側の隣接領域は、(k(1/2)、(j−1)(1/2))、j>0で表される。ここで、j=0の場合は最南端の領域であり、隣接領域は存在しない。
SouthWest側の隣接領域は、((k−1)(1/2)、(j−1)(1/2))、k>0かつj>0で表される。ここで、k=0又はj=0の場合は最南端又は最西端の領域であり、隣接領域は存在しない。
West側の隣接領域は、((k−1)(1/2)、j(1/2))、k>0で表される。ここで、k=0の場合は最西端の領域であり、隣接領域は存在しない。
NorthWest側の隣接領域は、((k−1)(1/2)、(j+1)(1/2))、k>0かつj<2−1で表される。ここで、k=0又はj=2−1の場合は最北端又は最西端の領域であり、隣接領域は存在しない。
さらに、領域(k(1/2)、j(1/2))の隣接領域は、均等に分割されていない場合であって、分割の度合が粗い場合(m≦n)は、次のようにして求めることができる。ただし、int()は、小数点以下を切り捨て整数値とする関数である。
North側の隣接領域は、(int(k/2n−m)(1/2)、int((j+1)/2n−m)(1/2))、j<2−1で表される。ここで、j=2−1の場合は最北端の領域であり、隣接領域は存在しない。
NorthEast側の隣接領域は、(int((k+1)/2n−m)(1/2)、int((j+1)/2n−m)(1/2))、k<2−1かつj<2−1で表される。ここで、k=2−1又はj=2−1の場合は最北端又は最東端の領域であり、隣接領域は存在しない。
East側の隣接領域は、(int((k+1)/2n−m)(1/2)、int(j/2n−m)(1/2))、k<2−1で表される。ここで、k=2−1の場合は最東端の領域であり、隣接領域は存在しない。
SouthEast側の隣接領域は、(int((k+1)/2n−m)(1/2)、int((j−1)/2n−m)(1/2))、k<2−1かつj>0で表される。ここで、k=2−1又はj=0の場合は最南端又は最東端の領域であり、隣接領域は存在しない。
South側の隣接領域は、(int(k/2n−m)(1/2)、int((j−1)/2n−m)(1/2))、j>0で表される。ここで、j=0の場合は最南端の領域であり、隣接領域は存在しない。
SouthWest側の隣接領域は、(int((k−1)/2n−m)(1/2)、int((j−1)/2n−m)(1/2))、k>0かつj>0で表される。ここで、k=0又はj=0の場合は最南端又は最西端の領域であり、隣接領域は存在しない。
West側の隣接領域は、(int((k−1)/2n−m)(1/2)、int(j/2n−m)(1/2))、k>0で表される。ここで、k=0の場合は最西端の領域であり、隣接領域は存在しない。
NorthWest側の隣接領域は、(int((k−1)/2n−m)(1/2)、int((j+1)/2n−m)(1/2))、k>0かつj<2−1で表される。ここで、k=0又はj=2−1の場合は最北端又は最西端の領域であり、隣接領域は存在しない。
さらに、領域(k(1/2)、j(1/2))の隣接領域は、均等に分割されていない場合であって、分割の度合が細かい場合(m≧n)は、次のようにして求めることができる。ここで、North, East, South, Westの場合は、分割の度合いが同じ又は異なる複数の領域と隣接することになり、最も分割の度合の細かい領域の分割の度合をmとした場合、0≦s<2m−nの全てのsが対象である。ただし、分割の度合は隣接領域によって異なりm分割の領域が存在しない部分には、上位の領域を利用する。
North側の隣接領域は、(k×2m−n+s)(1/2)、(j+1)×2m−n)(1/2))、j<2−1で表される。ここで、j=2−1の場合は最北端の領域であり、隣接領域は存在しない。
NorthEast側の隣接領域は、((k+1)×2m−n)(1/2)、((j+1)×2m−n)(1/2))、k<2−1かつj<2−1で表される。ここで、k=2−1又はj=2−1の場合は最北端又は最東端の領域であり、隣接領域は存在しない。
East側の隣接領域は、((k+1)×2m−n)(1/2)、(j×2m−n+s)(1/2))、k<2−1で表される。ここで、k=2−1の場合は最東端の領域であり、隣接領域は存在しない。
SouthEast側の隣接領域は、((k+1)×2m−n)(1/2)、(j×2m−n−1)(1/2))、k<2−1かつj>0で表される。ここで、k=2−1又はj=0の場合は最南端又は最西端の領域であり、隣接領域は存在しない。
South側の隣接領域は、((k×2m−n+s)(1/2)、((j×2m−n−1)(1/2))、j>0で表される。ここで、j=0の場合は最南端の領域であり、隣接領域は存在しない。
SouthWest側の隣接領域は、((k×2m−n−1)(1/2)、(j×2m−n−1)(1/2))、k>0かつj>0で表される。ここで、k=0又はj=0の場合は最南端又は最西端の領域であり、隣接領域は存在しない。
West側の隣接領域は、((k×2m−n−1)(1/2)、(j×2m−n+s)(1/2))、k>0で表される。ここで、k=0の場合は最西端の領域であり、隣接領域は存在しない。
NorthWest側の隣接領域は、((k×2m−n−1)(1/2)、(j+1)×2m−n)(1/2))、k>0かつj<2−1で表される。ここで、k=0又はj=2−1の場合は最北端又は最西端の領域であり、隣接領域は存在しない。
図7は、撮影方向ごとに領域を管理することも可能であることを示す図である。実写画像を登録するために、撮影方向ごとに領域を管理する。この場合は、8方向(N,NE,E,SE,S,SW,W,NW)の撮影方向ごとに4分岐ツリーで領域が構成されている。ある撮影方向の画像がないケースが多ければ、その方向の領域分割がなされずにすむ。
図8は、実写画像が登録されている表示空間が仮想世界の中でどこに存在するかを示すための、表示空間の外部表現の一例を示す図である。
ユーザが、仮想空間を構成する表示空間を、その表示空間の外から眺めた場合の形態として、本実施形態では、4種類ある。すなわち、本実施形態における代表的な表示空間の外部表現は、円柱(cylindrical shape)、半球(semi−sphere)、全球(sphere)、及びパーティクル(particle)(雲状)がある。なお、表示空間は、ある領域に対して生成することも、複数の領域(例えば、4分岐ツリー構造の上位領域)から表示空間を生成することも可能である。なお、パノラマ表示の場合には、予め画像が登録された時点でパノラマ画像空間は、円柱、半球、全球の形状が決定されている。これらの表示空間の表現方法は、1つの形状として単色でレンダリングしたり、空間に登録されている1つあるいは複数の代表の実写画像をテクスチャ・マッピングしたりなどができる。
図8(1)は、表示空間が円柱501である場合を示す図である。図8(2)は、表示空間が半球502である場合を示す図である。図8(3)は、表示空間が全球503である場合を示す図である。図8(4)は、表示空間がパーティクル504である場合を示す図である。仮想空間はこれらの表示空間から構成され、これらの表示空間を移動することにより仮想空間内を移動することになる。
これらの表示空間の表示条件の1つである透明度には、可視(visible、透過度0%)、不可視(invisible、透過度100%)、半透明(translucent)を設けている。可視(visible)は、その表示空間を表示することをいうが、前景に可視の表示空間があれば隠れて見えなくなり、前景に半透明の表示空間があれば透けてみえる。不可視(invisible)は、その表示空間を完全に表示しないことをいう。半透明(translucent)は、その背景にある表示空間を透かして見せるようにする。
半透明表示の方法として、手前の面の画像の光の強度をI1、その後方の面の光の強度をI2とすると、光の強度は、I=αI2+(1−α)I1となる。ここで、α(0≦α≦1.0)は透過率であり、α=1の時は完全透明、α=0の時は完全不透明となる。
表示条件の変更方法には、予めユーザにより設定されるパラメータ設定、対話的にコマンドなどによるパラメータ設定、ユーザの振る舞いにより動的に変更するパラメータ設定(コンテキスト・アウエアネスによるパラメータ設定)がある。
このコンテキスト・アウエアネスによるパラメータ設定では、例えば、ユーザが注視している時間によって表示条件を変更する。すなわち、ユーザがある一定時間以上注視していると前景の半透明であった表示空間がより明瞭に「可視」として表示される。また、コンテキスト・アウエアネスによるパラメータ設定では、ユーザの移動に伴って、見える表示空間の切り替えをフェードイン、フェードアウトするように表示条件を変更する。
表示空間の内部表現、すなわち、実写画像をレンダリングする表示空間の内部に移動し、レンダリングされた画像を見た場合の表現として、パノラマ表示(panoramic display)、パネル壁面表示(panel display on wall)、パネル焦点位置表示(panel display on focal distance)と、それらの表示方法の混在表示がある。
パノラマ表示(panoramic display)は、表示空間(円柱、半球、全球、パーティクル)の内側の面に実写画像をマッピングし、表示する。
パネル壁面表示(panel display on wall)は、表示空間の壁面に、重ね合わせ、スクロールなどの多重表示技術を活用して表示する。すなわち、視線方向の画像の中から手前の空間の画像を見ることができる。
パネル焦点位置表示(panel display on focal distance)は、視点位置から撮影距離だけ離れた場所に画像を配置し、表示する。
それらの表示方法の混在表示では、実写画像の属性、表示空間の特徴などから、表示方法を混在させ表示空間の内部を生成する。
また、実写画像の表示条件の1つである透明度には、可視(visible、透明度0%)、不可視(invisible、透明度100%)、半透明(translucent)を設けている。可視(visible)は、その実写画像を表示することをいうが、前景に可視の実写画像があれば隠れて見えなくなり、前景に半透明の実写画像があれば透けてみえる。不可視(invisible)は、その実写画像を完全に表示しないことをいう。半透明(translucent)は、その背景にある実写画像を透かして見せるようにする。なお、実写画像が未登録で存在しない場合には、「無地一色」の画像としてこれらの表示条件の下に表示される。
実写画像の表示条件には、属性の条件設定として、例えば、撮影時刻(朝・夕、季節など)の設定を設けている。設定された撮影時刻により、朝昼夜や時間ごとの現実世界を忠実に再現することができる。また、隣接領域の画像の表示・非表示の設定を設けている。隣接領域の表示には、隣接領域からの画像表示であることを明示する設定をも設けている。画像が未登録の領域であることを知らせ、ユーザに画像の登録を促すことができる。さらに、例えば、撮影日の設定を設けている。実写画像は撮影日時を有しているので、例えば、再現する撮影日を設定すれば、新しい建物などが建設されることにより現実の世界が更新されていても、設定された撮影日以前の実写画像により過去の状態を再現することもできる。
実写画像の表示条件の変更には、予めユーザにより設定されるパラメータ設定、対話的にコマンドなどによるパラメータ設定、ユーザの振る舞いにより動的に変更するパラメータ設定(コンテキスト・アウエアネスによるパラメータ設定)がある。
このコンテキスト・アウエアネスによるパラメータ設定では、例えば、ユーザが注視している時間によって表示条件を変更する。すなわち、ユーザがある一定時間以上注視していると前景の半透明であった画像がより明瞭に「可視」として表示される。また、コンテキスト・アウエアネスによるパラメータ設定では、ユーザの移動に伴って、見える画像の切り替えをフェードイン、フェードアウトするように表示条件を変更する。
図9は、パノラマ画像表示の例を示す図である。例えば、円柱の内側の面に画像をマッピングすることによって、パノラマ画像表示が可能となる。ユーザはその空間の内部から画像を見ることができる。図9において、vは表示空間の高さを示し、uは表示空間の中心からの視野角を示している。そして、ユーザの移動により、例えば、表示空間内の視点位置511から、ユーザはマッピングされた画像の内の一部512を見ることができる。
図10は、実写画像が登録されている表示空間が仮想世界の中でどこに存在するかを示す図である。
図10(1)は、仮想世界を構成する表示空間が円柱501であって、表示空間の外から眺めた場合を示している図である。図10(2)は、表示空間をユーザが移動し、視線方向531の表示空間内を見ていることを示している図である。パノラマ表示空間(円柱、半球、全球、パーティクル)の中に入ると、その空間内の例えば、パノラマ画像を見ることができ、ユーザは移動することによって仮想世界を感じることができる。
図11は、パネル壁面表示の概念を示す図である。領域に登録された実写画像は、撮影位置、撮影方向、撮影仰角などの情報を有している。領域は座標による範囲を有している。よって、領域に登録された実写画像を、領域の範囲に、例えば、半球の壁面があるものとして、撮影方向の壁面にマッピングすることにより実写画像をレンダリングすることができる。
図11において、矢印線551、552、553により、現実空間の山すそを歩いて撮影した写真を、仮想空間の表示空間A,B、Cにパネル壁面表示していることを、それぞれ、概念的に表している。表示空間へのパネル壁面表示によって、アバタが破線532に沿って、表示空間Aから表示空間Bへ移動し、さらに表示空間Cへ移動すると、アバタの位置に基づいて表示空間の壁面の画像が異なる。表示空間Aにおいては遠くの山561が、表示空間Bにおいては山563の前景に樹木562をともない、さらに表示空間Cにおいては頂上付近の風景564となるのであたかも現実に移動し、風景が異なるかのように感じられる。また、表示空間内では、パネル壁面に沿う全壁面に、重ね合わせ、スクロールなどの多重表示技術を活用してレンダリングされるので、あたかも現実の空間のなかにいるように感じられる。
図12は、パネル焦点位置表示の概念を示す図である。領域に登録された実写画像は、撮影位置、撮影方向、撮影仰角の他に撮影距離の情報も有している。よって、視点位置に基づいて取得した領域に登録された実写画像を、表示空間内の視点位置から、撮影距離に応じた距離に壁面を想定しマッピングすることにより実写画像をレンダリングすることができる。
図12において、矢印線571、572、573により表示空間Aに、矢印線574、575により表示空間Bに、矢印線575により表示空間Cにパネル焦点位置表示していることを、それぞれ、概念的に表している。
図13は、表示空間Aにおけるパネル焦点位置表示の概念を示す図である。表示空間へのパネル焦点位置表示によって、アバタ580が破線532に沿って、表示空間Aへ移動すると、アバタ580の位置に基づいて表示空間Aのパネル焦点位置表示がされる。その結果、表示空間Aにおいては近くの山581と、近くの樹木582、遠くの山583、584とが撮影距離に応じて見える。
図14は、表示空間Bにおけるパネル焦点位置表示の概念を示す図である。表示空間へのパネル焦点位置表示によって、アバタ580が破線532に沿って、表示空間Bへ移動すると、アバタ580の位置に基づいて表示空間Bのパネル焦点位置表示がされる。その結果、表示空間Bにおいては近くの草花587、近くの樹木588、近くの山589、遠くの山585、遠くの樹木586とが撮影距離に応じて見える。
図15は、表示空間Cにおけるパネル焦点位置表示の概念を示す図である。表示空間へのパネル焦点位置表示によって、アバタ580が破線532に沿って、表示空間Cへ移動すると、アバタ580の位置に基づいて表示空間Cのパネル焦点位置表示がされる。その結果、表示空間Cにおいては近くの山585、近くの樹木586とが撮影距離に応じて見える。
図16〜図20は、実写画像の表示方法の一例を示す図である。
図16は、表示空間の中に包含された別の表示空間が存在する場合の表示方法を示す図である。パノラマ画像の例で示す。表示空間601内のユーザが見ている視野角内に、その空間に包含される別の表示空間602が存在する場合、その表示空間602を可視(Visible),不可視(Invisible),半透明(Translucent)などの表示条件で表示する。内包される別の表示空間602が半透明に表示され、かつ、コンテキスト・アウエアネス・モードであれば、ユーザがある一定時間以上注視している場合には、その表示空間602は半透明から不可視となって、後方の表示空間601が明瞭に表示される。
図17は、表示空間の中に別の表示空間が完全に含まれる場合の表示方法を示す図である。パノラマ画像の例で示す。表示空間内のユーザがいる表示空間612が、別の表示空間611に完全に内包されている場合、一番、内側の表示空間612の画像を表示する。表示空間612の画像が半透明に表示され、後方の表示空間611が透けて表示され、かつ、コンテキスト・アウエアネス・モードであれば、ユーザがある一定時間以上注視している場合には、手前にある表示空間612の画像が半透明から明瞭な可視の表示となる。
図18は、表示空間が別の表示空間と交差している場合の表示方法を示す図である。パノラマ画像の例で示す。表示空間621と別の表示空間622とが交差している場合には、表示空間の交差面に対して、その空間の中心側に属する表示空間内の画像を表示する。表示画像を半透明表示し、もう一方の表示空間の画像を表示することも可能である。
ユーザが表示空間の間を移動する場合、予測した通過時間tに応じて、手前の画像をフェードアウトし、次の空間の後方の画像をフェードインする表示も可能である。また、交差面積が大きい場合は、フェードイン・フェードアウトの画像切り替えを、交差面積全体で行うのでなく、交差面積の中心部分の領域(交差中央領域)のみで行うことにしてもよい。さらに、交差面積が大きい場合で、交差面で画像切り替えあるいは交差中央領域で画面のフェードイン・フェードアウト画像切り替えする際に、緩衝領域の設定あるいはヒステリシス特性のあるフェードイン・フェードアウトの導入をすることで、移動のじぐざぐやゆらぎの際に過敏な画面変化を抑制できる。
図19は、表示空間が交差している場合であって、ユーザが移動した場合の表示方法を示す図である。表示空間同士の緩衝領域cを設け、緩衝領域cを境にして表示する表示空間の画像を切り替えるが、緩衝領域cにおいては移動の方向により直前の画像を表示する。例えば、ユーザがaからbへ移動し、bから緩衝領域cへ移動したとすると、Aの表示空間から緩衝領域cに移動したので、緩衝領域cでの表示画像は直前のAの表示空間の画像を表示する。そして、緩衝領域cからdに移動したことによりdでの表示画像はBの表示空間の画像となる。したがって、例えばa−>b−>c−>d−>c−>b−>c−>d−>eのように移動したとすると、表示される世界はA−>A−>A−>B−>B−>A−>A−>B−>Bのように変化する。緩衝領域cにおいては、直前世界の画像A又はBが表示される。
図20は、フェードイン・フェードアウトのヒステリシスを示す図である。フェードイン・フェードアウトにおいて、透過率αは時間tの関数α(t)であらわされる。
図20(1)は、例えば、α(t)が時間tに対して線形に変化する場合を表す図である。図20(2)は、透過率αを空間移動率βの関数α(β)として表した場合のαとβの関係を示す図である。例えば、α(β)は移動率の連続した増加あるいは減少が緩衝範囲の1/2をする時に、移動率βの2割の範囲で線形に増加するような場合の透過率αの変化を表している。図20(3)は、図20(2)の場合に、緩衝領域を移動する空間移動率βを示している図である。空間移動率βは、aにおいて0.4、bにおいて0.5、cにおいて0.2、dにおいて0.2、eにおいて0.6、fにおいて0.65、gにおいて0.5、hにおいて0.6、iにおいて0.7、jにおいて0.5を示している。したがって、図20(2)の透過率αは、aにおいて0.0、bにおいて0.2、cにおいて0.2、dにおいて0.1、eにおいて0.1、fにおいて0.9、gにおいて0.9、hにおいて0.9、iにおいて1.0、jにおいて1.0となることを示している。
以下、図21〜図33を用いて、実写画像を記憶し、記憶した実写画像に基づいて仮想空間を構成する表示空間にレンダリングするシステムの実施例を図面ごとに説明する。本実施例において、画像データベース装置1において、データ受信手段1040と、画像記憶手段(図24で説明する画像情報のデータ構成、ハード・ディスク1074)と、領域記憶手段(図25で説明する領域情報のデータ構成、ハード・ディスク1074)と、登録記憶手段(図25で説明する領域情報の画像へのポインタ、ハード・ディスク1074)と、判定手段(図27のステップS115)と、領域分割手段(図27のステップS116)と、制御手段(図27の画像登録処理)と、を備えている。また、画像処理装置11において、データ受信手段2040と、受付手段(図29のステップS202)、画像取得手段(図31のステップS224)、制御手段(図29のメイン処理)、表示装置2022とを備えている。
図21は、画像データベース装置1の動作環境を示す図である。画像データベース装置1、画像処理装置11a、11b、11cがネットワーク10(インターネット、LAN、WANなど)を介して接続されていることを示している。
画像データベース装置1は、画像処理装置11からネットワーク10を介して送信された実写画像を、実写画像に付加された撮影位置に基づいて記憶する。画像処理装置11は、表示する位置を画像データベース装置1にネットワーク10を介して送信し、位置に基づいて検索された実写画像をネットワーク10を介して受信し、表示する。
図22は、画像データベース装置1のハードウェア構成を示す図である。以下は、コンピュータを典型とする情報処理装置として全般的な構成を説明するが、専用機や組み込み型装置の場合、その環境に応じて必要最小限な構成を選択できることはいうまでもない。
画像データベース装置1は、CPU(Central Processing Unit)1010、バスライン1005、通信I/F1040、メインメモリ1050、BIOS(Basic Input Output System)1060、パラレルポート1080、USBポート1090、グラフィック・コントローラ1020、VRAM1024、I/Oコントローラ1070、ならびにキーボード及びマウス・アダプタなど1100の入力手段を備える。I/Oコントローラ1070には、ハード・ディスク1074及びバックアップ用ハード・ディスク1075、光ディスク・ドライブ1076、半導体メモリ1078、などの記憶手段を接続することができる。グラフィック・コントローラ1020には、表示装置1022が接続されている。
BIOS1060は、画像データベース装置1の起動時にCPU1010が実行するブートプログラムや、画像データベース装置1のハードウェアに依存するプログラムなどを格納する。
光ディスク・ドライブ1076としては、例えば、DVD−ROMドライブ、CD−ROMドライブ、DVD−RAMドライブ、CD−RAMドライブを使用することができる。この際は各ドライブに対応した光ディスク1077を使用する必要がある。光ディスク・ドライブ1076は光ディスク1077からプログラム又はデータを読み取り、I/Oコントローラ1070を介してメインメモリ1050又はハード・ディスク1074に提供することもできる。
画像データベース装置1に提供されるコンピュータ・プログラムは、フレキシブル・ディスク1071、光ディスク1077、又はメモリカードなどの記録媒体に格納されて利用者によって提供される。このコンピュータ・プログラムは、I/Oコントローラ1070を介して、記録媒体から読み出され、又は通信I/F1040を介してダウンロードされることによって、画像データベース装置1にインストールされ実行される。コンピュータ・プログラムが情報処理装置に働きかけて行わせる動作は、既に説明した装置における動作と同一であるので省略する。
上述のコンピュータ・プログラムは、外部の記憶媒体に格納されてもよい。記憶媒体としてはフレキシブル・ディスク1071、光ディスク1077、又はメモリカードの他に、MDなどの光磁気記録媒体、テープ媒体を用いることができる。また、専用通信回線やインターネットに接続されたサーバシステムに設けたハード・ディスク又は光ディスク・ライブラリなどの記憶装置を記録媒体として使用し、通信回線を介してコンピュータ・プログラムを画像データベース装置1に提供してもよい。
図23は、画像処理装置11のハードウェア構成を示す図である。以下は、コンピュータを典型とする情報処理装置として全般的な構成を説明するが、専用機や組み込み型装置の場合、その環境に応じて必要最小限な構成を選択できることはいうまでもない。
画像処理装置11は、CPU(Central Processing Unit)2010、バスライン2005、通信I/F2040、メインメモリ2050、BIOS(Basic Input Output System)2060、パラレルポート2080、USBポート2090、グラフィック・コントローラ2020、VRAM2024、I/Oコントローラ2070、ならびにキーボード及びマウス・アダプタなど2100の入力手段を備える。I/Oコントローラ2070には、フレキシブル・ディスク(FD)ドライブ2072、ハード・ディスク2074、光ディスク・ドライブ2076、半導体メモリ2078、などの記憶手段を接続することができる。グラフィック・コントローラ2020には、表示装置2022が接続されている。
BIOS2060は、画像処理装置11の起動時にCPU2010が実行するブートプログラムや、画像処理装置11のハードウェアに依存するプログラムなどを格納する。FDドライブ2072は、フレキシブル・ディスク2071からプログラム又はデータを読み取り、I/Oコントローラ2070を介してメインメモリ2050又はハード・ディスク2074に提供する。
光ディスク・ドライブ2076としては、例えば、DVD−ROMドライブ、CD−ROMドライブ、DVD−RAMドライブ、CD−RAMドライブを使用することができる。この際は各ドライブに対応した光ディスク2077を使用する必要がある。光ディスク・ドライブ2076は光ディスク2077からプログラム又はデータを読み取り、I/Oコントローラ2070を介してメインメモリ2050又はハード・ディスク2074に提供することもできる。
画像処理装置11に提供されるコンピュータ・プログラムは、フレキシブル・ディスク2071、光ディスク2077、又はメモリカードなどの記録媒体に格納されて利用者によって提供される。このコンピュータ・プログラムは、I/Oコントローラ2070を介して、記録媒体から読み出され、又は通信I/F2040を介してダウンロードされることによって、画像処理装置11にインストールされ実行される。コンピュータ・プログラムが情報処理装置に働きかけて行わせる動作は、既に説明した装置における動作と同一であるので省略する。
上述のコンピュータ・プログラムは、外部の記憶媒体に格納されてもよい。記憶媒体としてはフレキシブル・ディスク2071、光ディスク2077、又はメモリカードの他に、MDなどの光磁気記録媒体、テープ媒体を用いることができる。また、専用通信回線やインターネットに接続されたサーバシステムに設けたハード・ディスク又は光ディスク・ライブラリなどの記憶装置を記録媒体として使用し、通信回線を介してコンピュータ・プログラムを画像処理装置11に提供してもよい。
図24は、画像情報のデータ構成を示す図である。1つの画像データとともに、画像ID、撮影位置データ、その他の撮影条件(撮影方向、撮影仰角など)データ、属性情報(撮影日時など)データ、領域へのポインタを備えている。
図25は、領域情報のデータ構成を示す図である。1つの領域は、領域ID、領域の座標、ツリー構造のための分割レベル、上位ノードへのポインタ、下位ノードへのポインタ、画像へのポインタ、パノラマ画像へのポインタを備えている。分割レベルは、ノードの最大分割レベル数を記憶する。画像へのポインタは、撮影方向ごと、撮影仰角ごと、撮影時刻ごとなどのポインタからなり、実写画像データは、撮影方向ごと、撮影仰角ごと、撮影時刻ごとなどに分類して記憶される。
図26は、画像データベース装置1のメインのフローチャートである。
CPU1010は、ステップS101において、初期化処理を行い、処理をステップS102に移す。ステップS102において、CPU1010は、ネットワーク10を介して画像処理装置11からデータの受信処理を行い、処理をステップS103に移し、受信したデータは画像登録のためのデータか否かを判断する。この判断がYESの場合は、処理をステップS107に移し、NOの場合は処理をステップS104に移す。ステップS104において、CPU1010は、受信したデータが画像要求か否かを判断し、この判断がYESの場合は、処理をステップS105に移し、NOの場合は、処理を終了する。ステップS105において、CPU1010は、受信したデータに基づき画像検索処理を行い、処理をステップS106に移し、検索した画像データの送信処理を行い処理を終了する。
ステップS107において、CPU1010は、画像登録処理を行い、その後処理を終了する。
図27は、画像データベース装置1の画像登録処理のフローチャートである。
CPU1010は、ステップS111において、受信した画像データの撮影位置から領域を取得し、処理をステップS112に移し、取得した領域に他の画像が登録されているか否かを判断する。この判断がYESの場合は、処理をステップS113に移し、NOの場合は処理をステップS119に移す。ステップS113において、CPU1010は、受信した画像データの撮影方向と、領域に登録されている画像データの撮影方向とが同じか否かを判断し、この判断がYESの場合は、処理をステップS114に移し、NOの場合は、処理をステップS119に移す。ステップS114において、CPU1010は、受信した画像データの撮影仰角と、領域に登録されている画像データの撮影仰角とが同じか否かを判断し、この判断がYESの場合は、処理をステップS115に移し、NOの場合は処理をステップS119に移す。ステップS115において、CPU1010は、受信した画像データと、領域に登録されている画像データとの比較判定を行い、類似度が所定の範囲内か否かを判断する。この判断がYESの場合は、処理をステップS119に移し、NOの場合は処理をステップS116に移す。ステップS116において、CPU1010は、領域を分割し、処理をステップS118に移し、分割した領域に画像が登録されているか否かを判断する。この判断がYESの場合は、処理をステップS113に移し、NOの場合は処理をステップS119に移す。
ステップS119において、CPU1010は、撮影条件に分類して受信した画像データを登録し、本処理を終了し処理をメイン処理に戻す。
ここで、ステップS115における、登録されている画像との比較判定は、撮影条件や類似度をCPU1010が自動的に判定するが、対話型(CPU1010が判定を要求し、入力に応じて判定する)や、半自動(自動と対話型の組合せ)による判定も可能である。
図28は、画像データベース装置1の画像検索処理のフローチャートである。
CPU1010は、ステップS121において、隣接領域の画像データか否かを判断する。この判断がYESの場合は、処理をステップS124に移し、NOの場合は処理をステップS122に移す。ステップS122において、CPU1010は、領域の画像検索を行い、処理をステップS123に移す。
ステップS123において、CPU1010は、検索した画像データを取得し、本処理を終了し処理をメイン処理に戻す。
ステップS124において、CPU1010は、隣接領域の画像を検索し、処理をステップS123に移す。
図29は、画像処理装置11のメインのフローチャートである。
CPU2010は、ステップS201において、初期化処理を行い、処理をステップS202に移す。ステップS202において、CPU2010は、処理条件を受付ける受付処理を行い、処理をステップS203に移す。ステップS203において、CPU2010は、処理すべき内容が画像登録か否かを判断する。この判断がYESの場合は、処理をステップS204に移し、NOの場合は処理をステップS205に移す。ステップS204において、CPU2010は、画像登録処理を行い、その後処理を終了する。
ステップS205において、CPU2010は、画像表示処理を行い、その後処理を終了する。
図30は、画像処理装置11の画像登録処理のフローチャートである。
CPU2010は、ステップS211において、画像取込み処理を行い、処理をステップS212に移す。ステップS212において、CPU2010は、撮影条件などのユーザによる入力を受付け、ユーザが入力した撮影条件などを記憶し、処理をステップS213に移す。ステップS213において、CPU2010は、画像属性などのユーザによる入力を受付け、ユーザが入力した画像属性などを記憶し、処理をステップS214に移す。ステップS214において、CPU2010は、記憶した画像データ、撮影条件、画像属性などの情報をインターネットを介して画像データベース装置1に送信し、本処理を終了しメイン処理に戻る。
図31は、画像処理装置11の画像表示処理のフローチャートである。
CPU2010は、ステップS221において、アバタの位置検出を行い、処理をステップS222に移す。ステップS222において、CPU2010は、検出した位置が表示空間内か否かを判断する。この判断がYESの場合は、処理をステップS226に移し、NOの場合は処理をステップS223に移す。ステップS223において、CPU2010は、位置データをネットワーク10を介して画像データベース装置1へ送信し、処理をステップS224に移す。ステップS224において、CPU2010は、ネットワーク10を介して画像データベース装置1から受信した画像データを取得し、処理をステップS225に移す。ステップS225において、CPU2010は、表示空間の内部表現処理を行い、その後処理を終了し処理をメイン処理に戻す。
ステップS226において、CPU2010は、表示空間の外部表現処理を行い、その後本処理を終了し処理をメイン処理に戻す。
図32は、画像処理装置11の表示空間の内部表現処理のフローチャートである。
CPU2010は、ステップS231において、1つ以上の空間の中にいるか否かを判断する。この判断がYESの場合は、処理をステップS232に移し、NOの場合は処理をステップS240に移す。ステップS232において、CPU2010は、2つ以上空間が交差するか否かを判断する。この判断がYESの場合は、処理をステップS233に移し、NOの場合は処理をステップS234に移す。ステップS233において、CPU2010は、表示モードを設定し、処理をステップS235に移す。
ステップS234において、CPU2010は、表示モードを設定し、処理をステップS235に移す。
ステップS235において、CPU2010は、視野角内に画像が存在するか否かを判断する。この判断がYESの場合は、処理をステップS243に移し、NOの場合は処理をステップS236に移す。ステップS236において、CPU2010は、隣接領域の画像を利用するか否かを判断する。この判断がYESの場合は、処理をステップS237に移し、NOの場合は処理をステップS244に移す。ステップS237において、CPU2010は、ネットワーク10を介して画像データベース装置1から隣接領域の画像を取得し、処理をステップS238に移す。ステップS238において、CPU2010は、隣接領域からの画像であることを明示するか否かを判断する。この判断がYESの場合は、処理をステップS239に移し、NOの場合は処理をステップS245に移す。ステップS239において、CPU2010は、画像の明度、色相、彩度を変更して表示モードに応じて表示処理を行い、その後本処理を終了し処理を画像表示処理に戻す。
ステップS240において、CPU2010は、包含された別の空間があるか否かを判断する。この判断がYESの場合は、処理をステップS241に移し、NOの場合は処理をステップS242に移す。ステップS241において、CPU2010は、表示モードを設定し、処理をステップS235に移す。
ステップS242において、CPU2010は、表示モードを設定し、処理をステップS235に移す。
ステップS243において、CPU2010は、表示モードに応じて表示処理を行い、その後本処理を終了し処理を画像表示処理に戻す。
ステップS244において、CPU2010は、予め登録された色やテクスチャの画像を表示モードに応じて表示処理を行い、その後本処理を終了し処理を画像表示処理に戻す。
ステップS245において、CPU2010は、表示モードに応じて表示処理を行い、その後本処理を終了し処理を画像表示処理に戻す。
図33は、画像処理装置11における、表示空間内のパノラマ画像の例を示す図である。アバタの位置に基づいて、インターネットを介して受信した実写画像データを表示空間にレンダリングし、表示装置2022に表示していることを示している。表示された画像は、視点位置を含む領域に対応付けられた視点方向の実写画像と、視点位置を含む領域の隣接領域に対応付けられた視点方向に対応する実写画像との重ね合わせ、スクロールなどの多重表示技術を活用して得られる。
図34は、隣接領域の探索についての例を示す図である。上述の図6で説明した、領域のラベルを2進数で表現する方法で示している。すなわち、左下端を(0,0)、右上を(1,1)とした正規化空間に対して、再帰的に4分割を行い、領域を分割する。例えば、n=3とし、3回均等に4分割を繰り返すと、2×2個=64個の領域に分割される。その場合の領域の左下端及び右上端のラベルは、それぞれ(0(1/2)、0(1/2))=(000、000)及び(7(1/2)、(7(1/2))=(111、111)となる。図において、数値はそれぞれの領域のラベルを示している。例えば、分割の度合n=3、位置k=3、j=5の領域(3(1/2)、5(1/2))=(011、101)の隣接領域を具体的に求めてみる。ここで、領域(011、101)は、領域IDのS−132に対応する。
図34(1)において、領域(011、101)の隣接領域は、上述の図6で示した式によれば、均等に分割されている場合、次のラベルの領域として表される。
North側の隣接領域は、(3(1/2)、(5+1)(1/2))=(011、110)で表される。
NorthEast側の隣接領域は、((3+1)(1/2)、(5+1)(1/2))=(100、110)で表される。
East側の隣接領域は、((3+1)(1/2)、5(1/2))=(100、101)で表される。
SouthEast側の隣接領域は、((3+1)(1/2)、(5−1)(1/2))=(100、100)で表される。
South側の隣接領域は、(3(1/2)、(5−1)(1/2))=(011、100)で表される。
SouthWest側の隣接領域は、((3−1)(1/2)、(5−1)(1/2))=(010、100)で表される。
West側の隣接領域は、((3−1)(1/2)、5(1/2))=(010、101)で表される。
NorthWest側の隣接領域は、((3−1)(1/2)、(5+1)(1/2))=(010、110)で表される。
図34(2)において、領域(011、101)の隣接領域は、均等に分割されていない(分割の度合が粗い)場合、次のラベルの領域として表される。
North側の隣接領域は、例えば分割の度合m=2である場合、(int(3/23−2)(1/2)、int((5+1)/23−2)(1/2))=(int(3/23−2)(1/2)、int((5+1)/23−2)(1/2))=(1(1/2)、3(1/2))=(01、11)で表される。
NorthEast側の隣接領域は、例えば分割の度合m=2である場合、(int((3+1)/23−2)(1/2)、int((5+1)/23−2)(1/2))=(2(1/2)、3(1/2))=(10、11)で表される。
East側の隣接領域は、例えば分割の度合m=2である場合、(int((3+1)/23−2)(1/2)、int(5/23−2)(1/2))=(2(1/2)、2(1/2))=(10、10)で表される。
SouthEast側の隣接領域は、例えば分割の度合m=2である場合、(int((3+1)/23−2)(1/2)、int((5−1)/23−2)(1/2))=(2(1/2)、2(1/2))=(10、10)で表される。
South側の隣接領域は、例えば分割の度合m=3である場合、(int(3/23−3)(1/2)、int((5−1)/23−3)(1/2))=(3(1/2)、4(1/2))=(011、100)で表される。
SouthWest側の隣接領域は、例えば分割の度合m=3である場合、(int((3−1)/23−3)(1/2)、int((5−1)/23−3)(1/2))=(2(1/2)、4(1/2))=(010、100)で表される。
West側の隣接領域は、例えば分割の度合m=3である場合、(int((3−1)/23−3)(1/2)、int(5/23−3)(1/2))=(2(1/2)、5(1/2))=(010、101)で表される。
NorthWest側の隣接領域は、分割の度合m=2である場合、(int((3−1)/23−2)(1/2)、int((5+1)/23−2)(1/2))=(1(1/2)、3(1/2))=(01、11)で表される。
図35(3)において、領域(011、101)の隣接領域は、均等に分割されていない(分割の度合が細かい)場合、次のラベルの領域として表される。
North側の隣接領域は、例えば分割の度合m=4である場合、sが0≦s<24−3の全ての値、すなわち0、1であるので次の2領域となる。すなわち、((3×24−3+0)(1/2)、((5+1)×24−3)(1/2))=(6(1/2)、12(1/2))=(0110、1100)と、((3×24−3+1)(1/2)、((5+1)×24−3)(1/2))=(7(1/2)、12(1/2))=(0111、1100)と、で表される。
NorthEast側の隣接領域は、例えば分割の度合m=4である場合、((3+1)×24−3)(1/2)、((5+1)×24−3)(1/2))=(8(1/2)、12(1/2))=(1000、1100)で表される。
East側の隣接領域は、例えば分割の度合m=4である場合、sが0≦s<24−3の全ての値、すなわち0、1であるので次の2領域となる。すなわち、((3+1)×24−3)(1/2)、(5×24−3+0)(1/2))=(8(1/2)、10(1/2))=(1000、1010)と、((3+1)×24−3)(1/2)、(5×24−3+1)(1/2))=(8(1/2)、11(1/2))=(1000、1011)とで表される。
SouthEast側の隣接領域は、例えば分割の度合m=4である場合、((3+1)×24−3)(1/2)、(5×24−3−1)(1/2))=(8(1/2)、9)=(1000、1001)で表される。
South側の隣接領域は、例えば分割の度合m=4である場合、sが0≦s<24−3の全ての値、すなわち0、1であるので次の2領域となる。すなわち、((3×24−3+0)(1/2)、(5×24−3−1)(1/2))=(6(1/2)、9(1/2))=(0110、1001)と、((3×24−3+1)(1/2)、(5×24−3−1)(1/2))=(7(1/2)、9(1/2))=(0111、1001)とで表される。
SouthWest側の隣接領域は、例えば分割の度合m=4である場合、((3×24−3−1)(1/2)、(5×24−3−1)(1/2))=(5(1/2)、9(1/2))=(0101、1001)で表される。
West側の隣接領域は、例えば分割の度合m=4である場合、sが0≦s<24−3の全ての値、すなわち0、1であるので次の2領域となる。すなわち、((3×24−3−1)(1/2)、(5×24−3+0)(1/2))=(5(1/2)、10(1/2))=(0101、1010)と、((3×24−3−1)(1/2)、(5×24−3+1)(1/2))=(5(1/2)、11(1/2))=(0101、1011)とで表される。
NorthWest側の隣接領域は、例えば分割の度合m=4である場合、((3×24−3−1)(1/2)、((5+1)×24−3)(1/2))=(5(1/2)、12(1/2))=(0101、1100)で表される。
実施例によれば、本発明の画像処理装置11は、仮想空間の領域の中の、座標によって表された視点位置511を含む領域に対応付けられた画像情報を、視点位置511の座標に基づいて画像データベース装置1からネットワーク10を介して取得し、受付手段(図29のステップS202の処理)により受付けた条件に応じて、領域を視覚化するための表示空間501,502,503,504に基づいてレンダリングし、表示装置2022に表示する。画像データベース装置1は、複数のユーザが撮影した画像と、その画像を撮影した位置をユーザの間で用いられる共通の座標によって表された撮影位置と、撮影するための撮影条件と、撮影した画像の画像属性とを画像情報(図24)として記憶し、座標によって表された範囲を有する仮想空間の領域と、その領域に含まれる撮影位置を有する画像情報とを対応付けて記憶する(図25)。
以上、本発明の実施形態について説明したが、本発明は上述した実施形態に限るものではない。また、本発明の実施形態に記載された効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、本発明の実施例に記載されたものに限定されるものではない。
本発明の実施形態に係る発明の概要を示す図である。 本発明の実施形態に係るシステムの概要を示す図である。 撮影位置、撮影条件を説明する図。 4分岐ツリーで領域管理する例を示す図である。 障害物が存在する場合の例を示す図である。 4分岐ツリーで領域管理する画像データベースの例を示す図である。 撮影方向ごとに領域を管理する場合の一例を示す図である。 表示空間の外部表現の一例を示す図である。 パノラマ画像表示の例を示す図である。 実写画像による仮想世界を示す図である。 パネル壁面表示の概念を示す図である。 パネル焦点位置表示の概念を示す図である。 表示空間Aにけるパネル焦点位置表示の概念を示す図である。 表示空間Bにけるパネル焦点位置表示の概念を示す図である。 表示空間Cにおけるパネル焦点位置表示の概念を示す図である。 表示空間の中に包含された別の表示空間が存在する場合の表示方法を示す図である。 表示空間の中に別の表示空間が完全に含まれる場合の表示方法を示す図である。 表示空間が別の表示空間と交差している場合の表示方法を示す図である。 表示空間が交差している場合であって、アバタが移動した場合の表示方法を示す図である。 フェードイン・フェードアウトのヒステリシスを示す図である。 画像データベース装置の動作環境を示す図である。 画像データベース装置のハードウェア構成を示す図である。 画像処理装置のハードウェア構成を示す図である。 画像情報のデータ構成を示す図である。 領域情報のデータ構成を示す図である。 画像データベース装置のメインのフローチャートである。 画像データベース装置の画像登録処理のフローチャートである。 画像データベース装置の画像検索処理のフローチャートである。 画像処理装置のメインのフローチャートである。 画像処理装置の画像登録処理のフローチャートである。 画像処理装置の画像表示処理のフローチャートである。 画像処理装置の表示空間の内部表現処理のフローチャートである。 表示空間内のパノラマ画像の例を示す図である。 隣接領域の探索についての例を示す図(1)、(2)である。 隣接領域の探索についての例を示す図(3)である。
符号の説明
1 画像データベース装置
10 ネットワーク
11 画像処理装置
501 表示空間の円柱
502 表示空間の半球
503 表示空間の全球
504 表示空間のパーティクル

Claims (13)

  1. 複数のユーザが記憶させた画像情報であって前記ユーザが撮影した画像と、その画像を撮影した位置を前記ユーザの間で用いられる共通の座標によって表された撮影位置と、撮影するための撮影条件と、撮影した画像の画像属性とを含む画像情報と、前記座標によって表された範囲を有する仮想空間の領域であって前記撮影条件が所定の範囲内であること、及び撮影された画像の類似度が所定の範囲外であることを条件として前記撮影位置ごとにその撮影位置を含むように分割された領域と、を対応付けて記憶する画像データベースに通信可能に接続され、移動するユーザの視点に基づいて画像を処理する画像処理装置において、
    ネットワークを介して通信を行い、データを受信するデータ受信手段と、
    前記画像データベースから、前記データ受信手段により前記画像情報を取得する画像取得手段と、
    前記視点を示す視点位置であって前記座標によって表された視点位置に相当する前記撮影位置を含む前記領域に対応付けられた前記画像情報を前記画像取得手段により取得し、取得した前記画像情報を、前記領域を視覚化するための表示空間に基づいてレンダリングする制御手段と、
    前記表示空間に基づいてレンダリングされた画像データを表示する表示手段と、
    を備えることを特徴とする画像処理装置。
  2. 画像をレンダリングする条件を受付ける受付手段をさらに備え、
    前記制御手段は、前記画像取得手段により取得した前記画像情報を、前記受付手段により受付けた条件に基づいてレンダリングすることを特徴とする請求項1に記載の画像処理装置。
  3. 前記ユーザの間で共通の座標は、緯度及び経度であることを特徴とする請求項2に記載の画像処理装置。
  4. 前記制御手段は、前記視点位置を含む前記領域に対応付けられた前記画像情報を前記画像取得手段により取得できない場合には、前記視点位置を含む前記領域に隣接する前記領域に対応付けられた前記画像情報を前記画像取得手段により取得し、取得した前記画像情報に基づいて補間し、レンダリングすることを特徴とする請求項3に記載の画像処理装置。
  5. 前記撮影条件は、撮影距離を含み、
    前記制御手段は、前記視点位置を含む前記領域に対応付けられた一の前記画像情報を前記画像取得手段により取得し、さらに前記視点位置を含む前記領域に隣接する前記領域に対応付けられた二の画像情報を前記画像取得手段により取得し、取得した前記一の画像情報及び前記二の画像情報に含まれる前記撮影距離に応じてレンダリングすることを特徴とする請求項4に記載の画像処理装置。
  6. 前記撮影条件は、撮影時刻を含み、
    前記制御手段は、前記受付手段により受付けた撮影時刻に基づいて、前記視点位置を含む前記領域に対応付けられた前記画像情報のうち前記撮影時刻を有する前記画像情報をレンダリングすることを特徴とする請求項5に記載の画像処理装置。
  7. 請求項1に記載の画像処理装置が画像を処理する画像処理方法において、
    前記データ受信手段が、ネットワークを介して通信を行い、データを受信するデータ受信ステップと、
    前記画像取得手段が、前記画像データベースから、前記データ受信ステップにより前記画像情報を取得する画像取得ステップと、
    前記制御手段が、前記視点を示す視点位置であって前記座標によって表された視点位置に相当する前記撮影位置を含む前記領域に対応付けられた前記画像情報を前記画像取得ステップにより取得し、取得した前記画像情報を、前記領域を視覚化するための表示空間に基づいてレンダリングする制御ステップと、
    前記表示手段が、前記表示空間に基づいてレンダリングされた画像データを表示する表示ステップと、
    を備えることを特徴とする画像処理方法。
  8. 請求項2に記載の画像処理装置が画像を処理する画像処理方法において、
    前記受付手段が、画像をレンダリングする条件を受付ける受付ステップをさらに備え、
    前記制御ステップは、前記画像取得ステップにより取得した前記画像情報を、前記受付ステップにより受付けた条件に基づいてレンダリングすることを特徴とする請求項7に記載の画像処理方法。
  9. 前記ユーザの間で共通の座標は、緯度及び経度であることを特徴とする請求項8に記載の画像処理方法。
  10. 前記制御ステップは、前記視点位置を含む前記領域に対応付けられた前記画像情報を前記画像取得ステップにより取得できない場合には、前記視点位置を含む前記領域に隣接する前記領域に対応付けられた前記画像情報を前記画像取得ステップにより取得し、取得した前記画像情報に基づいて補間し、レンダリングすることを特徴とする請求項9に記載の画像処理方法。
  11. 前記撮影条件は、撮影距離を含み、
    前記制御ステップは、前記視点位置を含む前記領域に対応付けられた一の前記画像情報を前記画像取得ステップにより取得し、さらに前記視点位置を含む前記領域に隣接する前記領域に対応付けられた二の画像情報を前記画像取得ステップにより取得し、取得した前記一の画像情報及び前記二の画像情報に含まれる前記撮影距離に応じてレンダリングすることを特徴とする請求項10に記載の画像処理方法。
  12. 前記撮影条件は、撮影時刻を含み、
    前記制御ステップは、前記受付ステップにより受付けた撮影時刻に基づいて、前記視点位置を含む前記領域に対応付けられた前記画像情報のうち前記撮影時刻を有する前記画像情報をレンダリングすることを特徴とする請求項11に記載の画像処理方法。
  13. 請求項7から請求項12のいずれか1項に記載の各ステップをコンピュータに実行させるためのコンピュータ・プログラム。
JP2007303392A 2007-11-22 2007-11-22 仮想空間を構築するための画像処理方法、装置 Active JP5044817B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2007303392A JP5044817B2 (ja) 2007-11-22 2007-11-22 仮想空間を構築するための画像処理方法、装置
US12/275,374 US8493380B2 (en) 2007-11-22 2008-11-21 Method and system for constructing virtual space

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007303392A JP5044817B2 (ja) 2007-11-22 2007-11-22 仮想空間を構築するための画像処理方法、装置

Publications (2)

Publication Number Publication Date
JP2009129183A JP2009129183A (ja) 2009-06-11
JP5044817B2 true JP5044817B2 (ja) 2012-10-10

Family

ID=40669314

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007303392A Active JP5044817B2 (ja) 2007-11-22 2007-11-22 仮想空間を構築するための画像処理方法、装置

Country Status (2)

Country Link
US (1) US8493380B2 (ja)
JP (1) JP5044817B2 (ja)

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9185374B2 (en) * 2006-10-26 2015-11-10 Honeywell International Inc. Method and system for producing full motion media to display on a spherical surface
JP2010049313A (ja) * 2008-08-19 2010-03-04 Sony Corp 画像処理装置、画像処理方法、プログラム
TW201044246A (en) * 2009-06-01 2010-12-16 Mitac Int Corp Electronic apparatus
US8941641B2 (en) * 2009-03-31 2015-01-27 Microsoft Corporation Annotating or editing three dimensional space
JP2011034248A (ja) * 2009-07-30 2011-02-17 Nec Soft Ltd 生物生産管理装置、生物生産システム
JP2011054050A (ja) * 2009-09-03 2011-03-17 Sony Corp 情報処理装置、情報処理方法、プログラムおよび情報処理システム
KR101101114B1 (ko) * 2009-09-10 2011-12-30 (주)트라이디커뮤니케이션 배경 이미지를 이용한 3차원 아바타 서비스 제공 시스템 및 방법
US20110211087A1 (en) * 2010-02-26 2011-09-01 Nokia Corporation Method and apparatus providing for control of a content capturing device with a requesting device to thereby capture a desired content segment
US20120194547A1 (en) * 2011-01-31 2012-08-02 Nokia Corporation Method and apparatus for generating a perspective display
CN102971770B (zh) * 2011-03-31 2016-02-10 松下电器产业株式会社 进行全周围立体图像的描绘的图像描绘装置、图像描绘方法
US8736664B1 (en) * 2012-01-15 2014-05-27 James W. Gruenig Moving frame display
US20140015931A1 (en) * 2012-07-12 2014-01-16 Samsung Electronics Co., Ltd. Method and apparatus for processing virtual world
US9092908B2 (en) * 2012-07-13 2015-07-28 Google Inc. Sharing photo albums in three dimensional environments
US9488489B2 (en) 2012-09-28 2016-11-08 Google Inc. Personalized mapping with photo tours
US10139623B2 (en) * 2013-06-18 2018-11-27 Microsoft Technology Licensing, Llc Virtual object orientation and visualization
US9244940B1 (en) 2013-09-27 2016-01-26 Google Inc. Navigation paths for panorama
JP2015082289A (ja) * 2013-10-24 2015-04-27 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
US9473745B2 (en) * 2014-01-30 2016-10-18 Google Inc. System and method for providing live imagery associated with map locations
USD780777S1 (en) 2014-04-22 2017-03-07 Google Inc. Display screen with graphical user interface or portion thereof
USD781317S1 (en) 2014-04-22 2017-03-14 Google Inc. Display screen with graphical user interface or portion thereof
US9972121B2 (en) * 2014-04-22 2018-05-15 Google Llc Selecting time-distributed panoramic images for display
US9934222B2 (en) 2014-04-22 2018-04-03 Google Llc Providing a thumbnail image that follows a main image
US9189839B1 (en) 2014-04-24 2015-11-17 Google Inc. Automatically generating panorama tours
US9002647B1 (en) 2014-06-27 2015-04-07 Google Inc. Generating turn-by-turn direction previews
US9418472B2 (en) 2014-07-17 2016-08-16 Google Inc. Blending between street view and earth view
JP5665068B1 (ja) * 2014-09-05 2015-02-04 株式会社Live2D プログラム、情報処理装置、制御方法及び記録媒体
JP2016062486A (ja) * 2014-09-19 2016-04-25 株式会社ソニー・コンピュータエンタテインメント 画像生成装置および画像生成方法
JP6310149B2 (ja) * 2015-07-28 2018-04-11 株式会社日立製作所 画像生成装置、画像生成システム及び画像生成方法
US10839614B1 (en) * 2018-06-26 2020-11-17 Amazon Technologies, Inc. Systems and methods for rapid creation of three-dimensional experiences
CN111354087A (zh) * 2018-12-24 2020-06-30 未来市股份有限公司 定位方法以及现实呈现装置
JP7373294B2 (ja) * 2019-04-12 2023-11-02 株式会社ソニー・インタラクティブエンタテインメント 画像処理装置、画像提供サーバ、画像表示方法、および画像提供方法
US11494952B1 (en) * 2022-02-24 2022-11-08 Interleev, Llc Efficient integration of data into augmented and virtual reality environments

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5815411A (en) 1993-09-10 1998-09-29 Criticom Corporation Electro-optic vision system which exploits position and attitude
JPH07236113A (ja) * 1994-02-24 1995-09-05 Canon Inc 画像記録再生方法および画像記録再生装置
JPH11168754A (ja) * 1997-12-03 1999-06-22 Mr System Kenkyusho:Kk 画像の記録方法、画像データベースシステム、画像記録装置及びコンピュータプログラムの記憶媒体
JPH11259672A (ja) * 1998-03-13 1999-09-24 Mitsubishi Electric Corp 3次元仮想空間表示装置
JP2001069531A (ja) * 1999-08-31 2001-03-16 Matsushita Electric Ind Co Ltd 全方位映像処理方法
GB2360658B (en) * 2000-03-20 2004-09-08 Hewlett Packard Co Camera with user identity data
JP3387900B2 (ja) * 2000-09-14 2003-03-17 キヤノン株式会社 画像処理方法及び装置
JP3918518B2 (ja) * 2001-11-09 2007-05-23 ソニー株式会社 情報処理システムおよび情報処理方法、プログラムおよび記録媒体、移動体、並びに情報処理装置
US6759979B2 (en) * 2002-01-22 2004-07-06 E-Businesscontrols Corp. GPS-enhanced system and method for automatically capturing and co-registering virtual models of a site
JP4178009B2 (ja) * 2002-08-16 2008-11-12 富士フイルム株式会社 撮影システム
JP2005277670A (ja) * 2004-03-24 2005-10-06 Hiroo Iwata 全方位映像作成装置、地図連動全方位映像記録・表示装置及び地図連動全方位映像利用装置
US7142209B2 (en) * 2004-08-03 2006-11-28 Microsoft Corporation Real-time rendering system and process for interactive viewpoint video that was generated using overlapping images of a scene captured from viewpoints forming a grid
JP2006220521A (ja) * 2005-02-10 2006-08-24 Hitachi Ltd 自己位置計測装置及び自己位置計測方法を実行するためのプログラム
JP4853149B2 (ja) * 2005-09-14 2012-01-11 ソニー株式会社 画像処理装置、画像表示装置、画像処理方法、プログラムおよび記録媒体
JP2007133489A (ja) * 2005-11-08 2007-05-31 Sony Corp 仮想空間画像表示方法、装置、仮想空間画像表示プログラム及び記録媒体
JP4835135B2 (ja) * 2005-12-06 2011-12-14 ソニー株式会社 画像表示装置、画像表示方法、および、プログラム
US7603436B2 (en) * 2006-11-17 2009-10-13 Microsoft Corporation Data capture and fusion from a population of device users
US8498497B2 (en) * 2006-11-17 2013-07-30 Microsoft Corporation Swarm imaging

Also Published As

Publication number Publication date
US20090135178A1 (en) 2009-05-28
JP2009129183A (ja) 2009-06-11
US8493380B2 (en) 2013-07-23

Similar Documents

Publication Publication Date Title
JP5044817B2 (ja) 仮想空間を構築するための画像処理方法、装置
JP4963105B2 (ja) 画像を記憶する方法、装置
US11238644B2 (en) Image processing method and apparatus, storage medium, and computer device
CN106484115B (zh) 用于增强和虚拟现实的系统和方法
US20190080516A1 (en) Systems and methods for augmented reality preparation, processing, and application
US9147285B2 (en) System for visualizing three dimensional objects or terrain
CN100534158C (zh) 产生虚拟图像和真实图像的合成图像
CN107223269A (zh) 三维场景定位方法和装置
CN101208723A (zh) 用于3维照相机和3维视频的自动场景建模
US20220005283A1 (en) R-snap for production of augmented realities
Kersten et al. Virtual reality for cultural heritage monuments–from 3D data recording to immersive visualisation
EP3754469A1 (en) 3d structure engine-based computation platform
CN106780707B (zh) 模拟场景中全局光照的方法和装置
Kolivand et al. Cultural heritage in marker-less augmented reality: A survey
JP5363971B2 (ja) 景観再現システム
US10089418B2 (en) Structure model segmentation from a three dimensional surface
US11302067B2 (en) Systems and method for realistic augmented reality (AR) lighting effects
Trapp et al. Strategies for visualising 3D points-of-interest on mobile devices
Kolivand et al. Shadow generation in mixed reality: A comprehensive survey
JP2023171298A (ja) 拡張現実及び複合現実のための空間とコンテンツの適合
Greenwood et al. Using game engine technology to create real-time interactive environments to assist in planning and visual assessment for infrastructure
Harle et al. Digital capture: photogrammetry as rhetoric, fiction, and relic
CN117197319B (zh) 图像生成方法、装置、电子设备及存储介质
US20220375175A1 (en) System For Improving The Precision and Accuracy of Augmented Reality
Zheng et al. [Retracted] Rendering and Optimization Algorithm of Digital City’s 3D Artistic Landscape Based on Virtual Reality

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100423

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120424

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120605

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

RD14 Notification of resignation of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7434

Effective date: 20120607

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120626

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150727

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5044817

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250