JP2009134719A - イメージデータセットにおける遮られた物体を明らかにするシステム及び方法 - Google Patents

イメージデータセットにおける遮られた物体を明らかにするシステム及び方法 Download PDF

Info

Publication number
JP2009134719A
JP2009134719A JP2008303147A JP2008303147A JP2009134719A JP 2009134719 A JP2009134719 A JP 2009134719A JP 2008303147 A JP2008303147 A JP 2008303147A JP 2008303147 A JP2008303147 A JP 2008303147A JP 2009134719 A JP2009134719 A JP 2009134719A
Authority
JP
Japan
Prior art keywords
image data
data set
computer readable
readable medium
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008303147A
Other languages
English (en)
Inventor
Xin Chen
チェン シン
William Gale
ゲイル ウィリアム
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Here North America LLC
Original Assignee
Navteq North America LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Navteq North America LLC filed Critical Navteq North America LLC
Publication of JP2009134719A publication Critical patent/JP2009134719A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)
  • Navigation (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】イメージを処理して、遮られた物体を明らかにする。
【解決手段】他の物体を遮るイメージデータセットにおける物体を識別し、そして遮られた物体を明らかにするようにイメージデータセットを変換するためのシステム及び方法が開示される。あるケースでは、遮っている物体は、イメージデータセットを処理して、視覚上の物体の相対的な位置を決定することにより識別される。次いで、遮られた物体は、遮っている物体をイメージデータセットから除去するか、又は遮っている物体を目立たないようにして、遮られた物体がその後方に見えるようにすることにより、明らかにされる。
【選択図】図3

Description

本発明は、一般に、イメージの収集に係り、より詳細には、イメージを処理して、遮られた物体を明らかにすることに係る。
イメージベースのナビゲーションが一般的になってきている。1つの形式のシステムでは、コンピュータが、実世界の現場で撮影された写真イメージをユーザに表示する。ユーザは、自分の仮想位置を変化させるか又は「自分の頭を回転する」ことにより、描写された現場の表現を通じてナビゲーションを行う。コンピュータは、ユーザのナビゲーションを保持し続け、ユーザの現在視点を表す実世界の現場から撮影された写真イメージを表示する。従って、ユーザには、実世界の現場の仮想視覚ツアーが与えられる。この種の特徴を遂行するための1つのシステムが、参考としてここに援用する2007年4月30日に出願された米国特許出願第11/796,789号に開示されている。
ナビゲーションアプリケーションの背後には、イメージデータセットがしばしば存在する。このアプリケーションに使用されるイメージは、現場を通して搬送される1つ以上のカメラのセットにより収集される。カメラは、乗物に取り付けられるか、又は徒歩の個人により搬送される。乗物又は個人が移動するにつれてカメラが全方向の画像(又はビデオ)を撮影する。多数の視点から多数の重畳する画像が撮影されるので、前記特許出願第11/796,789号に開示されたように、画像のセットを後処理して、360度のシームレスなイメージを生成することができる。これらのイメージは、例えば、画像が撮影されるのと同時にGPSデータを収集することにより、実世界の地理と相関される。
画像は、公道から撮影されたものであるため、描写された現場の仮想表現を通じてナビゲーションを行うユーザには使用されない人物や乗物やその他の過渡的な物体をしばしば含む。更に、物体(例えば、木)が、他の物体(例えば、ビル)を覆い隠すこともある。又、画像に人が存在することは、人を識別できるときには、プライバシーの問題も引き起こす。
上述した事柄及び他の事柄は、明細書、図面及び特許請求の範囲を参照することにより理解できる本発明によって対処される。本発明の態様によれば、他の物体を視覚的に妨げる(又は「遮る」)イメージデータセット内の物体を識別し、次いで、その遮られた物体を明らかにするようにイメージデータセットを変換する。
種々の実施形態は、多数の技術を個別に又は一緒に使用して、どの物体が他の物体を遮るか識別する。あるケースでは、イメージデータセットを処理して、視覚物体の相対的な位置を決定することにより、遮っている物体が識別される。第1の例では、イメージは、正確な位置情報(おそらく、画像が撮影されたときにLIDARシステムにより収集された)を含む。例えば、背景の壁の前に座る物体は、それらの位置により、おそらく遮っている物体として識別される。別の例では、若干異なる視点から撮影された異なる画像が比較される。おそらく遮っている前景の物体は、背景の物体に対して視差だけ「移動する」ように見える。
種々の環境に基づいて、遮られた物体は、遮っている物体をイメージデータセットから除去することにより明らかにすることができる。他の環境では、遮っている物体がその場に残されるが、視覚的に「目立たないように」され(例えば、半透明にされ)、遮られた物体を見ることができるようにする。ある視覚上の物体は、別の物体を遮るので単に除去されてもよい(例えば、店の看板を妨げている木)。別の物体は、プライバシーの問題のために除去されてもよい(例えば、顔検出ソフトウェアは、物体が人物であることを識別する)。第3の物体は、それが過渡的なものであるために、除去されてもよい(例えば、イメージを比較することにより、画像が撮影される間に物体が移動したことが明らかである)。
物体が除去され又は目立たないようにされると、その後方にあった視覚上の物体は、それがはっきり見えるように「綺麗にする」必要がある。ここでは、複数の重畳するイメージが有用である。例えば、玄関口は、その真前にある木で妨げられるが、木を通る前又は後に撮影された画像においてある角度から玄関口が見えることがある。ある角度で撮影されたイメージからの情報を、アフィン変換のような既知の補間技術を使用して処理して、玄関口の直接的イメージを再現することができる。他の情報が得られない場合には、遮っている物体を除去するか又は目立たないようにすることで残された視覚上の「穴」を取り巻く物体のテクスチャーを補間して、穴を埋めることができる。
ある実施形態では、得られたイメージデータセットが更に変換される。「仮想風景」アプリケーションでは、例えば、木や植木の物体を実際の街路と共にビルの景色に追加して、その効果が望ましいものかどうかテストする。このように、看板や他の小さな構造物に対する異なる位置を、審美性及び実際の効果の両面でテストすることができる。
本発明の特徴は、特許請求の範囲に特に指摘されるが、本発明、並びにその目的及び効果は、添付図面を参照した以下の詳細な説明から最も良く理解できよう。
同じ参照番号で同じ要素を示す添付図面を参照すれば、本発明は、適当な環境において実施されるものとして説明する。以下の説明は、本発明の実施形態に基づくもので、本発明は、これに限定されず、ここに明記されない別の実施形態も考えられる。
図1Aないし1Cは、本発明の幾つかの実施形態の有用性を例示するものである。図1Aは、ビルが街路に隣接した街路シーンの写真である。図1Aの風景において、街路標識100は、街路に隣接する店の1つのある看板102の視界を部分的に妨げる。イメージデータセットは、図1Aの写真を合体することができる。異なるイメージデータセットが異なる目的を果たし、これら目的の幾つかに対して、店の看板102が明確に読み取れることが好ましい。
図1Bは、図1Aとは若干異なる視点から撮影された別の写真である。図1Aと1Bを比較すると、前景の街路標識100が、背景の店の看板102に対して「移動」されている。この視差「移動」のために、図1Aでは妨げられた店の看板102が、図1Bでは、はっきり見える。(又、図1Aでは見える店の看板102の部分が、図1Bでは、妨げられている。)
図1A及び1Bを一緒にすると、店の看板102の全体を示すのに充分な情報を有している。以下に述べる技術を使用し、これら2つの図面からの情報を処理して、街路標識100の妨げ部分を効果的に「除去」し、従って、店の看板102の全体を見ることができるようにする。その結果が図1Cである。ここでは、視点は、図1Aと同じであるが、図1Cの処理されたイメージは、店の看板102の全体を示している。それにより得られるイメージデータセットを見るときには、図1Cの処理されたイメージが図1Aのイメージに効果的に置き換わり、従って、店の看板102を完全にみることができるようにする。
図1Cの例では、店の看板102の妨げとなる街路標識100の部分のみが除去され、街路標識100のほとんどは、その場所に残される。これは、街路標識100の妨げ部分の除去を明確に例示することを意味している。幾つかの実施形態では、街路標識100の全体が効果的に除去されることも予想される。又、目に見える他の物体を除去することもできる。例えば、図示された人物は、以下に述べる技術を使用してシーンから効果的に除去することができる。幾つかの実施形態では、街路標識100の妨げ部分がその場所に残されるが、視覚上「目立たないようにされ」(例えば、半透明にされ)、その後方の店の看板102が明らかにされる。
図2A及び2Bは、イメージデータセットをポピュレートするためのシステムを例示する。(例えば、このシステムは、図1A及び1Bのイメージを捕獲するのに使用することができる。)これら図面のシステムは、実世界の現場のイメージを収集する。図2Aにおいて、乗物200は、道路202に沿って運転される。乗物200は、イメージ捕獲システム204を備えている。このイメージ捕獲システム204は、道路202の両側の重畳する静止イメージ又はビデオを撮影する複数のカメラを含むことができる。イメージ又はビデオは、適当なフォーマット、例えば、*.jpg、*.mpg、*.avi、*.bmp、*.mov、等である。又、乗物200は、その現在位置を決定するためのシステム、例えば、GPS受信器も備えている。乗物200が道路202に沿って進むにつれて、捕獲されたイメージが記憶され、各画像が撮影された地理的位置に関連付けられる。
幾つかの実施形態では、イメージ捕獲システム204は、レンジファインダー装置、例えば、LIDARを備えている。イメージ捕獲システム204及びレンジファインダー装置は、イメージ捕獲システム204からそれが見ているものまでの距離が検出されて記録されるように、「登録」される。このようなシステムでは、捕獲されたイメージの一部分(例えば、各ピクセル又はピクセルのグループ)が、イメージ捕獲システム204からイメージの一部分における物体までの距離に関連付けられる。レンジファインダー装置が、乗物の位置決定システム(例えば、GPS)に結合されるときには、各ピクセルの正確な実世界地理的位置が分かる。この位置情報と共に記憶されるときには、得られるピクセルが「3Dピクセル」と称される。
206は、イメージ捕獲システム204の1台のカメラのみの視点を示す。乗物200がビル208を通過するときには、このカメラ(及び他のカメラ、図示せず)がビル208の種々のエリアを像形成する。ビル208の前方に位置されているのは、「遮っている物体」であり、ここでは、道標210で表わされている。これらは、その後方にあるものを隠す(又は「遮る)ので、「遮っている物体」と称される。図2Aの例では、図示された視点206から、ビル208の玄関口212は、道標210の1つによって部分的に遮られる。多くのアプリケーションでは、ビル208の正面に関心があり、これらの道標210を除去するか又は目立たないようにすることが望まれる。
乗物200が道路202に沿って進むにつれて、1台のカメラで最初に像形成されたビル208のエリアは、今度は、他のカメラ(又は別の観点から同じカメラ)で再び像形成される。例えば、玄関口212は、図2Aにおいて、前方を見るカメラにより視点206で像形成され、図2Bでは、同じ玄関口212が、側部を見るカメラにより視点214で像形成される。(多くの実施形態では、イメージ捕獲システム204の各カメラは、乗物200に対して固定の配向を維持する。他の実施形態では、乗物200が移動するときにカメラがパンする。)この説明で、図2Bに対する要点は、この視点214において、玄関口212がいずれの道標210によっても遮られないことである。以下で詳細に述べるように、この事実を使用して、図2A及び2Bに示すシステムにより捕獲されたイメージを記憶するイメージデータセットにおいて玄関口212のような遮られた物体を明らかにすることができる。
捕獲されたイメージを記憶しそして使用するシステムが図3に例示されている。このシステムを使用するための方法が図4に例示されている。イメージ捕獲システム204は、そのイメージをイメージデータセット300へ配送する。イメージデータセット300は、多数のコンピュータ読み取り可能なメディアのいずれかに記憶される。例えば、1つ以上のハードドライブにおいて1つ以上の位置に記憶されてもよい。使用及び処理中に、イメージデータセット300の部分を、コンピュータのRAM又はROMにロードすることができる。イメージデータセット300が何らかの仕方で変換又は処理されると、それにより得られたものが同じコンピュータ読み取り可能なメディア又は別のメディアに記憶される。変換されたイメージデータセット300は、その全体又は一部分が、CDのような有形のメディアにおいてユーザに配布されてもよいし、或いはインターネットのようなネットワークを経て又はワイヤレスリンクを経てユーザの移動ナビゲーションシステムへ送信されてもよい。
多数の異なるアプリケーションでこの同じイメージデータセット300を使用することができる。1つの実施例として、イメージベースのナビゲーションアプリケーション302は、ユーザが街路202に沿って仮想的に歩くのを許す。ユーザがどこへ移動しようと又はどの方向に自分の頭を回転しようと、ナビゲーションアプリケーション302は、ユーザの仮想位置及び視点に対応する実世界の現場からの写真イメージをユーザのコンピュータスクリーンに表示する。捕獲されたイメージは、特許出願第11/796,789号に開示された如き技術を使用して一緒に「縫合」され、シームレスの360度視野(又は360度周囲プラス上下)を与える。
イメージに基づくナビゲーションアプリケーション302及び他のアプリケーションにより与えられる経験を向上させるために、図3のシステムは、「物体評価装置」304と称される別のコンポーネントを備えている。この評価装置304は、イメージデータセット300におけるデータにより表わされた視覚上の物体を再調査し、そしてこれら物体のどれを除去すべきか、さもなければ、目立たないようにすべきか決定する。(図4のステップ402)。
種々の実施形態は、視覚上の物体を除去すべきか又は目立たないようにすべきかどうか判断するために1つ以上の技術を使用する。物体評価装置304は、「相対的位置の決定装置」306をコールし、ある物体が別の物体の前方にあってそれを部分的に遮っているかどうか調べる。(図4のステップ400)。もしそうであれば、前方の物体を除去するか又は目立たないようにする必要がある。これは、図2Aの道標210を伴う状態である。相対的位置の決定装置306の実施形態は、種々の技術を並列に適用することができる。第1に、イメージ捕獲システム204がレンジファインダーを含みそしてピクセルが3Dであるときには、位置情報を検査して、どの物体がカメラに接近し、ひいては、背景の物体の前方にあるか調べる。(ある実施形態では、イメージデータセット300における視覚上の物体の全部ではないが幾つかが直接的な位置情報を含む。即ち、若干のピクセルのみが3Dである。このケースでは、視覚上の物体の位置は、周囲の物体の既知の位置をクロス相関することからしばしば推定できる。)第2に、複数のイメージが同様のエリアを捕獲するときには、イメージが比較され、そして前景の物体が背景の物体に対して視差だけ「移動」する。
別の物体識別技術は、特に、人物を表す物体を見出す。イメージデータセット300が実世界の現場を表すときには、その捕獲されたイメージが歩行者の光景を含むことがある。プライバシーの問題のために、歩行者の光景を除去するか又はぼかすことが望ましい。歩行者は、相対的位置の決定装置306によって確認されてもよいし、又は特定の顔検出ソフトウェア308により確認することもできる。
更に別の識別技術が「移動検出器」コンポーネント310により表わされる。このコンポーネント310は、複数のイメージを再調査して、あるイメージが捕獲されたときと、次のイメージが捕獲された時との間の時間インターバル中に、物体、例えば、乗物が物理的に移動したかどうか調べる。イメージデータセット300を使用する幾つかのアプリケーションでは、移動物体には関心がなく、除去されてもよい。(この並進移動は、上述した見掛け上の視差移動とは異なることに注意されたい。それでも、これら2つの形式の動き検出器の間にはソフトウェア的に充分な重畳があってもよい。)
ある実施形態は、物体を選択する行為を、選択された物体を実際に除去又は目立たないようにする行為から厳密に分離する。この分離のために、以下に述べる除去/目立たないようにする技術を、どの視覚上の物体を除去し又は目立たないようにするか判断する多数の異なる技術と共に使用することができる。これらの技術は、特定の状態及び基準に基づいてそれらの判断を行う。例えば、犯罪にブルーの車が使用されたことを目撃者が当局に告げる。上述した識別技術が変更され、ブルーでない全ての車がシーンから除去される。余計な車が除去されると、変更されたシーンは、目撃者が希望の乗物を更に識別する上で助けとなる。別の技術は、選択された遮られた物体の所与の距離内にある全ての遮っている物体を除去するように選択を行う。第3の例では、全ての遮っている物体が、ある選択された街路住所から別の街路住所まで所与の街路に沿って除去される。他の状態が生じたときには、他の除去基準が開発され、除去/目立たないようにする技術に送り込まれる。
視覚上の物体が、除去するか又は目立たないようにするために選択されると、その視覚上の物体を表しているデータが、物体置き換え装置312により、イメージデータセット300から単に除去される。(図4のステップ404)しかしながら、異なるアプリケーションは、何を除去すべきで、何を除去すべきでないかの異なる要求を有する。従って、ある実施形態では、データがその場所に残されるが、そのデータに何らかの仕方でフラグを立てることにより、選択された物体を「効果的に削除」し、従って、あるアプリケーションは、選択されたオブジェクトが存在しないかのように働くことができ、他のアプリケーションは、フラグの立った物体を表示するように選択することができる。別の実施形態では、削除のために選択された物体がその場所に残されるが、視覚上、目立たないようにされる。ここで、ユーザは、依然、遮っている物体のイメージを見るが、同時に、それを通して、遮られた物体を見る。例えば、図1Cは、街路標識100が依然見えるが、半透明であるか、又は輪郭だけ示され、従って、店の看板102を読み取れるように、変更することができる。更に別の実施形態では、除去された物体を表すデータが、仮想物体追加装置314(以下に述べる)により後で使用できるようにレポジトリーに記憶される。
ある環境では、選択された視覚上の物体が効果的に除去されるか又は目立たないようにされると、物体置き換え装置312の作用は、完了されない。図2Aに戻ると、道標210を表すデータは削除されるが、視点206から見て玄関口212に視覚上の「穴」を残す。この視覚上の穴を埋めるために多数の技術を適用することができる。図2Bにおいて、視点214は、遮られることのない玄関口212全体を含む。図2Bにおいて得られるピクセルを使用して、視覚上の穴を埋めることができる。視点206(図2A)及び214(図2B)の角度が異なるために、既知の技術(アフィン変換のような)を使用して、視点214からのピクセルを最初に補間又は変換した後に、それらを視点206に対するイメージに入れる。(図4のステップ406)それにより得られるイメージデータセット300は、今や、道標210が存在しないか又は半透明であるかのように、図2A及び2Bの現場を描写するのに使用できる。
ある状況において、物体置き換え装置312は、多数の候補イメージの中で選択を行って、視覚上の物体を除去するか又は目立たなくするときに生成された穴を埋めるのに必要なピクセルを得ることができる。イメージデータセット300が同じシーンの複数の走行中の車からのイメージを含むときには、物体置き換え装置312は、どのイメージを作用させるべきか選択するために任意の数の基準を適用する。例えば、照明は、ある走行中の車においては、他のものより良好である。又、落葉樹は、冬季には夏季より背景をあまり遮らない。適当なイメージ(又は必要に応じて、イメージの適当な組み合わせ)を選択すると、物体置き換え装置312は、上述した技術を適用して、視覚上の穴を埋める。
あるシーン(例えば、遮っている物体が多数ある街路)では、イメージデータセット300は、遮っている物体が効果的に除去されるか又は目立たないようにされたときに残った視覚上の穴を完全に埋めるに充分な情報をもたないことがある。どんな視覚情報を供給すべきか推測し、次いで、それに基づいて進行することができる。例えば、街路の片側に煉瓦の壁があり、その壁は、それが見えるところはほぼ均一である。従って、煉瓦の視覚上のテクスチャーは、常に遮られる位置でも補間することができる。混成解決策も時々は有用であり、遮られないイメージを使用して視覚上の穴をできるだけ埋めると共に、残りは補間を使用する。
イメージデータセット300の更なる使用が意図される。選択された物体が除去されると、仮想的な視覚上の物体をイメージデータセット300に追加することにより、「仮想世界の現場」を生成することができる。(図3の仮想物体追加コンポーネント314。)例えば、仮想風景アプリケーションは、フラワープランターや木のような物体を街路シーンに追加して、それらの審美的な見掛けを評価することができる。(図4のステップ408)標識、バス停、及び他の機能的要素を追加することができ、それらの利用性がテストされる。(例えば、充分な距離から、充分な視角にわたって街路標識が見えるか?)得られるイメージデータセット300が実世界の現場ではなく仮想世界の現場を描写するまで視覚上の物体を追加及び削除することができる。ある実施形態では、仮想物体追加装置314は、それ自身のデータレポジトリーから視覚上の物体を描く。このレポジトリーは、とりわけ、イメージデータセット300から除去された視覚上の物体を表すデータを含むことができる。従って、実際の木を表す視覚上の物体は、それが背景を遮るので、ある光景から除去される。次いで、仮想風景アプリケーションは、同じデータを使用して、仮想的な木を別の光景に追加する。
変換されたイメージデータセット300は、図5に例示されたコンピューティングプラットホーム500のような装置からアクセスすることができる。このプラットホーム500は、例えば、上述したイメージベースのナビゲーションアプリケーション302を含む1つ以上のアプリケーション502を実行する。このアプリケーション302の場合に、ユーザは、インターフェイス506(キーボード、マウス、マイクロホン、音声認識ソフトウェア、等)により与えられるツールを使用してナビゲーションを行う。それに応答して、アプリケーション302は、変換されたイメージデータセット300から情報を読み取り、それをユーザインターフェイス506のディスプレイ508に表示する。
コンピューティングプラットホーム500のある実施形態は、地理的情報データベース504へのアクセスを含む。このデータベース504を使用して、プラットホーム500は、ルート計算、ルートガイダンス、行き先選択、電子イエローページ、乗物ポジショニング、及びマップ表示のようなナビゲーション関連アプリケーション502を提供することができる。他のアプリケーション502も考えられる。この地理的データベース504は、ユーザの乗物512が位置する地理的エリアに関するデータを含むことができる。ある実施形態では、地理的データベース504は、道路及び交差点の位置を示すデータを含めて、地理的エリアにおける道路に関するデータを含む。又、地理的データベース504は、道路の名前、一方向街路、レーンの数、交通信号及び標識の位置、速度限界、回転の制限、住所範囲、等に関する情報を含んでもよい。又、地理的データベース504は、関心のあるポイント、例えば、会社、目印、美術館、ATM、官庁舎、等に関する情報を含んでもよい。ある実施形態では、地理的データベース504におけるデータは、ナビゲーション関連機能を与えるのに最適なフォーマットである。
ある実施形態では、アプリケーション502は、GPS装置のようなポジショニングシステム510からの情報にアクセスすることができる。ポジショニングシステム510は、慣性センサ、差動車輪速度センサ、コンパス、又はユーザの乗物512の位置を決定できるようにする他の装置を含む。位置は、地理的座標(緯度、経度及び高度)、街路住所として又は他の仕方で決定することができる。
ある実施形態では、コンピューティングプラットホーム500は、乗物内ナビゲーションシステムとして乗物512にインストールされたハードウェア、ソフトウェア及びデータの組合せである。又、プラットホーム500は、特殊目的のハンドヘルドナビゲーション装置、パーソナルデジタルアシスタント、パーソナルコンピュータ、又はナビゲーションアプリケーションをサポートする移動電話にインストールすることもできる。コンピューティングプラットホーム500は、ハードウェア、ソフトウェア及びデータが、全て、ローカルに、例えば、乗物512内に位置されたスタンドアローンプラットホームでよい。或いは又、コンピューティングプラットホーム500は、ネットワーク、例えば、インターネット又はワイヤレスネットワークに接続されてもよい。ある実施形態では、変換されたイメージデータセット300及び地理的データベース504は、コンピューティングプラットホーム500からリモートに位置され、ネットワークを経てアクセスされる。ある実施形態では、データセット300及びデータベース504は、コンピューティングプラットホーム500に対してローカルであるが、ネットワークを経て更新が受け取られる。又、あるアプリケーション502は、ネットワークを経て全体的に又は部分的に与えることもできる。
本発明の原理を適用できる多数の実施形態に鑑み、添付図面を参照してここに述べた実施形態は、単なる例示であって、本発明の範囲を限定するものではないことを理解されたい。例えば、ある環境における実施形態は、他のイメージ捕獲システムの利点を取り入れることもできるし、又はここに例示したもの以外のエンドユーザアプリケーションをサポートすることもできる。それ故、ここに述べた本発明は、特許請求の範囲及びその等好物の範囲内で生じ得るこのような全ての実施形態を意図している。
街路の標識によって部分的に遮られた店の看板を示す街路の現場の写真である。 図1Aに示された同じ現場の写真であるが、図1Aにおいて遮られた店の看板の同じ部分を街路の標識が遮らない異なる視点から撮影された写真である。 図1Aと同じ景色を示す写真であるが、店の看板を遮る街路の標識の部分を除去しそして空いたスペースを店の看板の欠落部分に置き換えるように後処理された写真である。 街路の現場においてイメージを収集する乗物の頭上概略図で、玄関口が道標によって部分的に遮られるところを示す図である。 図2Aと同様であるが、乗物が街路に沿って移動して、玄関口が道標により遮られない位置まで来たところを示す図である。 イメージをイメージデータセットへ収集しイメージデータセットを後処理するためのシステムを例示する概略図である。 イメージデータセットを後処理する方法を例示するフローチャートである。 変換されたイメージデータセットにアクセスするエンドユーザのコンピューティングプラットホームを例示する概略図である。
符号の説明
100:街路標識
102:店の看板
200:乗物
202:道路
204:イメージ捕獲システム
206:視点
208:ビル
210:道標
212:玄関口
214:視点
300:イメージデータセット
302:ナビゲーションアプリケーション
304:評価装置
306:相対的位置の決定装置
308:顔検出ソフトウェア
310:移動検出器コンポーネント
312:物体置き換え装置
314:仮想物体追加コンポーネント
500:コンピューティングプラットホーム
502:アプリケーション
504:地理的データベース
506:インターフェイス
508:ディスプレイ
510:ポジショニングシステム
512:ユーザの乗物

Claims (32)

  1. イメージデータセットを変換するための方法において、前記イメージデータセットは、第1物体及び第2物体を表すデータを含み、第1物体は、少なくとも1つの視点から第2物体を少なくとも部分的に遮るものであり、前記方法は、
    第1のコンピュータ読み取り可能なメディアから前記イメージデータセットを読み取るステップと、
    前記第1及び第2物体の相対的な位置を決定するステップと、
    前記第1及び第2物体の相対的な位置に少なくとも一部分基づいて、前記第2物体を明らかにするように前記イメージデータセットを変換するステップと、
    前記変換されたイメージデータセットを第2のコンピュータ読み取り可能なメディアに記憶するステップと、
    を備えた方法。
  2. 前記第1及び第2のコンピュータ読み取り可能なメディアは、同じメディアである、請求項1に記載の方法。
  3. 前記イメージデータセットは、複数の視点から取られた複数のイメージを含み、少なくとも幾つかのイメージは重畳する、請求項1に記載の方法。
  4. 前記イメージデータセットは、実世界の現場及び仮想世界の現場より成るグループから選択された現場を表す、請求項1に記載の方法。
  5. 前記イメージデータセットは、3Dピクセルを含む、請求項1に記載の方法。
  6. 第1及び第2物体の相対的な位置を決定する前記ステップは、前記第1及び第2の物体を表す3Dピクセルのセットの位置情報を比較する段階を含む、請求項5に記載の方法。
  7. 前記第1物体は、人物、乗物、構造物、標識及び植物より成るグループから選択された品目を表す、請求項1に記載の方法。
  8. 第1及び第2物体の相対的な位置を決定する前記ステップは、
    前記イメージデータセットにおける複数のイメージを比較する段階と、
    前記比較に少なくとも一部分基づいて、前記第2物体に対する前記第1物体の視差移動を見出す段階と、
    を含む請求項1に記載の方法。
  9. 前記イメージデータセットを変換する前記ステップは、更に、前記第1物体の顔を検出することに少なくとも一部分基づく、請求項1に記載の方法。
  10. 前記イメージデータセットを変換する前記ステップは、更に、
    前記イメージデータセットにおける複数のイメージを比較すること、及び
    前記比較に少なくとも一部分基づいて、前記第2物体に対する前記第1物体の並進移動を見出すこと、
    に少なくとも一部分基づく、請求項1に記載の方法。
  11. 前記イメージデータセットを変換する前記ステップは、前記第1物体を表すデータの少なくとも幾つかを削除すること、前記第1物体を表すデータの少なくとも幾つかにフラグを立てること、及び前記第1物体の少なくとも幾つかを半透明にすること、より成るグループから選択された技術を適用する段階を含む、請求項1に記載の方法。
  12. 前記イメージデータセットを変換する前記ステップは、前記第2物体における3Dピクセルを補間する段階を含む、請求項1に記載の方法。
  13. 第2物体における3Dピクセルを補間する前記段階は、
    前記イメージデータセットにおける複数のイメージからの3Dピクセルを比較する工程と、
    第1のイメージにおける前記第1物体により遮られた3Dピクセルを、第2のイメージにおける同じ場所に対応し且つ前記第1物体により遮られない3Dピクセルに置き換える工程と、
    を含む請求項12に記載の方法。
  14. 前記第1物体により遮られない前記第2のイメージにおける3Dピクセルの少なくとも幾つかにアフィン変換を適用する工程を更に含む、請求項13に記載の方法。
  15. 前記イメージデータセットを変換する前記ステップは、前記第2物体に隣接する物体のテクスチャーを補間する段階を含む、請求項1に記載の方法。
  16. 第3物体を表すデータを追加することにより前記イメージデータセットを変換するステップを更に備えた、請求項1に記載の方法。
  17. イメージデータセットを変換するための方法に対するコンピュータ実行可能なインストラクションを含むコンピュータ読み取り可能なメディアにおいて、前記イメージデータセットは、第1物体及び第2物体を表すデータを含み、第1物体は、少なくとも1つの視点から第2物体を少なくとも部分的に遮るものであり、前記方法は、
    第1のコンピュータ読み取り可能なメディアからイメージデータセットを読み取り、
    前記第1及び第2物体の相対的な位置を決定し、
    前記第1及び第2物体の相対的な位置に少なくとも一部分基づいて、前記第2物体を明らかにするように前記イメージデータセットを変換し、そして
    前記変換されたイメージデータセットを第2のコンピュータ読み取り可能なメディアに記憶する、
    ことを含む、コンピュータ読み取り可能なメディア。
  18. イメージデータセットを変換するためのシステムにおいて、
    実世界の現場を表す複数のイメージを収集するカメラシステムであって、前記イメージは、複数の視点から取られたもので、少なくとも幾つかのイメージが重畳するようなカメラシステムと、
    前記カメラシステムにより収集されたイメージを含むイメージデータセットを収容するための第1のコンピュータ読み取り可能なメディアと、
    前記イメージデータセットにおけるデータにより表わされた物体の相対的な位置を決定するプログラムと、
    前記イメージデータセットにおける第1物体が少なくとも1つの視点から第2物体を少なくとも部分的に遮るかどうか決定するプログラムと、
    前記少なくとも部分的に遮られた物体を明らかにするように前記イメージデータセットを変換するプログラムと、
    前記変換されたイメージデータセットを収容するための第2のコンピュータ読み取り可能なメディアと、
    を備えたシステム。
  19. 前記第1及び第2のコンピュータ読み取り可能なメディアは同じメディアである、請求項18に記載のシステム。
  20. 前記カメラシステムは、位置情報を収集するためのLIDARシステムを含む、請求項18に記載のシステム。
  21. 前記イメージデータセットは3Dピクセルを含む、請求項18に記載のシステム。
  22. 物体を表すデータを追加することにより前記イメージデータセットを変換するためのプログラムを更に備えた、請求項18に記載のシステム。
  23. 変換されたイメージデータセットを収容するコンピュータ読み取り可能なメディアであって、前記変換されたイメージデータセットは、初期のイメージデータセットから少なくとも一部分導出され、該導出は、遮っている物体により少なくとも一部分遮られた物体を明らかにするように前記イメージデータセットを変換することを含む、コンピュータ読み取り可能なメディア。
  24. 前記変換されたイメージデータセットは、実世界の現場及び仮想世界の現場より成るグループから選択された現場を表す、請求項23に記載のコンピュータ読み取り可能なメディア。
  25. 前記変換されたイメージデータセットは、3Dピクセルを含む、請求項23に記載のコンピュータ読み取り可能なメディア。
  26. イメージデータセットを変換することは、前記遮っている物体を表すデータの少なくとも幾つかを削除すること、前記遮っている物体を表すデータの少なくとも幾つかにフラグを立てること、及び前記遮っている物体の少なくとも幾つかを半透明にすること、より成るグループから選択された技術を適用することを含む、請求項23に記載のコンピュータ読み取り可能なメディア。
  27. 変換されたイメージデータセットにアクセスする方法において、前記変換されたイメージデータセットは、初期のイメージデータセットから少なくとも一部分導出され、該導出は、別の物体により少なくとも一部分遮られた物体を明らかにするように前記イメージデータセットを変換することを含み、前記方法は、
    前記変換されたイメージデータセットにおけるイメージを表すデータをコンピュータ読み取り可能なメディアから読み取るステップと、
    ナビゲーション情報を受け取るステップと、
    前記受け取ったナビゲーション情報に少なくとも一部分基づいて、視点を決定するステップと、
    前記視点に基づいて前記変換されたイメージデータセットからイメージを与えるステップと、
    を備えた方法。
  28. イメージベースのナビゲーションアプリケーション、ルート計算器、ルートガイダンスアプリケーション、行先セレクタ、電子イエローページ、乗物ポジショニングアプリケーション、及びマップ表示アプリケーションより成るグループから選択されたアプリケーションを備えた、請求項27に記載の方法。
  29. 前記イメージデータセットは、実世界の現場及び仮想世界の現場より成るグループから選択された現場を表す、請求項27に記載の方法。
  30. コンピュータ読み取り可能なメディアから読み取る前記ステップは、ネットワークを経て読み取ることを含む、請求項27に記載の方法。
  31. 前記変換されたイメージデータセットに対する更新を受け取るステップを更に備えた、請求項27に記載の方法。
  32. 変換されたイメージデータセットにアクセスする方法を遂行するためのコンピュータ実行可能なインストラクションを含むコンピュータ読み取り可能なメディアにおいて、前記変換されたイメージデータセットは、初期のイメージデータセットから少なくとも一部分導出され、該導出は、別の物体により少なくとも一部分遮られた物体を明らかにするように前記イメージデータセットを変換することを含み、前記方法は、
    前記変換されたイメージデータセットにおけるイメージを表すデータをコンピュータ読み取り可能なメディアから読み取り、
    ナビゲーション情報を受け取り、
    前記受け取ったナビゲーション情報に少なくとも一部分基づいて、視点を決定し、
    前記視点に基づいて前記変換されたイメージデータセットからイメージを与える、
    ことを含むものである、コンピュータ読み取り可能なメディア。
JP2008303147A 2007-10-30 2008-10-30 イメージデータセットにおける遮られた物体を明らかにするシステム及び方法 Pending JP2009134719A (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US11/980,033 US8086071B2 (en) 2007-10-30 2007-10-30 System and method for revealing occluded objects in an image dataset

Publications (1)

Publication Number Publication Date
JP2009134719A true JP2009134719A (ja) 2009-06-18

Family

ID=40300470

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008303147A Pending JP2009134719A (ja) 2007-10-30 2008-10-30 イメージデータセットにおける遮られた物体を明らかにするシステム及び方法

Country Status (3)

Country Link
US (1) US8086071B2 (ja)
EP (1) EP2056256A3 (ja)
JP (1) JP2009134719A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10284789B2 (en) 2017-09-15 2019-05-07 Sony Corporation Dynamic generation of image of a scene based on removal of undesired object present in the scene
US11184531B2 (en) 2015-12-21 2021-11-23 Robert Bosch Gmbh Dynamic image blending for multiple-camera vehicle systems

Families Citing this family (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8253736B2 (en) * 2007-01-29 2012-08-28 Microsoft Corporation Reducing occlusions in oblique views
US9138636B2 (en) 2007-05-16 2015-09-22 Eyecue Vision Technologies Ltd. System and method for calculating values in tile games
US8531449B2 (en) 2007-12-18 2013-09-10 Navteq B.V. System and method for producing multi-angle views of an object-of-interest from images in an image dataset
US9595108B2 (en) 2009-08-04 2017-03-14 Eyecue Vision Technologies Ltd. System and method for object extraction
KR20120089452A (ko) 2009-08-04 2012-08-10 아이큐 비젼 테크놀로지즈 리미티드 물체 추출 시스템 및 방법
US8838381B1 (en) * 2009-11-10 2014-09-16 Hrl Laboratories, Llc Automatic video generation for navigation and object finding
US8817071B2 (en) * 2009-11-17 2014-08-26 Seiko Epson Corporation Context constrained novel view interpolation
GB2475730A (en) * 2009-11-27 2011-06-01 Sony Corp Transformation of occluding objects in 2D to 3D image generation
US20110144909A1 (en) * 2009-12-14 2011-06-16 Robert Bosch Gmbh Personalized and context-sensitive 3d route guidance
US9336452B2 (en) * 2011-01-16 2016-05-10 Eyecue Vision Technologies Ltd. System and method for identification of printed matter in an image
US8565958B1 (en) * 2011-06-02 2013-10-22 Google Inc. Removing extraneous objects from maps
US9813607B2 (en) * 2011-12-16 2017-11-07 Nokia Technologies Oy Method and apparatus for image capture targeting
BR112014023249A8 (pt) * 2012-03-27 2017-07-25 Sony Corp Dispositivo e método de processamento de informação, e, programa
US8914894B2 (en) * 2012-09-21 2014-12-16 Intel Corporation Enhanced privacy for provision of computer vision
US9501831B2 (en) * 2012-10-02 2016-11-22 Google Inc. Identification of relative distance of objects in images
WO2014102440A1 (en) * 2012-12-27 2014-07-03 Nokia Corporation Method, apparatus and computer program product for image rendering
US9426451B2 (en) 2013-03-15 2016-08-23 Digimarc Corporation Cooperative photography
US9164511B1 (en) 2013-04-17 2015-10-20 Google Inc. Use of detected objects for image processing
US9449227B2 (en) * 2014-01-08 2016-09-20 Here Global B.V. Systems and methods for creating an aerial image
US9659225B2 (en) * 2014-02-12 2017-05-23 Microsoft Technology Licensing, Llc Restaurant-specific food logging from images
US9098753B1 (en) * 2014-04-25 2015-08-04 Google Inc. Methods and systems for object detection using multiple sensors
US9569693B2 (en) 2014-12-31 2017-02-14 Here Global B.V. Method and apparatus for object identification and location correlation based on received images
US9811889B2 (en) 2014-12-31 2017-11-07 Nokia Technologies Oy Method, apparatus and computer program product for generating unobstructed object views
US10720187B2 (en) 2015-09-29 2020-07-21 International Business Machines Corporation Method and apparatus to extract key video frames from online education
US9805274B2 (en) 2016-02-03 2017-10-31 Honda Motor Co., Ltd. Partially occluded object detection using context and depth ordering
US11212437B2 (en) * 2016-06-06 2021-12-28 Bryan COLIN Immersive capture and review
US10088676B2 (en) * 2016-06-30 2018-10-02 Paypal, Inc. Enhanced safety through augmented reality and shared data
JP6407225B2 (ja) * 2016-09-30 2018-10-17 キヤノン株式会社 画像処理装置及び画像処理方法及び画像処理システム及びプログラム
JP6930091B2 (ja) * 2016-11-15 2021-09-01 富士フイルムビジネスイノベーション株式会社 画像処理装置、画像処理方法、画像処理システムおよびプログラム
US10726792B2 (en) 2017-04-17 2020-07-28 Intel Corporation Glare and occluded view compensation for automotive and other applications
US10623680B1 (en) 2017-07-11 2020-04-14 Equinix, Inc. Data center viewing system
CN107656961B (zh) * 2017-08-04 2020-03-27 阿里巴巴集团控股有限公司 一种信息显示方法及装置
GB2568278A (en) * 2017-11-10 2019-05-15 John Hudson Raymond Image replacement system
WO2019186860A1 (ja) * 2018-03-29 2019-10-03 三菱電機株式会社 画像処理装置、画像処理方法、及び監視システム
US10878588B2 (en) * 2018-06-22 2020-12-29 X Development Llc Detection and replacement of transient obstructions from high elevation digital images
JP7275556B2 (ja) * 2018-12-14 2023-05-18 トヨタ自動車株式会社 情報処理システム、プログラム、及び情報処理方法
US11388775B2 (en) * 2019-09-11 2022-07-12 Honeywell International Inc. Systems and methods for identifying blockages of emergency exists in a building
WO2021185068A1 (en) * 2020-03-18 2021-09-23 Maycas Inventions Limited Methods and apparatus for pasting advertisement to video
CN115223384B (zh) * 2021-03-29 2024-01-16 东风汽车集团股份有限公司 一种车辆数据显示方法、装置、电子设备和存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07282259A (ja) * 1994-04-13 1995-10-27 Matsushita Electric Ind Co Ltd 視差演算装置及び画像合成装置
JP2003287434A (ja) * 2002-01-25 2003-10-10 Iwane Kenkyusho:Kk 画像情報検索システム
JP2005122315A (ja) * 2003-10-14 2005-05-12 Kazuo Iwane 3dcg合成装置
US20060120592A1 (en) * 2004-12-07 2006-06-08 Chang-Joon Park Apparatus for recovering background in image sequence and method thereof

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
NL8900056A (nl) 1989-01-11 1990-08-01 Philips Nv Werkwijze voor het visueel weergeven van een deel van een topografische kaart, alsmede inrichting geschikt voor een dergelijke werkwijze.
EP0633546B1 (en) * 1993-07-02 2003-08-27 Siemens Corporate Research, Inc. Background recovery in monocular vision
US5774569A (en) 1994-07-25 1998-06-30 Waldenmaier; H. Eugene W. Surveillance system
US6205231B1 (en) * 1995-05-10 2001-03-20 Identive Corporation Object identification in a moving video image
WO1997000582A1 (en) * 1995-06-16 1997-01-03 Princeton Video Image, Inc. System and method of real time insertions into video using adaptive occlusion with a synthetic reference image
US6956573B1 (en) * 1996-11-15 2005-10-18 Sarnoff Corporation Method and apparatus for efficiently representing storing and accessing video information
US6222583B1 (en) 1997-03-27 2001-04-24 Nippon Telegraph And Telephone Corporation Device and system for labeling sight images
US7116323B2 (en) * 1998-05-27 2006-10-03 In-Three, Inc. Method of hidden surface reconstruction for creating accurate three-dimensional images converted from two-dimensional images
US6266442B1 (en) 1998-10-23 2001-07-24 Facet Technology Corp. Method and apparatus for identifying objects depicted in a videostream
US6466205B2 (en) * 1998-11-19 2002-10-15 Push Entertainment, Inc. System and method for creating 3D models from 2D sequential image data
US6760488B1 (en) * 1999-07-12 2004-07-06 Carnegie Mellon University System and method for generating a three-dimensional model from a two-dimensional image sequence
JP3908419B2 (ja) * 1999-09-14 2007-04-25 アルパイン株式会社 ナビゲーション装置
JP2002163672A (ja) * 2000-11-28 2002-06-07 Mitsubishi Electric Corp 3次元グラフィックス描画装置およびその方法
US6760026B2 (en) * 2001-01-02 2004-07-06 Microsoft Corporation Image-based virtual reality player with integrated 3D graphics objects
JP4729812B2 (ja) * 2001-06-27 2011-07-20 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
DE10236221C1 (de) 2002-08-07 2003-11-20 Siemens Ag Verfahren und Vorrichtung zur Anzeige von Navigationsinformationen für ein Fahrzeug
US8797402B2 (en) 2002-11-19 2014-08-05 Hewlett-Packard Development Company, L.P. Methods and apparatus for imaging and displaying a navigable path
US6987883B2 (en) * 2002-12-31 2006-01-17 Objectvideo, Inc. Video scene background maintenance using statistical pixel modeling
US6999600B2 (en) * 2003-01-30 2006-02-14 Objectvideo, Inc. Video scene background maintenance using change detection and classification
US20050129324A1 (en) * 2003-12-02 2005-06-16 Lemke Alan P. Digital camera and method providing selective removal and addition of an imaged object
US7155336B2 (en) 2004-03-24 2006-12-26 A9.Com, Inc. System and method for automatically collecting images of objects at geographic locations and displaying same in online directories
CN101208723A (zh) * 2005-02-23 2008-06-25 克雷格·萨默斯 用于3维照相机和3维视频的自动场景建模
GB0523512D0 (en) 2005-11-18 2005-12-28 Applied Generics Ltd Enhancing traffic and navigation information with visual and audio data
US20080112610A1 (en) * 2006-11-14 2008-05-15 S2, Inc. System and method for 3d model generation
US7688229B2 (en) 2007-04-30 2010-03-30 Navteq North America, Llc System and method for stitching of video for routes

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07282259A (ja) * 1994-04-13 1995-10-27 Matsushita Electric Ind Co Ltd 視差演算装置及び画像合成装置
JP2003287434A (ja) * 2002-01-25 2003-10-10 Iwane Kenkyusho:Kk 画像情報検索システム
JP2005122315A (ja) * 2003-10-14 2005-05-12 Kazuo Iwane 3dcg合成装置
US20060120592A1 (en) * 2004-12-07 2006-06-08 Chang-Joon Park Apparatus for recovering background in image sequence and method thereof

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11184531B2 (en) 2015-12-21 2021-11-23 Robert Bosch Gmbh Dynamic image blending for multiple-camera vehicle systems
US10284789B2 (en) 2017-09-15 2019-05-07 Sony Corporation Dynamic generation of image of a scene based on removal of undesired object present in the scene

Also Published As

Publication number Publication date
US20090110239A1 (en) 2009-04-30
EP2056256A3 (en) 2017-03-22
EP2056256A2 (en) 2009-05-06
US8086071B2 (en) 2011-12-27

Similar Documents

Publication Publication Date Title
US8086071B2 (en) System and method for revealing occluded objects in an image dataset
US9858717B2 (en) System and method for producing multi-angle views of an object-of-interest from images in an image dataset
JP7127165B2 (ja) 初期ナビゲーションにおいて視覚ランドマークを使用するためのシステムおよび方法
US8000895B2 (en) Navigation and inspection system
US11386672B2 (en) Need-sensitive image and location capture system and method
US7688229B2 (en) System and method for stitching of video for routes
US20100296705A1 (en) Method of and arrangement for mapping range sensor data on image sensor data
US20100215250A1 (en) System and method of indicating transition between street level images
JP2002213984A (ja) パノラマ画像による案内システム、中央装置及び端末装置、並びにコンピュータプログラム及び記録媒体
EP3827222B1 (en) Method and device for navigating two or more users to a meeting location
WO2008082423A1 (en) Navigation and inspection system
JPH1166350A (ja) 検索型景観ラベリング装置およびシステム
KR20090132317A (ko) 동영상 기반 부가정보 제공 방법 및 시스템
Zheng et al. Pervasive Views: Area exploration and guidance using extended image media
Cai et al. Key views for visualizing large spaces
Zheng et al. Streaming Route Panorama for Seamless City Guidance
Okatani et al. Creating multi-viewpoint panoramas of streets with sparsely located buildings
Yu et al. Pervasive Views: Area Exploration and Guidance Using Extended Image Media
Molina et al. Mosaic-based modeling and rendering of large-scale dynamic scenes for internet applications
Krausz et al. Capturing and processing of 360° panoramic images for emergency site exploration
Cho et al. Image-based querying of urban photos and videos

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111014

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121108

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121112

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130206

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20130215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130314

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130403