JP5582548B2 - 実環境視像における仮想情報の表示方法 - Google Patents

実環境視像における仮想情報の表示方法 Download PDF

Info

Publication number
JP5582548B2
JP5582548B2 JP2012532629A JP2012532629A JP5582548B2 JP 5582548 B2 JP5582548 B2 JP 5582548B2 JP 2012532629 A JP2012532629 A JP 2012532629A JP 2012532629 A JP2012532629 A JP 2012532629A JP 5582548 B2 JP5582548 B2 JP 5582548B2
Authority
JP
Japan
Prior art keywords
image
virtual object
pose data
server
pose
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012532629A
Other languages
English (en)
Other versions
JP2013507677A (ja
Inventor
マイヤー ペーター
クーン ミハエル
アンゲルマン フランク
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Metaio GmbH
Original Assignee
Metaio GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Metaio GmbH filed Critical Metaio GmbH
Publication of JP2013507677A publication Critical patent/JP2013507677A/ja
Application granted granted Critical
Publication of JP5582548B2 publication Critical patent/JP5582548B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/024Multi-user, collaborative environment

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)

Description

本発明は、実環境視像における仮想情報の表示方法に関する。
拡張現実(感)(AR)とは、バーチャルデータが現実の上に置かれ、それ故に、現実とデータの統合を容易にする技術である。モバイルARシステムの使用は、既に先行技術として知られている。この数年の間に、高いパフォーマンスのモバイル機器(例えば、スマートフォン(登録商標))が、ARアプリケーションに適するように生産されている。その間、これらの機器は、比較的大きなカラーディスプレイ、複数の設置カメラ、優れたプロセッサ、並びに例えば方位センサ及びGPSといったような追加センサを有するようになっている。更に付け足せば、その機器の場所は、無線ネットワークを経由して概算することができる。
過去に、ARを用いたモバイル機器に関して、実行された種々の計画があった。先ず、該機器の場所及び方位を確認するために専用の光学マークが使用された。広いエリアにも使用され、それ故域ARと称されるARに関しては、HMDs(ヘッドマウントディスプレイ。例えば非特許文献3参照。)に関連したオブジェクトの知覚的表示のための手がかりも公開されている。更に近年では、GPS及び最新機器の方位センサシステムを利用するアプローチもなされている(例えば非特許文献1、2、4、5参照)。
しかしながら、公開されたそのアプローチは、AR分野において、他のユーザのシンプルな統合を認めないという欠点を有する。更に付け足せば、GPS及びコンパスに基づいた大抵のシステムは、これらの機器が、適切に備え付けられなくてはならなく、かつ大きな誤差の発生があり得るという欠点を有する。
米国特許出願公開第2009/017985号明細書(特許文献1)は、実環境の画像における三次元メモ若しくは注釈(“ストリートビュー”)の統合方法を記載している。前記画像中の選択ボックスの手段により、ユーザは、注釈が統合される場所を選択する。その後、該選択ボックスは、画像に関連した注釈の場所を決定するために、三次元モデルに写しだされる。更には、三次元モデル上の映像に関連した場所データが決定され、ユーザによって入力された注釈に統合される。前記注釈は、サーバのデータベースの中に場所データと共に保存され、場所データに一致する実環境の別の画像に統合される。
一般的及び次の場合における“タッギング(〜を付加する)”なる用語は、ユーザによる追加情報によって、現実性を高めることを述べるときに使用される。タッギングに関連して実現されるアプローチに関する限り、特定の場所ポイントにテキストメッセージを作り出すと同時に、マップビュー(例えばグーグルマップ(登録商標))のオブジェクトを設置し、場所ポイントの写真を撮影し、追加コメントと共にこれらの画像を保存することが含まれる。そこには、遠隔の閲覧者及びユーザが、世界におけるインタラクティブなシーンへのARアクセスを得ることは出来ない、という欠点がある。AR分野のいわゆるスクリーンショット(スクリーン画像)を閲覧することは出来るが、改変することは出来ない。
米国特許出願公開第2009/017985号明細書
ARアプリ"Wikitude",インターネット<URL:http://www.mobilizy.com/wikitude.php.> ナビゲーションアプリ"Enkin",インターネット<URL:http://www.Enkin.net.> S. Feiner, B. Maclntyre,T. Hollerer, A. Webstar, "A touring machine:Prototyping 3d mobile augmented reality systems for exploring the urban environment",Proceeding of the 1st International Symposium on Wearable Computers,pp74-81,1997. セカイカメラ"Sekai Camera",インターネット<URL:http://www.tonichidot.com./product-info.html.> レイヤードットコム,インターネット<URL:http://www.layer.com.> 国家画像地図局(NIMA)、米国防総省DoD(Department of.Defense)の世界測地系 1984,テクニカルレポート TR 8350.2,第3版,2000年1月. Manolos I.A.Lourakis;Antonis A.Argyros A;"SBA:A Software Package for Generic Sparse Bundle Adjustment",ACM Transactions on Mathematical Software,Vol.36,No.1,Article 2(March 2009).
上記の事情に鑑み、本発明の目的は、実環境視像における仮想情報の表示方法であって、拡張現実を用いて他のユーザにより作り出されたAR画像場面をユーザがインタラクティブな形式で見ることを可能にし、そうする(インタラクティブな形式で見る)時に、高い精度及びユーザの利便性を保証することを可能にする表示方法を提供する。
本発明の第1実施形態によれば、実環境視像における仮想情報の表示方法であって、サーバのデータベースにおいて、地理的グローバル座標系に関連したグローバルポジション及び方位を有する少なくとも1つの仮想オブジェクトを、前記仮想オブジェクトの前記グローバルポジション及び方位について与えられる決定を容認する第1ポーズデータと共に提供する工程と、モバイル機器を用いて、少なくとも1つの実環境の画像を撮影し、前記画像が撮影された前記地理的グローバル座標系に関連したどの位置であり、どの方位であるかとの決定を容認する第2ポーズデータを提供する工程と、前記モバイル機器のディスプレイに前記画像を表示する工程と、前記サーバのデータベース内の仮想オブジェクトにアクセスし、前記第1及び第2ポーズデータに基づいて、前記ディスプレイに示された画像に前記仮想オブジェクトを位置付ける工程と、前記仮想オブジェクトを操作する、若しくは前記ディスプレイに表示された前記画像内の対応する位置に位置付けることにより、更に仮想オブジェクトを追加する工程と、前記画像における位置付けに一致する修正第1ポーズデータと共に操作された仮想オブジェクト、若しくは前記サーバの前記データベース内の前記画像の位置付けに一致する第3ポーズデータと共に更なる仮想オブジェクトを提供し、前記修正第1ポーズデータ及び前記第3ポーズデータが、前記操作された仮想オブジェクト若しくは前記更なる仮想オブジェクトの前記グローバルポジション及び方位について与えられる決定をそれぞれ容認する工程とを具備する表示方法が提供される。このことに関連して、前記画像は、例えば前記第2ポーズデータと共に、前記サーバ上に提供することができる。
本発明の更なる目的によれば、実環境視像における仮想情報の表示方法であって、サーバのデータベースにおいて、地理的グローバル座標系に関連したグローバルポジション及び方位を有する少なくとも1つの仮想オブジェクトを、前記仮想オブジェクトのグローバルポジション及び方位について与えられる決定を容認する第1ポーズデータと共に提供する工程と、データグラス(例えば、光学シースルーグラス若しくはビデオシースルーグラスと称される)を用いて、データグラスが位置付けされた前記地理的グローバル座標系に関連したどのポジションでありどの方位であるかという決定を容認する第2ポーズデータと共に、少なくとも1つの実環境視像を提供する工程と、前記サーバの前記データベース内の仮想オブジェクトにアクセスし、前記第1及び第2ポーズデータに基づいて、前記視像において前記仮想オブジェクトを位置付ける工程と、前記仮想オブジェクトを操作する、若しくは前記視像内の対応する位置に位置付けることにより、更に仮想オブジェクトを追加する工程と、前記視像における位置付けに一致する修正第1ポーズデータと共に操作された仮想オブジェクト、若しくは前記サーバの前記データベースにおける前記視像の位置付けに関連した第3ポーズデータと共に更なる仮想オブジェクトを提供し、前記修正第1ポーズデータ及び前記第3ポーズデータが、前記操作された仮想オブジェクト若しくは前記更なる仮想オブジェクトの前記グローバルポジション及び方位について与えられる決定をそれぞれ容認している工程とを具備する表示方法が提供される。
本発明の実施形態では、前記モバイル機器若しくは前記データグラスが、前記第2ポーズデータの発生手段を具備又は該手段に連結されている。
例えば、前記ポーズデータには、位置及び方位に関係する3次元(3D)の値がそれぞれ含まれている。また、実環境の画像方位は、地球の表面とは無関係に定義される。
本発明における別の実施形態においては、サーバ上に記録された位置は、実環境のそれぞれの画像又は実環境のそれぞれの視像で記憶し、それぞれの仮想オブジェクトには、ポーズデータが備わっている。
モバイル機器の位置が、例えばGPS(GPS:グローバル・ポジショニング・システム)センサによって決定される場合、モバイル機器の位置が、相対的に不正確な状態のまま決定されるということが、センサ誤差若しくはGPSに内在する誤差により起こり得る。他の画像や異なった視野角において、このことは、地理的グローバル座標系に関連した画像に、統合された仮想オブジェクトが対応する誤差を伴って位置付けられるという結果になり、そのために他の画像や異なる視野角において、そこで統合された仮想オブジェクトが、現実に対して、対応する移動した状態で示されてしまう。
実環境の画像における、仮想オブジェクトの表示や位置の精度を上げるために、本発明の方法における実施形態では、それぞれの参照視界がカメラによって撮影された地理的グローバル座標系に関連したどの位置及び方位であるかとの結果を容認するポーズデータと共に、実環境の参照視界を伴った参照データベースを提供する工程と、前記参照視界の少なくとも1つに含まれた現実オブジェクトの少なくとも一部分を伴った画像に示されている現実オブジェクトの少なくとも一部分を比較し、少なくとも1つの前記参照視像のポーズデータを伴った画像の第2ポーズデータをマッチングする工程と、前記マッチングの結果である、少なくとも1つの参照視像のポーズデータの少なくとも一部分に基づいて、前記第2ポーズデータの少なくとも一部分を修正する工程とを具備する。
更に、別の実施形態としては、前記少なくとも1つの参照視像のポーズデータを伴った画像の前記第2ポーズデータのマッチングの結果である、該画像に位置付けられた仮想オブジェクトの第1ポーズデータの少なくとも一部分を修正する工程を具備する。
本発明の更なる展開及び実施形態は、特許請求の範囲の従属請求項に記載の事項から理解される。
本発明に係る方法を実行するために使用される、システム装置の第1実施形態の概略構成を示す平面図である。 本発明に係る方法を実行するために使用される、システム装置の第2実施形態の概要を示す平面図である。 本発明に係る方法を実行するためのシステムの一実施形態におけるデータの構成の例を示す概略図である。 本発明の実施形態における共有座標系の外観を示す概略図である。 本発明の実施形態における方法の典型的な工程を示す図である。 本発明のもう一つの実施形態による方法の、特に画像ポーズを改良するために任意の手段によって補足される方法の典型的な工程を示す図である。 ポーズの改善がもたらされること無く仮想オブジェクトが配置される実環境の典型的な場面を示す図である。 ポーズの改善がもたらされた後に、仮想オブジェクトが配置される実環境の典型的な場面を示す図である。 仮想オブジェクトが配置された実世界の典型的なマップビューを示す図である。 図7Aと同じ場面を示す典型的な透視図である。
以下に、図面を参照しながら、本発明をより詳細に説明する。
図1Aは、本発明に係る方法を実行するために使用される、システム装置の第1実施形態の概略構成を示す平面図である。
図1Aにおいて、ユーザは、ディスプレイ機器として、システム装置20の一部であるディスプレイ21を具備するヘッドマウントディスプレイ(“ヘッドマウントディスプレイ”。以下、HMDと略す。)システムを身に着けている。システム装置20の少なくとも一部分は、1つ以上の互いに接続される構成要素を具備するモバイル機器としてみなされるが、詳細は後述する。構成要素は、ワイヤ接続及び/又はワイヤレスの方法により、互いに接続される。更に、例えばコンピュータ23のような構成要素のいくつかは、固定した構成要素として備え付けられ、それゆえ、ユーザと共に移動しないことも有り得る。例えば、ディスプレイ21は、コンピュータ23により与えられた仮想情報が、既知の方法で統合されているいわゆる光学シースルーデータグラス(現実がデータグラスの半透明な構造を通して見ることの出来る“光学シースルーディスプレイ”)の様式又はいわゆるビデオシースルーデータグラス(現実が、ユーザの頭部の前面に装着しているスクリーン上に表示される“ビデオシースルーディスプレイ”)の様式で、一般的に知られているデータグラスである。ユーザはそのとき、ディスプレイ21を通して若しくはディスプレイ21上で見られる、視角若しくは開口角26の範囲内における現実世界の視像70において、仮想情報10に統合され拡張させることの出来る実環境40のオブジェクト(現実世界に関連した、例えばPOIオブジェクトと略して言及される、いわゆるポイントオブインタレスト(Point of interest)オブジェクトと称されるもの)を見る。仮想オブジェクト10は、ユーザが、仮想オブジェクト10がまるで実環境40における概位に配置されているかのように知覚するように統合される。この仮想オブジェクト10の位置はまた、地球座標系のような、地理的グローバル座標系に関連したグローバルポジションとして保存されるが、それについては後述する。この方法においては、システム装置20は、本発明に係る方法に使用することの出来る、一般的に知られている拡張現実システムの第1実施形態を構成する。
ディスプレイ21は、回転センサ、GPSセンサ又は超音波センサのような増設センサ24と、それに備え付けられた光学追跡又は1つ以上の画像(“視像(views)”と称される)を撮影するためのカメラ22とを有する。ディスプレイ21は、半透明にすることが出来、或いはカメラ22のカメラ画像により現実の画像を写すようにしても良い。半透明なディスプレイ21の場合には、ユーザの目25とディスプレイ21の間で較正(キャリブレーション)が必要である。シースルー較正と称されるこの較正は、当業者に知られている。該較正は有利に、カメラ22に対して、目のポーズを同時に決定することができる。カメラは、他のユーザが利用しやすいようにするために、視像を撮影若しくは録画するために使用され得るが、そのことについては後述する。通常におけるポーズは、参照座標系に関連したオブジェクトの位置若しくは方位であると解される。ポーズを決定することに関しては、先行技術として文章化され、且つ専門家に知られた種々な方法がある。ディスプレイ21若しくはユーザの体上のどこか、又はコンピュータ23においても有利に、実世界40における地理的ポジション決定システム装置20(例えば、経度、緯度及び高度に応じて)を可能にするための、例えばGPSセンサ(GPS:全地球測位システム)のような位置センサもまたインストールされる。該システム装置のいずれの箇所におけるポーズ決定も、原則として、その結果をユーザの位置及び視像方向で提供することが可能である。
図1Bは、例えば最新の携帯電話(“スマートフォン(登録商標)”と称される)においてよく見られる、別の典型的なシステム装置30を示す。例えば、ディスプレイ機器31(例えば、ディスプレイスクリーン若しくはディスプレイの形をしたもの)、コンピュータ33、センサ34及びカメラ32は、例えば携帯電話の共通する筐体の中に適合したシステムユニットを構成する。システム装置30の少なくとも一部分は、言及された1つ以上の構成要素を具備するモバイル機器とみなすことができる。構成要素は、共通の筐体に適合されるか、(一部を)分配され、ワイヤ接続及び/又はワイヤレスの方法により互いに接続することができる。
実環境40の視像は、視角の中で開口角36をもって、カメラ32により捉えられた実環境40の画像50を表示しているディスプレイ31により提供される。拡張現実アプリケーションのために、カメラの画像50が、ディスプレイ31に表示され、図1Aに同様に開示されているように、現実に関連した特定の位置を有する追加仮想情報10(例えば、現実世界に関連するPOIオブジェクト)によって拡張される。このように、システム装置30は、一般的に知られている拡張現実(AR)システムの別の実施形態を構成する。
図1Aに関して記載されているものと類似した較正は、他のユーザに同様(に利用しやすいようにする)な利便性を与えるために、カメラ32について仮想オブジェクト10のポーズを決定するために使用されるが、それについては後述する。ポーズの決定のために、種々の方法が先行技術として文書化され、且つ専門家に知られている。モバイル機器上(特にシステム装置30がユニット形式である場合)若しくはユーザの体上のいずれかの場所、又はコンピュータ33にもまた有利に、実世界40において、システム装置30の地理的位置の決定(例えば経度及び緯度による)を容認するために、例えばGPSセンサ34のような位置センサが添え付けられる。ある状況下では、例えばポーズがGPS及び方位センサによってのみ決定されるとき、ポーズ決定のためにカメラを必要としない。基本的には、結果がユーザの位置及び視界方向で提供される限り、システム装置のいずれの部分でのポーズ決定も、適正である。
基本的に、本発明は、ARの全形態に有効に使用される。例えば、その表示が、半透明HMDを伴ったいわゆる光学シースルーモード或いはカメラとディスプレイを伴ったビデオシースルーモードにより実行されるかどうかは関連性がない。
本発明は基本的に、立体表示に関連してもまた使用することができ、ビデオシースルーアプローチは有利に、目(視覚)を通じて1つのビデオストリームにそれぞれ録画するための2つのカメラを使用する。いずれの状況においても、仮想情報の項目は、それぞれの目に個別に判断され、及びサーバに一組として保存することができる。
後述するように異なる部分的な工程の処理は基本的に、ネットワーク経由で種々のコンピュータに分配することができる。このように、クライアント/サーバ・アーキテクチャ或いはそれ以上のクライアントベースの解決すること(回答、ソリューション)が、可能である。また、クライアント若しくはサーバは、例えば数個のCPU若しくは特殊化されたハードウェアコンポーネント、例えば通常知られたFPGA、ASIC、GPU又はDSPといった数個のコンピュータユニットを具備しても良い。
ARが実現されるには、カメラのポーズ(位置及び方位)に広がりが必要である。このことは、種々の異なった方法で実現される。単にGPS及び電子コンパス(例えば、いくつかの最新の携帯電話に設置されている)と一体となった方位センサを使用することにより、現実世界におけるポーズを決定することが可能である。しかしながらその場合、ポーズの不確かさは、極めて高い。従って、例えば、光初期化及びトラッキング又はGPS及び方位センサと一体となった光学的方法の組み合わせなど他の方法を使用することもまた可能である。WLANの位置決めもまた使うことができ、又はRFID(“無線周波数識別”のためのマーカ若しくはチップ)若しくは光学マーカが、位置決め工程をサポートできる。前述したように、クライアント/サーバベースのアプローチは、ここにおいても可能である。特に、クライアントは、光トラッキングに必要である位置特定情報をサーバから要求できる。このような情報は、例えばポーズ情報及び深度情報を伴った周辺環境の参照画像である。これに関連して、本発明の追加の実施形態では、特に、サーバ上の視像のポーズを改良すること、及びこの情報に基づいて、同様に世界内に設置された仮想オブジェクトのポーズも改良することを可能にする。
それに加えて、本発明はまた、モニター、HMD或いはヘッドアップディスプレイを使用することで、車両、航空機或いは船に設置、又は搭載することが可能である。
基本的に、例えばポイントオブインタレスト(“POI”)のような仮想オブジェクトは、非常に多くの異なる形の情報について設定され得る。その例としては、次の様なものがある:GPS情報を用いた場所の画像を表示することが可能である。インターネットから情報を自動的に抽出することも可能である。例えば、これは、アドレスや評価のページを伴った会社若しくはレストランのウェブサイトであったりする。ユーザは、特定の位置に、テキスト、画像若しくは三次元オブジェクトを蓄積することができ、他者にそれを利用させることもできる。例えばウィキペディア(登録商標)のような情報ページは、地理情報を検索でき、且つPOIとしてアクセス可能である。POIは、検索及びモバイル機器のユーザのブラウジング動作から自動的に生成することができる。例えば、地下鉄輸送機関若しくはバス停留所、病院、警察署、内科医師、不動産広告又はフィットネスクラブのような、他の興味事項の位置を示すことが可能である。
このような情報の項目は、現実世界40の中の特定位置における仮想オブジェクト10として、画像50若しくは視像70(図1A及び図1Bと比較)にユーザにより蓄積され、それぞれの場所に対応した位置と共に、他者がアクセスできるようにする。アクセスできた現実世界の視像若しくは画像において、他のユーザは次に例えば、その位置に一致するように統合されたこの情報を操作することができ、更に仮想オブジェクトを追加することもできる。このことは、より詳細に後述する。
図1Cは、先ず第1に、本発明の実施形態に対応するように採用されたデータ構造を示しており、それについては次に簡単に説明する。
視像というのは、具体的には視像(図1Aにおける視像70)、画像(図1Bにおける画像50)又は画像シーケンス(フィルム若しくは動画)のような、現実世界で捉えられた視像である。視像(画像50/視像70)に関連付けられるのは、カメラのパラメータであり、それはカメラ22、32の光学的特性(例えば、開口角、フォーカス移動、又は画像歪曲に関連する)を示し、画像50又は視像70にそれぞれ関連付けられる。それ以外に、視像はまた、地球に関連した画像50若しくは視像70の位置及び方向を示す視像に関連付けられたポーズデータを有する。最終的には、例えば経度及び緯度により、現実世界における地理的グローバルポジションの決定を可能にするために、地理的グローバル座標系は地球に関連付けられる。
設置されたモデルは、図(図1A及び図1Bにおけるオブジェクト10)で示される仮想オブジェクトであり、それもまたポーズデータを有する。該設置されたモデルは、例えばモデルデータベースのモデル例を表示する、すなわちそれを参照することができる。もしこのことがそうであるならば、それぞれの仮想モデル(オブジェクト)10が現実世界40内に、画像50又は視像70のどちらに設置されるのが有利かによって、蓄積される。このことは、ポーズデータを改良するのに使用されるが、それについての詳細は後述する。シーン(景観)は、画像50、視像70と、0〜nの設置されたモデル(オブジェクト)10とのコンビネーションで構成され、作成日が随意に含まれる。データ構造の全て若しくは部分は、更にメタデータにリンクすることができる。例えば、創作者、日付、画像/視像の頻度、評価及びキーワード(の情報)は、蓄積することが可能である。
図1Bに係る実施形態に関連する本発明の態様は、次に詳細に説明するが、画像50は、カメラ32によって撮影され、統合された仮想オブジェクト10と共にディスプレイ31上の閲覧者(ビューア)により、閲覧される。しかしながら、これに関するステートメント(記述)は、専門家によって図1Aに係るHMDを用いた実施形態に関して、容易に類似した記述に置換えることができる。
図2は、本発明の実施形態による参加型座標系の概観を示す。一方では、地球座標系200(この実施形態においては、地理的グローバル座標系により表示される)が、使用され、接続要素を構成している。地球の表面は、数表示201で図2中に表示される。例えば地球座標系200のような、地理的グローバル座標系を定義するには、種々の基準が、当業者に知られている(例えば、WGS84。WGS84については、国家画像地図局(NIMA)、米国防総省DoD(Department of.Defense)の世界測地系 1984、テクニカルレポート TR 8350.2, 第3版, 2000年1月(非特許文献6)参照。)。更には、カメラ座標系は、表示された仮想オブジェクト10及び画像50の間の接続を提供する。専門家に知られた変換手段によって、地球座標系200におけるカメラ32のポーズ及び画像50から、画像50に関連したオブジェクト10のポーズP50_10(“画像におけるポーズモデル”)を計算することが可能である。グローバル画像ポーズPW50(“世界におけるポーズ画像”)は、例えば、GPS及び/又は方位センサを経由して計算される。次に、ポーズPW50及びP50_10から、仮想オブジェクト10のグローバルポーズPW10(“世界におけるポーズモデル”)が、計算される。
似たような方法で、第2画像60に関連したオブジェクト10のポーズP60_10(“画像2におけるポーズモデル”)を、別の地球座標系200におけるグローバルポーズPW60と共に第2画像60のポーズから計算することが可能である。グローバル画像ポーズPW60(“世界におけるポーズ画像2”)もまた、例えば、GPS及び/又は方位センサを経由して計算される。
このように、第1画像(画像50)に仮想オブジェクト10を配置し、その近傍に位置する地球上の位置において、第2画像(画像60)に同じ仮想オブジェクトを異なる視野角からの位置に表示させることが可能である。例えば、オブジェクト10は、ポーズPW50と共に第1画像50の中に、第1ユーザにより配置される。モバイル機器と共に第2ユーザが、画像60による視像を発生させる時に、画像60は、開口角若しくは視野角の中でポーズPW10のグローバルポジションを含む現実世界の一部、をカバーする(に及ぶ)ならば、第1ユーザによって配置された仮想オブジェクト10は、ポーズPW10に対応する同じグローバルポジションにおいて、画像60の中に自動的に統合される。
次に、本発明に係る実施形態を、図3及び図4のフローチャート(作業工程経路図)により、他の図を参照しながら、詳細に説明する。
図3は、本発明の実施形態における方法の典型的なコースを示す。第1ステップ1.0において、世界に関連したデータが生成される。これらは、例えばインターネットから抽出されるか、又はカメラ(図1B)若しくはカメラと一体となったHMD(図1A)を使用する第1ユーザにより生成される。最終的に、ステップ1.0におけるユーザは、世界における位置及び方位(ポーズ)が確定される(ステップ2.0)ことに関連した視像(画像若しくは捉えられたビュー)を撮影する。この確定は、例えばGPS及びコンパスを使用することで行うことができる。発生したデータの不確かさに関する情報を、随意に追加記録することもできる。
視像(画像若しくはキャプチャされたビュー)が存在するとき、ユーザは有利に、モバイル機器上で、視像の中に仮想オブジェクトを直接配置することができる(ステップ3.0)。有利に、該オブジェクトは、カメラ座標系において配置及び操作される。このような場合、視像のグローバルポーズ及びカメラ座標系におけるオブジェクトのポーズ、現実世界(例えば、座標系200に関連する)における仮想オブジェクトのグローバルポーズから、ステップ4.0において、計算される。これは、クライアント1若しくはサーバ2上で実行することができる。
クライアントとは、サーバのサービスを使用するために、サーバ上の別のプログラムとの接触を確立する、機器上のプログラムである。内在するクライアント−サーバモデルは、コンピュータネットワークにおいて異なるコンピュータにタスクが分配されることを容認する。クライアントは、1つ以上の特定のタスクそれ自体を決定するのではなく、サーバによってタスクを実行又はサービスを提供するという趣旨で、サーバから、関連データを受信している。基本的に、このシステムの工程の多くは、サーバ上若しくはクライアント上のどちらか一方で、実行される。高いコンピュータ能力を伴うクライアントでは、例えばできる限り多くの計算をクライアントにさせてサーバを楽にさせるという、利点がある。
ステップ5.0において、ステップ4.0からの情報のこれらの項目は、図1Cに関する利点として記載されているように、次にサーバ2のデータベースの中に記録される。ステップ6.0において、同じユーザ若しくは別のクライアントのユーザは次に、実環境の画像を撮影し(若しくはHMDの手段によって該環境の特定部分を見)、次にサーバ2から見られた実環境の位置に関連して、ステップ5.0に記録されたデータを読み込む。拡張現実を用いた位置関連情報及び地球空間機能の特色を有利に備えているデータベースを読み込んで表示することは、技術的に知られている。ユーザは、こうして今や前もって記録された若しくは新しい視野角から前もって記録された情報を見、変化(すでに存在している及び/又は新しく追加された仮想情報を操作)を達成する能力があり、その変化は、順にサーバ2に記録される。ここで、ユーザは存在しなくてもよいが、オフィスで勤務中、例えば、インターネットへ接続可能なクライアントにおいて、前もって且つ有利に記録された現実上のウィンドウとしての視像を使用することができる。
図1及び2の例においては、ユーザはこのようにして、仮想オブジェクト10のグローバルポジション及び方位についての決定を容認するポーズデータ(ポーズPW10)と共に、地理的グローバル座標系200に関連したグローバルポジション及び方位を有するサーバ2のデータベース3上に、仮想オブジェクト10を供給若しくは発生させる。このユーザ若しくは別のユーザは、画像50が影された地理的グローバル座標系200に関して位置及び方位についての決定を容認するポーズデータ(ポーズPW50)と共に、モバイル機器30を用いて実環境40の少なくとも1つの画像50を撮影する。画像50は、該モバイル機器のディスプレイ31に表示される。サーバのデータベース3内の仮想オブジェクト10にアクセスが行われ、且つ、次に仮想オブジェクト10は、ポーズPW10及びPW50のポーズデータに基づいて、ディスプレイに表示された画像50に位置付けられる。仮想オブジェクト10は次に、ディスプレイ上に表示される(例えば、取り替えられた)画像50における位置付け(図1Bにおける矢印MP)に対応することによって操作されるか、又はディスプレイ上に表示された画像50における位置付けに対応することによって追加された、別の仮想オブジェクト11があるかもしれない。
このような画像50における位置付けに準じた修正ポーズデータ(修正ポーズPW10)と共に操作された仮想オブジェクト10若しくは画像50における位置付けに準じたそれのポーズデータと一体となった更なる仮想オブジェクト11は、座標系200に関連して操作されたオブジェクト10若しくは更なる仮想オブジェクト11のグローバルポジション及び方位についての決定を、それぞれ容認する修正ポーズデータPW10及び新しい仮想オブジェクト11のポーズデータを伴って、サーバ2のデータベース3に記録される。
サーバに到達できないということ、それにより新しいシーンの記録ができないということが、ある場合において起こり得る。この事象において、サーバが再び利用できるまで、システムが、情報をバッファするように、対処及び準備することが有利に可能である。1つの実施形態では、サーバへのネットワーク接続が不具合の場合には、サーバに記録されるべきデータが、モバイル機器にバッファされ、ネットワーク接続が再び利用できる時に、サーバに伝送される。
別の実施形態において、ユーザは、近接若しくは地図上、又は拡張現実を用いてオーダーされたリストの中で、ユーザの選択のために利用できるようにされた実環境(例えば、ユーザの周囲若しくはローカルエリア)の領域におけるシーンの一群を検索することができる。
別の実施形態では、画像若しくは仮想情報は、ユニークに識別する特性(例えばユニークな名前等)を有し、クライアント上若しくはモバイル機器上(これは、仮想モデルデータ若しくは視像であろう)に既に存在している画像若しくは仮想情報は、サーバからはもはやダウンロードされず、ローカルデータストレージから読み込まれ(ロードされ)る。
図4は、特に画像ポーズを改良するための任意の手段によって補完される、本発明の別の実施形態における方法の典型的な工程を示す。該方法は、ステップ1.0〜図3のステップ6.0から成る。更に、図4のステップ7.0及び8.0において、視像(画像若しくは捉えられたビュー)のポーズは、例えば光学的方法によって、引き続き改良され、どの仮想情報がどの視像手段によって設置されたかとの情報を有利に記録するために、情報のポーズもまた修正される。そうでなければ、視像のポーズは、サーバ2の参照データベース4からクライアント1に、この視像、若しくは近似のポーズと一体となった視像のための、光学的トラッキング参照情報を提供することにより、クライアント1上に視像を作成した直後に改善することができる。そうでなければ、視像の精度もまた、設置された仮想オブジェクトのポーズ(ステップ4.0)を計算する前に達成され、正しい方法で、視像の精度を直接記録することができる。しかしながら、後続のアプローチの利点は、参照データがもはや全ての場所で使用できなくても良く、それゆえ、参照データが使用可能になるとすぐに、そのような視像の修正もまた実行されるということである。
言うまでもなく、特に多くの視像が(記憶)場所で使用可能になるとき、参照データとして使用される他の視像を使用することがまた、可能になる。バンドル調整と称される、この方法は、例えばManolos I.A.Lourakis;Antonis A.Argyros A;“SBA:A Software Package for Generic Sparse Bundle Adjustment”,ACM Transactions on Mathematical Software,Vol.36,No.1,Article 2(March 2009)(非特許文献7).に開示されているように、当業者に知られている。このような場合、点対応の3次元位置、視像のポーズ及び有利に本来備わっているカメラのパラメータもまた、最適化される。このように、本発明におけるアプローチはまた、このようなデータを一般的に使用するために、世界の固有のモデルを作り出す可能性をも提供する。例えば、深さの認識を補足するためのモデルをマスキングするためであったり、リアルタイムにおける光学トラッキングのためであったりする。
図5は、これまでのところ行われてきたポーズの改善無しで、仮想オブジェクトをその中に設置した実環境の典型的なシーンを示す。図5は、修正前の、起こり得るシチュエーションを示す。モバイル機器30から見ているように、仮想オブジェクト10(例えば、レストランのレビュー)は、現実オブジェクト41,42(例えば、レストランの建物を表示する)に関連した機器30のディスプレイ31に表示されている画像の中に設置される。誤った若しくは不正確なGPSデータに基づいて、画像及びオブジェクト10の両方は、誤って若しくは不正確に決定されたカメラのポーズデータP30−2に対応する様態において、誤った世界座標と一緒に記録される。このことは、オブジェクト10−2が対応する不正確な方法で記録されるということを導く。この捉えられた画像において、そのようであることは問題にならない。しかしながら、例えば地図上若しくは別の画像の中で見られたとき、仮想オブジェクト10は、その誤りが明らかになる。
もし、画像が、本物(真正)若しくは正確なカメラのポーズデータP30−1と共に作り出されたとしたら、仮想オブジェクト10−1の表示によって示されるように、仮想オブジェクト10は、画像内の位置に表示されるだろうし、仮想オブジェクト10を作り出したユーザによりこの方法で見られるであろう。しかしながら、誤って記録された仮想オブジェクト10−2は、誤りのあるカメラポーズデータP30−2が、本物のカメラポーズデータP30−1から移された範囲に応じて、仮想オブジェクト10の在るべき位置から移された別の画像に示される。このように、モバイル機器30の画像に誤って記憶された仮想オブジェクト10−2の表示は、前の画像における作り手であるユーザによる本来の位置付けに一致しない。
実環境の画像における仮想オブジェクトの表示及びそれらの位置の正確さを改善するために、本発明に係る方法の実施形態は、以下の工程を備える:それぞれの参照視像がカメラによって撮影された、地理的グローバル座標系200に関連した位置及び方位についての決定を容認するポーズデータと共に、実環境の参照視像を伴った参照データベース4が備えられる。次に、画像に示されている現実オブジェクトの少なくとも一部分が、参照視像の少なくとも1つに含まれる現実オブジェクトの少なくとも一部分と比較され、及び少なくとも1つの参照視像のポーズデータと画像のポーズデータのマッチングが達成される。その後、画像のポーズデータの少なくとも一部分は、マッチングの結果としての、各参照視像のポーズデータの少なくとも一部分に基づいて修正される。
また、更なる実施形態では、画像の中に位置付けられた仮想オブジェクトのポーズデータの少なくとも一部分は、各参照視像のポーズデータを伴った画像のポーズデータのマッチング結果として、修正される。
図6は、ポーズの改良が行われた後、仮想オブジェクト10−1が設置された、図5の実環境のシーンに類似した実環境の典型的なシーンを示す。図6は、一方で画像における画像特徴の認識のメカニズムを示し、もう一方では、画像ポーズ及びオブジェクトポーズの対応する修正を示す。特に、画像特徴43(例えば現実オブジェクト41及び42の顕著な特徴)は、参照データベース4の参照画像の対応する特性と比較し、マッチングされる(画像特徴の“マッチング”として知られる)。
ここで、仮想オブジェクト10は、他の画像(正しいポーズを持っている画像)では正しく表示される、または配置補正を行うことができる。表示配置修正とは、仮想オブジェクトを透視法で配置することにおいて、ユーザが、地面の上に配置されたオブジェクトの高さについて全く誤った判断をしてしまうことを指摘することである。記憶された現実の部分においてオーバーラップする2つの画像の方法によって、地面レベルを抽出したり、そのような方法で地面上に設置されたオブジェクトを移動させたりすることが可能であるが、画像において、それらオブジェクトが最初に配置された画像の位置と殆ど同じ位置にとどまっているように見える。
図7Aは、仮想オブジェクトが配置されている現実世界の典型的なマップビューを示すのに対し、図7Bは、図7Aにおける同じシーンの典型的な透視図を示す。特に、図7A及び7Bは、カメラポーズのユーザを補助する決定について図示することに役立っている。例えば、モバイル機器が、コンパスが備わっていない状態で使用される時に、ビューイング方向の大きなマーカの見積りを得るのに有効である。最終的に、図7Bに示されているように、ユーザは、有効な方法で画像50を撮影し、現実オブジェクト41に関連して仮想オブジェクト10を配置することができる。その後、ユーザは、地図80上に配置されたオブジェクト10若しくは図7Aに示されたように世界の仮想視像81の位置を再び示すように指示される。画像50のGPS位置と地図80上におけるオブジェクト10のオブジェクト位置の関係に基づいて、世界における画像50の方位(方向−ヘッディング)を計算又は修正することが可能である。モバイル機器が、GPSも搭載していない場合、そのプロセスはまた、2つ若しくは1つの仮想オブジェクト及び現在位置の指示によって、実行される。更にまた、図7Aに例示されているように、最後の画像の“視像領域”(画像セクションのインジケータ81)をユーザに示すことが可能であり、修正のために、ユーザが、地図における“視像領域”を対話形式(相互作用方式?)で動かすこと及び再設定(“視像領域”を新しい方向に向けることができる?)することができる。ここで、“視像領域”の開口角は、内在するカメラパラメータに従って示される。
この実施形態によれば、特に、本発明の方法は、モバイル機器のディスプレイ上にマップビュー(マップビュー80)を提供する工程、及び撮影する画像のビューイング方向をユーザが選択するための選択肢を提供する工程を包含する。このようにして、個別の瞬間において、ユーザがカメラを伴って見るビューイング方向を地図の中で選択することが可能である。
本発明の別の実施形態によれば、本発明の方法は、実環境の画像の中及びモバイル機器のディスプレイ上に提供されたマップビューの中に、仮想オブジェクトを設置する工程と、画像の決定された位置及び提供されたマップビューにおける仮想オブジェクトの位置から画像の方位を決定する工程とを更に具備する。このように、地図上、更にはユーザの方位についての決定を容認する実環境の透視画像の中に、仮想オブジェクトを配置することが可能である。
遠くから(例えば、インターネットを経由して、サーバに通じているクライアント上で)、仮想オブジェクトと共に拡張された実環境の画像を見たり編集したりすることを、他のユーザにも許可するためには、本発明の実施形態に、次に示す更なる工程を具備する本発明の方法が提供される。
サーバのデータベース上に、少なくとも1つの実環境の画像がそのポーズデータと共に提供される。その後、サーバ上の実環境の画像に対してアクセスされクライアント機器上に該画像を表示するために、該画像がクライアント機器に伝送される。ユーザは、仮想オブジェクトを操作するか、又はクライアント機器上に示された実環境の画像の中で、対応する位置付けを行うことにより、別の仮想オブジェクトを追加する。サクライアント機器上に表示された画像における位置付けによる修正ポーズデータと共に、操作された仮想オブジェクト、若しくはクライアント機器上に表示された画像における位置付けによる(新しい)ポーズデータと共に、更なる仮想オブジェクトはそれぞれ、サーバのデータベース上で、その修正ポーズデータ若しくは新しいポーズデータと共に、クライアント機器上に表示された画像における操作された仮想オブジェクト、又は更なる仮想オブジェクトのグローバルポジション及び方位についての決定をそれぞれ容認している。このように、クライアント機器で“リモートアクセス”を伴って、画像における拡張現実シーンは、追加的な仮想情報と共に修正若しくは拡張され、元のサーバに書き込まれる。操作された仮想情報若しくは新しい仮想情報の新たに記録されたグローバルポジションのために、この位置(ポジション)は順に、サーバへのアクセスを通じて、他のユーザにより検索され、グローバルポジションに対応した拡張現実シーンの中で見ることができる。
これに基づいて、本発明の方法における別の実施形態では、サーバ上の実環境の画像にアクセスし、その画像を第2クライアント機器上で見るために、第2クライアント機器に伝送する工程と、第2クライアント機器上における画像の視像の中に表示された実環境の中に、グローバルポジションがある仮想オブジェクトを表示している第2クライアント機器上の画像の視像と共に、サーバ上に提供された仮想オブジェクトにアクセスする工程を更に備えている。このように、別のクライアント機器上で、閲覧者(ビューア)は、それらの仮想オブジェクトが、対応した位置(即ち、そのクライアント機器上における画像の視像の中に表示された実環境の中にあるグローバルポジション)において他のユーザにより、より以前にすでに位置付けされていたということが表示された風景を閲覧することが可能である。言い換えると、ビューアは、視像の可視フィールドにおいて、他のユーザにより既に前もって配置されたそれらの仮想オブジェクトを、ビューアの視野角から見ている。
1 クライアント
2 サーバ
3 データベース
10 仮想オブジェクト
30 モバイル機器
40 実環境
41 現実オブジェクト
50 画像
80 地図(マップビュー)
200 グローバル座標系

Claims (15)

  1. 実環境視像における仮想情報の表示方法であって、
    サーバ(2)のデータベース(3)において、地理的グローバル座標系(200)に関連したグローバルポジション及び方位を有する少なくとも1つの仮想オブジェクトを、前記仮想オブジェクトの前記グローバルポジション及び方位について与えられる決定を容認する第1ポーズデータ(PW10)と共に提供する工程と、
    モバイル機器(30)を用いて、少なくとも1つの実環境(40)の画像(50)を撮影し、前記画像が撮影された前記地理的グローバル座標系に関連したどの位置であり、どの方位であるかとの決定を容認する第2ポーズデータ(PW50)を提供する工程と、
    前記モバイル機器のディスプレイ(31)に前記画像(50)を表示する工程と、
    前記サーバ(2)のデータベース(3)内の仮想オブジェクト(10)にアクセスし、前記第1及び第2ポーズデータ(PW10,PW50)に基づいて、前記ディスプレイに示された前記画像(50)に前記仮想オブジェクト(10)を位置付ける工程と、
    前記仮想オブジェクト(10)を操作する、若しくは前記ディスプレイに表示された前記画像(50)内の対応する位置に位置付けることにより、別の仮想オブジェクト(11)を追加する工程と、
    前記画像(50)における位置付けに一致する修正第1ポーズデータ(PW10)と共に操作された前記仮想オブジェクト(10)、若しくは前記サーバ(2)のデータベース(3)内の前記画像(50)の位置付けに一致する第3ポーズデータと共に更なる仮想オブジェクト(11)を提供する工程と、を具備し、
    更に、カメラによって撮影された、前記地理的グローバル座標系(200)に関する位置及び方向について与えられる決定を容認するポーズデータと共に、実環境の参照視像を伴って、参照データベース(4)を提供する工程と、
    少なくとも1つの前記参照視像に含まれる現実オブジェクトの少なくとも一部分と共に前記画像に示される、少なくとも1の現実オブジェクト(41,42)を比較し、前記少なくとも1つの参照視像のポーズデータと、前記画像の第2ポーズデータ(PW50)とのマッチング工程と、
    前記整合の結果として、前記少なくとも1つの参照視像のポーズデータの少なくとも一部分に基づいて、前記第2ポーズデータ(PW50)の少なくとも一部分を修正する工程とを具備し、
    前記修正第1ポーズデータ及び前記第3ポーズデータが、前記操作された仮想オブジェクト若しくは前記更なる仮想オブジェクトの前記グローバルポジション及び方位について与えられる決定をそれぞれ容認していることを特徴とする実環境視像における仮想情報の表示方法。
  2. 前記画像(50)は、前記第2ポーズデータ(PW50)と共に前記サーバ上に提供される請求項1に記載の方法。
  3. 実環境視像における仮想情報の表示方法であって、
    サーバ(2)のデータベース(3)において、地理的グローバル座標系(200)に関連したグローバルポジション及び方位を有する少なくとも1つの仮想オブジェクトを、前記仮想オブジェクトのグローバルポジション及び方位について与えられる決定を容認する第1ポーズデータ(PW10)と共に提供する工程と、
    データグラス(20)を用いて、そのデータグラスが位置付けされた前記地理的グローバル座標系(200)に関連したどのポジションでありどの方位であるかという決定を容認する第2ポーズデータと共に、実環境(40)の少なくとも1つの視像(70)を提供する工程と、
    カメラ(22)を用いて、少なくとも1つの実環境の画像を撮影し、その画像が撮影された前記地理的グローバル座標系(200)に関連したどの位置であり、どの方位であるかとの決定を容認する第2ポーズデータを提供する工程と、
    前記サーバ(2)のデータベース(3)内の仮想オブジェクト(10)にアクセスし、前記第1及び第2ポーズデータに基づいて、前記視像の中に前記仮想オブジェクト(10)を位置付けする工程と、
    前記仮想オブジェクト(10)を操作する、若しくは前記視像内の対応する位置に位置付けることにより、更なる仮想オブジェクト(11)を追加する工程と、
    前記視像(70)における位置付けに一致する修正第1ポーズデータ(PW10)と共に操作された前記仮想オブジェクト(10)、若しくは前記サーバ(2)のデータベース(3)における前記視像(70)の位置付けに関連した第3ポーズデータと共に更なる仮想オブジェクト(11)を提供する工程とを具備し、
    更に、カメラによって撮影された、前記地理的グローバル座標系(200)に関する位置及び方向について与えられる決定を容認するポーズデータと共に、実環境の参照視像を伴って、参照データベース(4)を提供する工程と、
    少なくとも1つの前記参照視像に含まれる現実オブジェクトの少なくとも一部分と共に前記画像に示される、少なくとも1の現実オブジェクト(41,42)を比較し、前記少なくとも1つの参照視像のポーズデータと、前記画像の第2ポーズデータ(PW50)とのマッチング工程と、
    前記整合の結果として、前記少なくとも1つの参照視像のポーズデータの少なくとも一部分に基づいて、前記第2ポーズデータ(PW50)の少なくとも一部分を修正する工程とを具備し、
    前記修正第1ポーズデータ及び第3ポーズデータが、前記操作された仮想オブジェクト若しくは前記更なる仮想オブジェクトの前記グローバルポジション及び方位について与えられる決定をそれぞれ容認していることを特徴とする実環境視像における仮想情報の表示方法。
  4. 前記モバイル機器(30)若しくは前記データグラス(20)は、前記第2ポーズデータを発生させるための手段(24,34)を具備する、又は該手段に連結されている請求項1乃至3のいずれか1項に記載の方法。
  5. 前記ポーズデータ(PW10,PW50)は、位置及び方位について、それぞれ三次元的な値を含む請求項1乃至4のいずれか1項に記載の方法。
  6. 前記実環境の前記画像(50)の方位は、地球表面(201)とは無関係に定義される請求項1乃至5のいずれか1項に記載の方法。
  7. 前記サーバ(2)の記録場所は、実環境のそれぞれの画像(50)の中、若しくは実環境のそれぞれの視像(70)の中に記録し、それぞれの仮想オブジェクトの仮想オブジェクト(10)は、ポーズデータが設けられている請求項1乃至6のいずれか1項に記載の方法。
  8. 更に、前記画像に位置付けられる前記仮想オブジェクト(10)の第1ポーズデータ(PW10)の少なくとも一部分が、前記少なくとも1つの参照視像のポーズデータと、前記第2ポーズデータとのマッチングの結果として、修正される請求項1乃至7のいずれか1項に記載の方法。
  9. 前記サーバ(2)のデータベース(3)において、前記第2ポーズデータ(PW50)と共に、前記実環境の少なくとも1つの画像(50)を提供する工程と、
    前記サーバ(2)上の前記実環境の画像(50)にアクセスし、前記画像を表示するためのクライアント装置(1)に伝送する工程と、
    前記仮想オブジェクト(10)を操作、若しくは前記クライアント装置上に表示される前記実環境の画像内の対応する位置に位置付けることにより、更なる仮想オブジェクト(11)を追加する工程と、
    前記クライアント装置に表示された前記画像における位置付けに一致する修正第1ポーズデータ(PW10)と共に、操作された前記仮想オブジェクト(10)、若しくは前記サーバ(2)のデータベース(3)において、前記クライアント装置に表示された前記画像の位置付けに関連した第3ポーズデータと共に、更なる前記仮想オブジェクト(11)を提供する工程とを更に具備し、
    前記修正第1ポーズデータ及び第3ポーズデータは、前記操作された若しくは更なる仮想オブジェクトの全地球位置及び方向について与えられる決定をそれぞれ容認している請求項1乃至のいずれか1項に記載の方法。
  10. 前記サーバ(2)上の前記実環境の画像(50)にアクセスし、前記画像を見るための第2クライアント装置に前記画像を伝送する工程と、
    前記第2クライアント装置の前記画像の前記視像に示されている前記実環境の中にある前記グローバルポジションの仮想オブジェクトを表示している前記第2クライアント装置の前記画像の前記視像と共にサーバに備え付けられる仮想オブジェクト(10)にアクセスする工程とを更に具備する請求項に記載の方法。
  11. 前記モバイル機器のディスプレイにマップビュー(80)を提供する工程と、前記実環境の少なくとも1つの画像を撮影している視像方向を選択するために、ユーザに対して選択を提供する工程とを更に具備する請求項1乃至10のいずれか1項に記載の方法。
  12. 前記実環境の画像の中及び前記モバイル機器のディスプレイに備え付けられるマップビュー(80)の中に、少なくとも1つの仮想オブジェクト(10)を認識する工程と、
    前記画像の決定された位置及び備え付けられた前記マップビュー(80)における前記少なくとも1つの仮想オブジェクト(10)の位置から前記実環境の画像(50)の方向を決定する工程とを具備する請求項1乃至11のいずれか1項に記載の方法。
  13. 前記サーバ(2)に対するネットワーク接続の不具合が起こった場合、サーバ上に記憶されるためのデータは、前記モバイル機器上にバッファされ、前記ネットワーク接続が再び使用可能になるとすぐに、前記サーバに伝送される請求項1乃至12のいずれか1項に記載の方法。
  14. 前記ユーザは、実環境の領域における、シーンの収束を検索でき、該シーンは、近接に若しくは地図上にソートされ、又は拡張現実を用いたリストの選考のために、ユーザに都合のいいように作り出される請求項1乃至13のいずれか1項に記載の方法。
  15. 前記画像若しくは前記仮想情報は、一意的に同定特性を有し、且つ既にクライアント若しくは前記モバイル機器上に存在する画像若しくは仮想情報は、もはや前記サーバからダウンロードされなく、ローカルデータストレージから読み込まれる請求項1乃至14のいずれか1項に記載の方法。
JP2012532629A 2009-10-12 2010-10-11 実環境視像における仮想情報の表示方法 Active JP5582548B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102009049073.6 2009-10-12
DE102009049073A DE102009049073A1 (de) 2009-10-12 2009-10-12 Verfahren zur Darstellung von virtueller Information in einer Ansicht einer realen Umgebung
PCT/EP2010/065207 WO2011045276A1 (de) 2009-10-12 2010-10-11 Verfahren zur darstellung von virtueller information in einer ansicht einer realen umgebung

Publications (2)

Publication Number Publication Date
JP2013507677A JP2013507677A (ja) 2013-03-04
JP5582548B2 true JP5582548B2 (ja) 2014-09-03

Family

ID=43365284

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012532629A Active JP5582548B2 (ja) 2009-10-12 2010-10-11 実環境視像における仮想情報の表示方法

Country Status (6)

Country Link
US (6) US9001154B2 (ja)
EP (2) EP3410405A1 (ja)
JP (1) JP5582548B2 (ja)
CN (2) CN102598064B (ja)
DE (1) DE102009049073A1 (ja)
WO (1) WO2011045276A1 (ja)

Families Citing this family (118)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009049073A1 (de) * 2009-10-12 2011-04-21 Metaio Gmbh Verfahren zur Darstellung von virtueller Information in einer Ansicht einer realen Umgebung
EP2539883A1 (en) 2010-02-24 2013-01-02 Ipplex Holdings Corporation Augmented reality panorama supporting visually impaired individuals
JP5377537B2 (ja) * 2011-02-10 2013-12-25 株式会社エヌ・ティ・ティ・ドコモ オブジェクト表示装置、オブジェクト表示方法及びオブジェクト表示プログラム
JP5741160B2 (ja) * 2011-04-08 2015-07-01 ソニー株式会社 表示制御装置、表示制御方法、およびプログラム
US8884950B1 (en) * 2011-07-29 2014-11-11 Google Inc. Pose data via user interaction
AU2011205223C1 (en) 2011-08-09 2013-03-28 Microsoft Technology Licensing, Llc Physical interaction with virtual objects for DRM
US10019962B2 (en) 2011-08-17 2018-07-10 Microsoft Technology Licensing, Llc Context adaptive user interface for augmented reality display
US9153195B2 (en) 2011-08-17 2015-10-06 Microsoft Technology Licensing, Llc Providing contextual personal information by a mixed reality device
WO2013028908A1 (en) 2011-08-24 2013-02-28 Microsoft Corporation Touch and social cues as inputs into a computer
KR101314679B1 (ko) * 2011-09-14 2013-10-07 엘지전자 주식회사 이동 단말기 및 그 동작 제어 방법
US9536251B2 (en) * 2011-11-15 2017-01-03 Excalibur Ip, Llc Providing advertisements in an augmented reality environment
DE102011122206A1 (de) 2011-12-23 2013-06-27 Volkswagen Aktiengesellschaft Verfahren zum Betrieb eines Augmented-Reality-Systems
US9501152B2 (en) 2013-01-15 2016-11-22 Leap Motion, Inc. Free-space user interface and control using virtual constructs
US11493998B2 (en) 2012-01-17 2022-11-08 Ultrahaptics IP Two Limited Systems and methods for machine control
US11266919B2 (en) 2012-06-29 2022-03-08 Monkeymedia, Inc. Head-mounted display for navigating virtual and augmented reality
US20140002581A1 (en) * 2012-06-29 2014-01-02 Monkeymedia, Inc. Portable proprioceptive peripatetic polylinear video player
FR3000241A1 (fr) * 2012-12-21 2014-06-27 France Telecom Procede de gestion d’un systeme d’information geographique adapte pour etre utilise avec au moins un dispositif de pointage, avec creation d’objets numeriques purement virtuels.
EP2936443A1 (en) 2012-12-21 2015-10-28 Metaio GmbH Method for representing virtual information in a real environment
FR3000242A1 (fr) 2012-12-21 2014-06-27 France Telecom Procede de gestion d’un systeme d’information geographique adapte pour etre utilise avec au moins un dispositif de pointage, avec creation d’associations entre objets numeriques.
US9459697B2 (en) 2013-01-15 2016-10-04 Leap Motion, Inc. Dynamic, free-space user interactions for machine control
JP5991423B2 (ja) 2013-02-21 2016-09-14 富士通株式会社 表示装置、表示方法、表示プログラムおよび位置設定システム
US20140240226A1 (en) * 2013-02-27 2014-08-28 Robert Bosch Gmbh User Interface Apparatus
US9928652B2 (en) 2013-03-01 2018-03-27 Apple Inc. Registration between actual mobile device position and environmental model
US9679414B2 (en) * 2013-03-01 2017-06-13 Apple Inc. Federated mobile device positioning
US20140267776A1 (en) * 2013-03-15 2014-09-18 MJK Holding. LLC Tracking system using image recognition
US9245387B2 (en) * 2013-04-12 2016-01-26 Microsoft Technology Licensing, Llc Holographic snap grid
US9916009B2 (en) 2013-04-26 2018-03-13 Leap Motion, Inc. Non-tactile interface systems and methods
US10262462B2 (en) 2014-04-18 2019-04-16 Magic Leap, Inc. Systems and methods for augmented and virtual reality
US9710130B2 (en) * 2013-06-12 2017-07-18 Microsoft Technology Licensing, Llc User focus controlled directional user input
FR3007860A1 (fr) * 2013-06-27 2015-01-02 France Telecom Procede d'interaction entre un objet numerique, representatif d'au moins un objet reel ou virtuel localise dans un perimetre geographique distant, et un dispositif de pointage local
US10281987B1 (en) 2013-08-09 2019-05-07 Leap Motion, Inc. Systems and methods of free-space gestural interaction
DE102013021137B4 (de) 2013-12-13 2022-01-27 Audi Ag Verfahren zum Betreiben einer Datenschnittstelle eines Kraftwagens und Kraftwagen
KR20150101686A (ko) * 2014-02-27 2015-09-04 삼성전자주식회사 방송수신장치 및 그 제어방법
CN106133796B (zh) 2014-03-25 2019-07-16 苹果公司 用于在真实环境的视图中表示虚拟对象的方法和系统
WO2015160828A1 (en) * 2014-04-15 2015-10-22 Huntington Ingalls Incorporated System and method for augmented reality display of dynamic environment information
US9864909B2 (en) 2014-04-25 2018-01-09 Huntington Ingalls Incorporated System and method for using augmented reality display in surface treatment procedures
KR101583286B1 (ko) * 2014-05-16 2016-01-07 네이버 주식회사 공간 정보를 제공하기 위한 증강 현실 제공 방법과 시스템, 그리고 기록 매체 및 파일 배포 시스템
US10600245B1 (en) * 2014-05-28 2020-03-24 Lucasfilm Entertainment Company Ltd. Navigating a virtual environment of a media content item
EP3926589A1 (en) * 2014-06-03 2021-12-22 Apple Inc. Method and system for presenting a digital information related to a real object
US10915754B2 (en) * 2014-06-09 2021-02-09 Huntington Ingalls Incorporated System and method for use of augmented reality in outfitting a dynamic structural space
CN105338479B (zh) 2014-06-09 2020-03-10 阿里巴巴集团控股有限公司 基于场所的信息处理方法及装置
US10504294B2 (en) * 2014-06-09 2019-12-10 Huntington Ingalls Incorporated System and method for augmented reality discrepancy determination and reporting
US10147234B2 (en) 2014-06-09 2018-12-04 Huntington Ingalls Incorporated System and method for augmented reality display of electrical system information
DE102014008852B4 (de) 2014-06-14 2024-07-04 Audi Ag Kalibrierung eines Kraftfahrzeug-Eyetrackingsystems
DE102014009608A1 (de) * 2014-06-27 2015-12-31 Audi Ag Betrieb einer AR-Brille im Kraftfahrzeug
WO2016011149A1 (en) * 2014-07-16 2016-01-21 Huntington Ingalls Incorporated System and method for augmented reality display of hoisting and rigging information
US9727583B2 (en) * 2014-07-25 2017-08-08 Rovio Entertainment Ltd Interactive physical display
DE202014103729U1 (de) 2014-08-08 2014-09-09 Leap Motion, Inc. Augmented-Reality mit Bewegungserfassung
US10353532B1 (en) 2014-12-18 2019-07-16 Leap Motion, Inc. User interface for integrated gestural interaction and multi-user collaboration in immersive virtual reality environments
DE102015201290A1 (de) * 2015-01-26 2016-07-28 Prüftechnik Dieter Busch AG Positionieren zweier Körper mittels eines Ausrichtsystems mit einer Datenbrille
US11062383B2 (en) 2016-05-10 2021-07-13 Lowe's Companies, Inc. Systems and methods for displaying a simulated room and portions thereof
US10235789B2 (en) 2016-07-01 2019-03-19 Phillips 66 Company Process for rendering and presenting underground utilities for efficient identification, marking and inspection
CA3032812A1 (en) 2016-08-04 2018-02-08 Reification Inc. Methods for simultaneous localization and mapping (slam) and related apparatus and systems
US10553036B1 (en) 2017-01-10 2020-02-04 Lucasfilm Entertainment Company Ltd. Manipulating objects within an immersive environment
US10812936B2 (en) * 2017-01-23 2020-10-20 Magic Leap, Inc. Localization determination for mixed reality systems
US10740503B1 (en) 2019-01-17 2020-08-11 Middle Chart, LLC Spatial self-verifying array of nodes
US12086507B2 (en) 2017-02-22 2024-09-10 Middle Chart, LLC Method and apparatus for construction and operation of connected infrastructure
US10949579B2 (en) 2017-02-22 2021-03-16 Middle Chart, LLC Method and apparatus for enhanced position and orientation determination
US10872179B2 (en) 2017-02-22 2020-12-22 Middle Chart, LLC Method and apparatus for automated site augmentation
US10984146B2 (en) 2017-02-22 2021-04-20 Middle Chart, LLC Tracking safety conditions of an area
US11900022B2 (en) 2017-02-22 2024-02-13 Middle Chart, LLC Apparatus for determining a position relative to a reference transceiver
US11900021B2 (en) 2017-02-22 2024-02-13 Middle Chart, LLC Provision of digital content via a wearable eye covering
US10824774B2 (en) 2019-01-17 2020-11-03 Middle Chart, LLC Methods and apparatus for healthcare facility optimization
US10740502B2 (en) 2017-02-22 2020-08-11 Middle Chart, LLC Method and apparatus for position based query with augmented reality headgear
US11475177B2 (en) 2017-02-22 2022-10-18 Middle Chart, LLC Method and apparatus for improved position and orientation based information display
US10628617B1 (en) 2017-02-22 2020-04-21 Middle Chart, LLC Method and apparatus for wireless determination of position and orientation of a smart device
US11625510B2 (en) 2017-02-22 2023-04-11 Middle Chart, LLC Method and apparatus for presentation of digital content
US11194938B2 (en) 2020-01-28 2021-12-07 Middle Chart, LLC Methods and apparatus for persistent location based digital content
US11481527B2 (en) 2017-02-22 2022-10-25 Middle Chart, LLC Apparatus for displaying information about an item of equipment in a direction of interest
US10762251B2 (en) 2017-02-22 2020-09-01 Middle Chart, LLC System for conducting a service call with orienteering
US10831945B2 (en) 2017-02-22 2020-11-10 Middle Chart, LLC Apparatus for operation of connected infrastructure
US11468209B2 (en) 2017-02-22 2022-10-11 Middle Chart, LLC Method and apparatus for display of digital content associated with a location in a wireless communications area
US10620084B2 (en) 2017-02-22 2020-04-14 Middle Chart, LLC System for hierarchical actions based upon monitored building conditions
US10902160B2 (en) 2017-02-22 2021-01-26 Middle Chart, LLC Cold storage environmental control and product tracking
US10776529B2 (en) 2017-02-22 2020-09-15 Middle Chart, LLC Method and apparatus for enhanced automated wireless orienteering
DE102017207894A1 (de) * 2017-05-10 2018-11-15 Krones Aktiengesellschaft Verfahren und Computersystem zur Planung einer Anlage im Bereich der Getränkeverarbeitungsindustrie
CN108932051B (zh) * 2017-05-24 2022-12-16 腾讯科技(北京)有限公司 增强现实图像处理方法、装置及存储介质
FR3067842B1 (fr) * 2017-06-19 2020-09-25 SOCIéTé BIC Procede d'application de texture en realite augmentee, systeme et kits correspondants
US11127212B1 (en) 2017-08-24 2021-09-21 Sean Asher Wilens Method of projecting virtual reality imagery for augmenting real world objects and surfaces
WO2019055679A1 (en) 2017-09-13 2019-03-21 Lahood Edward Rashid METHOD, APPARATUS, AND COMPUTER-READABLE MEDIA FOR DISPLAYING INCREASED REALITY INFORMATION
US10102659B1 (en) * 2017-09-18 2018-10-16 Nicholas T. Hariton Systems and methods for utilizing a device as a marker for augmented reality content
US10105601B1 (en) 2017-10-27 2018-10-23 Nicholas T. Hariton Systems and methods for rendering a virtual content object in an augmented reality environment
WO2019102245A1 (en) * 2017-11-21 2019-05-31 Volvo Truck Corporation Assistance method for assisting performance of a task on a product, comprising displaying a highlighting image highlighting a monitored part of the product
US11087527B2 (en) * 2017-12-01 2021-08-10 Koninklijke Kpn N.V. Selecting an omnidirectional image for display
EP3495936A1 (de) 2017-12-07 2019-06-12 Siemens Aktiengesellschaft Sichere brillenartige vorrichtung und verfahren
US10192115B1 (en) 2017-12-13 2019-01-29 Lowe's Companies, Inc. Virtualizing objects using object models and object position data
JP7058585B2 (ja) * 2017-12-25 2022-04-22 キヤノン株式会社 画像処理装置およびその制御方法
WO2019130827A1 (ja) * 2017-12-25 2019-07-04 キヤノン株式会社 画像処理装置およびその制御方法
CN108245172B (zh) * 2018-01-10 2020-04-07 山东大学 一种不受位置约束的人体姿态识别方法
US10636188B2 (en) 2018-02-09 2020-04-28 Nicholas T. Hariton Systems and methods for utilizing a living entity as a marker for augmented reality content
US20190250283A1 (en) * 2018-02-09 2019-08-15 Matterport, Inc. Accuracy of gps coordinates associated with image capture locations
CN108510525B (zh) * 2018-03-30 2019-03-12 百度在线网络技术(北京)有限公司 模板追踪方法、装置、增强现实系统及存储介质
CN110415293B (zh) * 2018-04-26 2023-05-23 腾讯科技(深圳)有限公司 交互处理方法、装置、系统和计算机设备
US10198871B1 (en) 2018-04-27 2019-02-05 Nicholas T. Hariton Systems and methods for generating and facilitating access to a personalized augmented rendering of a user
CN109126121B (zh) * 2018-06-01 2022-01-04 成都通甲优博科技有限责任公司 Ar终端互联方法、系统、装置及计算机可读存储介质
US12067683B2 (en) * 2018-09-14 2024-08-20 Streem, Llc Location persistent augmented reality object and annotation placement
CA3114093C (en) 2018-09-26 2024-06-18 Middle Chart, LLC Method and apparatus for augmented virtual models and orienteering
CN113168735B (zh) * 2018-10-22 2024-05-28 犹尼蒂知识产权有限公司 用于在混合现实环境中针对视觉数字创作处理和划分真实世界的部分的方法和系统
CN109636464A (zh) * 2018-12-11 2019-04-16 深圳市房多多网络科技有限公司 基于ar技术的智能找房方法及系统
CN109814710B (zh) * 2018-12-27 2022-05-13 青岛小鸟看看科技有限公司 数据处理方法、装置及虚拟现实设备
KR102232045B1 (ko) 2019-01-08 2021-03-25 삼성전자주식회사 전자 장치, 전자 장치의 제어 방법 및 컴퓨터 판독 가능 매체.
US11024096B2 (en) 2019-04-29 2021-06-01 The Board Of Trustees Of The Leland Stanford Junior University 3D-perceptually accurate manual alignment of virtual content with the real world with an augmented reality device
US10586396B1 (en) 2019-04-30 2020-03-10 Nicholas T. Hariton Systems, methods, and storage media for conveying virtual content in an augmented reality environment
DE102019213740A1 (de) 2019-09-10 2021-03-11 Audi Ag Verfahren zum Betreiben eines am Kopf tragbaren Anzeigegeräts in einem Kraftfahrzeug, Steuereinrichtung, und am Kopf tragbares Anzeigegerät
CN112561952B (zh) * 2019-09-26 2024-09-10 北京移目科技有限公司 用于为目标设置可呈现的虚拟对象的方法和系统
CN111179435B (zh) 2019-12-24 2024-02-06 Oppo广东移动通信有限公司 增强现实处理方法及装置、系统、存储介质和电子设备
US11507714B2 (en) 2020-01-28 2022-11-22 Middle Chart, LLC Methods and apparatus for secure persistent location based digital content
CN111311758A (zh) * 2020-02-24 2020-06-19 Oppo广东移动通信有限公司 增强现实处理方法及装置、存储介质和电子设备
CN111710047A (zh) * 2020-06-05 2020-09-25 北京有竹居网络技术有限公司 一种信息展示方法、装置和电子设备
CN111707280A (zh) * 2020-06-24 2020-09-25 深圳市元征科技股份有限公司 2d地图软件ar导航方法、装置、设备及存储介质
CN112712559B (zh) * 2020-12-28 2021-11-30 长安大学 基于NED坐标系向量旋转的SfM点云校正方法
US20230040573A1 (en) * 2021-03-24 2023-02-09 AbdurRahman Bin Shahzad Bhatti Data systems for wearable augmented reality apparatus
DE102021117904A1 (de) 2021-07-12 2023-01-12 Valeo Comfort And Driving Assistance Videostreamen von einem Fahrzeug zu einem entfernten Virtuelle-Realität-System
DE102021131060B3 (de) 2021-11-26 2022-07-28 Sick Ag System und Verfahren mit einem System
DE102022100840A1 (de) * 2022-01-14 2023-07-20 Sick Ag Augmented-reality-system zum unterrichten eines anwenders einer applikation
US11586286B1 (en) 2022-05-18 2023-02-21 Bank Of America Corporation System and method for navigating on an augmented reality display
US11720380B1 (en) 2022-05-18 2023-08-08 Bank Of America Corporation System and method for updating augmented reality navigation instructions based on a detected error
DE102023001842A1 (de) 2023-05-08 2023-07-27 Mercedes-Benz Group AG Verfahren zur Darstellung von lmmobilienangeboten in einem Fahrzeug

Family Cites Families (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6324299B1 (en) * 1998-04-03 2001-11-27 Cognex Corporation Object image search using sub-models
US7689014B2 (en) * 2000-01-18 2010-03-30 Z-Kat Inc Apparatus and method for measuring anatomical objects using coordinated fluoroscopy
JP4236372B2 (ja) * 2000-09-25 2009-03-11 インターナショナル・ビジネス・マシーンズ・コーポレーション 空間情報利用システムおよびサーバシステム
US20020120728A1 (en) * 2000-12-22 2002-08-29 Jason Braatz Method and apparatus for network-enablement of devices using device intelligence and network architecture
US6822648B2 (en) * 2001-04-17 2004-11-23 Information Decision Technologies, Llc Method for occlusion of movable objects and people in augmented reality scenes
US7203384B2 (en) 2003-02-24 2007-04-10 Electronic Scripting Products, Inc. Implement for optically inferring information from a planar jotting surface
JP2004318823A (ja) * 2003-03-28 2004-11-11 Seiko Epson Corp 情報表示システム、情報処理装置、ポインティング装置および情報表示システムにおけるポインタマーク表示方法
GB2404247B (en) * 2003-07-22 2005-07-20 Hitachi Int Electric Inc Object tracing method and object tracking apparatus
US7110100B2 (en) 2003-11-04 2006-09-19 Electronic Scripting Products, Inc. Apparatus and method for determining an inclination of an elongate object contacting a plane surface
US7268956B2 (en) 2003-11-24 2007-09-11 Electronic Scripting Products, Inc. Solid catadioptric lens with two viewpoints
US7038846B2 (en) 2003-11-24 2006-05-02 Electronic Scripting Products, Inc. Solid catadioptric lens with a single viewpoint
JP2005174021A (ja) 2003-12-11 2005-06-30 Canon Inc 情報提示方法及び装置
US7088440B2 (en) 2003-12-22 2006-08-08 Electronic Scripting Products, Inc. Method and apparatus for determining absolute position of a tip of an elongate object on a plane surface with invariant features
JP2005196678A (ja) * 2004-01-09 2005-07-21 Neucore Technol Inc テンプレートマッチング方法および対象画像領域抽出装置
US9229540B2 (en) 2004-01-30 2016-01-05 Electronic Scripting Products, Inc. Deriving input from six degrees of freedom interfaces
US7961909B2 (en) 2006-03-08 2011-06-14 Electronic Scripting Products, Inc. Computer interface employing a manipulated object with absolute pose detection component and a display
US7729515B2 (en) 2006-03-08 2010-06-01 Electronic Scripting Products, Inc. Optical navigation apparatus using fixed beacons and a centroid sensing device
US7826641B2 (en) 2004-01-30 2010-11-02 Electronic Scripting Products, Inc. Apparatus and method for determining an absolute pose of a manipulated object in a real three-dimensional environment with invariant features
US8542219B2 (en) 2004-01-30 2013-09-24 Electronic Scripting Products, Inc. Processing pose data derived from the pose of an elongate object
US7023536B2 (en) 2004-03-08 2006-04-04 Electronic Scripting Products, Inc. Apparatus and method for determining orientation parameters of an elongate object
US7161664B2 (en) 2004-04-13 2007-01-09 Electronic Scripting Products, Inc. Apparatus and method for optical determination of intermediate distances
US7113270B2 (en) 2004-06-18 2006-09-26 Electronics Scripting Products, Inc. Determination of an orientation parameter of an elongate object with a scan beam apparatus
US7374103B2 (en) * 2004-08-03 2008-05-20 Siemens Corporate Research, Inc. Object localization
US7756300B2 (en) * 2005-02-25 2010-07-13 The Invention Science Fund I, Llc Image mapping to provide visual geographic path
WO2007011306A2 (en) * 2005-07-20 2007-01-25 Bracco Imaging S.P.A. A method of and apparatus for mapping a virtual model of an object to the object
EP2764899A3 (en) * 2005-08-29 2014-12-10 Nant Holdings IP, LLC Interactivity via mobile image recognition
DE102005041628B4 (de) * 2005-09-01 2012-12-27 Siemens Ag Vorrichtung und Verfahren zur Verarbeitung von Daten unterschiedlicher Modalitäten
DE102005061952B4 (de) * 2005-12-23 2008-09-11 Metaio Gmbh Verfahren und System zur Bestimmung einer Ungenauigkeitsinformation in einem Augmented Reality System
JP4950550B2 (ja) * 2006-04-21 2012-06-13 株式会社東芝 パターン合わせずれ計測方法およびプログラム
WO2008002630A2 (en) * 2006-06-26 2008-01-03 University Of Southern California Seamless image integration into 3d models
CN101507268A (zh) * 2006-09-06 2009-08-12 诺基亚公司 具有增强型视频显示接口的移动终端设备、外挂装置和外部显示设备
US8174568B2 (en) * 2006-12-01 2012-05-08 Sri International Unified framework for precise vision-aided navigation
FR2913128B1 (fr) * 2007-02-23 2009-08-28 Total Immersion Sa Procede et dispositif de determination de la pose d'un objet tridimensionnel dans une image et procede et dispositif de creation d'au moins une image cle
CN100493180C (zh) * 2007-04-17 2009-05-27 天栢宽带网络科技(上海)有限公司 一种基于数字机顶盒的虚拟现实游戏装置和方法
NO327279B1 (no) * 2007-05-22 2009-06-02 Metaio Gmbh Kamerapositurestimeringsanordning og- fremgangsmate for foroket virkelighetsavbildning
CN100487568C (zh) * 2007-05-29 2009-05-13 南京航空航天大学 具有视线跟踪功能的增强现实自然交互式头盔
US8763058B2 (en) * 2007-06-28 2014-06-24 Apple Inc. Selective data downloading and presentation based on user interaction
EP2009868B1 (en) * 2007-06-29 2016-09-07 Alcatel Lucent Method and system for improving the appearance of a person on the RTP stream coming from a media terminal
CN101127621A (zh) * 2007-09-26 2008-02-20 许立新 虚拟互联网跨媒体系统
US20090167760A1 (en) * 2007-12-27 2009-07-02 Nokia Corporation Triangle Mesh Based Image Descriptor
US8072448B2 (en) 2008-01-15 2011-12-06 Google Inc. Three-dimensional annotations for street view data
US20090231248A1 (en) * 2008-03-14 2009-09-17 Palm, Inc. Apparatus and methods for configuring the color of a mobile computing device cover
US8537174B2 (en) * 2009-10-06 2013-09-17 Palm, Inc. Techniques for adaptive brightness control of a display
DE102009049073A1 (de) * 2009-10-12 2011-04-21 Metaio Gmbh Verfahren zur Darstellung von virtueller Information in einer Ansicht einer realen Umgebung
JP5732064B2 (ja) * 2009-11-17 2015-06-10 エーテーハー チューリヒ 透明裸眼立体画像表示装置及び方法
EP2339537B1 (en) * 2009-12-23 2016-02-24 Metaio GmbH Method of determining reference features for use in an optical object initialization tracking process and object initialization tracking method
US20110234631A1 (en) * 2010-03-25 2011-09-29 Bizmodeline Co., Ltd. Augmented reality systems
US9013550B2 (en) * 2010-09-09 2015-04-21 Qualcomm Incorporated Online reference generation and tracking for multi-user augmented reality
US9448758B2 (en) * 2012-07-18 2016-09-20 The Boeing Company Projecting airplane location specific maintenance history using optical reference points
EP2704055A1 (en) * 2012-08-31 2014-03-05 Layar B.V. Determining space to display content in augmented reality
WO2014048497A1 (en) * 2012-09-28 2014-04-03 Metaio Gmbh Method of image processing for an augmented reality application
US8970709B2 (en) 2013-03-13 2015-03-03 Electronic Scripting Products, Inc. Reduced homography for recovery of pose parameters of an optical apparatus producing image data with structural uncertainty
US9443355B2 (en) * 2013-06-28 2016-09-13 Microsoft Technology Licensing, Llc Reprojection OLED display for augmented reality experiences
US9514571B2 (en) * 2013-07-25 2016-12-06 Microsoft Technology Licensing, Llc Late stage reprojection
WO2017147178A1 (en) * 2016-02-22 2017-08-31 Google Inc. Separate time-warping for a scene and an object for display of virtual reality content
WO2019087513A1 (ja) * 2017-10-31 2019-05-09 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
JP2022505998A (ja) * 2019-10-15 2022-01-17 ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド 拡張現実データの提示方法、装置、電子機器及び記憶媒体

Also Published As

Publication number Publication date
CN105046752A (zh) 2015-11-11
US20150154803A1 (en) 2015-06-04
EP2489013A1 (de) 2012-08-22
US10453267B2 (en) 2019-10-22
CN102598064A (zh) 2012-07-18
US10074215B2 (en) 2018-09-11
US20190005734A1 (en) 2019-01-03
JP2013507677A (ja) 2013-03-04
DE102009049073A1 (de) 2011-04-21
US20220375123A1 (en) 2022-11-24
US11880951B2 (en) 2024-01-23
US20240127561A1 (en) 2024-04-18
US20120218263A1 (en) 2012-08-30
EP3410405A1 (de) 2018-12-05
WO2011045276A1 (de) 2011-04-21
US20200160605A1 (en) 2020-05-21
US11410391B2 (en) 2022-08-09
US9001154B2 (en) 2015-04-07
CN105046752B (zh) 2018-11-09
CN102598064B (zh) 2015-08-26

Similar Documents

Publication Publication Date Title
JP5582548B2 (ja) 実環境視像における仮想情報の表示方法
US10473465B2 (en) System and method for creating, storing and utilizing images of a geographical location
US9699375B2 (en) Method and apparatus for determining camera location information and/or camera pose information according to a global coordinate system
US9761054B2 (en) Augmented reality computing with inertial sensors
JP5383930B2 (ja) 端末装置の視野に含まれている客体に関する情報を提供するための方法、端末装置及びコンピュータ読み取り可能な記録媒体
JP4236372B2 (ja) 空間情報利用システムおよびサーバシステム
US7272501B2 (en) System and method for automatically collecting images of objects at geographic locations and displaying same in online directories
US20160063671A1 (en) A method and apparatus for updating a field of view in a user interface
US20070070069A1 (en) System and method for enhanced situation awareness and visualization of environments
WO2011118282A1 (ja) 世界座標系データベースを利用したサーバ及び端末
WO2011145482A1 (ja) 端末位置特定システム、移動端末及び端末位置特定方法
KR102200299B1 (ko) 3d-vr 멀티센서 시스템 기반의 도로 시설물 관리 솔루션을 구현하는 시스템 및 그 방법
CN110168615B (zh) 信息处理设备、信息处理方法和存储介质
US20220390250A1 (en) User Equipment and Control Method Thereof
US11751005B2 (en) Providing grave information using augmented reality
JP5709261B2 (ja) 情報端末、情報提供システム及び情報提供方法
CN112689114B (zh) 对车辆的目标位置进行确定的方法、装置、设备和介质
KR20110042440A (ko) 강화 이미지 제공 시스템 및 방법
TWM439180U (en) Moving object tracking system
JP2004341742A (ja) 施設情報表示装置

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130926

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131001

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20131224

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20140108

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20140129

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20140217

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20140226

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20140305

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140328

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140610

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140709

R150 Certificate of patent or registration of utility model

Ref document number: 5582548

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250