JP5980295B2 - カメラ姿勢決定方法、及び実環境物体認識方法 - Google Patents

カメラ姿勢決定方法、及び実環境物体認識方法 Download PDF

Info

Publication number
JP5980295B2
JP5980295B2 JP2014223180A JP2014223180A JP5980295B2 JP 5980295 B2 JP5980295 B2 JP 5980295B2 JP 2014223180 A JP2014223180 A JP 2014223180A JP 2014223180 A JP2014223180 A JP 2014223180A JP 5980295 B2 JP5980295 B2 JP 5980295B2
Authority
JP
Japan
Prior art keywords
parameter
image
camera
model
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014223180A
Other languages
English (en)
Other versions
JP2015084229A (ja
Inventor
マイヤー ペーター
マイヤー ペーター
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Metaio GmbH
Original Assignee
Metaio GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Metaio GmbH filed Critical Metaio GmbH
Publication of JP2015084229A publication Critical patent/JP2015084229A/ja
Application granted granted Critical
Publication of JP5980295B2 publication Critical patent/JP5980295B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/245Aligning, centring, orientation detection or correction of the image by locating a pattern; Special marks for positioning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/768Arrangements for image or video recognition or understanding using pattern recognition or machine learning using context analysis, e.g. recognition aided by known co-occurring patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)
  • Navigation (AREA)
  • Studio Devices (AREA)

Description

本発明は、実環境に関連するカメラの姿勢を決定する方法、及び、カメラによって撮像された画像における実環境の物体を認識する方法に関する。また、本発明は、実環境の実物体に関連するカメラの姿勢を決定する方法、又は、実環境の物体を認識する方法を用いてカメラによって撮像された画像のデータと比較されることを目的とするデータモデルを提供する方法に関する。
拡張現実感(AR)は、仮想データを現実に重ね合わせる技術であり、従って、拡張現実感はデータと現実との関係を容易にする。従来、例えば、モバイルARシステムの使用は既に知られている。ここ数年、高性能モバイル装置(例えば、いわゆる「スマートフォン」)は、ARアプリケーションに適していることが判明された。一方、これらの装置は、比較的大きいカラー・ディスプレーと、設置されたカメラと、優れたプロセッサと、例えば方位センサやGPSなどの付加的なセンサとを備える。それに加えて、装置の位置は、無線ネットワーク経由で見積もられる。これまでに、ARを利用するモバイル装置に実施された様々なプロジェクトがあった。まず、装置の位置と方位を確かめるための特殊な光学式マークは、使用された。最近では、より多くの最新の装置のGPSシステムと方位センサシステムを利用するための様々なアプローチもある(非特許文献1、非特許文献2、非特許文献3、非特許文献4、非特許文献5、及び非特許文献6を参照する)。
しかしながら、不確かなセンサデータが原因で、レジストレーション、即ち、重ね合わせの精度は改善に値することは、注目すべきことである。この目的を達成するためのアプローチは、例えば、GPS、コンパス、及び、グラビテーション・センサの組み合わせから、光学的アプローチによって、カメラの初期姿勢を改善するハイブリッド・トラッキングの使用である。変動光条件に対する感受性を低減するために、画像データのいわゆる“ヒストグラム平坦化”は、よく用いられる。
カメラによって撮像された画像における実物体の物体認識、及び、実環境に関連するカメラ姿勢を決定するための光学トラッキングシステムの初期化は、従来知られている。しかしながら、時々、システムの信頼性は変動環境条件によって大きく変化する場合がある。これについて、カメラ姿勢はカメラの空間における位置と方位である。現実感は、例えば、データモデルのいかなる形で、その一例として、現実又は現実の一部の幾何学的性質を表現する3Dモデルの形で、存在することがある。
米国特許出願公開第2003/0025714号公報では、拡張現実感を用いて気象データを可視化するシステムを記述している。米国特許出願公開第2005/0231419A1号公報では、気象に依存しないセンサを用いて大気空間を監視するARシステムを記述している。
AR Wikitude.http://www.mobilizing.com/wikitude.php S.Feiner,B.Maclntyre,T.Hollerer,and A.Webster,"A touring machine:Prototyping 3d mobile augmented reality systems for exploring the urban environment",In Proceedings of the 1st International Symposium on Wearable Computers,pages 74-81,1997. Sekai Camera. http://www.tonchidot.com/product-info.html Marko Heinrich,Bruce H. Thomas, Stefan Mueller, "AR Weather", Mixed and Augmented Reality, IEEE/ACM International Symposium on, pp.187-]188, 2008 7th IEEE/ACM International Symposium on Mixed and Augmented Reality, 2008. layar.com Magazine Machine Vision and Applications Publisher Springer Berlin/Heidelberg ISSN 0932-8092(Print) 1432-1769(Online) Issue Volume 17, Number 1/April 2006, pages 8-20
本発明は、実環境に関連するカメラの姿勢を決定する方法、及び、カメラによって撮像された画像における実環境の物体を認識する方法において、変化する環境条件に対するロバスト性を改善することを目的としている。
第1の実施態様に従って、本発明は、実環境に関連するカメラの姿勢を決定する方法に関し、前記方法は、
ステップ:カメラを用いて実環境の少なくとも一枚の画像を撮像し、前記画像は実物体の少なくとも一部を含んでおり、
ステップ:環境状況、例えば、前記画像を撮像するとき、の少なくとも1つのパラメータを決定し、
ステップ:前記カメラの姿勢に関する結論を得るために、前記実物体に関連する特徴と、前記実環境の前記画像に含まれている場合の前記実物体の対応する特徴との間の対応に関する情報を評価するトラッキング方法を実行し、及び
ステップ:前記少なくとも1つのパラメータに応じて前記トラッキング方法を実行する、
を備える。
更なる実施態様に従って、本発明は、カメラによって撮像された画像における実環境の物体を認識する方法に関し、前記方法は、
ステップ:カメラを用いて実環境の少なくとも一枚の画像を撮像し、前記画像は実物体の少なくとも一部を含んでおり、
ステップ:前記画像における前記少なくとも一つの実物体の認識に関する情報を提供する画像認識方法を実行し、
ステップ:環境状況、例えば、前記画像を撮像するとき、の少なくとも1つのパラメータを決定し、及び
ステップ:前記少なくとも1つのパラメータに応じて、前記画像認識方法を実行する、
を備える。
特に、このようにして、現在の環境状況を認識すること、及び、システムを動的に構成することが可能である。マッチした構成によって、変化する環境条件についてのロバスト性が強化される。
本発明の一実施例に従って、情報の下記の項目の少なくとも一項又は数項を用いることによって、前記環境状況の前記少なくとも1つのパラメータの決定が行われる。前記項目は、一日の時期;一年の時期;気象、特に、雨、雲、日光(日射)及び霧;月の位置;積雪情報;樹木の葉;海抜高度;公共イベント、特に、強力な運動;交通状況;位置;ワールド座標系における方位;画像のヒストグラム;温度;メンテナンス・ステップである。前記環境状況の前記少なくとも1つのパラメータは、特に、1つ以上のこれらの条件又は状況に対して、特徴のあるものであることがある。
以上、典型的な方法で指摘したように、様々な環境条件は、よく、前述の物体認識方法と姿勢決定方法に重大な影響を与える。これらの条件が認識されるときに、状況に応じて反応を示すことが可能である。例えば、反応は、太陽の多くの位置に対して環境のデータモデルを作成すること、及び、雨天と晴天に対してもそれぞれそのようなことをすることもあり得る。特定の場所での認識又は初期化を行うことが求められる場合に、例えば、一日/一年の時期、及び、オンライン気象情報の問い合わせを経由して、適切なデータモデルを読み込んで利用することができる。この適切なデータモデルでは、日射のベクトルと計算された日射のベクトルとの間の角度が、できるだけ小さくなるようにする。一般的に、このようにして、少なくとも環境条件の一部を表現する、測定された、シミュレートされた、又は、決定された1つ以上のパラメータが存在する。それぞれ、物体認識及び姿勢決定用の認識又は初期化システムを構成する、この1つ以上のパラメータを決定する、又は、この1つ以上のパラメータに由来することができる。
本発明の一実施例において、前記トラッキング方法は、前記少なくとも1つのパラメータに基づいて初期化された、少なくとも1つの光学トラッキング方法を使用する。
例えば、カメラの姿勢は、1、2、3、4、5又は6自由度を有する前記トラッキング方法によって決定される。
本発明の一実施例において、前記トラッキング方法は、センサタイプの異なる、いくつかのトラッキングセンサを使用することができる。例えば、前記トラッキング方法は、前記少なくとも1つのパラメータに基づいて、前記トラッキングセンサの少なくとも1台の重み付けを含む。
本発明の一実施例において、前記トラッキング方法は、前記少なくとも1つのパラメータに基づいて、方法部分的なステップの優先順位付けを含むこともできる。しかしながら、前記カメラによって撮像された前記画像のデータと比較されるデータモデルを使用する方法において、代替法、又は、それと組み合わせた形として、前記現在環境状況の前記少なくとも1つのパラメータを考慮して前記データモデルを選択することも可能である。更なる実施例では、前記実環境の前記画像において、前記データモデルの作成及び/又は使用に影響を与える、前記少なくとも1つのパラメータと共に、前記実物体の前記画像のデータと比較される、少なくとも1つのデータモデルが使用される。
例えば、前記少なくとも1つのパラメータは、前記データモデルの作成の種類、特に、いわゆる特徴検出器と記述子の作成に、影響を与える。更なる実施例では、データモデルは、前記少なくとも1つのパラメータ(環境状況)で記録される、又は、シミュレーションによって作成される、多くの個別モデルから、抽出されるようになっており、前記データモデルは、いくつかの環境状況の中に含まれている情報の項目の共通部分を含む。
本発明は、実環境の実物体に関連するカメラの姿勢を決定する方法、又は、実環境の物体を認識する方法において、カメラによって撮像される一枚の画像のデータに比較されることを目的とするデータモデルを提供するための方法にも関する。このような方法に基づいて、環境状況は確認又はシミュレートされ、また、前記環境状況の少なくとも1つのパラメータは決定される。更に、前記実物体の基本的な描写を含むデータモデルは作成され、様々な環境状況は設定又はシミュレートされ、また、異なる環境状況に対して、それぞれの少なくとも1つのパラメータに基づいて、それぞれのマッチしたデータモデルが提供される(例えば、状況の多くは予めシミュレートされたときに、これは、例えば、現在のパラメータに対する直接の反応として、又は、リザーブとして起こる。)。
一実施例によれば、前記基本的な描写は、環境の仮想3Dモデルである。
更なる実施例によれば、いくつかの異なる環境状況の中に含まれている情報の項目の共通部分を含むデータモデルは、作成される。
例えば、仮想情報は実環境の表示に統合されるときに、前記実環境に対して、仮想情報における統合された現実感の度合いを増加させるために、例えば、インターネット(“オンライン”)経由で検索される気象データは考えられ、また、このようにして関連付けを改善する。ここで考えられる処理用の様々な複雑性の度合いがある。例えば、気象状況に基づいて、固定照明モデル又は材料(例えば、テクスチャ)は、気象状況に割り当てられてマッチさせられる。気象データ(例えば、雲や日射などのデータ)及び/又は他のデータ(例えば、一日/一年の時期などのデータ)に基づいて、(例えば、当業者に知られているレイトレーシング方法を用いて、)シャドウキャスト又は光条件を計算することができる。
本発明の追加した有利な展開と実施例は、従属請求項に示される。
図1は実環境に対する典型的なシステムセットアップの概略配置の平面図を示しており、本発明に係る方法を実行するために、該システムセットアップを使用することができる。 図2は実環境に対する典型的なシステムセットアップの概略配置の側面図を示しており、本発明に係る方法を実行するために、該システムセットアップを使用することができる。 図3はカメラ姿勢を決定するため、又は物体を認識するためのデータモデルの図解例を示す。 図4は本発明の一実施例に係る方法の典型的なコースを示す。 図5は本発明の更なる実施例に係る方法の典型的なコースを示す。 図6は本発明の更なる実施例に係る方法の典型的なコースを示す。 図7は本発明の更なる実施例に係る方法の典型的なコースを示す。 図8は本発明の更なる実施例に係る方法の典型的なコースを示す。 図9は本発明の一実施例に係るデータ構造の典型的なセットアップを示す。 図10は本発明の一実施例に係る典型的なパラメータを示す。 図11は、本発明の一実施例に基づいて撮像された画像の差の典型的な近似値と可能な計算を示す。
以下、図面に示された図を用いて、本発明をより詳細に説明する。
図1は実環境に対する典型的なシステムセットアップの概略配置の平面図を示しており、本発明に係る方法を実行するために、該システムセットアップを使用することができる。特に、図1はシステムセットアップの様々な可能性を示す。これに関連して、図2は実環境に対する典型的なシステムセットアップの概略配置の側面図を示しており、本発明に係る方法を実行するために、該システムセットアップを使用することができる。
図1Aの図では、ユーザは、システムセットアップ20の一部であるディスプレー21を備えるヘッドマウント・ディスプレー・システム(“Head Mounted Display”、HMDと略される)を、ディスプレー装置として身に付ける。例えば、ディスプレー21は、一般的に知られている半透明データメガネ(“光学シースルー・ディスプレイー”)であってもよい。コンピュータ23によって提供される仮想情報を、ディスプレー21に溶け込ませることができる。そして、ユーザは、半透明データメガネ21を介して実世界40の視野で、溶け込まれた仮想情報(例えば、実世界に関連するPOIオブジェクト)で拡張された実世界40の物体を見る。このように、システムセットアップ20は、一般的に知られている拡張現実感(AR)システムの第1の実施例を構成する。
ディスプレー21は、追加センサ24(例えば、回転センサ)と、光学トラッキング用カメラ22を搭載するようにしても良い。ディスプレー21は半透明になり得る、又は、カメラ画像によってディスプレー21に現実感の画像が与えられるようにしても良い。半透明ディスプレー21のために、目25とディスプレー21との間のキャリブレーションが必要である。このことについては、先行技術に記録され、且つ、当業者に知られている様々なプロセスがある。実世界40におけるシステムセットアップ20の地理的な位置決定(例えば、経度と緯度に基づいて)をできる限り、レンダーリングするために、有利に、ディスプレー21の上に、又は、ユーザの身体のどこか、又は、同様にコンピュータ・ユニット23において、設置された位置センサ(例えば、GPSセンサ;GPS:全地球測位システム)もあるようにしても良い。半透明HMDでいわゆる光学シースルーモードにおいて表示が実行されるか、それとも、カメラとディスプレースクリーンでビデオ・シースルーモードにおいて表示が実行されるかは、何の関連性もない。基本的に、本発明は、ビデオ・シースルー・アプローチが、一台のカメラが、1つの眼につき、1つのビデオストリームを記録するための計二台のカメラを有利に使用するという立体表示に関連して使用されることができる。どんな状況でも、仮想3D情報の項目は、各眼について個別に計算されることができる。
基本的に、以下に説明する異なる一部のステップの処理は、ネットワーク経由で様々なコンピュータに配布されることができる。従って、クライアント/サーバー・アーキテクチャ、又は、単にクライアントベース・ソリューションは可能である(例えば、様々なデータモデル代替手段は、サーバーについて固定して提供される)。例えば、クライアントは、画像をサーバーに送信することが可能であり、そのサーバーは、受信した画像と環境状況のパラメータに基づいて、システムセットアップ(図1参照)の3D位置及び3D方位、又は、実世界に関連するそれの一部(以下、“姿勢”と称する)に関するクライアント・ステートメント、及び、ビジョン又は可視性の範囲に関するクライアント・ステートメントが利用できるようにする。環境状況に関するパラメータは、一部分においてクライアントによって決定され(例えば、位置)、また、一部分においてサーバーによって決定される(例えば、この位置に関する気象データ)ことができる。更に、クライアント又はサーバーは、いくつかの計算ユニットを備えるようにしても良く、そのいくつかの計算ユニットは、例えば、いくつかのCPU又は専用ハードウェア部品であり、また、例えば、一般的に知られている複数のFPGA、ASIC、GPU、又はDSPである。例えば、この位置での環境状況について生成された情報を相互に交換するいくつかのクライアントが存在するようにしても良く、又は、念のため、1つのクライアントは環境データを生成する。この情報交換はサーバー経由で行われることができるが、例えば、ブルートゥース又はWLAN経由での直接接続によって行われることもあり得る。
ARが実現可能となるために、空間におけるカメラの姿勢(位置及び方位)が必要である。これは様々な異なる方法で実現されることができる。例えば、単にGPSと電子コンパスを有する方位センサ(例えば、いくつかの最新携帯電話機に搭載されたように)を用いることにより、世界における姿勢を決定することができる。しかしながら、姿勢の不確実性は非常に高い。従って、例えば、光学的初期化とトラッキング、又は、光学的方法とGPS、方位センサとの組み合わせといった他の方法を使用することも可能である。WLAN位置決めは、同じに使用されることが可能であり、又は、RFID若しくは光学マーカーは、位置決めプロセスをサポートすることができる。以上に述べたように、ここでは、クライアント/サーバーベースのアプローチは同じに可能である。しかしながら、基本的に、本発明はARだけに使用されることに限定されない。例えば、物体認識を行い、そして、ウェブサイトをウェブブラウザー又はアプリケーションでスタートすることも可能である。しかしながら、画像を正確に写真サイト(例えば、画像を撮影した場所を示すこともできるフリッカー(Flickr))に置くために、少なくとも1つのパラメータと写真を使用することもできる。
本発明は、クライアントに対して情報表示を改善することができる。しかしながら、本発明は、リモート・シナリオに使用されることもできる。こうした状況の下では、例えば、制御室に居るメンテナンス専門家は、データネットワーク経由で送信されたクライアントの画像、及び、それに応じて処理された情報を、彼のディスプレースクリーン上に見る。そして、この専門家は、クライアントに指示を与える、又は、単に観察するということもあり得る。似ているシナリオにおいて、人は、本発明に基づいて表示されたインタラクティブな追加情報とともに、撮像された画像又はビデオ資料を見ることができ、また、可能なら、インタネットベース・アプリケーション”Google Streetview”と似ている資料を介してナビゲートすることができる。
それに加えて、本発明は、モニター、HMD、又は、ヘッド・アップ・ディスプレーを使用する、車両、航空機、又は船舶に、搭載される、又は、運ばれていくこともできる。
基本的に、本発明は、いわゆる注目点を溶け合わせることに使用されることができる。注目点(POI)は、様々な異なる形式の情報に対して、セットアップされることができる。以下、これらの例は与えられた。GPS情報を使用する場所の画像を表示することができる。インターネットから情報を自動的に抽出することができる。例えば、これは、格付けを与える、アドレス又はページを有する、会社又はレストランのウェブサイトであっても良い。ユーザは、テキスト、画像、又は3Dオブジェクトを特定の場所に置くことができ、また、他の人たちが同様にこれらを使用できるようにすることができる。例えば、ウィキペディアのような情報ページは、地理情報に関して検索されることができ、また、これらのページをPOIのようにアクセス可能にすることが裁定できる。POIは、モバイル機器のユーザの検索及びブラウジングの行動から自動的に生成されることができる。例えば、地下輸送機関若しくはバス・ステーション、病院、警察署、医師、不動産広告若しくはフィットネスクラブのような、注目する他の場所を示すことができる。
システムによってナビゲーション情報が表示可能となる(例えば、矢印)。
図2に図解されたように、現実感は、データモデルとしてのいかなる形で存在することができ、例えば、そのデータモデルは、本件において、実物体41の幾何学的特性を制限し、又は、3D点群における物体の点の特徴を保存する3Dモデル51である。従って、一般的に、このようなデータモデルは、現実感又は現実感の一部の幾何学的特性を表現することができる。このようなデータモデルは、カメラの姿勢を決定するためのトラッキング方法、又は、物体認識方法に利用されることができる。
例えば、このようなデータモデルを利用することにより、光学物体トラッキング方法は行われることができる。その際に、当業者に知られているように、データモデル、例えば、データモデル51は、カメラによって撮像され、実物体41を含む画像のデータに比較される。
カメラによって撮像された画像における実物体の物体認識、及び、実環境に関連するカメラ姿勢を決定するための光学トラッキングシステムの初期化は、従来知られている。特に、この場合に使用される方法は、実物体に関連する特徴と、実環境の画像に含まれている場合の実物体の対応する特徴との間の対応に関する情報を評価することにより、カメラの姿勢に関する結論を得る。
しかしながら、時々、システムの信頼性は変動環境条件によって大きく変化する。本発明によれば、現在の環境状況を認識し、システムを動的に構成することができる。マッチした構成によって、変化する環境条件に対するロバスト性は、強化される。
本発明の一実施態様に従って、下記のステップが実行される:
ステップ:カメラを用いて実環境の少なくとも一枚の画像を撮像し、撮像した画像は実物体の少なくとも一部を含んでおり、
ステップ:環境状況の少なくとも1つのパラメータを決定し、
ステップ:カメラの姿勢に関する結論を得るために、実物体に関連する特徴と、実環境の画像に含まれている場合の実物体の対応する特徴との間の対応に関する情報を評価するトラッキング方法を実行し、及び
ステップ:少なくとも1つのパラメータに従って、そのトラッキング方法を実行し、特に、少なくとも1つのパラメータに従って、対応をすでに見つける。
このようにして、現在の環境状況を認識し、システムを動的に構成することができる。マッチした構成によって、ロバスト性は、強化される。
例えば、トラッキング方法は、少なくとも1つのパラメータに応じて初期化される、少なくとも1つの光学トラッキング方法を使用する。カメラの姿勢は、例えば、1、2、3、4、5又は6自由度を有するトラッキング方法によって決定される。使用目的は、例えば、物体の認識(例えば、”in front of which object am I”という情報を得るために)、又は、6自由度を有する拡張現実感用光学トラッキングシステムの初期化である。6自由度を決定するために、従来知られている可能性は、2D−3D対応を生成すること、及び、生成した2D−3D対応を最適化方法に入力することに存する。例えば、深度カメラ(depth camera)、又は、深度情報を生成するための第2のカメラに加えて、記録装置が搭載された場合に、2D−3D対応を使用することも可能である。この対応を提供するために、画像から特徴を認識し、また、データモデルにおける特徴を検索することができる。検索のために、いわゆる特徴記述子(例えば、SURF又はSIFT)を使用することができる。ちなみに、SURFは、高速化ロバスト特徴(Speed Up Robust Features)の略であり、また、SIFTは、Scale Invariant Feature Transformの略である。しかしながら、データモデルの特徴及びデータモデルの記述子が、現在の画像における認識された特徴に比べて他の光条件に対して生成された場合に、これは正常に機能しないことが多い。
例えば、トラッキング方法は、センサタイプの異なる、いくつかのトラッキングセンサを使用する。そして、トラッキング方法では、いわゆるセンサーフュージョンにおいて、少なくとも1つのパラメータに応じて(例えば、悪い条件の場合に、増加した光学トラッキングの不確実性)、他のトラッキングセンサに対して、1つ以上のセンサの重み付けを達成することができる。トラッキング方法では、少なくとも1つのパラメータに応じて、方法の一部のステップの優先順位付けを達成することも可能である。例えば、良好な条件では最初に高速アプローチ(例えば、SURF)を使用し、また、悪い条件の場合に、よりロバストなアプローチ(例えば、SIFT)を最初に使用することができる。
異なる環境条件は、よく、方法と多くの特徴に重大な影響を与える。これらが認識されるときに、それ相応にこれらに反応を示すことが可能である。例えば、反応は、太陽の多くの位置に対して環境のモデルを作成すること、及び、雨天と晴天に対してもそれぞれそのようなことをすることもあり得る。特定の場所での認識又は初期化が行われた場合に、例えば、一日/一年の時期、及び、オンライン気象情報の問い合わせを経由して、適切なモデル(この適切なモデルでは、日射のベクトルと計算された日射のベクトルとの間の角度が、できるだけ小さくなるようにする。)を読み込んで利用することができる。このようにして、環境条件を表現するパラメータも、認識又は初期化システムを構成するパラメータもある。
環境状況の少なくとも1つのパラメータを決定するために、一実施例は、情報の下記の項目の少なくとも一項又は数項を使用する。これらの項目は、一日の時期;一年の時期;気象、特に、雨、雲、日光及び霧;月の位置;積雪情報;樹木の葉;海抜高度;公共イベント、特に、強力な運動;交通状況;位置;ワールド座標系における方位;画像のヒストグラム;温度;メンテナンス・ステップである。このようにして、環境状況の少なくとも1つのパラメータは、特に、1つ以上のこれらの条件又は状況に対して、特徴のあるものであっても良い。一実施例において、少なくとも1つのパラメータは、場所(だけ)ではなく、又は、場所(だけ)に対する特徴ではない。更なる実施例において、少なくとも1つのパラメータは、方位(だけ)ではなく、又は、方位(だけ)に対する特徴ではない。もう一つの実施例において、少なくとも1つのパラメータは、姿勢(だけ)ではなく、又は、姿勢(だけ)に対する特徴ではない。
本発明に係る更なる実施例及び可能性を以下のように説明する。
照明状況に関しては、月を考慮することも可能である。月夜に、特定の光学特徴を使用することができ、また、暗夜に、人工光源だけ(例えば、イルミネーションに照らされた広告)で正常に機能することができ、又は、全く、光学システムを使用しようとしないが、むしろ、例えば、GPSとコンパスだけを使用するようにする。雪が降った場合に(現在の気象、又はここ数日間の気象データベース、並びに、温度曲線、オンライン道路交通レポート、又はオンライン雪崩レポート)、環境は再び異なり、また、対応するモデルを読み込むこと、又は、光学トラッキングの動作を停止することは、有利である。
一年の時期に応じて、特定の領域では、樹木の葉に関しての結論を出すことができ、その上、異なるモデルを読み込むことができる。一年の時期に加えて、一年全体の気候条件は、計算に加えて考慮される。海抜高度は、この点について、同じに役割を果たすことができる。
基本的に、特定の環境状況に応じて異なるデータモデルを読み込むことだけでなく、複合モデル中に特定のモデル部分の優先順位付け(アルゴリズムにおける先、又は後での考慮)又は重み付け(結果への強い又は小さい影響)に影響を与えることもできる。複合モデルにおいて、個別のモデルデータ(例えば、点群の点)は、環境状況に関するデータで補完され、従って、モデルデータの部分をブレンドアウトする、変化させる、又は追加することができる。例えば、データモデルの特定の点は、環境状況“冬”の場合に、ブレンドアウトされる(即ち、考慮されない)のに対して、当該データモデルの特定の点は、環境状況“夏”の場合に、考慮される。この可能な実現用の可能なデータ構造は、図9に示される。データモデルは、特徴ごとに、環境状況を記述する1つのパラメータベクトルを含むことができ、記述子(例えば、SURF記述子)、及び、姿勢計算用最適化情報(例えば、地球の座標系(the earth’s coordinate system)における3D位置)は分別よく特徴に使用されることができる。
カメラに撮像された画像の位置及び方位は、環境条件(局地気象や局地一日の時期など)を決定することにとって、極めて関連の深いこともよくある。しかしながら、例外は、世界中で起こる可能性がある認識プロセスであり(例えば、コカコーラ(登録商標)の瓶の認識)、また、この認識プロセスでは、クライアントが、位置に関係なく特定の環境特性に反応することができる(例えば、モバイル装置に搭載された輝度センサ、又は、カメラ画像のヒストグラム)。ヒストグラム(画像に関する一種の統計資料)は、例えば、環境照明の一般的な特性を示唆することを可能にし、また、光学方法の使用をやめる、又は、光学方法を切り替えることができる。方法の切り替えは、例えば、コーナー特徴の代わりにエッジ特徴を使用するようにし、又は、SUFRの代わりに既知のSIFT方法を使用するようにする。又は、ユーザは、有効的に介入し、また、システムに認識用ヒントを提供することが求められる。
更に、メンテナンスを受ける物体の場合の環境に関する情報は、例えば、現在のメンテナンス・ステップ又はメンテナンス状態の知識から得られる。例えば、情報は、特定のステップに対して、モータは既に取り外されたかどうかである。
公共イベント又は交通状況の知識(経験から、又は、オンライン検索できる)は、特定の領域が常に動いている時に(例えば、大勢の人々、又は、移動する車両)、この特定の領域は信頼できる情報を提供することができないという旨のヒントを提供することができる。
更なる実施例は、環境状況の少なくとも1つのパラメータの距離測定の決定、及び、既知な環境状況についてのトラッキング方法の既知な理想パラメータから、カメラ姿勢を決定することにおける不確実性の計算を含む。一般的に、環境状況に関するいくつかのパラメータの一部を1つのベクトルの形で組み合わせることも可能であり、また、記録又は作成条件の対応するベクトルでデータモデルを生成することも可能である。現在の環境状況に提供されたデータモデルの質は、ベクトルの比較で結論付けられることができ、また、最小偏差を有するデータモデルはそれに応じて選択されることができ、及び/又は、認識の不確定性表現は差分から得られることができる。この点について、図10に一例を示しており、即ち、ベクトルは、一日の時期、雲の状況、及び一年の時期にそれぞれ対応する3つのフィールドを含む。省略記号は、特定の時点で撮像されたビューに関する環境状況を示す。図11は、近似の典型的な値、及び、ビューとビューの間の差分の可能な計算を示す。この点について、個別のパラメータは、データモデルに様々な程度まで影響を与えることがあるので、個別のパラメータの重み付けは可能である。
パラメータベクトルは、データモデルごとに、比較情報の項目ごと(例えば、SURF特徴)に、又は、データモデル内の特徴ごとに、格納されることができる。この点については、固定値だけでなく、この比較情報が適しているパラメータ範囲も格納されることができる。図8は、この追加情報の可能な使用を示す。例えば、ステップ6.1及びステップ6.2に説明されたように、パラメータベクトル距離に応じて、ソーティングによって、比較を加速させることができ、すると、所望の数のペアはより速く見つけることができる。別の方法として、現在の環境パラメータベクトルは、画像で見つけた全ての特徴の前に置かれることができ、そして、最近傍探索(NNS)で任意にサポートされるマッチング・アルゴリズムをスタートさせることができる。
本発明の一実施例では、少なくもと1つのパラメータは、モデルデータの上出来な検索に関する最低必要条件に影響を与え、特に、実物体に関連する多くの特徴、及び、整合性(少なくとも“マッチした”特徴の個数)に持ち込まれた実環境の画像における実物体の対応する特徴を決定する。認識及び初期化において、多くの場合に、表示された1つの量があり、その量は想定された全部の特徴の検索又は物体の検索を指摘する。例えば、少なくとも10個の特徴を再び見つける、又は検索する必要がある。モデル・プレゼントが環境にうまく適合する場合に、その量は、例えば増加しても良い(例えば、20個の特徴を再び見つける必要がある)。このようにして、良好な条件では、いわゆる“誤検知”(物体の誤認識、即ち、システムによって行われた物体の想定された認識は、しかしながら、間違っていることが判明する。)(例えば、結果的に、精度が強化される)であり、しかしながら、一方、悪い条件の場合に、可能な初期化チャンスは省かれない。
更なる実施例において、環境状況の少なくとも1つのパラメータは、データモデルの作成及び/又は使用に影響を与える。特に、少なくとも1つのパラメータは、データモデルの作成の種類、例えば、特徴の検出と特徴記述子の作成に、影響を与える。特に、異なる特徴エクストラクタと記述子が存在する。良好な環境条件では、例えば、高速方法(例えば、FASTエクストラクタ+高速記述子)が選択され、しかし一方、より複雑な方法(例えば、SIFT)は、困難な条件の場合に使用される。
もう一つの実施例では、データモデルは多くの個別モデルから抽出され、データモデルはいくつかの環境状況の中に含まれている情報の共通部分を含む。図7のフローチャートはこのプロセスの典型的な具現化を示す。ステップ30.0では、読み込まれた様々な既存データモデル、又は、先にシミュレーションによって生成されたデータモデルがある。その後(ステップ31.0では)、モデル間のマッチングが行われる。そうすることで、いくつかの比較データが頻繁に検索されるのに対して、そのほかの比較データは、一回でも検索されない可能性がある。検索の頻度はバッファリングされることができる。任意のステップ32.0では、例えば、特徴はデータモデルの共通座標系における特徴の位置によって大きく変化する場合に、外れ値は除去されることができる。データモデルは、基本的に、異なる方法(例えば、SURF、SIFT、任意のエッジモデル、エリアモデル、又は、色を考慮するモデル)で生成される、異種比較情報で構成されることができることに留意する。その後、頻繁に検索される比較情報(ステップ31.0)は、新しいマップを形成するように、組み合わせられる。そうすることで、比較情報の上限、例えば、空間におけるボリュームごとに、任意的に決定されることができる。そして、最も強い比較情報に応じて、ソーティングが行われる。この点については、重み付け演算により、非常にロバストだけで遅い方法が好ましいということが抑制される。その後、マップは、さらに使用するために、格納されることができる。
もう一つの実施例では、それぞれが方法を行う(特に、いくつかのクライアント、例えば、いくつかのモバイル装置)、いくつかの部分的なシステムがあり、また、部分的なシステムの各自は、それ自身でトラッキング状況を計算するわけではなく、むしろ、完成した状況情報は全ての部分的なシステムに利用され、有利に、完成した認識又は初期化モデルも、これらの部分的なシステムに利用される。
例えば、部分的なシステムは、連続的に、状況に関する情報をサーバー又はピアツーピアプロセスに提供する。ピアツーピアプロセスは、いくつかのモバイル装置間に行われる(例えば、サーバーは10番の装置と通信し、13番の装置と17番の装置は10番の装置に隣接しており、そして、10番の装置はこれらの装置に直接に情報を求める。)。さもなければ、情報をサーバーに提供する個別の装置があり、また、ユーザは自分の特定の装置のため、サーバーから情報を得る。
もう一つの実施例では、カメラ姿勢を決定することは、画像に含まれている少なくとも1つの実物体に対して深度情報を計算するために使用され、そして、深度情報は溶け合わせるために使用され、また、ディスプレー装置において、実環境に重ね合わさった仮想情報が、オクルードされる実物体によって、ビューにオクルードされる場合に、実物体をオクルードするためのオクルージョン・モデルがある。
本発明のもう一つの実施態様は、実物体に関連するカメラの姿勢を決定する方法、又は、実環境の物体を認識する方法において、カメラによって撮像される一枚の画像に比較されることを目的とするデータモデル、及びそのデータモデルのデータをそれぞれ作成するための方法に関する。この実施態様では、環境状況は決定又はシミュレートされ、環境状況の少なくともパラメータは決定され、実物体の基本的な記述子を含むデータモデルは作成され、様々な環境状況はプリセット又はシミュレートされ、また、それぞれの少なくとも1つのパラメータに基づいて、それぞれのマッチしたデータモデルが異なる環境状況に利用される。例えば、状況の多くは予めシミュレートされたときに、これは現在のパラメータに対する直接の反応として、又は、リザーブとして起こる。このようにして、大きな支出で異なる状況のいくつかのモデルを提供する代わりに、ニュートラル・モデルを提供するというアイデアがあり、また、環境影響のシミュレーションによって、かなり少ない支出で、同じものを動的に(又は予め)マッチさせるようにする。
例えば、基本的な記述子は、環境の仮想3Dモデルである。例えば、都市の3Dモデルを有することは考えられる。既知のいわゆる3Dレンダリング技術によって、太陽の現在の経路、及び、これによって生じた環境のモデルを計算するという試みは、今すぐにできる。
例えば、3Dモデルは、環境状況に特有の性質から以前に解放され、また、それに加えられるテクスチャを有する。情報が収集されている間に、同じに、シャドウが記録されることができることが多い。当業者に知られている方法を用いて、シャドウを除去するという試みを行うことができる。
一実施例において、3Dモデルは、異なる光状況で画像面に投影される。
有利に、いくつか(できるだけ多く)の異なる環境状況の中に含まれている情報の共通部分を含むデータモデルは、作成される。(記録又はシミュレーションによって)、多種多様な異なる環境モデルを生成すること、及び、認識/初期化に利用される特徴をそこから抽出することも考えられる。できるだけ多くの異なるモデルにおける現れる、特定の特徴(例えば、特定のSURF特徴)に関する環境モデルを分析し、それから、特にロバストな特徴をできるだけ多くの状況に正常に機能するモデルに詰め込むことができる。図7に関連する以上のステートメントについても申し述べる。
1つの実施例は、SLAM方法と現在の環境状況の確認を組み合わせ、また、作成されたデータモデルは、環境状況に関する情報と一緒に格納される。いわゆる”自己位置と環境地図の同時推定(simultaneous localization and mapping;SLAM)”において、カメラが動いている間に、ステレオカメラを用いる場合に、又は、似ている3Dアプローチ(例えば、深度カメラ)を直接に使用する場合に、環境のマップ(データモデル)は生成され(例えば、SURF特徴と世界におけるその3D位置のマップ)、また、カメラの姿勢は決定される。現在の環境条件に関するデータ又はパラメータは、さらに記録された場合に(上述したように)、これらのデータは、多種多様な異なる環境条件に対して、世界のこれまで以上に完成したモデルセットを生成するのに、使用されることができる。例えば、システムは、包括的なデータが既に利用できる特定の場所でのスタートに使用されることができ、そして、この基礎から進むことができる。それから、システムは特定の条件に対する新しい範囲を学習し、また、将来はこれらに基づいてスタートすることもできる。
以下、他の図に関連して、図4〜図8に示されたフローチャートによって、本発明の実施態様及び実施例をより詳細に説明する。
まず、図4は、モデルデータの使用に関する、本発明に係る方法の一実施例に関し、ステップ1.0では、基本的に、環境状況に関する1以上のパラメータを備えるパラメータベクトルは、記録される(例えば、中央サーバー経由で気象状況を問合せ、日/場所の時期/時間を介して太陽の位置を計算する)。ステップ2.0では、記録位置を含むパラメータベクトルは、サーバーに送信され、この位置のためのトラッキングモデルを検索する。この位置用の可能なモデルから、ステップ4.0で選択された、パラメータベクトルにおける明視距離を有するモデルがある。その後、ステップ5.0では、対応するモデルは読み込まれる。ステップ6.0では、特定のアプリケーションによって、カメラの画像における物体認識、又は、カメラの姿勢決定用のトラッキング初期化は行われる。
図5において、ユーザデータからデータモデルを作成するのに役立つ、典型的な方法は行われる。ステップ7.0では、使用中に新しいモデルデータを“学習”する(自己位置と環境地図の同時推定)。ステップ8.0では、パラメータベクトルと新しいマップ(データモデル)は、サーバーに送信される。ステップ9.0では、データの任意の絞り込み(いわゆる“バンドル調整”)があり、また、パラメータベクトル及び位置とともに、新しいデータは格納される。ステップ10.0では、モデルにおけるギャップは補完される(例えば、未知領域の新範囲、又は、新しいパラメータベクトルを有する新範囲)。ステップ5.0では、もう一人のクライアントは、ステップ7.0〜ステップ10.0によって説明されたように、以前に他のユーザによってサーバーに送信された、対応するデータモデルを読み込むことができる。他のクライアントの代わりに、データモデルを作成した同じユーザ又は同じ装置は、それぞれ、例えば後で時間内に、データモデルを読み込むことも可能である。
図3は、カメラ姿勢を決定する方法又は物体認識方法のために、どのようにしてデータモデルは作成されることを概略的に示す。実物体(図2の物体41参照)の基本的な記述を含むニュートラル・モデル60から、スタートすることがえきる。その後、様々な環境状況はセット又はシミュレートされる(例えば、上方からの日射)。異なる環境状況に対して、各自の少なくとも1つのパラメータに応じて、各自のマッチしたデータモデルは提供され、例えば、図3のマッチしたデータモデル61と62は、それぞれ、環境状況に応じてキャストシャドウを考慮する。有利に、更に、データモデル61と62から、作成した比較データのコレクション(例えば、特徴点群)で構成される、ややコンパクトな形を有するデータモデルを直接に作成することは可能である。データモデル62は、生成されたデータモデルの現実感との近さは追加策によって更に強化されることができることを典型的な方法で示す。従って、シャドウキャストによる、環境の追加既知物体のオクルージョンによっても、モデル62の機能は損なわれない。むしろ、例えば、現在の雨レーダー画像のクエリーによって、現在の雲状況を組み込むこともできる。
図6は本発明のもう一つの実施例に係る方法の典型的なコースを示す。ステップ20.0では、実環境のデータは記録され(具体的に、又は、ステップ7.0のように)、また、そうすることで、環境状況のパラメータベクトルは有利に記録される。具体的な記録について、記録は有利にHDR(いわゆる“ハイダイナミックレンジ”)に行われる。ステップ21.0では、特定のパラメータに対して、データモデルをできる限りニュートラライズする(例えば、シャドウの除去、輝度の正規化など)。ステップ22.0では、環境条件のスペクトルのために、パラメータベクトルは生成される。それに加えて、ステップ23.0では、シミュレーション(例えば、レイトレーシング方法)によって、対応するデータモデルを生成することができる。ステップ24.0では、図4によって、提供はステップ4.0のためになされる。
現実感の程度を増加させて関連付けを改善するために、有利にオンラインで気象データを問い合わせることができる。この点については、処理のために考えられる程度の異なる複雑さがある。気象状況に基づいて(例えば、グーグル気象サービス“mostly cloudy”、“isolated storms”、“isolated rain”に応じて)、割り当てられた固定照明モデル又は材料(例えば、テクスチャ)は、気象状況にマッチさせられる。しかしながら、複雑さで最も高い程度では、雲量の近似モデルを動的に作成し、また、そこから、シャドウキャストを計算するとともに、詳細な光条件(図3参照)を任意的に計算するために、現在の雲又は雨、衛星又はレーダー画像を使用することもできる。上述したように、これは、所在地固有(location-specific)の方法でクライアントがデータを利用できるようにするサーバーによって実施されることができる。距離の認識は霧、雨、又は靄による可視性の決定である。これは、自動的に(文献“From video image e.g. Automatic Fog detection and Estimation of Visibility Distance through use of an Onboard Camera”, magazine machine Vision and Applications, publisher Springer Berlin/Heidelberg ISSN 0932-8092 (Print) 1432-1769 (Online), Volume 17, number 1/April 2006, pages 8-20を参照する)達成され、又は、現在の気象データを用いて問い合わせられることができる。
他の既知技術に加えて、最も簡単な技術的実現は、OpenGLにおいて霧調整をセットすることである。更に、位置、日付、及び一日の時期に基づいて、太陽及び月の位置をそれぞれ計算することができ、また、光源を調整するために、計算した太陽及び月の位置を使用することもできる。これは、特に、仮想物体(例えば、POI)の位置のより良い決定を提供することによりユーザを支援する、シャドウ(図3参照)に効く。シャドウは、事前に計算したテクスチャ(有利に、透明度値を有する)であっても良く、そのテクスチャは、太陽又は月の位置に応じて、太陽もしくは月とPOIとの間の直線がグランド・プレーンと交差する(もし、交差しない場合に、例外となる。)ようになっている、グランド・プレーンの上のPOIの下に置かれる。太陽又は月が現れた場合に、太陽は計算用に使用される。
従来知られているように、シャドウも動的に計算されることができる。これは、有利に、POIの相互の影付け(mutual shadowing)を備えるようにしても良い。環境の3Dモデル(例えば、実物体をオクルードするためのオクルージョン・モデル63の形で;いわゆる“オクルージョン・ジオメトリ”)が存在する場合に、更に、これは、シャドウ状況の現実的計算(realistic calculation)に利用されることができ、例えば、POI(図3参照)の上でシャドウを付ける。溶け合わせたマター(matter)の現実度は、POIの環境の画像によってマテリアルを強化することにより、更に増加する。いわゆる環境マップの使用は、当業者に知られている。
カメラのパラメータ(位置及び方位)に応じてデータモデルの質を強化するために、もう1つ重要なステップを講じることができる。オクルージョン・モデル(いわゆる“オクルージョン・ジオメトリ”)を読み込むことにより、比較データがカメラにとって見えるか、又は、比較データがカメラにとって見えなくなるか(例えば、ほかの建物の後に)を決定することができる。深度モデルは、SLAMアルゴリズム、ステレオカメラ、又は、ToFカメラ(time-of-flight camera)によって、動的に配置されることができ、又は、動的に生成されることができる。その場合には、1セットの比較データ当たり、深度情報の1つの項目は、(例えば、SIFT特徴)、十分である。更なるステップでは、カメラパラメータは、近い範囲での重ね合わせを修正するために(これは、連続的に行われる必要がない)、生成される。これらは、例えば、SLAMメカニズムによって、動的に生成されることが可能であり、又は、装置名に応じてサーバーから検索されることが可能であり、又は、プログラムに置かれることができる。
システムのハードウェア能力に応じて、全てのものを表示し、計算することができる。システムのハードウェアが弱い場合に、正確なマテリアル・サーフェスの計算は、サーバーの一部で行われることもでき、又は、全体の画像は、サーバーの一部で計算されることができる。強いシステムの場合に、最新GPU(グラフィックス・プロセッシング・ユニット)は、仕事の大部分を引き受けることができる。この目的を達成するために、当業者に知られている、多数の可能性がある。
実環境に関連するカメラの位置及び方位を決定することにより、画像に含まれている少なくとも1つの実物体に対する深度情報を計算することができ、また、深度情報は溶け合わせるために使用されることができ、更に、ディスプレー装置において、仮想情報の場合に、実物体をオクルードするためのオクルージョン・モデルは、オクルードされる実物体によって、ビューにオクルードされる。

Claims (21)

  1. 実環境に関連するカメラの姿勢を決定する方法であって、
    カメラを用いて実環境の少なくとも一枚の画像を撮像し、前記画像は実物体(41)の少なくとも一部を含んでいるステップと、
    環境状況の少なくとも1つのパラメータを決定するステップと、
    前記カメラの姿勢に関する結論を得るために、前記実物体に関連する特徴と、前記実環境の前記画像に含まれている前記実物体の対応する特徴との間の対応に関する情報を評価するトラッキング方法を実行するステップと、
    前記少なくとも1つのパラメータに応じて、前記トラッキング方法を実行するステップと、
    を具備し、
    データモデルは多くの個別モデルから抽出され、前記データモデルはいくつかの環境状況の中に含まれている情報の共通部分を含み、
    前記環境状況の前記少なくとも1つのパラメータの距離測定の決定、及び、既知な環境状況についての前記トラッキング方法の既知な理想パラメータによって、前記カメラ姿勢を決定することにおいて、不確実性の計算を含むことを特徴とする方法。
  2. 前記トラッキング方法は、前記少なくとも1つのパラメータに基づいて初期化された、少なくとも1つの光学トラッキング方法を使用する請求項1に記載の方法。
  3. 前記カメラの姿勢は、1、2、3、4、5又は6自由度を有する前記トラッキング方法によって決定される請求項1又は請求項2に記載の方法。
  4. 前記トラッキング方法は、センサタイプの異なる、いくつかのトラッキングセンサを使用する請求項1乃至請求項3のいずれかに記載の方法。
  5. 前記トラッキング方法は、前記少なくとも1つのパラメータに基づいて、前記トラッキングセンサの少なくとも1台の重み付けを含む請求項4に記載の方法。
  6. 前記トラッキング方法は、前記少なくとも1つのパラメータに基づいて、方法部分的なステップの優先順位付けを含む請求項1乃至請求項5のいずれかに記載の方法。
  7. 前記カメラによって撮像された前記画像のデータと比較されるデータモデルは使用され、前記環境状況の前記少なくとも1つのパラメータを考慮して前記データモデルを選択する請求項1乃至請求項6のいずれかに記載の方法。
  8. カメラによって撮像された画像における実環境の物体を認識する方法であって、
    カメラを用いて実環境の少なくとも一枚の画像を撮像し、前記画像は実物体の少なくとも一部を含んでいるステップと、
    前記画像における前記少なくとも一つの実物体の認識に関する情報を提供する画像認識方法を実行するステップと、
    環境状況の少なくとも1つのパラメータを決定するステップと、
    前記少なくとも1つのパラメータに応じて、前記画像認識方法を実行するステップと、
    を具備し、
    データモデルは多くの個別モデルから抽出され、前記データモデルはいくつかの環境状況の中に含まれている情報の共通部分を含むことを特徴とする方法。
  9. 前記環境状況の前記少なくとも1つのパラメータを決定するために、情報の項目の少なくとも一項又は数項が使用され、前記項目は、一日の時期;一年の時期;気象、特に、雨、雲、日光及び霧;月の位置;積雪情報;樹木の葉;海抜高度;公共イベント、特に、強力な運動;交通状況;位置;ワールド座標系における方位;画像のヒストグラム;温度;メンテナンス・ステップである請求項1乃至請求項8のいずれかに記載の方法。
  10. 前記少なくもと1つのパラメータは、前記画像におけるモデルデータの上出来な検索に関する最低必要条件に影響を与え、特に、前記実物体に関連する多くの特徴を決定し、前記多くの特徴は、前記実環境の前記画像における前記実物体の対応する特徴との整合性に持ち込まれる請求項1乃至請求項9のいずれかに記載の方法。
  11. 前記実環境の前記画像における前記実物体の前記画像のデータと比較されるデータモデルは使用され、また、前記少なくとも1つのパラメータは、前記データモデルの作成及び/又は使用に影響を与える請求項1乃至請求項10のいずれかに記載の方法。
  12. 1データモデル当たり、又は、前記データモデル内の1特徴当たりの1つのパラメータベクトルは格納される請求項11に記載の方法。
  13. 前記少なくとも1つのパラメータは、前記データモデルの作成の種類に影響を与え、特に、特徴検出器と特徴記述子の作成に影響を与える請求項11又は請求項12に記載の方法。
  14. それぞれが方法を行う、いくつかの部分的なシステムがあり、また、部分的なシステムの各自は、それ自身でトラッキング状況を計算するわけではなく、むしろ、完成した状況情報は全ての部分的なシステムに利用され、有利に、完成した認識又は初期化モデルも、前記部分的なシステムに利用される請求項1乃至請求項13のいずれかに記載の方法。
  15. 前記部分的なシステムは、前記環境状況に関する情報をサーバー又はピアツーピアプロセスに提供する請求項14に記載の方法。
  16. 前記カメラ姿勢を決定することによって、前記画像に含まれる少なくとも1つの実物体に対して深度情報は計算され、前記深度情報は溶け合わせるために使用され、ディスプレー装置において、前記実環境に重ね合わさった仮想情報が、オクルードされる前記実物体によって、ビューにオクルードされる場合に、実物体をオクルードするためのオクルージョン・モデルがある請求項1乃至請求項15のいずれかに記載の方法。
  17. 実環境の実物体に関連するカメラの姿勢を決定する方法、又は、実環境の実物体を認識する方法において、カメラによって撮像される一枚の画像のデータに比較されることを目的とするデータモデルを提供する方法であって、
    環境状況は決定又はシミュレートされ、前記環境状況の少なくともパラメータは決定され、
    前記実物体の基本的な記述を含むデータモデルは作成され、様々な環境状況はセット又はシミュレートされ、また、それぞれの少なくとも1つのパラメータに基づいて、それぞれのマッチしたデータモデルが異なる環境状況に提供され、
    いくつかの異なる環境状況の中に含まれている情報の共通部分を含むデータモデルは、作成されることを特徴とする方法。
  18. 前記基本的な記述は環境の仮想3Dモデルである請求項17に記載の方法。
  19. 前記3Dモデルは、環境状況固有性質から以前に解放され、また、それに加えられるテクスチャを有する請求項18に記載の方法。
  20. 前記3Dモデルは、異なる光状況で画像面に投影される請求項18又は請求項19に記載の方法。
  21. SLAM方法と前記環境状況の確認を組み合わせ、また、作成されたデータモデルは、前記環境状況に関する情報と一緒に格納される請求項17乃至請求項20のいずれかに記載の方法。
JP2014223180A 2009-10-19 2014-10-31 カメラ姿勢決定方法、及び実環境物体認識方法 Active JP5980295B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102009049849.4 2009-10-19
DE102009049849.4A DE102009049849B4 (de) 2009-10-19 2009-10-19 Verfahren zur Bestimmung der Pose einer Kamera, Verfahren zur Erkennung eines Objekts einer realen Umgebung und Verfahren zur Erstellung eines Datenmodells

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2012533553A Division JP2013508795A (ja) 2009-10-19 2010-09-16 カメラ姿勢決定方法、及び実環境物体認識方法

Publications (2)

Publication Number Publication Date
JP2015084229A JP2015084229A (ja) 2015-04-30
JP5980295B2 true JP5980295B2 (ja) 2016-08-31

Family

ID=42667910

Family Applications (4)

Application Number Title Priority Date Filing Date
JP2012533534A Pending JP2013508794A (ja) 2009-10-19 2010-05-28 画像の少なくとも1つの特徴として記述子を提供する方法及び特徴をマッチングする方法
JP2012533553A Pending JP2013508795A (ja) 2009-10-19 2010-09-16 カメラ姿勢決定方法、及び実環境物体認識方法
JP2014161137A Active JP5905540B2 (ja) 2009-10-19 2014-08-07 画像の少なくとも1つの特徴として記述子を提供する方法及び特徴をマッチングする方法
JP2014223180A Active JP5980295B2 (ja) 2009-10-19 2014-10-31 カメラ姿勢決定方法、及び実環境物体認識方法

Family Applications Before (3)

Application Number Title Priority Date Filing Date
JP2012533534A Pending JP2013508794A (ja) 2009-10-19 2010-05-28 画像の少なくとも1つの特徴として記述子を提供する方法及び特徴をマッチングする方法
JP2012533553A Pending JP2013508795A (ja) 2009-10-19 2010-09-16 カメラ姿勢決定方法、及び実環境物体認識方法
JP2014161137A Active JP5905540B2 (ja) 2009-10-19 2014-08-07 画像の少なくとも1つの特徴として記述子を提供する方法及び特徴をマッチングする方法

Country Status (6)

Country Link
US (7) US8942418B2 (ja)
EP (4) EP2491529B1 (ja)
JP (4) JP2013508794A (ja)
CN (3) CN102612704B (ja)
DE (1) DE102009049849B4 (ja)
WO (2) WO2011047888A1 (ja)

Families Citing this family (149)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7146260B2 (en) 2001-04-24 2006-12-05 Medius, Inc. Method and apparatus for dynamic configuration of multiprocessor system
US9229233B2 (en) 2014-02-11 2016-01-05 Osterhout Group, Inc. Micro Doppler presentations in head worn computing
US9715112B2 (en) 2014-01-21 2017-07-25 Osterhout Group, Inc. Suppression of stray light in head worn computing
US20150205111A1 (en) 2014-01-21 2015-07-23 Osterhout Group, Inc. Optical configurations for head worn computing
US9298007B2 (en) 2014-01-21 2016-03-29 Osterhout Group, Inc. Eye imaging in head worn computing
US9400390B2 (en) 2014-01-24 2016-07-26 Osterhout Group, Inc. Peripheral lighting for head worn computing
US9952664B2 (en) 2014-01-21 2018-04-24 Osterhout Group, Inc. Eye imaging in head worn computing
US9965681B2 (en) 2008-12-16 2018-05-08 Osterhout Group, Inc. Eye imaging in head worn computing
DE102009049849B4 (de) 2009-10-19 2020-09-24 Apple Inc. Verfahren zur Bestimmung der Pose einer Kamera, Verfahren zur Erkennung eines Objekts einer realen Umgebung und Verfahren zur Erstellung eines Datenmodells
CN102906810B (zh) 2010-02-24 2015-03-18 爱普莱克斯控股公司 支持视觉受损的个体的扩增的现实全景
WO2012061549A2 (en) * 2010-11-03 2012-05-10 3Dmedia Corporation Methods, systems, and computer program products for creating three-dimensional video sequences
US8977629B2 (en) * 2011-05-24 2015-03-10 Ebay Inc. Image-based popularity prediction
US20120314031A1 (en) * 2011-06-07 2012-12-13 Microsoft Corporation Invariant features for computer vision
WO2013029674A1 (en) * 2011-08-31 2013-03-07 Metaio Gmbh Method of matching image features with reference features
TWI489859B (zh) * 2011-11-01 2015-06-21 Inst Information Industry 影像形變方法及其電腦程式產品
US9536251B2 (en) * 2011-11-15 2017-01-03 Excalibur Ip, Llc Providing advertisements in an augmented reality environment
US9569695B2 (en) 2012-04-24 2017-02-14 Stmicroelectronics S.R.L. Adaptive search window control for visual search
CN102694963B (zh) * 2012-04-27 2014-09-17 南京航空航天大学 一种获取无阴影目标图像的方法
JP5727969B2 (ja) * 2012-06-15 2015-06-03 株式会社東芝 位置推定装置、方法、及びプログラム
CN103673990B (zh) * 2012-09-13 2016-04-06 北京同步科技有限公司 获取摄像机姿态数据的装置及其方法
CN103674011B (zh) * 2012-09-19 2017-07-25 联想(北京)有限公司 即时定位与地图构建设备、系统与方法
US9237340B2 (en) * 2012-10-10 2016-01-12 Texas Instruments Incorporated Camera pose estimation
CN102928201B (zh) * 2012-10-24 2014-12-17 北京控制工程研究所 一种动态的月面成像敏感器的目标模拟系统
US20140140573A1 (en) * 2012-11-21 2014-05-22 Gravity Jack, Inc. Pose Tracking through Analysis of an Image Pyramid
US20140168264A1 (en) 2012-12-19 2014-06-19 Lockheed Martin Corporation System, method and computer program product for real-time alignment of an augmented reality device
JP5670416B2 (ja) * 2012-12-28 2015-02-18 ファナック株式会社 ロボットシステム表示装置
EP2763077B1 (en) * 2013-01-30 2023-11-15 Nokia Technologies Oy Method and apparatus for sensor aided extraction of spatio-temporal features
US9058683B2 (en) 2013-02-21 2015-06-16 Qualcomm Incorporated Automatic image rectification for visual search
US9495389B2 (en) 2013-03-15 2016-11-15 Qualcomm Incorporated Client-server based dynamic search
WO2014145722A2 (en) 2013-03-15 2014-09-18 Digimarc Corporation Cooperative photography
CN105408937B (zh) * 2013-05-02 2018-02-13 高通股份有限公司 用于便于计算机视觉应用程序初始化的方法
DE102013009288B4 (de) 2013-06-04 2016-02-04 Testo Ag 3D-Aufnahmevorrichtung, Verfahren zur Erstellung eines 3D-Bildes und Verfahren zur Einrichtung einer 3D-Aufnahmevorrichtung
CN103327246B (zh) * 2013-06-07 2016-08-24 腾讯科技(深圳)有限公司 一种多媒体拍摄处理方法、装置及智能终端
US10262462B2 (en) 2014-04-18 2019-04-16 Magic Leap, Inc. Systems and methods for augmented and virtual reality
WO2015012659A1 (en) * 2013-07-26 2015-01-29 Samsung Electronics Co., Ltd. Two way local feature matching to improve visual search accuracy
US8860818B1 (en) 2013-07-31 2014-10-14 Apple Inc. Method for dynamically calibrating rotation offset in a camera system
US9646384B2 (en) 2013-09-11 2017-05-09 Google Technology Holdings LLC 3D feature descriptors with camera pose information
US8958663B1 (en) * 2013-09-24 2015-02-17 Zazzle Inc. Automated imaging of customizable products
DE102013016247A1 (de) 2013-10-01 2014-06-26 Daimler Ag Verfahren und Vorrichtung zur augmentierten Darstellung
WO2015085483A1 (en) 2013-12-10 2015-06-18 SZ DJI Technology Co., Ltd. Sensor fusion
EP3627446B1 (en) * 2013-12-19 2021-06-16 Apple Inc. System, method and medium for generating a geometric model
US9575321B2 (en) 2014-06-09 2017-02-21 Osterhout Group, Inc. Content presentation in head worn computing
US9299194B2 (en) * 2014-02-14 2016-03-29 Osterhout Group, Inc. Secure sharing in head worn computing
US10684687B2 (en) 2014-12-03 2020-06-16 Mentor Acquisition One, Llc See-through computer display systems
US10191279B2 (en) 2014-03-17 2019-01-29 Osterhout Group, Inc. Eye imaging in head worn computing
US11227294B2 (en) 2014-04-03 2022-01-18 Mentor Acquisition One, Llc Sight information collection in head worn computing
US9594246B2 (en) 2014-01-21 2017-03-14 Osterhout Group, Inc. See-through computer display systems
US9939934B2 (en) 2014-01-17 2018-04-10 Osterhout Group, Inc. External user interface for head worn computing
US20150277118A1 (en) 2014-03-28 2015-10-01 Osterhout Group, Inc. Sensor dependent content position in head worn computing
US9746686B2 (en) 2014-05-19 2017-08-29 Osterhout Group, Inc. Content position calibration in head worn computing
US9841599B2 (en) 2014-06-05 2017-12-12 Osterhout Group, Inc. Optical configurations for head-worn see-through displays
US11103122B2 (en) 2014-07-15 2021-08-31 Mentor Acquisition One, Llc Content presentation in head worn computing
US9671613B2 (en) 2014-09-26 2017-06-06 Osterhout Group, Inc. See-through computer display systems
US10254856B2 (en) 2014-01-17 2019-04-09 Osterhout Group, Inc. External user interface for head worn computing
US9529195B2 (en) 2014-01-21 2016-12-27 Osterhout Group, Inc. See-through computer display systems
US9829707B2 (en) 2014-08-12 2017-11-28 Osterhout Group, Inc. Measuring content brightness in head worn computing
US9810906B2 (en) 2014-06-17 2017-11-07 Osterhout Group, Inc. External user interface for head worn computing
US9448409B2 (en) 2014-11-26 2016-09-20 Osterhout Group, Inc. See-through computer display systems
US10649220B2 (en) 2014-06-09 2020-05-12 Mentor Acquisition One, Llc Content presentation in head worn computing
US20160019715A1 (en) 2014-07-15 2016-01-21 Osterhout Group, Inc. Content presentation in head worn computing
US9753288B2 (en) 2014-01-21 2017-09-05 Osterhout Group, Inc. See-through computer display systems
US11892644B2 (en) 2014-01-21 2024-02-06 Mentor Acquisition One, Llc See-through computer display systems
US9766463B2 (en) 2014-01-21 2017-09-19 Osterhout Group, Inc. See-through computer display systems
US9651788B2 (en) 2014-01-21 2017-05-16 Osterhout Group, Inc. See-through computer display systems
US9494800B2 (en) 2014-01-21 2016-11-15 Osterhout Group, Inc. See-through computer display systems
US11669163B2 (en) 2014-01-21 2023-06-06 Mentor Acquisition One, Llc Eye glint imaging in see-through computer display systems
US11487110B2 (en) 2014-01-21 2022-11-01 Mentor Acquisition One, Llc Eye imaging in head worn computing
US9811159B2 (en) 2014-01-21 2017-11-07 Osterhout Group, Inc. Eye imaging in head worn computing
US9836122B2 (en) 2014-01-21 2017-12-05 Osterhout Group, Inc. Eye glint imaging in see-through computer display systems
US9532715B2 (en) 2014-01-21 2017-01-03 Osterhout Group, Inc. Eye imaging in head worn computing
US9651784B2 (en) 2014-01-21 2017-05-16 Osterhout Group, Inc. See-through computer display systems
US20150205135A1 (en) 2014-01-21 2015-07-23 Osterhout Group, Inc. See-through computer display systems
US11737666B2 (en) 2014-01-21 2023-08-29 Mentor Acquisition One, Llc Eye imaging in head worn computing
US9846308B2 (en) 2014-01-24 2017-12-19 Osterhout Group, Inc. Haptic systems for head-worn computers
US20150241964A1 (en) 2014-02-11 2015-08-27 Osterhout Group, Inc. Eye imaging in head worn computing
US9401540B2 (en) 2014-02-11 2016-07-26 Osterhout Group, Inc. Spatial location presentation in head worn computing
CN104881860B (zh) * 2014-02-28 2019-01-08 国际商业机器公司 基于照片进行定位的方法和装置
US20160187651A1 (en) 2014-03-28 2016-06-30 Osterhout Group, Inc. Safety for a vehicle operator with an hmd
US9400939B2 (en) 2014-04-13 2016-07-26 International Business Machines Corporation System and method for relating corresponding points in images with different viewing angles
US9423842B2 (en) 2014-09-18 2016-08-23 Osterhout Group, Inc. Thermal management for head-worn computer
US10853589B2 (en) 2014-04-25 2020-12-01 Mentor Acquisition One, Llc Language translation with head-worn computing
US9651787B2 (en) 2014-04-25 2017-05-16 Osterhout Group, Inc. Speaker assembly for headworn computer
US9672210B2 (en) 2014-04-25 2017-06-06 Osterhout Group, Inc. Language translation with head-worn computing
US9761008B2 (en) 2014-05-08 2017-09-12 The Trustees Of The University Of Pennsylvania Methods, systems, and computer readable media for visual odometry using rigid structures identified by antipodal transform
US9280832B2 (en) * 2014-05-08 2016-03-08 The Trustees Of The University Of Pennsylvania Methods, systems, and computer readable media for visual odometry using rigid structures identified by antipodal transform
KR101613418B1 (ko) * 2014-05-29 2016-04-21 주식회사 고영테크놀러지 옵티컬 트래킹 시스템 및 옵티컬 트래킹 시스템의 마커부 자세 및 위치 산출방법
DE102014008152A1 (de) 2014-05-30 2014-10-23 Daimler Ag Verfahren und Vorrichtung zur augmentierten Darstellung mindstens einer Zusatzinformation in mindestens einem Bild einer Umgebung
EP3138080B1 (en) * 2014-06-03 2021-08-11 Apple Inc. Method and system for presenting a digital information related to a real object
US10663740B2 (en) 2014-06-09 2020-05-26 Mentor Acquisition One, Llc Content presentation in head worn computing
WO2016019390A1 (en) * 2014-08-01 2016-02-04 Locuslabs Ip Image-based object location system and process
EP3008535B1 (en) 2014-09-05 2018-05-16 SZ DJI Technology Co., Ltd. Context-based flight mode selection
WO2016033795A1 (en) 2014-09-05 2016-03-10 SZ DJI Technology Co., Ltd. Velocity control for an unmanned aerial vehicle
EP3428766B1 (en) 2014-09-05 2021-04-07 SZ DJI Technology Co., Ltd. Multi-sensor environmental mapping
US10719727B2 (en) 2014-10-01 2020-07-21 Apple Inc. Method and system for determining at least one property related to at least part of a real environment
US9746913B2 (en) 2014-10-31 2017-08-29 The United States Of America As Represented By The Secretary Of The Navy Secured mobile maintenance and operator system including wearable augmented reality interface, voice command interface, and visual recognition systems and related methods
CN107004275B (zh) 2014-11-21 2020-09-29 苹果公司 确定实物至少一部分的3d重构件空间坐标的方法和系统
US9684172B2 (en) 2014-12-03 2017-06-20 Osterhout Group, Inc. Head worn computer display systems
WO2016107635A1 (en) 2014-12-29 2016-07-07 Metaio Gmbh Method and system for generating at least one image of a real environment
USD751552S1 (en) 2014-12-31 2016-03-15 Osterhout Group, Inc. Computer glasses
USD753114S1 (en) 2015-01-05 2016-04-05 Osterhout Group, Inc. Air mouse
US10878775B2 (en) 2015-02-17 2020-12-29 Mentor Acquisition One, Llc See-through computer display systems
US20160239985A1 (en) 2015-02-17 2016-08-18 Osterhout Group, Inc. See-through computer display systems
US10142596B2 (en) 2015-02-27 2018-11-27 The United States Of America, As Represented By The Secretary Of The Navy Method and apparatus of secured interactive remote maintenance assist
JP6524713B2 (ja) * 2015-03-02 2019-06-05 セイコーエプソン株式会社 画像処理装置、表示装置、及び、画像処理装置の制御方法
US10168785B2 (en) * 2015-03-03 2019-01-01 Nvidia Corporation Multi-sensor based user interface
US9984301B2 (en) * 2015-04-20 2018-05-29 Qualcomm Incorporated Non-matching feature-based visual motion estimation for pose determination
CN104764452A (zh) * 2015-04-23 2015-07-08 北京理工大学 一种基于惯性和光学跟踪系统的混合位姿跟踪方法
KR101910484B1 (ko) * 2015-06-26 2018-10-22 코그넥스코오포레이션 3차원(3d) 비전 검사를 위한 방법
KR101835434B1 (ko) 2015-07-08 2018-03-09 고려대학교 산학협력단 투영 이미지 생성 방법 및 그 장치, 이미지 픽셀과 깊이값간의 매핑 방법
US9928648B2 (en) 2015-11-09 2018-03-27 Microsoft Technology Licensing, Llc Object path identification for navigating objects in scene-aware device environments
JP6333871B2 (ja) * 2016-02-25 2018-05-30 ファナック株式会社 入力画像から検出した対象物を表示する画像処理装置
US10424072B2 (en) 2016-03-01 2019-09-24 Samsung Electronics Co., Ltd. Leveraging multi cues for fine-grained object classification
US10096158B2 (en) * 2016-03-24 2018-10-09 Ford Global Technologies, Llc Method and system for virtual sensor data generation with depth ground truth annotation
DE102016109628A1 (de) * 2016-05-25 2017-11-30 Deutsche Telekom Ag Verfahren zum Bestimmen der Position und/oder Orientierung einer mobilen elektronischen Einrichtung mit Hilfe einer digitalen Wärmebildkamera
US10579860B2 (en) 2016-06-06 2020-03-03 Samsung Electronics Co., Ltd. Learning model for salient facial region detection
US10788888B2 (en) * 2016-06-07 2020-09-29 Koninklijke Kpn N.V. Capturing and rendering information involving a virtual environment
CN106210450B (zh) * 2016-07-20 2019-01-11 罗轶 一种多通道多视角大数据视频剪辑方法
US10739142B2 (en) 2016-09-02 2020-08-11 Apple Inc. System for determining position both indoor and outdoor
CN107967710B (zh) * 2016-10-20 2021-05-25 株式会社理光 一种三维物体描述方法及装置
US20180190033A1 (en) * 2016-12-30 2018-07-05 Facebook, Inc. Systems and methods for providing augmented reality effects and three-dimensional mapping associated with interior spaces
JP6760114B2 (ja) 2017-01-31 2020-09-23 富士通株式会社 情報処理装置、データ管理装置、データ管理システム、方法、及びプログラム
CN107145525B (zh) * 2017-04-14 2020-10-16 北京星选科技有限公司 用于确认搜索场景的数据处理方法、搜索方法及相应装置
US10740613B1 (en) 2017-04-20 2020-08-11 Digimarc Corporation Hybrid feature point/watermark-based augmented reality
CN106996777B (zh) * 2017-04-21 2019-02-12 合肥井松自动化科技有限公司 一种基于地面图像纹理的视觉导航方法
US9965960B1 (en) * 2017-08-07 2018-05-08 Lyft, Inc. Facilitating transportation services by generating a directional indicator between a requester and a transportation vehicle
JP7003994B2 (ja) * 2017-08-08 2022-01-21 ソニーグループ株式会社 画像処理装置および方法
EP3704563A4 (en) * 2017-10-31 2021-08-04 Outward, Inc. MIXED PHYSICAL AND VIRTUAL REALITIES
DE102017222534B3 (de) 2017-12-12 2019-06-13 Volkswagen Aktiengesellschaft Verfahren, computerlesbares Speichermedium mit Instruktionen, Vorrichtung und System zum Einmessen einer Augmented-Reality-Brille in einem Fahrzeug, für das Verfahren geeignetes Fahrzeug und für das Verfahren geeignete Augmented-Reality-Brille
JP7149707B2 (ja) 2018-01-15 2022-10-07 キヤノン株式会社 情報処理装置及びその制御方法及びプログラム、並びに、運転制御システム
US10508913B2 (en) * 2018-02-08 2019-12-17 Raytheon Company Environment recording system using virtual or augmented reality
WO2019154509A1 (en) 2018-02-09 2019-08-15 Pupil Labs Gmbh Devices, systems and methods for predicting gaze-related parameters
WO2019154510A1 (en) 2018-02-09 2019-08-15 Pupil Labs Gmbh Devices, systems and methods for predicting gaze-related parameters
EP3750029A1 (en) 2018-02-09 2020-12-16 Pupil Labs GmbH Devices, systems and methods for predicting gaze-related parameters using a neural network
US10549186B2 (en) * 2018-06-26 2020-02-04 Sony Interactive Entertainment Inc. Multipoint SLAM capture
CN109345589A (zh) * 2018-09-11 2019-02-15 百度在线网络技术(北京)有限公司 基于自动驾驶车辆的位置检测方法、装置、设备及介质
US10943401B2 (en) 2019-02-01 2021-03-09 International Business Machines Corporation Active visual recognition in mobile augmented reality
WO2020237194A1 (en) 2019-05-22 2020-11-26 Pcms Holdings, Inc. Method for rendering of augmented reality content in combination with external display
CN110175579A (zh) * 2019-05-29 2019-08-27 北京百度网讯科技有限公司 姿态确定方法、场景图像的展示方法、装置、设备及介质
WO2020244752A1 (en) 2019-06-05 2020-12-10 Pupil Labs Gmbh Devices, systems and methods for predicting gaze-related parameters
US10828576B1 (en) 2019-07-29 2020-11-10 Universal City Studios Llc Motion exaggerating virtual reality ride systems and methods
GB2586831A (en) * 2019-09-05 2021-03-10 Wolf In Motion Ltd Three-Dimensional Content Generation using real-time video compositing
US11023730B1 (en) 2020-01-02 2021-06-01 International Business Machines Corporation Fine-grained visual recognition in mobile augmented reality
DE102020112300A1 (de) 2020-05-06 2021-11-11 Audi Aktiengesellschaft 6 Degree of Freedom (6DOF) Tracking von mobilen Head Mounted Displays (HMD)
CN111666434B (zh) * 2020-05-26 2021-11-02 武汉大学 基于深度全局特征的街景图片检索方法
CN111583420B (zh) * 2020-05-27 2021-11-12 上海松鼠课堂人工智能科技有限公司 基于增强现实模式的智能学习系统和方法
US11688142B2 (en) 2020-11-23 2023-06-27 International Business Machines Corporation Automatic multi-dimensional model generation and tracking in an augmented reality environment
DE102021205834A1 (de) * 2021-06-09 2022-12-15 Continental Automotive Technologies GmbH Cloudgestütztes 3D Rendering für ein Egofahrzeug
CN115493512B (zh) * 2022-08-10 2023-06-13 思看科技(杭州)股份有限公司 数据处理方法、三维扫描系统、电子装置和存储介质
CN117102856B (zh) * 2023-10-23 2024-02-13 浙江大学 一种大型舱体双平台五自由度位姿识别与调整方法

Family Cites Families (59)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4700307A (en) 1983-07-11 1987-10-13 General Dynamics Corp./Convair Division Feature navigation system and method
JP2900737B2 (ja) * 1993-02-01 1999-06-02 トヨタ自動車株式会社 車間距離検出装置
JP3244850B2 (ja) * 1993-03-22 2002-01-07 三菱重工業株式会社 ナンバープレート読み取り装置
JP3486613B2 (ja) * 2001-03-06 2004-01-13 キヤノン株式会社 画像処理装置およびその方法並びにプログラム、記憶媒体
US6903752B2 (en) 2001-07-16 2005-06-07 Information Decision Technologies, Llc Method to view unseen atmospheric phenomenon using augmented reality
DE10145608B4 (de) * 2001-09-15 2006-01-26 Eads Deutschland Gmbh Modellbasierte Objektklassifikation und Zielerkennung
US7203384B2 (en) 2003-02-24 2007-04-10 Electronic Scripting Products, Inc. Implement for optically inferring information from a planar jotting surface
JP4743818B2 (ja) 2003-04-04 2011-08-10 キヤノン株式会社 画像処理装置、画像処理方法、コンピュータプログラム
WO2005027048A1 (ja) * 2003-08-29 2005-03-24 Nec Corporation 重み情報を用いた物体姿勢推定・照合システム
US7110100B2 (en) 2003-11-04 2006-09-19 Electronic Scripting Products, Inc. Apparatus and method for determining an inclination of an elongate object contacting a plane surface
JP2005141655A (ja) * 2003-11-10 2005-06-02 Olympus Corp 3次元モデリング装置及び3次元モデリング方法
US7268956B2 (en) 2003-11-24 2007-09-11 Electronic Scripting Products, Inc. Solid catadioptric lens with two viewpoints
US7038846B2 (en) 2003-11-24 2006-05-02 Electronic Scripting Products, Inc. Solid catadioptric lens with a single viewpoint
DE50308363D1 (de) 2003-12-16 2007-11-22 Siemens Ag Verfahren und Gerät zur Identifikation eines Objektes in einem Kamerabild
US7088440B2 (en) 2003-12-22 2006-08-08 Electronic Scripting Products, Inc. Method and apparatus for determining absolute position of a tip of an elongate object on a plane surface with invariant features
US7961909B2 (en) 2006-03-08 2011-06-14 Electronic Scripting Products, Inc. Computer interface employing a manipulated object with absolute pose detection component and a display
US8542219B2 (en) 2004-01-30 2013-09-24 Electronic Scripting Products, Inc. Processing pose data derived from the pose of an elongate object
US7826641B2 (en) 2004-01-30 2010-11-02 Electronic Scripting Products, Inc. Apparatus and method for determining an absolute pose of a manipulated object in a real three-dimensional environment with invariant features
US9229540B2 (en) 2004-01-30 2016-01-05 Electronic Scripting Products, Inc. Deriving input from six degrees of freedom interfaces
US7729515B2 (en) 2006-03-08 2010-06-01 Electronic Scripting Products, Inc. Optical navigation apparatus using fixed beacons and a centroid sensing device
US7023536B2 (en) 2004-03-08 2006-04-04 Electronic Scripting Products, Inc. Apparatus and method for determining orientation parameters of an elongate object
US7161664B2 (en) 2004-04-13 2007-01-09 Electronic Scripting Products, Inc. Apparatus and method for optical determination of intermediate distances
US7129887B2 (en) 2004-04-15 2006-10-31 Lockheed Martin Ms2 Augmented reality traffic control center
JP2005326275A (ja) * 2004-05-14 2005-11-24 Canon Inc 情報処理方法および装置
US7113270B2 (en) 2004-06-18 2006-09-26 Electronics Scripting Products, Inc. Determination of an orientation parameter of an elongate object with a scan beam apparatus
US20060120568A1 (en) * 2004-12-06 2006-06-08 Mcconville Patrick J System and method for tracking individuals
JP4613617B2 (ja) * 2005-01-07 2011-01-19 ソニー株式会社 画像処理システム、学習装置および方法、並びにプログラム
WO2007011306A2 (en) * 2005-07-20 2007-01-25 Bracco Imaging S.P.A. A method of and apparatus for mapping a virtual model of an object to the object
JP4914019B2 (ja) 2005-04-06 2012-04-11 キヤノン株式会社 位置姿勢計測方法及び装置
US8160400B2 (en) * 2005-11-17 2012-04-17 Microsoft Corporation Navigating images using image based geometric alignment and object based controls
US8942483B2 (en) * 2009-09-14 2015-01-27 Trimble Navigation Limited Image-based georeferencing
DE102005061952B4 (de) * 2005-12-23 2008-09-11 Metaio Gmbh Verfahren und System zur Bestimmung einer Ungenauigkeitsinformation in einem Augmented Reality System
DE102006005044B4 (de) 2006-02-03 2011-01-27 Metaio Gmbh Verfahren und System zur Bestimmung eines Datenmodells zur Überlagerung mit einem realen Objekt in einem Verfahren zur Objektverfolgung
DE202006020299U1 (de) * 2006-05-16 2008-04-24 Deutsches Zentrum für Luft- und Raumfahrt e.V. 3D-Vermessungsanordnung
CN100587518C (zh) 2006-07-20 2010-02-03 中国科学院自动化研究所 遥感影像高精度控制点自动选择方法
JP4789745B2 (ja) 2006-08-11 2011-10-12 キヤノン株式会社 画像処理装置および方法
EP1906339B1 (en) * 2006-09-01 2016-01-13 Harman Becker Automotive Systems GmbH Method for recognizing an object in an image and image recognition device
CN100456300C (zh) 2006-10-27 2009-01-28 北京航空航天大学 基于二维草图的三维模型检索方法
JP5403861B2 (ja) 2006-11-06 2014-01-29 キヤノン株式会社 情報処理装置、情報処理方法
US8174568B2 (en) * 2006-12-01 2012-05-08 Sri International Unified framework for precise vision-aided navigation
DE102006062061B4 (de) 2006-12-29 2010-06-10 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung, Verfahren und Computerprogramm zum Bestimmen einer Position basierend auf einem Kamerabild von einer Kamera
US9070207B2 (en) 2007-09-06 2015-06-30 Yeda Research & Development Co., Ltd. Modelization of objects in images
JP4636064B2 (ja) * 2007-09-18 2011-02-23 ソニー株式会社 画像処理装置および画像処理方法、並びにプログラム
WO2009047335A1 (en) * 2007-10-12 2009-04-16 Mvtec Software Gmbh Computer vision cad models
US20090185746A1 (en) * 2008-01-22 2009-07-23 The University Of Western Australia Image recognition
KR100951890B1 (ko) * 2008-01-25 2010-04-12 성균관대학교산학협력단 상황 모니터링을 적용한 실시간 물체 인식 및 자세 추정 방법
CN101285686B (zh) 2008-05-29 2010-11-10 中国农业大学 一种农业机械导航分级定位的方法和系统
US8144947B2 (en) * 2008-06-27 2012-03-27 Palo Alto Research Center Incorporated System and method for finding a picture image in an image collection using localized two-dimensional visual fingerprints
US8180107B2 (en) 2009-02-13 2012-05-15 Sri International Active coordinated tracking for multi-camera systems
DE102009049849B4 (de) 2009-10-19 2020-09-24 Apple Inc. Verfahren zur Bestimmung der Pose einer Kamera, Verfahren zur Erkennung eines Objekts einer realen Umgebung und Verfahren zur Erstellung eines Datenmodells
CA3176193A1 (en) * 2010-05-10 2011-11-17 Daniel Cohen Method and system for managing a parking lot based on intelligent imaging
US8401225B2 (en) 2011-01-31 2013-03-19 Microsoft Corporation Moving object segmentation using depth images
WO2013029674A1 (en) 2011-08-31 2013-03-07 Metaio Gmbh Method of matching image features with reference features
US9679384B2 (en) 2011-08-31 2017-06-13 Apple Inc. Method of detecting and describing features from an intensity image
KR101329111B1 (ko) 2012-05-02 2013-11-14 한국과학기술연구원 실내 네비게이션 시스템 및 방법
US10477356B2 (en) 2012-07-31 2019-11-12 Ariel-University Research And Development Company Ltd. Navigation method and device
US8970709B2 (en) 2013-03-13 2015-03-03 Electronic Scripting Products, Inc. Reduced homography for recovery of pose parameters of an optical apparatus producing image data with structural uncertainty
US9140555B1 (en) 2014-03-14 2015-09-22 Google Inc. Navigation using sensor fusion
US10395116B2 (en) 2015-10-29 2019-08-27 Hand Held Products, Inc. Dynamically created and updated indoor positioning map

Also Published As

Publication number Publication date
EP3547256A1 (en) 2019-10-02
EP2491529A1 (en) 2012-08-29
US20180357786A1 (en) 2018-12-13
US10229511B2 (en) 2019-03-12
JP2013508794A (ja) 2013-03-07
EP2491529B1 (en) 2019-06-26
JP2014241155A (ja) 2014-12-25
US8837779B2 (en) 2014-09-16
WO2011047924A1 (de) 2011-04-28
EP2491530B1 (de) 2019-06-26
US20190172220A1 (en) 2019-06-06
US20150092987A1 (en) 2015-04-02
US20120219188A1 (en) 2012-08-30
JP2015084229A (ja) 2015-04-30
CN106650723A (zh) 2017-05-10
EP3550516B1 (de) 2022-11-23
EP3547256B1 (en) 2021-05-19
US20160189384A1 (en) 2016-06-30
US20120237085A1 (en) 2012-09-20
JP5905540B2 (ja) 2016-04-20
US10650546B2 (en) 2020-05-12
CN102612704B (zh) 2017-03-22
US10580162B2 (en) 2020-03-03
CN102612704A (zh) 2012-07-25
US9218665B2 (en) 2015-12-22
CN102667855A (zh) 2012-09-12
EP2491530A1 (de) 2012-08-29
US20140321708A1 (en) 2014-10-30
EP3550516A1 (de) 2019-10-09
WO2011047888A1 (en) 2011-04-28
US8942418B2 (en) 2015-01-27
DE102009049849A1 (de) 2011-04-21
US10062169B2 (en) 2018-08-28
JP2013508795A (ja) 2013-03-07
DE102009049849B4 (de) 2020-09-24

Similar Documents

Publication Publication Date Title
JP5980295B2 (ja) カメラ姿勢決定方法、及び実環境物体認識方法
KR102338560B1 (ko) 장치 위치 측정을 위한 다중 동기화 통합 모델
US9256983B2 (en) On demand image overlay
CN109520500B (zh) 一种基于终端拍摄图像匹配的精确定位及街景库采集方法
EP3044726B1 (en) Landmark identification from point cloud generated from geographic imagery data
US20140002439A1 (en) Alternate Viewpoint Image Enhancement
KR102200299B1 (ko) 3d-vr 멀티센서 시스템 기반의 도로 시설물 관리 솔루션을 구현하는 시스템 및 그 방법
US10089762B2 (en) Methods for navigating through a set of images
CN111028358B (zh) 室内环境的增强现实显示方法、装置及终端设备
JP2013507677A (ja) 実環境視像における仮想情報の表示方法
CN104731337A (zh) 用于在真实环境中表示虚拟信息的方法
CN106537409B (zh) 确定影像的罗盘定位
JP2013196616A (ja) 情報端末装置、情報処理方法
JP2022509582A (ja) 連携仮想インターフェース
CN112348885A (zh) 视觉特征库的构建方法、视觉定位方法、装置和存储介质
Höllerer et al. “Anywhere augmentation”: Towards mobile augmented reality in unprepared environments
CN113920263A (zh) 地图构建方法、装置、设备及存储介质
JP2013149029A (ja) 情報処理装置、情報処理方法
CN112215964A (zh) 基于ar的场景导览方法和设备
EP3007136B1 (en) Apparatus and method for generating an augmented reality representation of an acquired image
CN114972599A (zh) 一种对场景进行虚拟化的方法
US20220375175A1 (en) System For Improving The Precision and Accuracy of Augmented Reality
WO2023053485A1 (ja) 情報処理装置、情報処理方法および情報処理プログラム
US20220051372A1 (en) Feature matching using features extracted from perspective corrected image
Cagalaban et al. Projective illumination technique in unprepared environments for augmented reality applications

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150724

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150908

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20151204

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20151218

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20160201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160119

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20160308

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20160624

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160706

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160726

R150 Certificate of patent or registration of utility model

Ref document number: 5980295

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250