JP4484863B2 - 拡張現実感システムにおける不正確情報を決定する方法及びシステム - Google Patents

拡張現実感システムにおける不正確情報を決定する方法及びシステム Download PDF

Info

Publication number
JP4484863B2
JP4484863B2 JP2006342145A JP2006342145A JP4484863B2 JP 4484863 B2 JP4484863 B2 JP 4484863B2 JP 2006342145 A JP2006342145 A JP 2006342145A JP 2006342145 A JP2006342145 A JP 2006342145A JP 4484863 B2 JP4484863 B2 JP 4484863B2
Authority
JP
Japan
Prior art keywords
information
data
augmented reality
data model
inaccurate information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2006342145A
Other languages
English (en)
Other versions
JP2007172621A (ja
Inventor
ペンテンリーダー カタリーナ
メイアー ペーター
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Metaio GmbH
Original Assignee
Metaio GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Metaio GmbH filed Critical Metaio GmbH
Publication of JP2007172621A publication Critical patent/JP2007172621A/ja
Application granted granted Critical
Publication of JP4484863B2 publication Critical patent/JP4484863B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Digital Computer Display Output (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、拡張現実感システム(augmented reality system)において、仮想情報のデータモデルを適当な位置に位置決めする際に、不正確情報を決定する方法に関連している。これを実行する際に、データモデルはディスプレイ装置の像として、現実の環境における視覚的な印象を加味して投影される。さらに、本発明は、拡張感現実システムにおいて、仮想情報のデータモデルを適当な位置に位置決めする際に、不正確情報を決定するシステムに関連している。
先行技術によって、いわゆる拡張現実感システムが開示されている。これらのシステムによって、コンピュータによって生成された仮想情報を、現実の環境の視覚的な情報と重ね合わせることが可能になる。この目的のために、現実の世界の視覚的な印象は、例えばユーザの頭に着用された半伝播的なデータ眼鏡(data glasses)によって、仮想の情報と混合される。仮想情報或いは対象物の混合は、状況に依存した方式、すなわちそれぞれの現実の環境に合わせた或いはそれぞれの現実の環境から得られた方式によって果たされる。仮想情報としては、基本的には任意の形式のデータ(テキスト、画像等)を用いることができる。現実の環境は、例えばユーザの頭に携さえられたカメラを用いることよって検知される。生産環境における拡張現実感システムに可能な応用例は、ドイツ特許公開公報DE 101 28 015 A1(特許文献1)に示されている。後者は、生産産業の分野において、生産環境を改めるための計画を立てるための拡張現実感システムを記述している。
さらに、拡張現実感システムにおける測定方法として知られているものがある。これに関するものとして、例えば、仮想対象物の絶対的な位置についての記述は、カメラビューにおいて生成される。これに加えて、仮想対象物の相対的な位置、例えば現実の対象物に関する相対的な位置についての記述も、カメラビューによって生成されると考えられる。記述がなされる構造は、好ましくは点又は平面で、手動で選択される。これは、例えばユーザがカメラビューから望みの構造を選択することによって、都合の良い場合は画像の対応する位置をマウスでクリックすることによって、対応する3次元の座標を示すことによって或いは仮想平面の定義によって果たされる。現実の対象物の場合、この選択への基準は、画像中の同じ物の2次元投影で、仮想対象物の場合、その上に重ね合わされた現実の環境を持った同じ物の3次元表現である。
測定の記述の正確さは、カメラビューにおける仮想対象物の実際の位置と基準位置或いは理想の位置との間のずれによって決まる。基準位置とは、完全に計算された仮想の世界における仮想対象物の位置、即ち現実の世界の正確な像に対応している。従って、仮想対象物の基準位置は、カメラ画像の中の現実の対応する物の位置そのものである。実際の位置のずれは、不正確さによる因子によって生じる。
さらに、先行技術によって、測定結果の不正確さを示し又決定する方法が明らかにされている。特に、ドイツ産業標準(“DIN”)ENV 13005,“Leitfaden zur Angabe der Unsicherheit beim Messen”(“Guidline for indicating uncertainty in measuring”),ドイツ版ENV13005:1999には、測定の不正確さを示し又決定する国際的に一律な手順を推奨する目的の指針が示されている。このDIN標準は、一般の技術分野における測定の不正確さの指示と決定に関連している。そこでは不正確さは、測定結果に関連したパラメータと理解される。このパラメータは、測定量に適度に関連した値の変動を定義する。パラメータは一定の信頼レベルを保持した範囲内の標準的なずれである。この点についての詳細は、前述のDIN標準に記載されている。
拡張現実感システムにおける前述の不正確さの為、一般的に仮想対象物の位置決めは不正確になる。仮想対象物の実際の位置は基準位置からずれるということが知られているため、測定の記述は概算と言う形でのみ可能である。しかしこれは、DIN標準の要求を不十分な形でしか満たさない。この点で、先行技術において知られているシステムは、測定結果の不確実性を記述することができないと言う不利益を伴っている。測定結果が単に実際の値の見積もりであるなら、測定結果の表示は、DIN標準に明記されているように、見積もり値の不確実性の表示が行なわれている場合においてのみ完全になる。
“ア サーベイ オブ オーグメンティッド リアリティ(A Survey of Augmented Reality)”(ロナルド ティー.アズマ,ハッジズ リサーチ ラボラトリーズ(Ronald T. Azuma,Hudges Research Laboratories)(1995),1〜40頁)(非特許文献1)には、拡張現実感システムと同様に、拡張現実感(augmented reality)を主題とする調査が示され、仮想情報のデータモデルが投影される際のトラッキングと登録についても議論されている。さらに、前記文献は、拡張現実感システムにおける登録誤差となる静的又は動的な誤差源についても触れている。
“ローバスト ヴィジュアル トラッキング フォー ノン−インスツルメンティド(Robust Visual Tracking for Non−Instrumented Augmented Reality)”(ジョージ クライン,トム ドラモンド(Georg Klein,Tom Drummond),アイエスエムエイイアール(ISMAR)‘03,2003,1〜10頁,113〜122頁)(非特許文献2)にも、拡張現実感システムにおける登録誤差に関する記述がある。この文献では、特に動的モデルにおけるモーションブラー(motion blur)によって引き起こされる誤差の補償を扱っている。前記文書に記述されている誤差の訂正は、特に対象物の(仮想の)再投影と映像表示画面上の実際の対象物との重ね合わせに関する物である。ここでの訂正は、2次元の登録誤差を低く保ち、重ね合わせを光学的に最適化することを目標としている。
DE 101 28 015 A1 "ア サーベイ オブ オーグメンティッド リアリティ(A Survey of Augmented Reality)"(ロナルド ティー.アズマ,ハッジズ リサーチ ラボラトリーズ(Ronald T. Azuma,Hudges Research Laboratories)(1995),1〜40頁) "ローバスト ヴィジュアル トラッキング フォー ノン−インスツルメンティド(Robust Visual Tracking for Non−Instrumented Augmented Reality)"(ジョージ クライン,トム ドラモンド(Georg Klein,Tom Drummond),アイエスエムエイイアール(ISMAR)‘03,2003,1〜10頁,113〜122頁)
上述より、拡張現実感システムにおいて、仮想情報のデータモデルの位置決めに関し相対的に厳密な不正確な情報を決定する方法を提供することが、本発明の目的である。更に、不正確な情報を決定するためのシステムを提供することが、本発明の目的である。
本発明による、拡張現実感システムにおける仮想情報のデータモデルの位置決めに関する不正確情報を決定する方法において、不正確情報は、データモデルを映像表示画面に投影する際の写像計算過程におけるパラメータを基本として計算される。拡張現実感システムによって、データモデルは現実環境の視覚的な印象と混合するために、ディスプレイ装置の映像表示画面に投影される。
従って、本発明によって、拡張現実感システムにおけるデータモデルの位置決めに関する相対的に厳密な不正確情報を決定する方法を提供することができる。不正確情報はその状況に適合され、その状況についての不正確な記述に影響を持ったパラメータに依存すると考えられる。このような不正確情報によって、反対に対応する正確さについての記述を決定することができる。本発明によると、これらパラメータは、データモデルがディスプレイ装置の映像表示画面に投影される際の写像計算過程で用いられ、決定的であると認識され、特に仮想データモデルを位置決めするのに役立つ仮想座標系の定義からの写像計算過程におけるものである。例えば、2つの構造の間の相対的なずれが確認されると、これらのパラメータはずれが存在する2つの構造(望ましいものとして点や領域)をもたらす写像計算過程から与えられる。この点で、基準位置は映像表示画面上の現実の3次元構造と、それによるゆがみのカメラ画像である。実際の位置は、位置決めされた仮想3次元構造の2次元の投影である。これらの測定は、デジタル画像上で実行されるという事実の為、本発明の実施形態によると、基準位置と実際の位置の両方の構造はピクセル精度で記述されるように変換される。
ある実施形態によると、例えば、現実の環境の少なくとも一部の画像は、仮想データモデルと混合する為に、カメラによって撮られる。別の実施形態では、いわゆる透過型拡張現実感システムが用いられる。ここでは、特に透過型拡張現実感システムの2つの変動の間で区別がなされる。ビデオ透過型拡張現実感の場合、ビデオスクリーンがユーザの目の前に置かれ、現実と仮想の視覚的印象が混合される。光学的な透過の場合、このような混合は、いわゆる光学ミキサによってなされる。光学ミキサとは、ユーザの目の前に置かれる半透明のディスプレイ装置で、現実の世界はデバイスの透明性によって見ることができ、仮想情報との重ね合わせはディスプレイ装置の透明性によって果たされる。
本発明による方法は、例えば生産産業に応用することができる。例えば、存在する生産物に対して、これまで仮想モデルの形でしか利用できなかった新しい操作手段や、生産物が利用可能であるかどうかを確認することができる。多くの生産環境に対して、利用可能な完全で正しいモデルは存在しないので、このような視覚情報の拡張に基づく拡張現実感システムを、そのような調査に対して上手く適応させることができる。生産環境の現実の状況を操作手段や生産物の仮想モデルと重ね合わせる際に、例えばマーカが、現実の対象物が後から挿入される場所に適応される。それから仮想データモデルが、このように定義された仮想世界座標系に関して位置決めされると考えられる。本実施形態によると、このような仮想データモデルは、一般的にそれ自身のモデル座標系を保持している。車体に対する応用には、例えばこのようなモデル座標系の原点は、モデルの前方車軸の車輪間に位置する。データモデルの位置決めは、仮想世界座標系とモデル座標系の間の変換によって付加的に果たされる。
現実の生産或いは設備環境における使用の試験に対して、測定は生産環境内の関心のある場所において行なわれる。このために、カメラによって現実の環境の少なくとも一部の写真或いは画像が撮られ、ユーザは、例えば、特に関心のある配置や機能を持った仮想データモデル上の点を選択する。仮想データモデルの厳密な位置決めによって、データモデルの実際の位置の基準(理想の)位置からのずれが確認されると思われる。
不正確情報を厳密に決定するために、特に次の影響を及ぼす因子が本発明に従って確認される:まず第一に仮想世界の座標系の決定に関する不確実性、同様にカメラパラメータの決定に関する不確実性と仮想世界座標系に関して、仮想データモデルを相対的に位置決めする際に生じる不確実性である。
一般的に仮想世界座標系の決定は、トラッキングシステムのデータに基づいて実行される。ここで、先行技術によって拡張現実感システムに関連して用いられる種々のトラッキングシステムが明らかにされる。これらのトラッキングシステムは、例えば光学センサ、磁気センサ、慣性センサ或いはそれらの組み合わせに基づいている。拡張現実感システムにおいて行なわれる事は、現実の世界についてのユーザの視野と、指示された全体座標系及び仮想世界座標系の間の変換の決定とについての記述を生成することである。例えばマーカに基づく光学トラッキングの場合、全体座標系は特にカメラ座標系に対応し、決定された変換は全体座標系をマーカによって定義された仮想世界座標系に変換する。そのため、視覚的な情報拡張項目は、定義された仮想世界座標系に基づいてカメラビューに位置決めされる。
本発明の実施形態によると、写像計算過程は、前述の特定の位置にあるデータモデルを表示するのに役立つトラッキング情報を得るためのトラッキングシステムを用いることによって実行される。本発明による方法は以下の工程から構成される。即ち、トラッキングシステムのデータを処理する工程、カメラパラメータに関する情報を与えるカメラキャリブレーションのデータを処理する工程、仮想座標系、特に仮想世界座標系或いはモデル座標系に関してデータモデルの表現に関する情報を与える情況特定データを処理する工程である。
カメラキャリブレーションのデータの処理に関するこれらの工程は、透過型キャリブレーションのデータが同様に所有されていて、透過型ディスプレイ装置のパラメータに関する情報を与える透過型ディスプレイ装置に関しても同様に実行される。このようなキャリブレーションによって、パラメータは既知の方式で確認され、これらに基づいて、データモデルは透過型ディスプレイ装置内で混合される。このようなパラメータは、特に現実の環境の画像がどのような方式で透過型ディスプレイ装置、例えば半透明のデータ眼鏡に表示されるかを特定する。
カメラキャリブレーションとカメラパラメータに関して前述及び後述の記述は、カメラとカメラキャリブレーションの代わりに利用される透過型ディスプレイ装置にも同様な方式で適用できる。
特に、トラッキングシステムのデータはトラッキングシステムの測定の不正確さに関する情報を含み、カメラキャリブレーションのデータはカメラキャリブレーションの測定の不正確さに関する情報を含み、状況特定データは仮想座標系に関してデータモデルの表現の不正確さに関する情報を含んでいる。
更に本発明の実施形態によると、変動を定義する不確実性に関する情報は、不正確情報として生成される。それに加えて、誤差値を含んだ不正確情報が生成されると考えられる。従って、測定結果の完全な表示に対して、測定結果の関連する不確実性が表示されると考えられる。本発明によるシステムと方法によると、測定結果に対応する不確実性と誤差を計算することにより、測定結果の完全な表示が可能となる。
更に本発明の実施形態によると、本発明による方法とシステムによって決定される不正確情報は、データモデルの点、外形、或いは領域の絶対位置に関する記述を含むと考えられる。それに加えて或いはその代わりに、不正確情報はデータモデルの点、外形、或いは領域の他の構造に関する相対的な位置に関する記述を含んでいると考えられる。
本発明の更なる実施形態と効果については、請求項の従属項において示されている。
本発明は、拡張現実感システムにおける、仮想情報のデータモデルを位置決めする不正確情報を決定するための方法及びシステムを提供する。不正確情報はその状況に適合され、その状況についての不正確さの記述に影響を持ったパラメータに依存すると考えられる。このような不正確情報によって、反対に対応する正確さについての記述を決定することができる。本発明によると、これらのパラメータは、データモデルがディスプレイ装置の映像表示画面に投影される際の写像計算過程で用いられ、決定的であると認識され、特に仮想データモデルを位置決めするのに役立つ仮想座標系の定義からの写像計算過程におけるものである。例えば、2つの構造の間の相対的なずれが確認されると、これらのパラメータはずれが存在する2つの構造(望ましくは点や領域)をもたらす写像計算過程から与えられる。この点で、基準位置は映像表示画面上の現実の3次元構造とそれによるゆがみのカメラ画像である。実際の位置は、位置決めされた仮想3次元構造の2次元の投影である。これらの測定はデジタル画像上で実行されるという事実の為、本発明の実施形態によると、基準位置と実際の位置の両方の構造は、ピクセル精度で記述されるように変換される。本発明による拡張現実感システムにおける不正確な情報を決定する方法及びシステムによって、拡張現実感システムにおけるデータモデルの位置決めに関する相対的に厳密な不正確情報を決定する方法を提供することができる。
図1は、実施形態に従って、拡張現実感システムにおける仮想情報のデータモデルを位置決めする過程のアウトラインを模式的に表す図である。カメラによって、現実の環境における興味の対象となる部分の写真や画像が撮られ、画像は例えば重ね合わされた仮想情報を保持するためのディスプレイ装置上に表示される。ディスプレイ装置の代わりに、前述の透過型ディスプレイを利用することも可能である。このような透過型ディスプレイ装置を用いると、データモデルは現実環境の少なくとも一部と混合される。従って、カメラに関する以下の記述では、カメラの代わりに透過型ディスプレイ装置を採用する。この明細書では、透過キャリブレーションという用語は、ユーザは透過を通してキャリブレーションを実行するので、一般的に光学的な透過のみに用いられている。ビデオ透過の場合、重ね合わせはカメラ画像中で行なわれるので、カメラキャリブレーションという用語はこの重ね合わせが行なわれる中で用いられる。
符号10は全体座標を示しており、全体座標は前述の標識に基づく光学トラッキングの場合、カメラ座標系に対応する。全体座標系10に関して変換10−0(3次元並進と回転成分から成る)を決定することによって、仮想世界の座標系20が定義される。それから仮想データモデルは、この定義された仮想世界の座標系20を基本として、カメラビュー中に位置決めされると考えられる。しかしながら、この実施形態においては、モデル座標系30は、仮想世界座標系20からこのモデル座標系30へ変換20−0を付加することにより定義される。従って、データモデルの配置は、変換20−0を付加することにより果たされる。関心ある測定の不正確な情報に対して、ユーザは、例えば点40(関心のある点(point of interest):POI)のような、仮想データモデル内の点や外形を選択する。このようなポイント40は、変換30−0を通してモデル座標系30に関連して決定される。
図2は、実際の位置におけるデータモデルと基準位置との間の模式的な比較を示している。測定記述の正確さは、カメラビュー内の仮想データモデル1の実際の位置と基準位置との間のずれに基づいている。基準位置は完全に計算された仮想世界内のデータモデル1によって占められた位置に対応し、厳密な像になる。従って、仮想データモデル1の基準位置は、カメラビュー内の対応する物によって本当に占められる位置である。実際の位置のずれは、実際の対象物を位置決めする過程で与えられた不確実性による因子によって発生する。本発明によれば、そのような効果を持った以下に挙げる因子が認められる。即ち、

(1) 仮想世界の座標系を決定する不確実性、
(2) カメラパラメータを決定する不確実性、
(3) 仮想世界の座標系に関する仮想対象物の相対的な位置決めに関する不確実性、

である。
図1に関連して、仮想データモデルの相対的な位置決めは、一連の2つの変換によって有利に実行される。仮想世界の座標系20に関連したモデル座標系30の定義によって、座標系の原点と軸の傾きが有利な方式で決定される。仮想データモデルの位置決めは、モデル座標系30の支援を用いてなされる。変換30−0によって、任意の点40が、測定を実行するために決定されると考えられる。
仮想世界の座標系20を決定する不確実性は、変換10−0の誤差10−1と不確実性10−2によって特徴付けられる。さらに、変換20−0は、誤差20−1と不確実性20−2を含んでいる。さらに、モデル座標系30から関心のある点40への変換30−0における変換は、誤差30−1と不確実性30−2を含み、これによって不正確さが生じる。
図3には、例えばスクリーンや半透明のデータ眼鏡のようなディスプレイ装置4の映像表示画面上の仮想データモデルを配置する過程を、模式的に表現するもう一つの図が示されている。点40のデータモデルの選択された構造が、点40をディスプレイ装置4の映像表示画面内の対応する点50に配置した状態で示されている。対応する拡張現実感システムは、ディスプレイ装置4の映像表示画面上のデータモデルを位置決めして投影する手段で成り、図3では1つの均一な機能ブロックとして示されているカメラ2の形式及びデータ処理手段3の形式で存在する実施形態に従った手段を伴っている。この実施形態におけるデータ処理手段3は、不正確な情報を図4と図5に従ったモジュール400の出力として計算する手段として、カメラ2と協動する。図4と図5に示されたモジュールは、データ処理装置3において対応する方法で実行される。同じ事が同様に、透過型ディスプレイ装置をデータ処理装置3と共同で利用する場合にも保たれる。
図3において、符号50−0は、POI 2D 50のミリメートルからピクセルへの変換を示している。この変換50−0の為、POI 2Dはピクセル表現の形式で与えられる。この変換50−0は、カメラキャリブレーションの誤差成分に基づく誤差50−1と共に順番に与えられると考えられる。変換50−0と誤差50−1は、それぞれ同様に、カメラキャリブレーションの不確実性成分に基づいた不確実性50−2と共に与えられる。同様な方式で、POI 3D 40をPOI 2D 50に投影する変換40−0は、それぞれ誤差と不確実性と共に与えられる。投影変換40−0は、カメラキャリブレーションの成分に基づいている。投影変換40−0の誤差40−1は、カメラキャリブレーションの誤差成分に基づいており、一方で不確実性40−2はカメラキャリブレーションの不確実性の成分に基づいている。符号41、51及び61は、POIの対応する基準位置を示している。本発明の方法における不正確な測定の計算から近似されるずれは、ピクセル平面で表現され、図3の70(Δx,Δy)で例示される。
図4は、発明の実施形態に従った拡張現実感システムにおけるデータモデルを位置決めする不正確情報を決定するフローチャートである。本発明による方法は、トラッキングシステムのデータ100をカメラキャリブレーションのデータ200及び状況特定データ300と連結する測定の不確実性モジュール400を介して実行され、その結果状況の不確実性を決定する。
以下のデータがモジュール100、200、300から測定の不確実性モジュール400へ供給される。
外部トラッキングシステム100は、世界の現在ビューに関する情報を配信する:

− 全体座標系10から仮想世界座標系20に変換する変換10−0が決定される。
− 記述は、選択的に変換誤差10−1に関連している。
− 記述は、変換10−0又は誤差10−1の不確実性10−2にそれぞれ関連している。

ここで不確実性は、測定量に関連した値の変動を特徴付ける測定結果に関連するパラメータであると理解される。パラメータは、前記DIN標準で決定されたように、一定の信頼レベルを保持した標準的なずれ又は範囲である。例えばパラメータは、外部トラッキングシステムの系統的な誤差の結果である誤差として基準される。例えば、外部トラッキングシステムが実際の値から特定の量だけずれている値を配信することが、確認される。この量が常にある大きさの範囲内にあるとき、この量は変換誤差として処理される。
カメラキャリブレーションモジュール200は、使用されたカメラの情報を配信する:

− カメラ固有のパラメータ(例えば焦点距離)が確認される。
− 選択的にパラメータの誤差についての記述。
− これらのパラメータ又は誤差の不確実性についての記述。

モジュールの状況特定データ300は、不確実な状況を決定する現在の配置の厳密な決定のために役立つ。これらのデータは、以下のものから成る:

− 仮想世界の座標系20をモデル座標系30に変換する変換20−0。
− 不確実な記述が、モデル座標系30で計算される選択点40も記述している変換
30−0
− 変換20−0の誤差20−1と変換30−0の誤差30−1についての選択的記述。
− この変換20−0或いは前記誤差20−1の不確実性20−2と、この変換30
0或いは前記誤差30−1の不確実性30−2についての記述。

モジュールの状況特定データ300は、例えばユーザによって特定される。
モジュールのパラメータ化100、200、300によって、状況の詳細な記述が可能となり、記述された配置に対する測定の不正確さについて、厳密な記述をすることが可能となる。基本的に測定の不確実性モジュール400によって、2つの配置間の区別をすることができる。
最初の配置では、測定の不確実性は選択された点に対して(一般的には選択された構造に対して)決定される。この配置に対して、前述のリストに従ってパラメータが示される。本実施形態におけるモジュール400の出力は、モジュール300の記述に記載された点40における測定誤差と、これに関連した測定の不確実性から成る。この結果に基づいて、選択された点が、ある確率で配置される信頼の持てる範囲が決定される。従って、点41の絶対的な位置、即ち点40の基準位置についての記述が生成される。
第2の配置では、測定の不確実性の決定が(例えば2点間で)なされる。その際、モジュール300の入力が、2点のそれぞれに対して実行されなければならない。モジュール400の出力は、2つの定義された点の間の測定誤差と関連する測定の不確実性に対応している。従って、点の間の相対的な位置(距離)の誤差及び不確実性についての記述が得られる。第1の配置と同様に、ここでも与えられたデータを基に信頼の持てる間隔が定義される。
図5は、発明の実施形態に従って、拡張現実感システムにおけるデータモデルの位置決めに関する不正確情報を決定するための詳細なフローチャートを示している。不正確情報は、測定の不確実性についての計算に対するモジュール400の不確実性の記述600の形式で出力される。ここで、不確実性の記述600は、以下の伝播ステップを通して本質的に決定される。即ち、最初に3次元空間におけるデータモデルの選択された構造が決定される。この伝播ステップは、選択された構造に関する3次元空間中の伝播として参照される。この工程は、モジュール400−1で行なわれる。その後、映像表示画面内のデータモデルの選択された構造の位置の不正確情報の投影が行なわれる。この工程は、モジュール400−2で実行される。
特に3次元空間における位置の不正確さの決定に対して、不確実性10−2及びトラッキングシステム100の誤差10−1のようなデータが処理される。これらのデータは、トラッキングシステムの測定の不正確情報を含んでいる。さらに、仮想座標システム20、30に関して、データモデルの表現の不正確さについての状況特定データが処理される。
これらの操作のより詳細な記述のために、測定の不正確さの計算モジュール400の有効な実施形態を以下に説明する。トラッキングシステム100の初期の誤差とその変動が、計算過程のいくつかのステップ間で伝播される。各ケースは同じ原則(誤差と不確実性の伝播についての原則)を利用する。
最初の点は、写像関数fを基本とする現在の伝播工程の写像である。それぞれの伝播工程において、この関数はp´上に構造pを写像する。不確実性の影響の無い完全な場合、この関数或いは写像は、
Figure 0004484863
と与えられる。ここで
Figure 0004484863
は付加的な変数(変数ベクトル)で、特定の伝播に影響を持っている。しかし、それぞれの変数には誤差eが有る為、この場合の写像は、
Figure 0004484863
と与えられる。従って、それぞれの全体の伝播工程に対する誤差は、下記数4のように示される。
Figure 0004484863
この点で、2つのケースには差異が存在する。
第1のケースにおいて誤差が存在する場合、不確実性j0−2は誤差j0−1の不確実性であり(j=1,...,5は実施形態を表す)、下記数5となる。
Figure 0004484863
3次元空間における誤差の共変性の伝播は、下記数6の和で表される。
Figure 0004484863
ここで、
Figure 0004484863
は変数ベクトル
Figure 0004484863
の共変行列であり、
Figure 0004484863
は対応するヤコビアン行列である。
前述の誤差を含む式から想像されるように、誤差の共変性が計算される。
第2のケースにおいて誤差が存在しない場合、不確実性j0−2は変換j0−0の不確実性であり(j=1,...,5は実施形態を表す)、下記数10となる。
Figure 0004484863
3次元空間における誤差の共変性の伝播は、下記数11の和で表される。
Figure 0004484863
ここで、
Figure 0004484863
は変数ベクトル
Figure 0004484863
の共変行列であり、
Figure 0004484863
は対応するヤコビアン行列である。
従って、前述のように各不確実性j0−2は、関連する誤差j0−1が示されるか処理されない限り、常に各変換j0−0の不確実性を示している。しかし、関連する誤差j0−1が示される場合、それぞれの不確実性はそれぞれの誤差j0−1と関連している。
これらの2つの可能性は、図6に関連付けるとより良く理解できる。測定に対する実際の値、(即座のケースでは仮想世界の座標系の構図(pose)が分かるときのみ、誤差を決定することができる。この実際の値が分かる場合、ずれはそれぞれの測定に対して決定され、誤差平均と誤差変動(10−1及び10−2)を基本として決定される。
以下に、期待値(誤差平均)εと共変行列Cを決定する式が与えられる(例えば前述のDIN標準から)。即ち、期待値εは、
Figure 0004484863
である。ここで、
Figure 0004484863
は、現在の又は実際の構図エントリ(pose entry)を示し、
Figure 0004484863
は、トラッキングシステムによって決定される構図エントリを示し、nは測定の数を示している。共変行列は
Figure 0004484863
である。ここで、
Figure 0004484863
であり、数19において、
Figure 0004484863
であり、更に
Figure 0004484863
である。数20及び数21は、並進(1)、(2)、(3)と回転(4)、(5)、(6)に対する構図エントリで表される(4次元の場合は(7)が有る)。
しかし、現在の構図エントリが分からない場合、構図に対する平均と変動しか直接決定することはできない。
全体座標系は、例えばカメラの原点に対応する。マーカによって、ユーザは“本物の”仮想世界座標系を定義する。トラッキングシステムはマーカを認識するが、完全には正しくない変換10−0を戻す。この変換によって、さらなる計算に対して用いられる仮想世界座標系20を記述する。仮想世界座標系20と実際の仮想世界座標系との間のずれを記述する誤差10−1を決定するのは、常に可能と言うわけではない(前述の記述を参照)。
ここでは、変数ベクトルは、それぞれ1組の相関パラメータから成っている。相関パラメータは互いに確率的に依存しており、共通の共変行列を持っている。これに関するより詳細な情報は、前述のDIN標準にあり、“Analysis of Head Pose Accuracy in Augmented Reality”(William Hoff,Tyron Vincent,IEEE Transaction on Visuallization and Computer Graphics,Vol.6,No.4,2000年)がトラッキングシステム内の計算過程についての唯一の参考文献である。
本発明によると、拡張現実感システムにおいて、仮想のデータモデルを位置決めする不正確情報を決定する個々の伝播ステップは以下のようになる。即ち、

− 3次元空間での選択された構造(点、外形、領域)、
− 二次元への投影、
− ゆがみ、
− ピクセルへの変換、

である。
3次元空間における伝播に対して、トラッキングシステムのモジュール100からの同一物の初期の誤差と初期の不確実性は、仮想座標系20、30内の関心のある3次元構造の相対的な位置についてユーザが特定した不確実性に結びついている(例えば図3の点40)。ここで、仮想座標系は、前述の一般的な原則に従ってモジュール300から作り出される。このように、望まれる3次元構造、即ち望まれる3次元上の点40に対するインスタントケースにおいて、位置の誤差と関連する不確実性が決定される。
本実施形態において、点40についての3次元空間上の誤差と関連する誤差は、全体座標系10からPOI40への変換から生じる。その結果として、伝播ステップは、下記数22のようになる。
Figure 0004484863
数22において、写像関数fからfは特定の伝播ステップとは異なっている。点40はユーザによって、例えば対応する位置のクリックによって選択される。
誤差の共変行列は、個々の誤差の共変に重みを付けた和をとることによって、下記数23のように計算される。
Figure 0004484863
ここで、
Figure 0004484863
である。
次の伝播ステップでは、一般に位置決めに関する不正確情報として参照される3次元上の点の誤差や不確実性は、カメラに本来備わった不確実性と共に与えられたパラメータを考慮した映像表示画面に投影される。これに関連して、このような投影と、次に示すゆがみ過程の両方による伝播に、下記数25のような不確実性が導入される。
Figure 0004484863
ここで、
Figure 0004484863
である。
最後の伝播ステップでは、不確実性を持ったピクセルへの変換がカメラパラメータを考慮に入れて実行される。
Figure 0004484863
ここで、
Figure 0004484863
である。
このステップは、測定記述に対して、手動で選択された構造がピクセルの精度でのみ位置決めされるように、ピクセル平面上での測定を反映している。従って、選択された点に対する伝播された誤差とその不確実性のために生じるずれは、完全なピクセルに丸められる。
最終的な不確実性の表示は、伝播された誤差e50と標準のずれの形式で関連された不確実性C60とから構成される。
モジュール500(図4)の測定の不確実性の表示モジュールは、本発明によるシステムと方法に有益な付加的な機能を果たす。ユーザに適した測定記述を与える為に、不確実性の計算の最終的な結果は、このモジュールでピクセルを基本とする表示からミリメートルを基本とする表示に変換される。ピクセルを基準として計算されるずれと不確実性を基に、3次元空間への再投影が元来選択された3次元構造の記述を、例えば現実の3次元空間に対応する測定によって生成するために用いられる。この過程のステップは、もはや実際の不確実性の伝播とは関係がないが、ユーザにより良く理解できる形式で計算されたデータを提供するために、システムと方法を拡張したものである。
本実施形態による拡張現実感システムにおける仮想情報のデータモデルを位置決めする過程の概観模式的な表現を、実行されるそれぞれの変換を指示して示す図である。 実際の位置とデータモデルを位置決めする理想状態に対応する基準或いは理想位置における仮想情報のデータモデルの模式的な比較を、それらの位置のずれと共に示す図である。 仮想データモデルのディスプレイ装置の映像表示画面への模式的な表現と、データモデル中の選択した構造の実際の位置と基準位置との比較と、それらに対応するずれを示す図である。 拡張現実感システムにおける仮想データモデルを位置決めする不正確情報を決定するための本発明の実施形態に従ったフローチャートである。 発明の実施形態に従った拡張現実感システムにおける仮想データの位置決めに関する正確情報を決定するための、より詳細なフローチャートである。 “不確実性”と“誤差”という用語を説明するための図1に類似させた図である。

Claims (18)

  1. 拡張現実感システムにおいて、仮想情報のデータモデルを位置決めする測定記述を作成するための不正確情報を決定する方法であって、前記不正確情報を決定する方法は
    (a)現実の環境の少なくとも一部の画像をカメラによって撮る工程と、
    (b)前記現実の環境の視覚的な印象と混合するためのディスプレイ装置の映像表示画面に前記データモデルを位置決めして投影するための手段によって、前記データモデルを前記ディスプレイ装置の映像表示画面に投影する工程と、
    (c)トラッキングシステムを用い、前記データモデルは前記ディスプレイ装置の映像表示画面に投影される仮想座標系を定義するための、且つ前記画像の特定の位置において前記データモデルを写像するために役立つトラッキング情報を得る工程と、
    (d)前記トラッキングシステムのデータを処理する工程と、
    (e)前記カメラのカメラパラメータに関する情報を作成するカメラキャリブレーションのデータを処理する工程と、
    (f)前記仮想座標系に関して、前記データモデルの表現に関する情報を作成する状況特定データを処理する工程、
    (g)前記仮想座標系の決定に関する不確実性と、前記カメラパラメータの決定に関する不確実性と、前記仮想座標系に関して前記データモデルの相対位置決めの際に生じる不確実性とからデータ処理装置により前記不正確情報を計算する工程と、
    から成ることを特徴とする拡張現実感システムにおける不正確情報を決定する方法。
  2. 拡張現実感システムにおいて、仮想情報のデータモデルを位置決めする測定記述を作成するための不正確情報を決定する方法であって、前記不正確情報を決定する方法は
    (a)現実の環境の視覚的な印象と混合するための透過型ディスプレイ装置の映像表示画面に前記データモデルを位置決めして投影するための手段によって、前記データモデルを前記透過型ディスプレイ装置の映像表示画面に投影する工程と、
    (b)トラッキングシステムを用い、前記データモデルは、前記透過型ディスプレイ装置の映像表示画面に投影される仮想座標系を定義するための、且つ前記透過型ディスプレイ装置の特定の位置において前記データモデルを写像するために役立つトラッキング情報を得る工程と、
    (c)前記トラッキングシステムのデータを処理する工程と、
    (d)前記透過型ディスプレイ装置のパラメータに関する情報を作成する透過型キャリブレーションのデータを処理する工程と、
    (e)前記仮想座標系に関して、前記データモデルの表現に関する情報を作成する状況特定データを処理する工程と、
    (f)前記仮想座標系の決定に関する不確実性と、前記透過型ディスプレイ装置のパラメータの決定に関する不確実性と、前記仮想座標系に関して前記データモデルの相対位置決めの際に生じる不確実性とからデータ処理装置により前記不正確情報を計算する工程と、
    から成ることを特徴とする拡張現実感システムにおける不正確情報を決定する方法
  3. 前記不正確情報が変動を定義する不確実性についての情報を含むことを特徴とする請求項1又は2に記載の拡張現実感システムにおける不正確情報を決定する方法。
  4. 前記不正確情報が誤差値を含むことを特徴とする請求項1乃至3のいずれかに記載の拡張現実感システムにおける不正確情報を決定する方法。
  5. 前記不正確情報が、
    (a)3次元空間において、前記データモデルの少なくとも1つの選択された構造の位置決めのための不正確情報を決定する工程、
    (b)映像表示画面上の前記データモデルの選択された構造の位置決めのための不正確情報を投影する工程、
    によって決定されることを特徴とする請求項1乃至4のいずれかに記載の拡張現実感システムにおける不正確情報を決定する方法。
  6. 3次元空間における位置決めのための不正確情報を決定するために、前記仮想座標系に関する前記データモデルの表現の不正確さに関する情報を含む前記状況特定データと共に、前記トラッキングシステムの測定の不正確さに関する情報を含んでいるトラッキングシステムのデータが処理されることを特徴とする請求項5に記載の拡張現実感システムにおける不正確情報を決定する方法。
  7. 前記データモデルの前記選択された構造の前記位置決めのための不正確情報の前記映像表示画面への前記投影は、カメラに本来備わったパラメータを考慮して、或いは透過型ディスプレイ装置のパラメータを考慮して実行されることを特徴とする請求項5又は6に記載の拡張現実感システムにおける不正確情報を決定する方法。
  8. 前記位置決めのための不正確情報の映像表示画面への前記投影に続いて、伝播ステップは位置決めのための不正確情報を投影する際に、ゆがみ過程を考慮に入れるように実行されることを特徴とする請求項5乃至7のいずれかに記載の拡張現実感システムにおける不正確情報を決定する方法。
  9. 伝播工程において、投影された位置決めのための不正確情報のピクセル表現への変換が実行されることを特徴とする請求項5乃至8のいずれかに記載の拡張現実感システムにおける不正確情報を決定する方法。
  10. (a)トラッキング情報は、前記トラッキング情報の不確実性に関するデータを含んで処理されること、
    (b)カメラキャリブレーション或いは透過型キャリブレーションのキャリブレーションデータは、カメラパラメータ或いは透過型ディスプレイのパラメータの不確実性に関するデータを含んで処理されること、
    (c)状況特定データは、前記仮想座標系に関するデータモデルの表現の不確実性に関するデータを含んで処理されること、
    を具備することを特徴とする請求項5乃至9のいずれかに記載の拡張現実感システムにおける不正確情報を決定する方法。
  11. 前記位置決めのための不正確情報は、変動を定義する測定の不確実性に関する情報を含むことを特徴とする請求項5乃至10のいずれかに記載の拡張現実感システムにおける不正確情報を決定する方法。
  12. 前記位置決めのための不正確情報は、位置決めのための誤差を含むことを特徴とする請求項5乃至11のいずれかに記載の拡張現実感システムにおける不正確情報を決定する方法。
  13. 処理された不正確情報は、前記不正確情報の3次元空間への再投影によって生成されることを特徴とする請求項1乃至12のいずれかに記載の拡張現実感システムにおける不正確情報を決定する方法。
  14. 前記不正確情報は、前記データモデルの点、外形、領域の絶対位置に関する記述を含むことを特徴とする請求項1乃至13のいずれかに記載の拡張現実感システムにおける不正確情報を決定する方法。
  15. 前記不正確情報は、前記データモデルの点、外形、領域の相対位置に関する記述を含むことを特徴とする請求項1乃至14のいずれかに記載の拡張現実感システムにおける不正確情報を決定する方法。
  16. 前記不正確情報を決定する方法は、
    (a)前記データモデルは、前記ディスプレイ装置の映像表示画面に投影される仮想座標系を定義するトラッキング情報を作成し、前記仮想座標系は、トラッキングセンサの全体基準座標系に関して変換によって決定される工程と、
    (b)カメラのカメラ固有パラメータ或いは透過型ディスプレイ装置のパラメータを作成するためのキャリブレーションデータを作成する工程と、
    (c)前記データモデルの選択された情報を記述する並進情報を作成する前記仮想座標系に関して、前記データモデルの表現に関する情報を作成する状況特定データを作成し、前記状況特定データに対して不正確情報が前記仮想座標系で生成される工程と、
    から成ることを特徴とする請求項1乃至15のいずれかに記載の拡張現実感システムにおける不正確情報を決定する方法。
  17. (a)前記トラッキング情報が前記変換の誤差に関するデータを含むこと、
    (b)前記キャリブレーションデータがカメラ固有パラメータ、或いは透過型ディスプレイ装置のパラメータの誤差に関するデータを含むこと、
    (c)前記状況特定データが前記並進情報の誤差に関するデータを含むこと、
    の少なくとも1つの条件を具備することを特徴とする請求項16に記載の拡張現実感システムにおける不正確情報を決定する方法。
  18. (a)前記トラッキング情報が変換の不確実性、或いは関連する誤差の不確実性に関するデータを含むこと、
    (b)前記キャリブレーションデータが前記カメラ固有パラメータの不確実性、或いは前記透過型ディスプレイ装置のパラメータの不確実性、或いは関連する誤差の不確実性に関するデータを含むこと、
    (c)前記状況特定データが並進情報の不確実性、或いは関連する誤差の不確実性に関するデータを含むこと、
    の条件を具備することを特徴とする請求項16又は17に記載の拡張現実感システムにおける不正確情報を決定する方法。
JP2006342145A 2005-12-23 2006-12-20 拡張現実感システムにおける不正確情報を決定する方法及びシステム Active JP4484863B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102005061952A DE102005061952B4 (de) 2005-12-23 2005-12-23 Verfahren und System zur Bestimmung einer Ungenauigkeitsinformation in einem Augmented Reality System

Publications (2)

Publication Number Publication Date
JP2007172621A JP2007172621A (ja) 2007-07-05
JP4484863B2 true JP4484863B2 (ja) 2010-06-16

Family

ID=38108822

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006342145A Active JP4484863B2 (ja) 2005-12-23 2006-12-20 拡張現実感システムにおける不正確情報を決定する方法及びシステム

Country Status (3)

Country Link
US (1) US7768534B2 (ja)
JP (1) JP4484863B2 (ja)
DE (1) DE102005061952B4 (ja)

Families Citing this family (73)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8224078B2 (en) 2000-11-06 2012-07-17 Nant Holdings Ip, Llc Image capture and identification system and process
US7680324B2 (en) 2000-11-06 2010-03-16 Evryx Technologies, Inc. Use of image-derived information as search criteria for internet and other search engines
US9310892B2 (en) 2000-11-06 2016-04-12 Nant Holdings Ip, Llc Object information derived from object images
US7565008B2 (en) 2000-11-06 2009-07-21 Evryx Technologies, Inc. Data capture and identification system and process
US8218873B2 (en) 2000-11-06 2012-07-10 Nant Holdings Ip, Llc Object information derived from object images
US7899243B2 (en) 2000-11-06 2011-03-01 Evryx Technologies, Inc. Image capture and identification system and process
DE102007033486B4 (de) 2007-07-18 2010-06-17 Metaio Gmbh Verfahren und System zur Vermischung eines virtuellen Datenmodells mit einem von einer Kamera oder einer Darstellungsvorrichtung generierten Abbild
DE102007045835B4 (de) 2007-09-25 2012-12-20 Metaio Gmbh Verfahren und Vorrichtung zum Darstellen eines virtuellen Objekts in einer realen Umgebung
DE102007045834B4 (de) 2007-09-25 2012-01-26 Metaio Gmbh Verfahren und Vorrichtung zum Darstellen eines virtuellen Objekts in einer realen Umgebung
JP4950834B2 (ja) * 2007-10-19 2012-06-13 キヤノン株式会社 画像処理装置、画像処理方法
JP5566281B2 (ja) * 2008-03-03 2014-08-06 Toa株式会社 旋回型カメラの設置条件特定装置および方法ならびに当該設置条件特定装置を備えるカメラ制御システム
KR101598579B1 (ko) * 2009-03-03 2016-02-29 삼성전자주식회사 안내정보를 제공하는 사용자 인터페이스 장치 및 안내정보 제공 방법
DE102009037835B4 (de) * 2009-08-18 2012-12-06 Metaio Gmbh Verfahren zur Darstellung von virtueller Information in einer realen Umgebung
GB0915589D0 (en) * 2009-09-07 2009-10-07 Sony Comp Entertainment Europe Image processing method, apparatus and system
DE102009049073A1 (de) 2009-10-12 2011-04-21 Metaio Gmbh Verfahren zur Darstellung von virtueller Information in einer Ansicht einer realen Umgebung
DE102009049849B4 (de) 2009-10-19 2020-09-24 Apple Inc. Verfahren zur Bestimmung der Pose einer Kamera, Verfahren zur Erkennung eines Objekts einer realen Umgebung und Verfahren zur Erstellung eines Datenmodells
KR20150008840A (ko) 2010-02-24 2015-01-23 아이피플렉 홀딩스 코포레이션 시각 장애인들을 지원하는 증강 현실 파노라마
ES2383976B1 (es) * 2010-12-03 2013-05-08 Alu Group, S.L. Método para el probado virtual de calzado.
US8810598B2 (en) 2011-04-08 2014-08-19 Nant Holdings Ip, Llc Interference based augmented reality hosting platforms
JP5620343B2 (ja) * 2011-06-20 2014-11-05 日本電信電話株式会社 物体座標系変換装置、物体座標系変換方法、及び物体座標系変換プログラム
WO2013029674A1 (en) 2011-08-31 2013-03-07 Metaio Gmbh Method of matching image features with reference features
US9536251B2 (en) * 2011-11-15 2017-01-03 Excalibur Ip, Llc Providing advertisements in an augmented reality environment
EP2780861A1 (en) 2011-11-18 2014-09-24 Metaio GmbH Method of matching image features with reference features and integrated circuit therefor
US9223138B2 (en) 2011-12-23 2015-12-29 Microsoft Technology Licensing, Llc Pixel opacity for augmented reality
EP2800996A4 (en) * 2012-01-06 2015-08-19 Blackberry Ltd SYSTEM AND METHOD FOR ORIENTING A CAMERA
US9606586B2 (en) 2012-01-23 2017-03-28 Microsoft Technology Licensing, Llc Heat transfer device
US9368546B2 (en) 2012-02-15 2016-06-14 Microsoft Technology Licensing, Llc Imaging structure with embedded light sources
US9779643B2 (en) 2012-02-15 2017-10-03 Microsoft Technology Licensing, Llc Imaging structure emitter configurations
US9726887B2 (en) 2012-02-15 2017-08-08 Microsoft Technology Licensing, Llc Imaging structure color conversion
US9297996B2 (en) 2012-02-15 2016-03-29 Microsoft Technology Licensing, Llc Laser illumination scanning
US9578318B2 (en) 2012-03-14 2017-02-21 Microsoft Technology Licensing, Llc Imaging structure emitter calibration
US11068049B2 (en) 2012-03-23 2021-07-20 Microsoft Technology Licensing, Llc Light guide display and field of view
US9558590B2 (en) 2012-03-28 2017-01-31 Microsoft Technology Licensing, Llc Augmented reality light guide display
US10191515B2 (en) 2012-03-28 2019-01-29 Microsoft Technology Licensing, Llc Mobile device light guide display
US9717981B2 (en) 2012-04-05 2017-08-01 Microsoft Technology Licensing, Llc Augmented reality and physical games
US10502876B2 (en) 2012-05-22 2019-12-10 Microsoft Technology Licensing, Llc Waveguide optics focus elements
US8989535B2 (en) 2012-06-04 2015-03-24 Microsoft Technology Licensing, Llc Multiple waveguide imaging structure
EP2860606B1 (en) * 2012-06-12 2018-01-10 Sony Corporation Information processing device, information processing method, and program for an augmented reality display
US9349218B2 (en) 2012-07-26 2016-05-24 Qualcomm Incorporated Method and apparatus for controlling augmented reality
US10192358B2 (en) 2012-12-20 2019-01-29 Microsoft Technology Licensing, Llc Auto-stereoscopic augmented reality display
EP2936443A1 (en) * 2012-12-21 2015-10-28 Metaio GmbH Method for representing virtual information in a real environment
EP2770783B1 (en) 2013-02-21 2018-06-20 Apple Inc. A wearable information system having at least one camera
US8922589B2 (en) 2013-04-07 2014-12-30 Laor Consulting Llc Augmented reality apparatus
US9582516B2 (en) 2013-10-17 2017-02-28 Nant Holdings Ip, Llc Wide area augmented reality location-based services
US20160335578A1 (en) * 2014-01-17 2016-11-17 Hitachi, Ltd Program for creating work assistance data
US9304235B2 (en) 2014-07-30 2016-04-05 Microsoft Technology Licensing, Llc Microfabrication
US10678412B2 (en) 2014-07-31 2020-06-09 Microsoft Technology Licensing, Llc Dynamic joint dividers for application windows
US10592080B2 (en) 2014-07-31 2020-03-17 Microsoft Technology Licensing, Llc Assisted presentation of application windows
US10254942B2 (en) 2014-07-31 2019-04-09 Microsoft Technology Licensing, Llc Adaptive sizing and positioning of application windows
US9746913B2 (en) 2014-10-31 2017-08-29 The United States Of America As Represented By The Secretary Of The Navy Secured mobile maintenance and operator system including wearable augmented reality interface, voice command interface, and visual recognition systems and related methods
US20180276882A1 (en) * 2015-01-12 2018-09-27 Pcms Holdings, Inc. Systems and methods for augmented reality art creation
US9423360B1 (en) 2015-02-09 2016-08-23 Microsoft Technology Licensing, Llc Optical components
US9535253B2 (en) 2015-02-09 2017-01-03 Microsoft Technology Licensing, Llc Display system
US10317677B2 (en) 2015-02-09 2019-06-11 Microsoft Technology Licensing, Llc Display system
US9827209B2 (en) 2015-02-09 2017-11-28 Microsoft Technology Licensing, Llc Display system
US9513480B2 (en) 2015-02-09 2016-12-06 Microsoft Technology Licensing, Llc Waveguide
US9429692B1 (en) 2015-02-09 2016-08-30 Microsoft Technology Licensing, Llc Optical components
US11086216B2 (en) 2015-02-09 2021-08-10 Microsoft Technology Licensing, Llc Generating electronic components
US10018844B2 (en) 2015-02-09 2018-07-10 Microsoft Technology Licensing, Llc Wearable image display system
US9372347B1 (en) 2015-02-09 2016-06-21 Microsoft Technology Licensing, Llc Display system
US10142596B2 (en) 2015-02-27 2018-11-27 The United States Of America, As Represented By The Secretary Of The Navy Method and apparatus of secured interactive remote maintenance assist
US20170169612A1 (en) 2015-12-15 2017-06-15 N.S. International, LTD Augmented reality alignment system and method
CA3032812A1 (en) 2016-08-04 2018-02-08 Reification Inc. Methods for simultaneous localization and mapping (slam) and related apparatus and systems
US10739142B2 (en) 2016-09-02 2020-08-11 Apple Inc. System for determining position both indoor and outdoor
US11250947B2 (en) * 2017-02-24 2022-02-15 General Electric Company Providing auxiliary information regarding healthcare procedure and system performance using augmented reality
US10740613B1 (en) 2017-04-20 2020-08-11 Digimarc Corporation Hybrid feature point/watermark-based augmented reality
US20190197312A1 (en) 2017-09-13 2019-06-27 Edward Rashid Lahood Method, apparatus and computer-readable media for displaying augmented reality information
DE102017220268B4 (de) * 2017-11-14 2024-03-21 Volkswagen Aktiengesellschaft Erkennung und Visualisierung von Systemunsicherheit bei der Darstellung augmentierter Bildinhalte in Head-Up-Displays
EP3561773B1 (en) * 2018-04-26 2022-03-02 Continental Automotive GmbH Online evaluation for camera intrinsic parameters
JP7375182B2 (ja) * 2020-02-14 2023-11-07 ブレインラボ アーゲー 追跡の不正確性の補償
DE102020211507A1 (de) * 2020-09-14 2022-03-17 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Bewerten einer Kamerakalibrierung
DE102020211502A1 (de) * 2020-09-14 2022-03-17 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Bewerten einer Kamerakalibrierung
US11893698B2 (en) * 2020-11-04 2024-02-06 Samsung Electronics Co., Ltd. Electronic device, AR device and method for controlling data transfer interval thereof

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10127396A1 (de) 2000-06-13 2001-12-20 Volkswagen Ag Verfahren zum Verwerten eines Altfahrzeugs
JP2007529007A (ja) * 2004-03-12 2007-10-18 ブラッコ イメージング ソチエタ ペル アチオニ 強化現実システムにおけるオーバーレイ・エラーの測定方法と、その計測システム
JP4434890B2 (ja) * 2004-09-06 2010-03-17 キヤノン株式会社 画像合成方法及び装置

Also Published As

Publication number Publication date
US20070146391A1 (en) 2007-06-28
DE102005061952B4 (de) 2008-09-11
DE102005061952A1 (de) 2007-06-28
JP2007172621A (ja) 2007-07-05
US7768534B2 (en) 2010-08-03

Similar Documents

Publication Publication Date Title
JP4484863B2 (ja) 拡張現実感システムにおける不正確情報を決定する方法及びシステム
AU2016203902B2 (en) Augmented reality image processing apparatus and method
CN107976669B (zh) 一种确定相机与激光雷达之间的外参数的装置
CN107976668B (zh) 一种确定相机与激光雷达之间的外参数的方法
JP6057298B2 (ja) 迅速な3dモデリング
JP4537557B2 (ja) 情報呈示システム
JP2016057108A (ja) 演算装置、演算システム、演算方法およびプログラム
JP2013539147A5 (ja)
JP2003222509A (ja) 位置姿勢決定方法および装置並びに記憶媒体
CN102575933A (zh) 地图图像综合数据库生成系统以及地图图像综合数据库生成程序
US20160335578A1 (en) Program for creating work assistance data
JP2014102246A (ja) 位置姿勢検出システム
US10410419B2 (en) Laser projection system with video overlay
JP2010534013A (ja) リアルオブジェクトに対するカメラの位置および方向を把握する方法およびシステム
CN111024127B (zh) 高分辨率动态星模拟器星间角位置误差的检测方法及系统
US20160379368A1 (en) Method for determining an imaging specification and image-assisted navigation as well as device for image-assisted navigation
CN111443337B (zh) 一种基于手眼标定的雷达-imu标定方法
JPWO2020161852A1 (ja) 構造物計測装置および構造物計測方法
US20220326028A1 (en) Method and system of vehicle driving assistance
WO2010013289A1 (ja) カメラ校正画像作成装置およびカメラ校正画像作成プログラム
JP6295296B2 (ja) 複合システム及びターゲットマーカ
JP5087571B2 (ja) 三次元像表示装置の座標校正方法
CN111127661B (zh) 一种数据处理方法、装置及电子设备
JP2002032784A (ja) 仮想対象物操作装置および仮想対象物操作方法
JPH06195472A (ja) 画像処理システム

Legal Events

Date Code Title Description
A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20090126

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20090316

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090407

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090702

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090825

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20091120

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20091126

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20091221

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20091225

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100120

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100223

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100323

R150 Certificate of patent or registration of utility model

Ref document number: 4484863

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130402

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130402

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140402

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250