JP2010534013A - リアルオブジェクトに対するカメラの位置および方向を把握する方法およびシステム - Google Patents

リアルオブジェクトに対するカメラの位置および方向を把握する方法およびシステム Download PDF

Info

Publication number
JP2010534013A
JP2010534013A JP2010516394A JP2010516394A JP2010534013A JP 2010534013 A JP2010534013 A JP 2010534013A JP 2010516394 A JP2010516394 A JP 2010516394A JP 2010516394 A JP2010516394 A JP 2010516394A JP 2010534013 A JP2010534013 A JP 2010534013A
Authority
JP
Japan
Prior art keywords
camera
real object
sensor system
sensor
probe
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010516394A
Other languages
English (en)
Other versions
JP5378374B2 (ja
Inventor
マイアー,ペーター
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Metaio GmbH
Original Assignee
Metaio GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Metaio GmbH filed Critical Metaio GmbH
Publication of JP2010534013A publication Critical patent/JP2010534013A/ja
Application granted granted Critical
Publication of JP5378374B2 publication Critical patent/JP5378374B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20101Interactive definition of point of interest, landmark or seed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Studio Devices (AREA)
  • Accessories Of Cameras (AREA)

Abstract

本発明は、カメラ(11)のリアルオブジェクト(12)に対する位置および方向を把握する方法に関し、この方法は、バーチャルデータモデル(13)と、カメラ(11)が生成するリアルオブジェクト(12)の少なくとも一部を含む画像と、の合成に用いられる。この方法は、上記リアルオブジェクト(12)の少なくとも一部と接触するのに適した少なくとも一つのプローブ(23)が接続可能なセンサシステム(20)の可動部(22)に、上記カメラ(11)を配置するステップと、上記カメラ(11)を備えてなる上記センサシステムの可動部(22)を、上記画像がこのカメラ(11)によって生成されるように位置決めするとともに、上記リアルオブジェクト(12)に対する上記センサシステム(20)の位置データ(31)を生成するステップと、上記センサシステム(20)の上記位置データ(31,32)に基づいて、上記カメラ(11)の位置および方向を決定するステップと、を備える。

Description

この発明は、バーチャルデータモデルと、カメラないしディスプレー装置が生成するリアルオブジェクトの少なくとも一部を含む画像と、の合成に用いられ、カメラないしディスプレー装置のリアルオブジェクトに対する位置および方向を把握する方法およびシステムに関する。
上記のような方法およびシステムは、特に、いわゆる拡張リアリティシステムに関連して、従来技術において公知である。これは、コンピュータで生成したバーチャル情報を、現実環境のビジュアルな印象と重ね合わせることができるものである。このような現実世界のビジュアルな印象とバーチャル情報との合成は、好ましくは、頭部に装着する半透明データ眼鏡の手段によってなされる。バーチャル情報もしくはバーチャルオブジェクトの挿入は、脈絡的に正しいもの、つまり、視認されている現実の環境から導き出され、これに適合したものとすることができる。バーチャル情報は、基本的に、テキストや画像等のいかなる形式のデータであってもよい。現実環境は、例えばユーザの頭部に装着されるカメラによって検出できる。現実環境にバーチャル環境を重ね合わせることで、ユーザは、公称値と実際との対比を容易に行うことができる。拡張リアリティシステムにおいてユーザが頭を動かすときに、全ての人工的なオブジェクトが、変化した視界に対して登録されなければならない。
例えば、初期化プロセスにおいて、現実環境のオブジェクトがカメラに関連付けられる。これにより、カメラ画像が現実環境に割り当てられるようになる。例えば、現実環境が複雑な装置であり、検出されるオブジェクトが該装置の目立つ要素である、とすることができる。いわゆるトラッキングプロセス(これは実際の作動プロセスを表す)の間、例えばシステムのユーザは、ディスプレー装置の中で、現実環境に関連した所望の位置に挿入された脈絡に沿った情報を受け取り、この挿入されたバーチャルデータモデルが、ユーザの動きならびにこれに伴う現実世界のユーザの視界の変化に対して登録される。
さらに、拡張リアリティの技術は、従来から、バーチャルモデルを現実のものと重ね合わせることで、このモデルもしくは仕様に沿って製造された現実のものの正確性をチェックする目的と関連して知られている。その用途の範囲としては、例えばDE10128015A1やDE102004046A1に記載されているような工場でのプランニングや、DE20203367Aに記載されているような自動車の設計がある。従来技術では、視点がバーチャル世界に入るように手を動かすようにした装置も知られている(例えば、US5436638A)。
このような拡張リアリティシステムないし方法は、基本的に、現実のものに対するカメラのポーズの認識を伴う。このカメラのポーズとは、空間上でのカメラの位置および方向である。現実物は、しばしば、ある形態のモデルとして、例えば、現実物あるいはその一部の幾何学的特性でもって周囲を囲んでなる3Dモデルとして表される。この3Dモデルは、例えば、設計図例えばCAD文書、から得ることができる。上記のリアルオブジェクトは、通常、オブジェクト座標系に関連付けられるが、カメラはカメラ座標系に関連付けられる。ここで、カメラのポーズを判定するために、特にオブジェクト座標系とカメラ座標系との間の変換を正しく確定することは、一般に難しい問題である。
本発明の目的は、バーチャルオブジェクトを現実物のに対してより正しく表すことができるようにした上述したような形式のシステムおよび方法を提供することである。
この目的は、請求項1の特徴を有する方法および請求項8の特徴を有するシステムによって達成される。さらに、この目的は、請求項14の特徴および請求項21の特徴を有するシステムによって達成される。さらに本発明は、請求項24によるコンピュータプログラム製品に関する。
本発明の用途の例としては、特に、工場でのプランニング、製品開発におけるプロトタイプの製造や試作の製造(さらには自動車開発のためのクラッシュテスト)、工場製造物の品質管理、を含む。従って、特に、リアルオブジェクトに対するバーチャルモデルの品質、あるいはバーチャルモデルに対するリアルオブジェクトの品質を比較することが可能である。
本発明のシステムおよび方法の可能性のある用途としては、特に、サービスや保守管理の分野における拡張リアリティ技術の応用、製造への応用、一般的なモバイル機器への応用、を含む。本発明の方法およびシステムの適用により得られる利点は、特に、リアルオブジェクトに対するカメラポーズを正確に決定するために、センサシステムの補助により、オブジェクト座標系とカメラ座標系との間の変換を高精度に把握することであり、バーチャルデータモデルを現実のものと非常に正しく重ね合わせることができ、かつデータモデルと現実のものとの間の相対的な偏差を正しく検知することができる。
特に、最初に述べた形式のリアルオブジェクトに対するカメラの位置および方向を把握する方法についての本発明は、上記リアルオブジェクトの少なくとも一部と接触するのに適した少なくとも一つのプローブが接続可能なセンサシステムの可動部に、上記カメラを配置するステップと、上記カメラを備えてなる上記センサシステムの可動部を、上記画像がこのカメラによって生成されるように位置決めするステップと、上記リアルオブジェクトに対する上記センサシステムの位置データを生成するステップと、上記センサシステムの上記位置データに基づいて、上記カメラの位置および方向を決定するステップと、を備える。
カメラポーズをリアルタイムベースで理想的に把握するために、種々異なるセンサあるいはセンサの組み合わせを用いることができる。有利には、プローブを備えた高精度な機械的測定アームを用いることができ、これによって相対的なセンサ位置の校正を行う。従って、カメラポーズを決定するための開始点としてオブジェクト座標系とカメラ座標系との間の変換を非常に精度よく確定するために、高精度なセンサシステムを用いることができる。
特に、上記センサシステムの固定部はリアルオブジェクトに対し固定的な関係で配置され、センサ座標系がセンサシステムの基準のフレームとしてセットアップされる。さらに、リアルオブジェクトに対するセンサ座標系の位置が決定される。有利には、リアルオブジェクトに対するセンサ座標系の位置の決定は、少なくとも一つの校正プロセスにおいてリアルオブジェクトの少なくとも一部にプローブを接触させることによって行われる。
本発明の一実施例では、少なくとも一つの校正プロセスは、記憶された複数の校正アルゴリズムの一つに従って実行される。例えば、リアルオブジェクトのCADモデルの少なくとも一部がユーザによって選択され、この選択に基づいて、少なくとも一つの校正プロセスのための校正アルゴリズムおよび少なくとも一つの測定プログラムが選択される。
本発明の他の態様においては、最初に述べた形式のリアルオブジェクトに対するカメラないしディスプレー装置の位置および方向を把握する方法に関し、上記リアルオブジェクトの少なくとも一部と接触するのに適した少なくとも一つのプローブが接続可能なセンサシステムの第1可動部に、トラッキングシステムを配置するステップと、上記のカメラないしディスプレー装置を上記センサシステムの第2可動部に固定的な関係で配置するステップと、を含む。
上記センサシステムの上記第1可動部は、センサシステムの上記第2可動部が上記トラッキングシステムによって検知可能なように位置決めされる。上記カメラないしディスプレー装置を備えてなる上記センサシステムの第2可動部は、上記画像がこのカメラないしディスプレー装置によって生成されるように位置決めされる。そして、リアルオブジェクトに対するセンサシステムの第1位置データと、センサシステムの第2可動部に対するトラッキングシステムの第2位置データと、が生成される。この第1,第2位置データに基づいて、上記カメラないしディスプレー装置の位置および方向が決定される。
このような態様では、本発明の着想を、いわゆる頭部装着型ディスプレー(HMD)の利用にも適用できる、という利点が得られる。例えば、センサシステムの第2可動部は第1可動部から独立して移動可能であり、かつ第1可動部のトラッキングシステムによって検知される。従って、携行型のカメラないしディスプレー装置(例えば頭部装着型ディスプレー)とセンサシステムとの間の結合がもたらされ、センサシステムと機械的に結合することなく、リアルオブジェクトに対するセンサシステムの正しい校正パラメータを用いてカメラないしディスプレー装置のポーズを演算することができる。機械的なセンサ測定システムをトラッキングシステム(例えば光学的トラッキングシステムからなり、機械的センサシステムのセンサヘッドと結びつけられて、カメラないしディスプレー装置を追尾する)と組み合わせることで、ポーズの非常に高精度な把握を行えると同時に、システム全体が高いレンジを有するものとなり、かつセンサヘッドを軽量化できる。
特に、プローブ手段による入力の後、トラッキングシステムとオブジェクト座標系との間の変換、トラッキングシステムとセンサシステムの第2可動部との間の変換、センサシステムの第2可動部とカメラないしディスプレー装置との間の変換、を介して、カメラないしディスプレー装置(これはセンサシステムの第2可動部に接続されている)のポーズを動的に演算することが可能である。
一実施例においては、トラッキングシステムは、機械的トラッキングシステムあるいは光学的トラッキングシステムとして実施される。光学的な測定ないしトラッキングのシステムの場合は、人間工学的に使いやすくかつ独立して移動可能な軽量なセンサヘッドとすることができ、例えば頭部に装着することが可能である。しかしながら、センサヘッドがトラッキングシステムの光学センサによって視認されている場合にのみ、センサヘッドから有効な値が得られる。機械的測定システムのセンサヘッドは重く、かつ低いレンジを有する。しかしながら、よりアクセスが困難な場所(例えば自動車の内部)に持ち込むことが可能である。
本発明の一実施例においては、リアルオブジェクトに対するバーチャルデータモデルの合致品質が判定される。特に、リアルオブジェクトの少なくとも一部とバーチャルデータモデルの少なくとも一部との間の少なくとも一つの距離が測定される。例えば、上記のリアルオブジェクトに対するバーチャルデータモデルの合致品質の判定は、端縁に基づくトラッキング法もしくは領域に基づくトラッキング法によって実行される。
上記のリアルオブジェクトの少なくとも一部とバーチャルデータモデルの少なくとも一部との間の少なくとも一つの距離の測定は、ユーザによる画像中のバーチャルモデルの一部の選択もしくはプローブ手段を介したリアルオブジェクトの一部の選択によって第1の点を定め、次に、プローブ手段を介したユーザによるリアルオブジェクトの対応する部分の選択もしくは画像中のバーチャルモデルの対応する部分の選択によって第2の点を定め、これによって、第1の点および第2の点の間の距離を測定すべき距離とすることにより実行することができる。
上記のリアルオブジェクトに対するバーチャルデータモデルの合致品質の判定は、ユーザあるいは実装されたアルゴリズムが、リアルオブジェクトとバーチャルデータモデルとの合成の比較を、データモデルの少なくとも一部がリアルオブジェクトの対応する部分と高精度に重なり合うまで実行し、この比較の測定値が、合成品質に関する明細の基礎として用いられるようにするステップを含むことができる。
特に、本発明は、DE102005061に詳しく説明されているように、データモデルをリアルオブジェクトに対し位置決めする際に、さらに、不正確さの情報、特にあいまいさの情報、を生成することができる。
本発明の有利な実施例では、上記カメラあるいはトラッキングシステムが、アダプタ装置に取り付けられており、該アダプタ装置がカメラ/トラッキングシステムとプローブとの間の機械的接続を提供している。プローブとカメラ/トラッキングシステムとを接続するアダプタを用いることで、高精度な重ね合わせを非常に容易に実現することができるようになる。特に、上記アダプタ装置は、種々異なるプローブを反復的にあるいは交換可能に使用でき、かつ再度取り外せるように設計されている。有利には、上記アダプタ装置は、プローブを接続したときに、該プローブがセンサシステムによって自動的に認識されるように設計されている。
他の実施例では、カメラの画像を表示するために、ディスプレー装置、特にスクリーン、が上記アダプタ装置に取り付けられている。同様に、必要なポーズの演算を行う処理装置を上記アダプタ装置に取り付けることが可能である。ここで、例えば、上記カメラと上記処理装置とディスプレー装置とは、統合した一つの装置として構成されてアダプタ装置に取り付けられており、このアダプタ装置が、プローブとこの統合した装置との機械的接続を提供している。
本発明の他の有利な実施例および改良が、従属請求項に記載されている。
以下では、図面を参照して本発明の有利な実施例を詳細に説明する。
リアルオブジェクトに対するカメラの位置および方向を把握する本発明のシステムの一実施例を概略的に示す説明図。 図1のシステムの個々の構成要素間での変換を視覚化して示した説明図。 リアルオブジェクトに対するカメラないしディスプレー装置の位置および方向を把握する本発明のシステムの別の実施例を概略的に示し、かつ個々の構成要素間での変換を視覚化して示した説明図。 リアルオブジェクトに対するカメラないしディスプレー装置の位置および方向を把握する本発明のシステムの別の実施例を概略的に示し、かつ個々の構成要素間での変換を視覚化して示した説明図。 本発明のシステムのさらに他の実施例を示す説明図。 本発明の着想が実現される拡張リアリティシステムにおける方法の流れを示すフローチャート。
図1は、リアルオブジェクトに対するカメラの位置および方向を把握するための本発明のシステムの一実施例を示す説明図である。このシステム10は、センサシステム20を備え、このセンサシステム20は、可動ジョイントを介して固定部21に取り付けられた少なくとも一つの可動部22を有する。センサシステムは、ジョイント等で各々連結された可動部をさらに備えることもでき、あるいは、センサシステムの個々の部分に接続された一つあるいは複数の光学的トラッキングシステムを備えることもできる。本実施例では、測定アームの形態として構成された可動部22が、アダプタ装置24を介して少なくとも一つのプローブ23に接続されており、上記プローブ23は、リアルオブジェクト12の少なくとも一部に接触するのに適したものとなっている。センサシステムは、種々の形態に構成することができ、特に、光学的センサシステムとして実現することもできる。センサシステム20の測定アーム22上に配置されたカメラ11は画像を生成するように機能する。カメラ11は、リアルオブジェクトを照明する光源を備えることもできる。
さらに、後述するようなリアルオブジェクト12に対するカメラ11の位置および方向(ポーズ)の決定のために、リアルオブジェクト12に対するセンサシステム20の位置データを出力すべく、インタフェース装置26が設けられている。この位置データは、関連する構成要素の位置および方向のインタフェースを可能とする一般的なデータである。例えば、センサシステムは、構成要素の寸法ならびに個々のセンサ構成要素からの生の位置データのみを供給し、これが外部のコンピュータにおいて、その用途に有用な適当な位置データに処理される。
上記のカメラポーズの計算は、この例では、インタフェース装置26に接続し得るコンピュータの形態をなす外部処理装置14によってなされる。このように算出されたカメラポーズは、バーチャルデータモデル13をカメラで生成された画像と脈絡的に正しく合成するために使用され、その画像がスクリーンの形態をなす外部ディスプレイ装置15上に表示される。この目的のために、コンピュータ14は、一方では、カメラポーズを把握するために必要なパラメータを得るように、他方では、カメラ11の画像を得るように、センサシステム20およびカメラ11の双方に接続されている。バーチャルデータモデル13はコンピュータ14内に記憶され、その計算に基づいて、脈絡的に正しい形にスクリーン15上のカメラ画像のリアルオブジェクト12に重ね合わされる。
最終的なゴールは、カメラ11のポーズつまり試験リアルオブジェクト12のオブジェクト座標系40に対するカメラ11の位置および方向を決定し、データモデル13の形態をなすバーチャル幾何形状をリアルオブジェクト12上に重ね合わせることができるようにすることである。例えば、バーチャル幾何形状13を構造的構成要素のCADデザインとし、リアルオブジェクト12をCADデザインから得た実際のプロトタイプとすることができる。さらに、センサ座標系30(センサ世界座標系と呼ばれる)は、センサシステムの基準のフレームとしてセットアップされる。
図2は、図1のシステムの個々の構成要素間での変換を視覚化して示した説明図である。カメラ11のポーズをリアルタイムベースで理想的に把握するために、センサシステム20において種々のセンサもしくはセンサの組み合わせを使用することができる。有利には、測定アーム22,23として模式的に示した高精度機械的測定アームを用いることができる。しかしながら、センサ測定結果から直接にポーズを得ることができるのではなく、さらに、センサ世界座標系30からリアルオブジェクト12のオブジェクト座標系40への変換32、ならびに、カメラ座標系60とセンサヘッド座標系70との間の変換62を付加して得られるものである。なお、上記センサヘッドは、プローブ23によって構成される。これらの変換32,62は、好ましくはコンピュータ14あるいはセンサシステム20内に永久的に記憶されているものである。従って、これらはいつも新たに生成する必要はなく、ポーズの演算に応じて呼び出される。
センサヘッド座標系70とカメラ座標系60との間の変換62を把握するために、従来技術から公知の校正方法(例えば”hand-eye calibration”)を使用することができる。例えば、Y. Zhuang およびY.C. Shiuによる「A noise-tolerant algorithm for robotic hand-eye calibration with or without sensor orientation measurement」IEEE Transactions on Systems, Man and Cybernetics, vol. 23,1168-1175頁、1993年7月/8月、米国、ニューヨーク に記載の方法(robotic visual-motor calibration)を使用する。
オブジェクト座標系40とセンサ世界座標系30との間の変換32の把握は、拡張リアリティの分野において、これまで一般に不確定なものであった。この問題を解決するために、本発明では、図示したセンサシステム20およびカメラ11のように、カメラと組み合わされたセンサシステムを用いる。特に、プローブ23と呼ばれる手段がリアルオブジェクト12に接触するようなセンサシステム20を用いる。つまり、開始点(いわゆる校正プロセス)において、センサシステム20のオペレータによって表面や孔のような幾何学的特性に接近かつ接触し、センサ世界座標系30におけるこれらの位置が確認される。このようにして、次に、いわゆる校正の際に、オブジェクト座標系40とセンサ世界座標系30との間の変換32が把握される。後者は、センサシステム20の固定部21に対して、およびリアルオブジェクト12に対して、固定的な関係に設定されている。同様に、固定部21は、リアルオブジェクト12に対して固定的な関係にある。センサヘッド座標系70とセンサ世界座標系30との間の変換31は、センサシステム20によって供給される。
校正の後、カメラ11を備えたセンサシステムの測定アーム22は、カメラによって画像を生成し得るように位置決めされる。この間に、変換31を形成するようにリアルオブジェクト12に対するセンサシステム20の位置データが生成され、カメラ11の位置および方向は、この位置データに基づいて決定される。この例においては、センサヘッド23に対するカメラポーズを把握するために、変換62がさらに必要である。
特に、カメラポーズの演算のための初期パラメータを把握するために、以下のステップが実行される。これは、例えば拡張リアリティビジュアライゼーション(ARビジュアライゼーション)のために必要である。
センサシステム20にはカメラ11が設けられ、該カメラ11がオブジェクト12を検出して画像を生成するようになっているが、このセンサシステム20の位置決めの際には、センサ世界座標系30に対するプローブ23の位置が求められ、このセンサ世界座標系30に対するプローブ23の位置データが、変換31の形で出力される。そして、この変換31、リアルオブジェクト12に対するセンサ世界座標系30の位置(変換32)、およびプローブ23に対するカメラ11の位置(変換62)、に基づいて、リアルオブジェクト12に対するカメラ11の位置および方向が決定される。ARビジュアライゼーションのために必要なカメラ11とリアルオブジェクト12との間の変換Tは、基本的に、
-1=32-1・31・62-1
となる。
カメラポーズを決定するための初期パラメータが把握されると、ポーズは、それ自体は公知の演算方法によって確定することができる。この演算は、カメラ11を含む対応するセンサに接続されたコンピュータ14において実行されるが、これにより、カメラパラメータやポーズおよびディスプレー面を考慮して3Dデータからバーチャルイメージを生成し、これを、カメラ画像(これは望ましくはカメラデータに基づいて修正されたものである)と混合して、ディスプレー装置15ないし頭部装着型スクリーンシステム18,19(図3a、3b)に表示することができる。カメラパラメータを把握すること自体は、従来技術によって公知である。同様に、カメラパラメータに基づいてカメラ画像を修正することも、それ自体は公知である。カメラデータの移行は、有利には、IEEE1394規格のようなデジタル移行規格の手段によって行うことができる。
このようにして、カメラ座標系60とデータモデル13(開始位置13−1において)の座標系51との間の変換61、ならびに、初期位置13−1における座標系51とシフト後位置13−2におけるデータモデル13の座標系52との間のシフト変換53、を確定することができる。
コンピュータ14には対応するコンピュータプログラムが記憶されており、これによって、上述した方法による特定の位置データに基づくカメラ11の位置および方向の決定がなされる。
交換可能なプローブ23とカメラ11とを接続する好ましくは剛的なアダプタ装置24を用いることによって、高精度な重ね合わせ(スーパーインポーズ)を非常に簡単に実現することができる。本発明におけるアダプタ装置24は、種々異なるプローブ23が使用可能であるとともに高い繰り返し精度が保証されるように、従来からの機械的方法の手段によって設計される。有利には、プローブ23は、アダプタ装置24(これは対応するセンサ手段を具備することができる)がプローブを自動的に識別して、コンピュータ14がこれに従って修正されたプローブ情報を自動的に呼び出すことができるように、構成されている。アダプタ装置24は、有利には、スタンドや類似した機械的手段(ケーブル吊り下げ等)によって支持され、あるいはオペレータの解放が可能である。
図3は、リアルオブジェクトに対するカメラないしディスプレー装置の位置および方向を把握するための本発明のシステム10の他の実施例を示す説明図であり、個々の構成要素の間の各変換を視覚化して示している。システム10は、同様にセンサシステム20を備え、該センサシステム20は、測定アーム22の形態をなす少なくとも一つの第1可動部を有し、これに少なくとも一つのプローブ23が接続可能となっている。さらに、センサシステム20は第2可動部25を備えているが、本実施例では、この第2可動部25は測定アーム22とは機械的に連結されておらず、いわば独立して動くセンサヘッド25となっている。最も単純化した例では、センサヘッド25は、単に何らかの種類のマーキングとすることができる。
センサヘッド25を追尾するために、トラッキングシステム16、例えばセンサシステムの測定アーム22上に配置された光学的トラッキングシステム、が用いられている。上記の目的のために、トラッキングシステムは、カメラならびにコンピュータシステムを有し、例えばセンサヘッド25のマーカーを検出かつ追尾する。この目的のために、トラッキングシステム座標系80とセンサヘッド座標系90(例えばマーカーによって画定される)との間の変換81が把握される。プローブ座標系70とトラッキングシステム座標系80との間の変換を把握するには、同様に”ハンド・アイ校正(hand-eye calibration)”を用いることができる。さらに、センサヘッド座標系90とカメラ座標系100との間の変換91は既知である。変換101は、カメラ座標系100とデータモデル13の座標系51との間の変換を示している。
図3aの実施例においては、カメラ17がセンサシステムのセンサヘッド25上に配置されており、リアルオブジェクト12の少なくとも一部を含む画像を生成するように適当に構成されかつ位置決めされている。このカメラによって生成された画像は、ユーザ9が頭部に装着する頭部装着型ディスプレー(HMD)18上にビジュアル化され、ここには、バーチャル情報もまた表示される。トラッキングシステム16(これはアウトサイド・イン・センサシステムとも呼ばれる)ないし測定アーム22は、カメラ17がトラッキングシステム16によって検出されるように配置される。カメラ17およびディスプレー18は、いわゆるビデオ・シースルー・システムを構成しており、ユーザの目の前にビデオスクリーン(ディスプレー18)が位置し、その上に、現実のビジュアルな印象とバーチャルのビジュアルな印象とが合成される。
インタフェース装置26(図1参照)は、リアルオブジェクト12に対するセンサシステム20の第1位置データ(特に変換31の計算用)およびトラッキングシステム16の第2位置データ(特に変換81の計算用)を出力するために用いられており、インタフェース装置26に接続可能な処理装置14が、リアルオブジェクト12に対するカメラ17の位置および方向を決定する。上記のデータは、バーチャルデータモデル13とカメラ17で生成された画像との合成の際に使用される。インタフェース装置26は、ワイヤレスもしくは有線とすることができ、センサシステムのそれぞれ異なる場所にある複数の個別のインタフェースから構成されていてもよい。例えば、トラッキングシステム16は、インタフェース装置の対応するインタフェースを介してコンピュータ14に直接的に接続することもできる。
換言すれば、アウトサイド・イン・センサシステム16は、いわゆるアウトサイド・イン・センサヘッド25を見ており、センサヘッド座標系90に対するポーズを動的に把握する。適当なアウトサイド・イン・センサシステム16としては、例えば一つあるいは複数のカメラを備えた光学的トラッキングシステムとすることができ、これに対する光学的マーカーがセンサヘッド25を構成する。しかしながら、時間あるいは角度の測定値を介してポーズを把握する方法を用いることも可能である。センサヘッド25とカメラ17(これは有利には頭部装着型スクリーンシステム18に取り付けられている)との間の変換91の手段によって、観察者9に対して、バーチャルオブジェクト13がリアルオブジェクト12に対しできるだけ正しいポーズでもって配置されたものとして重ね合わせることができる。カメラ17をステレオカメラシステムとして、HMDが立体画像を表示するようにすることが可能である。HMDを、カメラおよびアウトサイド・イン・センサヘッドを備えてなるポータブル型モニタに置き換えることも有利な設定である。
図3bに示す実施例は、カメラ17およびディスプレー18に代えて、半透明型ディスプレー(光学的シースルー・ディスプレー装置)の形態をなすディスプレー装置19をセンサシステムのセンサヘッド25に直接的に配置したものである。光学的シースルーの構成では、いわゆる光学的ミキサーつまりユーザの目の前にある半透明型ディスプレー装置によって合成がなされるのであり、現実世界は装置の透明性を通して見ることになり、バーチャル情報の重ね合わせは、ディスプレー装置への投影を介してなされる。従って、カメラ17を省略することが可能である。ディスプレー装置19の位置の決定は、図3aのシステムと同様(カメラ17について説明したように)になされる。この目的のために、センサヘッド座標系90とディスプレー座標系110との間の変換91は既知である。変換111は、ディスプレー座標系110とデータモデル13の座標系51との間の変換を示している。ここでは、やはり、例えばUS2002/0105484A1公報に記載のように、いわゆるシースルー校正が一般に必要である。
図1,図2でのカメラ11のポーズの決定に関する説明は、図3の構成(ここではカメラ11の代わりにトラッキングシステム16が測定アーム22上に配置されている)におけるトラッキングシステム16のポーズの決定に同様に適用できる。
図4は、さらに有利なセットアップとして、カメラ11の画像を表示するディスプレー装置15がアダプタ装置24に取り付けられているものを示す。さらに、コンピュータ14もアダプタ装置24に取り付けられている。好ましくは、これらのカメラ11、コンピュータ14およびディスプレー装置15は、アダプタ装置24に取り付けられる一つの統合型装置として実施される。この例は、統合型の解決策(例えば、従来技術で基本的に公知の、スクリーンおよび一体のカメラを備えた小型コンピュータ)を伴う。
図5は、本発明の着想が実現される拡張リアリティシステムにおける方法の流れを示すフローチャートである。特に、図5は、図1〜図3のシステムセットアップの手段により構造的構成要素の重ね合わせを行う有利な方法を示している。
最初のステップにおいて、オブジェクト12とセンサ世界座標系30とが、確実に、互いに固定的な関係を有するものとする(ステップ1.0)。次に、校正プロセスがプローブ23の手段によって実行され(ステップ2.0)、その結果がコンピュータ14にストアされる。校正プロセスは、有利には、オブジェクト12上の適宜な校正幾何形状(例えば孔や表面)を認識することからなる。異なる校正幾何形状に対しては、異なる形態のプローブ(例えば鋭端あるいはボール状)が有利となり得る。プローブの交換を避けるために、校正幾何形状は、プローブの形態に応じて配列されるように適宜に入力される。校正プロセスの実施が可能であるように、そのアルゴリズムとしては、センサ世界座標系30に対する実際の特性を知る必要があるとともに、オブジェクト座標系40における対応する公称特性を知る必要がある。有利には、ユーザは、例えばマウスのクリックによってCADモデルの部分(例えば、鋭端、端縁、あるいは領域)を選択し、相関関係を伴うシステムに知らせることができる。特に、アルゴリズムは、選択した校正アルゴリズムおよび選択したCAD部分の環境のCADトポロジーからルールセットに応じて測定プログラムの次数を決定し、これにより、ルールセットに応じた適当な測定プログラムがセレクションの上部に配置される。このほか、ユーザが開始時に校正アルゴリズムを選択することを要さずに、単にCAD部分およびルールセットの選択を行い、次いで、校正アルゴリズム、個々の測定プログラム、プローブの選択、測定プログラムの次数および入力すべきCAD部分を全体的に確定するようにすることもできる。もしCADモデルが存在しない場合は、制限した自由度でもって公称特性を直接に指定することも可能である。
測定プログラムにどのCAD部分あるいはどの入力公称特性を入力すべきかをプログラムが判り、ユーザに例えば視覚的に知らせることにより、ユーザは必要なプローブを(これが未だ挿入されていない場合は)挿入することができ、測定プログラム(例えば丸い形のボールあるいは平面による方法)を実行することができる。このプロセスは、選択したCAD部分の各々について実行される。最終的に、校正アルゴリズムは、変換32を決定することができる。(ステップ2.1.1およびステップ2.1.2)
検査は引き続き行うことができる。例えば、リアルオブジェクト12としてのプロトタイプの自動車に、追加の設計的構成要素をバーチャルに付けることができ、あるいは、構造的構成要素の実際と公称との比較を実行することができる(ステップ3.0)。この目的のために、例えばバーチャル・リアリティ・モデリング言語(Virtual Reality Modeling Language)(VRML)によって記述された一つあるいは複数のバーチャルオブジェクトを読み込むことが可能である(ステップ3.1)。しかし、任意選択的に、校正に用いたバーチャル幾何形状を直接的に表示することも可能である。有利には、デジタルモデルのマテリアル特性は変更可能である(ステップ3.2)。
ビジュアルなチェックが不十分である場合は、任意選択的に、偏差を明確に記録するようにしてもよい(ステップ4.0)。リアルオブジェクトの関心を引く部分とバーチャルデータモデルのこれに対応する部分との間の距離の測定を実行することができ、例えばユーザがバーチャルモデルの部分(例えば画像中の関心を引く点)を選択することで第1の点を決定し、次にユーザはプローブ手段によってリアルオブジェクトの対応する部分を選択することで第2の点を決定すれば、第1の点と第2の点との間の距離が、測定すべき距離となる。この選択の順序は逆にすることもでき、つまり、最初にプローブ手段によって現実のリアルオブジェクト中の関心を引く点を選択し、その後にバーチャルモデルにおける対応する点を選択することができる。
実際のスクリーンの状態をストア(例えばJPEGとして)するために、関係するものと通信するようにしてもよい(ステップ4.1)。定量的な明細を作成すべきであれば、ユーザは、一方では、例えばマウスのホイールのような要素の操作によって、重ね合わせたバーチャル幾何形状13への修正変換53(図2)の個々の自由度を、該幾何形状13ができるだけ正しくリアルオブジェクト12の部分と重なり合うように、変更することができる(ステップ4.2a)。これにより、修正変換53は、偏差についての明細を生成する。代替として、偏差のコンピュータ支援による確定も可能である(ステップ4.2b)。この例では、最適化法が修正変換53を変化させ、最適化法のコスト関数に入る残存偏差が測定される。コスト関数の測定は二次元的あるいは三次元的に行うことが可能である。一方、三次元データは、レーザスキャナのような追加の3Dセンサによって把握することができ、あるいは、別のカメラの視点および関連するトラッキングデータを利用する従来技術で公知の3D再構築アルゴリズムの手段によって得ることができる。
本発明に係るシステムおよび方法の利点ならびに用途について再度要約すると、下記の通りである。
現行のシステムは、センサ座標系とオブジェクト座標系との間の関係を確立することが一般に不十分な解となっている、という欠点がある。例えば、トラッキングシステムが現実のマーキング(例えば自動車上のマーキング)を視認する。しかしながら、このマーキングは、世界座標系(自動車の座標系)に関して測定システム手段により先に別に校正する必要がある。従って、校正と視認システムとを直接に組み合わせた上述のシステムならびに方法は明らかに有利である。その結果、下記のような利点がある。
校正用のツールと視認用のツールとを交換する必要がないので、重ね合わせ作業の時間を短縮できる。これは、物理的な交換および操作ソフトウェアの切り換えに関係する。
高価なマーキングを個々のヘッドではなく組み合わせたヘッドに対してのみ入手かつ維持すればよいので、光学的システム等におけるハードウェアのコストが削減される。
例えばソフトウェアが種々の光学的マーカーを管理する必要がないので、ソフトウェアの複雑性を低減できる。

Claims (24)

  1. バーチャルデータモデル(13)と、カメラ(11)が生成するリアルオブジェクト(12)の少なくとも一部を含む画像と、の合成に用いられ、カメラ(11)の上記リアルオブジェクト(12)に対する位置および方向を把握する方法において、
    上記リアルオブジェクト(12)の少なくとも一部と接触するのに適した少なくとも一つのプローブ(23)が接続可能なセンサシステム(20)の可動部(22)に、上記カメラ(11)を配置するステップと、
    上記カメラ(11)を備えてなる上記センサシステムの可動部(22)を、上記画像がこのカメラ(11)によって生成されるように位置決めするとともに、上記リアルオブジェクト(12)に対する上記センサシステム(20)の位置データ(31)を生成するステップと、
    上記センサシステム(20)の上記位置データ(31,32)に基づいて、上記リアルオブジェクト(12)に対する上記カメラ(11)の位置および方向を決定するステップと、
    を備えることを特徴とする方法。
  2. 上記センサシステム(20)の固定部(21)を上記リアルオブジェクト(12)に対し固定的な関係で配置するとともに、上記センサシステムの基準のフレームとしてセンサ座標系(30)をセットアップするステップと、
    上記リアルオブジェクト(12)に対する上記センサ座標系(30)の位置(32)を決定するステップと、
    を備えることを特徴とする請求項1に記載の方法。
  3. 上記のリアルオブジェクト(12)に対するセンサ座標系(30)の位置(32)の決定は、少なくとも一つの校正プロセス(2.0)においてリアルオブジェクト(12)の少なくとも一部に接触させられるプローブ(23)によってなされることを特徴とする請求項2に記載の方法。
  4. 上記の少なくとも一つの校正プロセス(2.0)は、記憶された複数の校正アルゴリズムの一つに従って実行されることを特徴とする請求項3に記載の方法。
  5. 上記リアルオブジェクト(12)のCADモデル(13)の少なくとも一部がユーザによって選択され、この選択に基づいて、少なくとも一つの測定プログラム(2.1)および少なくとも一つの校正プロセス(2.0)のための校正アルゴリズムが選択されることを特徴とする請求項3または4に記載の方法。
  6. カメラ(11)を備えたセンサシステム(20)の位置決めの際に、センサ座標系(30)に対するプローブ(23)の位置が判定され、かつ、このセンサ座標系(30)に対するプローブ(23)の位置データ(31)が出力され、
    上記カメラ(11)の位置および方向は、センサ座標系に対するプローブの位置データ(31)と、リアルオブジェクト(12)に対するセンサ座標系(30)の位置(32)と、プローブ(23)に対するカメラ(11)の位置(62)と、に基づいて決定されることを特徴とする請求項2〜5のいずれかに記載の方法。
  7. カメラ(11)の位置および方向の決定のために、プローブ(23)に対するカメラ(11)の位置(62)の決定が、ハンド・アイ校正によってなされることを特徴とする請求項1〜6のいずれかに記載の方法。
  8. バーチャルデータモデル(13)と、カメラ(17)ないしディスプレー装置(19)が生成するリアルオブジェクト(12)の少なくとも一部を含む画像と、の合成に用いられ、カメラ(17)ないしディスプレー装置(19)の上記リアルオブジェクト(12)に対する位置および方向を把握する方法において、
    上記リアルオブジェクト(12)の少なくとも一部と接触するのに適した少なくとも一つのプローブ(23)が接続可能なセンサシステム(20)の第1可動部(22)に、トラッキングシステム(16)を配置するステップと、
    上記のカメラ(17)ないしディスプレー装置(19)を上記センサシステム(20)の第2可動部(25)に固定的な関係で配置するステップと、
    上記センサシステムの上記第1可動部(22)を、センサシステムの上記第2可動部(25)が上記トラッキングシステム(16)によって検知可能なように位置決めするステップと、
    上記カメラ(17)ないしディスプレー装置(19)を備えてなる上記センサシステムの第2可動部(25)を、上記画像がこのカメラ(17)ないしディスプレー装置(19)によって生成されるように位置決めするとともに、リアルオブジェクト(12)に対するセンサシステム(20)の第1位置データ(31)およびセンサシステムの第2可動部(25)に対するトラッキングシステム(16)の第2位置データ(81)を生成するステップと、
    上記第1,第2位置データ(31,32,82)に基づいて、上記カメラ(17)ないしディスプレー装置(19)の位置および方向を決定するステップと、
    を備えることを特徴とする方法。
  9. バーチャルデータモデル(13)とリアルオブジェクト(12)との合致品質を判定し、特に、リアルオブジェクト(12)の少なくとも一部とバーチャルデータモデル(13)の少なくとも一部との間の少なくとも一つの距離の測定を行うことを特徴とする請求項1〜8のいずれかに記載の方法。
  10. 上記のリアルオブジェクト(12)の少なくとも一部とバーチャルデータモデル(13)の少なくとも一部との間の少なくとも一つの距離の測定は、ユーザによる画像中のバーチャルモデルもしくはプローブ(23)手段を介したリアルオブジェクトの一部の選択によって第1の点を定め、次に、プローブ(23)手段を介したユーザによるリアルオブジェクト(12)もしくは画像中のバーチャルモデル(13)の対応する部分の選択によって第2の点を定め、第1の点および第2の点の間の距離を測定すべき距離とすることを特徴とする請求項9に記載の方法。
  11. 上記のバーチャルデータモデル(13)とリアルオブジェクト(12)との合致品質の判定は、端縁に基づくトラッキング法もしくは領域に基づくトラッキング法によって実行されることを特徴とする請求項9または10に記載の方法。
  12. 上記のバーチャルデータモデル(13)とリアルオブジェクト(12)との合致品質の判定は、ユーザあるいは実装されたアルゴリズムが、リアルオブジェクト(12)とバーチャルデータモデル(13)との合成の比較を、データモデルの少なくとも一部がリアルオブジェクトの対応する部分と高精度に重なり合うまで実行し、これにより、この比較の測定値が、合成品質に関する明細の基礎として用いられることを特徴とする請求項9〜11のいずれかに記載の方法。
  13. データモデル(13)をリアルオブジェクト(12)に対し位置決めする際に、不正確さの情報が生成されることを特徴とする請求項1〜12のいずれかに記載の方法。
  14. リアルオブジェクト(12)に対するカメラ(11)の位置および方向を把握するシステム(10)であって、
    上記リアルオブジェクト(12)の少なくとも一部と接触するのに適した少なくとも一つのプローブ(23)が接続可能な少なくとも一つの可動部(22)を有するセンサシステム(20)と、
    上記センサシステムの上記可動部(22)上に配置され、かつリアルオブジェクト(12)の少なくとも一部を含む画像を生成するカメラ(11)と、
    リアルオブジェクト(12)に対するセンサシステム(20)の位置データ(31)を出力するためのインタフェース装置(26)と接続され、バーチャルデータモデル(13)とカメラ(11)が生成した画像との合成に用いるために、リアルオブジェクト(12)に対するカメラ(11)の位置および方向を決定する処理装置(14)と、
    を備えてなるシステム。
  15. 上記カメラ(11)はアダプタ装置(24)に取り付けられており、該アダプタ装置がカメラ(11)とプローブ(23)との間の機械的接続を提供することを特徴とする請求項14に記載のシステム。
  16. 上記アダプタ装置(24)は、異なるプローブ(23)を繰り返し使用できるように設計されていることを特徴とする請求項15に記載のシステム。
  17. 上記アダプタ装置(24)は、プローブ(23)を接続したときに該プローブがセンサシステム(20)によって自動的に認識されるように設計されていることを特徴とする請求項15または16に記載のシステム。
  18. 上記カメラ(11)の画像を表示するディスプレー装置(15)が上記アダプタ装置(24)に取り付けられていることを特徴とする請求項15〜17のいずれかに記載のシステム。
  19. 上記処理装置(14)が上記アダプタ装置(24)に取り付けられていることを特徴とする請求項15〜18のいずれかに記載のシステム。
  20. 上記カメラ(11)と上記処理装置(14)とカメラの画像を表示するディスプレー装置(15)とが、統合した一つの装置として構成されてアダプタ装置(24)に取り付けられており、このアダプタ装置が、上記プローブ(23)と上記の統合した装置(11,14,15)との機械的接続を提供することを特徴とする請求項15〜19のいずれかに記載のシステム。
  21. リアルオブジェクト(12)に対するカメラ(17)ないしディスプレー装置(19)の位置および方向を把握するシステム(10)であって、
    上記リアルオブジェクト(12)の少なくとも一部と接触するのに適した少なくとも一つのプローブ(23)が接続可能な少なくとも一つの第1可動部(22)と、第2可動部(25)と、を有するセンサシステム(20)と、
    上記センサシステムの上記第1可動部(22)上に配置され、センサシステムの上記第2可動部(25)を検知可能なトラッキングシステム(16)と、
    上記センサシステムの上記第2可動部(25)上に配置され、かつリアルオブジェクト(12)の少なくとも一部を含む画像を生成するカメラ(17)ないしディスプレー装置(19)と、
    リアルオブジェクト(12)に対するセンサシステム(20)の第1位置データ(31)およびセンサシステムの第2可動部(25)に対するトラッキングシステム(16)の第2位置データ(81)を出力するためのインタフェース装置(26)と接続され、バーチャルデータモデル(13)とカメラ(17)ないしディスプレー装置(19)が生成した画像との合成に用いるために、リアルオブジェクト(12)に対するカメラ(17)ないしディスプレー装置(19)の位置および方向を決定する処理装置(14)と、
    を備えてなるシステム。
  22. 上記トラッキングシステム(16)は光学的トラッキングシステムとして実施されることを特徴とする請求項21に記載のシステム。
  23. 上記カメラ(11)はリアルオブジェクトを照明する光源を備えていることを特徴とする請求項14〜22のいずれかに記載のシステム。
  24. リアルオブジェクト(12)に対するカメラ(11)の位置および方向を把握するシステムに読み込まれたときに、センサシステムの位置データ(31,32)に基づいてカメラ(11)の位置および方向を決定する、請求項1〜13のいずれかに記載の方法に対応したソフトウェアコード部分を有するコンピュータプログラム製品。
JP2010516394A 2007-07-18 2008-07-03 リアルオブジェクトに対するカメラの位置および方向を把握する方法およびシステム Active JP5378374B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102007033486.0 2007-07-18
DE102007033486A DE102007033486B4 (de) 2007-07-18 2007-07-18 Verfahren und System zur Vermischung eines virtuellen Datenmodells mit einem von einer Kamera oder einer Darstellungsvorrichtung generierten Abbild
PCT/EP2008/005447 WO2009010195A1 (de) 2007-07-18 2008-07-03 Verfahren und system zur ermittlung der position und orientierung einer kamera relativ zu einem realen objekt

Publications (2)

Publication Number Publication Date
JP2010534013A true JP2010534013A (ja) 2010-10-28
JP5378374B2 JP5378374B2 (ja) 2013-12-25

Family

ID=39714196

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010516394A Active JP5378374B2 (ja) 2007-07-18 2008-07-03 リアルオブジェクトに対するカメラの位置および方向を把握する方法およびシステム

Country Status (6)

Country Link
US (1) US9008371B2 (ja)
EP (1) EP2176833B1 (ja)
JP (1) JP5378374B2 (ja)
CN (1) CN101785026B (ja)
DE (1) DE102007033486B4 (ja)
WO (1) WO2009010195A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150124069A (ko) * 2014-04-25 2015-11-05 주식회사 고영테크놀러지 카메라 파라미터 산출 방법

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009037835B4 (de) * 2009-08-18 2012-12-06 Metaio Gmbh Verfahren zur Darstellung von virtueller Information in einer realen Umgebung
KR101487944B1 (ko) 2010-02-24 2015-01-30 아이피플렉 홀딩스 코포레이션 시각 장애인들을 지원하는 증강 현실 파노라마
US9098905B2 (en) * 2010-03-12 2015-08-04 Google Inc. System and method for determining position of a device
US9615064B2 (en) * 2010-12-30 2017-04-04 Pelco, Inc. Tracking moving objects using a camera network
DE102011085784B3 (de) * 2011-11-04 2012-12-27 Lufthansa Technik Ag Messsystem und Verfahren zur Vermessung von Bauteilen
JP6121647B2 (ja) * 2011-11-11 2017-04-26 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
EP2600109A3 (en) * 2011-11-30 2015-03-25 Sony Ericsson Mobile Communications AB Method for calibration of a sensor unit and accessory comprising the same
JP5670416B2 (ja) * 2012-12-28 2015-02-18 ファナック株式会社 ロボットシステム表示装置
US9679414B2 (en) 2013-03-01 2017-06-13 Apple Inc. Federated mobile device positioning
US9928652B2 (en) 2013-03-01 2018-03-27 Apple Inc. Registration between actual mobile device position and environmental model
DE102013206569B4 (de) * 2013-04-12 2020-08-06 Siemens Healthcare Gmbh Gestensteuerung mit automatisierter Kalibrierung
WO2015051827A1 (en) 2013-10-08 2015-04-16 Metaio Gmbh Method of determining a similarity transformation between first and second coordinates of 3d features
US10380764B2 (en) * 2013-12-18 2019-08-13 Cognex Corporation System and method for performing vision system planar hand-eye calibration from straight line features
DE102014003178B4 (de) * 2014-03-01 2021-09-16 Audi Ag Vorrichtungen und Verfahren zum Anzeigen eines Bildes mittels eines am Kopf eines Nutzers tragbaren Anzeigegeräts
EP2916099B1 (en) 2014-03-07 2020-09-30 Hexagon Technology Center GmbH Articulated arm coordinate measuring machine
DE102014104714A1 (de) * 2014-04-03 2015-10-08 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Verfahren zum Lageabgleich mindestens eines physischen Bauteils oder einer physischen Bauteilegruppe mit einem virtuellen Modell des Bauteils oder der Bauteilgruppe
KR101630153B1 (ko) * 2014-12-10 2016-06-24 현대자동차주식회사 제스처 인식 장치, 그를 가지는 차량 및 차량의 제어 방법
CN107847187B (zh) * 2015-07-07 2021-08-17 皇家飞利浦有限公司 用于对肢体的至少部分进行运动跟踪的装置和方法
US9645012B2 (en) * 2015-08-17 2017-05-09 The Boeing Company Rapid automated infrared thermography for inspecting large composite structures
DE102015015695A1 (de) 2015-12-04 2017-06-08 Audi Ag Anzeigesystem und Verfahren zum Betreiben eines Anzeigesystems
CA2953752A1 (en) * 2017-01-06 2018-07-06 Libra At Home Ltd Virtual reality apparatus and methods therefor
CN107392961B (zh) * 2017-06-16 2019-12-06 华勤通讯技术有限公司 基于增强现实的空间定位方法及装置
CN107959803A (zh) * 2018-01-16 2018-04-24 灵然创智(天津)动画科技发展有限公司 一种虚拟摄像机与真实摄像机对位
US11137484B1 (en) * 2018-02-27 2021-10-05 Valve Corporation Systems and methods to calibrate tracking systems
NL2021702B1 (en) * 2018-09-25 2020-05-07 Handicare Stairlifts B V Staircase measuring method and system for obtaining spatial information on a staircase and an environment of the staircase
DE102018218475B4 (de) 2018-10-29 2022-03-10 Carl Zeiss Optotechnik GmbH Trackingsystem und optisches Messsystem zur Bestimmung mindestens einer räumlichen Position und Orientierung mindestens eines Messobjekts
WO2020115784A1 (ja) * 2018-12-03 2020-06-11 マクセル株式会社 拡張現実表示装置及び拡張現実表示方法
CN109557904B (zh) * 2018-12-06 2020-07-10 百度在线网络技术(北京)有限公司 一种测试方法、装置、设备和介质
EP3706076B1 (en) * 2019-03-07 2021-02-24 Siemens Healthcare GmbH Method and device to determine the dimensions and distance of a number of objects in an environment
DE102019107417A1 (de) * 2019-03-22 2020-09-24 Günther Battenberg Verfahren zur Durchführung von zumindest einem Tätigkeitsprozess mittels eines Roboters

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1063317A (ja) * 1996-08-13 1998-03-06 Fanuc Ltd ロボット−視覚センサシステムにおける座標系結合方法
JP2000304527A (ja) * 1999-04-19 2000-11-02 Honda Motor Co Ltd 形状検証システムおよび形状検証方法
JP2005201824A (ja) * 2004-01-16 2005-07-28 Fanuc Ltd 計測装置
JP2005227876A (ja) * 2004-02-10 2005-08-25 Canon Inc 画像処理方法、画像処理装置
JP2006048639A (ja) * 2004-06-29 2006-02-16 Canon Inc 情報処理方法および情報処理装置
WO2007011314A2 (en) * 2005-07-20 2007-01-25 Bracco Imaging S.P.A. Methods and systems for mapping a virtual model of an object to the object
JP2007512854A (ja) * 2003-04-28 2007-05-24 ブラッコ イメージング ソチエタ ペル アチオニ 手術用ナビゲーションシステム(カメラプローブ)

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5436638A (en) 1993-12-17 1995-07-25 Fakespace, Inc. Image display method and apparatus with means for yoking viewpoint orienting muscles of a user
DE10127396A1 (de) 2000-06-13 2001-12-20 Volkswagen Ag Verfahren zum Verwerten eines Altfahrzeugs
US20020105484A1 (en) 2000-09-25 2002-08-08 Nassir Navab System and method for calibrating a monocular optical see-through head-mounted display system for augmented reality
DE20203367U1 (de) 2002-03-04 2003-05-08 Audi Ag Frühzeitige Visualisierung von Designideen im Ton-/Designmodell
DE10305384A1 (de) 2003-02-11 2004-08-26 Kuka Roboter Gmbh Verfahren und Vorrichtung zur Visualisierung rechnergestützter Informationen
US7203384B2 (en) 2003-02-24 2007-04-10 Electronic Scripting Products, Inc. Implement for optically inferring information from a planar jotting surface
JP4401727B2 (ja) * 2003-09-30 2010-01-20 キヤノン株式会社 画像表示装置及び方法
US7110100B2 (en) 2003-11-04 2006-09-19 Electronic Scripting Products, Inc. Apparatus and method for determining an inclination of an elongate object contacting a plane surface
US7268956B2 (en) 2003-11-24 2007-09-11 Electronic Scripting Products, Inc. Solid catadioptric lens with two viewpoints
US7038846B2 (en) 2003-11-24 2006-05-02 Electronic Scripting Products, Inc. Solid catadioptric lens with a single viewpoint
US7088440B2 (en) 2003-12-22 2006-08-08 Electronic Scripting Products, Inc. Method and apparatus for determining absolute position of a tip of an elongate object on a plane surface with invariant features
US7693325B2 (en) * 2004-01-14 2010-04-06 Hexagon Metrology, Inc. Transprojection of geometry data
US7729515B2 (en) 2006-03-08 2010-06-01 Electronic Scripting Products, Inc. Optical navigation apparatus using fixed beacons and a centroid sensing device
US8542219B2 (en) 2004-01-30 2013-09-24 Electronic Scripting Products, Inc. Processing pose data derived from the pose of an elongate object
US9229540B2 (en) 2004-01-30 2016-01-05 Electronic Scripting Products, Inc. Deriving input from six degrees of freedom interfaces
US7961909B2 (en) 2006-03-08 2011-06-14 Electronic Scripting Products, Inc. Computer interface employing a manipulated object with absolute pose detection component and a display
US7826641B2 (en) 2004-01-30 2010-11-02 Electronic Scripting Products, Inc. Apparatus and method for determining an absolute pose of a manipulated object in a real three-dimensional environment with invariant features
TWI242981B (en) 2004-02-06 2005-11-01 Ortery Technologies Inc Multi-functional peripheral capable of taking pictures
US7023536B2 (en) 2004-03-08 2006-04-04 Electronic Scripting Products, Inc. Apparatus and method for determining orientation parameters of an elongate object
US7161664B2 (en) 2004-04-13 2007-01-09 Electronic Scripting Products, Inc. Apparatus and method for optical determination of intermediate distances
US7113270B2 (en) 2004-06-18 2006-09-26 Electronics Scripting Products, Inc. Determination of an orientation parameter of an elongate object with a scan beam apparatus
DE102004046144A1 (de) 2004-09-23 2006-03-30 Volkswagen Ag Verfahren und System zum Planen einer Produktionsumgebung
US7626569B2 (en) * 2004-10-25 2009-12-01 Graphics Properties Holdings, Inc. Movable audio/video communication interface system
DE102005061952B4 (de) 2005-12-23 2008-09-11 Metaio Gmbh Verfahren und System zur Bestimmung einer Ungenauigkeitsinformation in einem Augmented Reality System
JP2009533786A (ja) * 2006-04-10 2009-09-17 アヴァワークス インコーポレーテッド 自分でできるフォトリアリスティックなトーキングヘッド作成システム及び方法
US20090153550A1 (en) * 2007-12-18 2009-06-18 Disney Enterprises, Inc. Virtual object rendering system and method
CA2659698C (en) * 2008-03-21 2020-06-16 Dressbot Inc. System and method for collaborative shopping, business and entertainment
JP5388534B2 (ja) * 2008-10-09 2014-01-15 キヤノン株式会社 画像処理装置およびその方法、頭部装着型ディスプレイ、プログラム、記録媒体
US20100091036A1 (en) * 2008-10-10 2010-04-15 Honeywell International Inc. Method and System for Integrating Virtual Entities Within Live Video
US20100257252A1 (en) * 2009-04-01 2010-10-07 Microsoft Corporation Augmented Reality Cloud Computing
WO2010124074A1 (en) * 2009-04-22 2010-10-28 Terrence Dashon Howard System for merging virtual reality and reality to provide an enhanced sensory experience
US8970709B2 (en) 2013-03-13 2015-03-03 Electronic Scripting Products, Inc. Reduced homography for recovery of pose parameters of an optical apparatus producing image data with structural uncertainty

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1063317A (ja) * 1996-08-13 1998-03-06 Fanuc Ltd ロボット−視覚センサシステムにおける座標系結合方法
JP2000304527A (ja) * 1999-04-19 2000-11-02 Honda Motor Co Ltd 形状検証システムおよび形状検証方法
JP2007512854A (ja) * 2003-04-28 2007-05-24 ブラッコ イメージング ソチエタ ペル アチオニ 手術用ナビゲーションシステム(カメラプローブ)
JP2005201824A (ja) * 2004-01-16 2005-07-28 Fanuc Ltd 計測装置
JP2005227876A (ja) * 2004-02-10 2005-08-25 Canon Inc 画像処理方法、画像処理装置
JP2006048639A (ja) * 2004-06-29 2006-02-16 Canon Inc 情報処理方法および情報処理装置
WO2007011314A2 (en) * 2005-07-20 2007-01-25 Bracco Imaging S.P.A. Methods and systems for mapping a virtual model of an object to the object
JP2009501609A (ja) * 2005-07-20 2009-01-22 ブラッコ イメージング エス.ピー.エー. オブジェクトの仮想モデルを該オブジェクトにマッピングするための方法およびシステム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150124069A (ko) * 2014-04-25 2015-11-05 주식회사 고영테크놀러지 카메라 파라미터 산출 방법
KR101596868B1 (ko) 2014-04-25 2016-02-24 주식회사 고영테크놀러지 카메라 파라미터 산출 방법

Also Published As

Publication number Publication date
CN101785026A (zh) 2010-07-21
US20100239121A1 (en) 2010-09-23
DE102007033486A1 (de) 2009-01-22
DE102007033486B4 (de) 2010-06-17
EP2176833A1 (de) 2010-04-21
US9008371B2 (en) 2015-04-14
EP2176833B1 (de) 2014-12-24
JP5378374B2 (ja) 2013-12-25
CN101785026B (zh) 2012-12-26
WO2009010195A1 (de) 2009-01-22

Similar Documents

Publication Publication Date Title
JP5378374B2 (ja) リアルオブジェクトに対するカメラの位置および方向を把握する方法およびシステム
US8849636B2 (en) Assembly and method for verifying a real model using a virtual model and use in aircraft construction
EP1886281B1 (en) Image processing method and image processing apparatus
JP4757142B2 (ja) 撮影環境校正方法及び情報処理装置
JP6080407B2 (ja) 3次元計測装置及びロボット装置
US20180350056A1 (en) Augmented reality application for manufacturing
JP4508252B2 (ja) ロボット教示装置
JP5257335B2 (ja) 3次元視覚センサにおける計測有効領域の表示方法および3次元視覚センサ
JP4492654B2 (ja) 3次元計測方法および3次元計測装置
US9342743B2 (en) Method for supporting an operator in measuring a part of an object
JP6594129B2 (ja) 情報処理装置、情報処理方法、プログラム
JP7102115B2 (ja) 校正方法、校正装置、3次元測定機、3次元視覚測定装置、ロボットのエンドエフェクタ、プログラム、記録媒体
JP5030953B2 (ja) 第2の対象物に対する第1対象物の相対位置を決定する方法及びシステム及び、対応するコンピュータプログラム及び対応するコンピュータ可読記録媒体
WO2018223038A1 (en) Augmented reality application for manufacturing
JP2009269134A (ja) 視覚検査装置のシミュレーション装置
WO2020130006A1 (ja) 情報投影システム、制御装置、及び情報投影方法
JP6364389B2 (ja) 検査方法及び検査システム
JP2009087161A (ja) 画像処理装置、画像処理方法
KR101972432B1 (ko) 레이저비전 센서 및 그 보정방법
JP5018282B2 (ja) 製品の3次元形状モデルデータ作成方法
CN118119972A (zh) 生成用于相机校准的相机模型的方法和系统
CN114465910B (zh) 一种基于增强现实技术的机械加工设备校准方法
WO2022172471A1 (ja) 支援システム、画像処理装置、支援方法およびプログラム
JP2011034279A (ja) 三次元温度分布表示装置、テクスチャ作成装置および三次元温度分布表示方法
TW202241660A (zh) 程式生成裝置及機器人控制裝置

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111206

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20120305

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20120312

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20120405

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20120412

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20120502

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20120511

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120605

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121002

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20121228

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20130110

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20130201

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20130208

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20130301

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20130308

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130402

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130827

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130925

R150 Certificate of patent or registration of utility model

Ref document number: 5378374

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250