JP2006507722A - 表面の生来の視覚的特徴を用いて3次元シーンにおける表面の追跡 - Google Patents

表面の生来の視覚的特徴を用いて3次元シーンにおける表面の追跡 Download PDF

Info

Publication number
JP2006507722A
JP2006507722A JP2004546322A JP2004546322A JP2006507722A JP 2006507722 A JP2006507722 A JP 2006507722A JP 2004546322 A JP2004546322 A JP 2004546322A JP 2004546322 A JP2004546322 A JP 2004546322A JP 2006507722 A JP2006507722 A JP 2006507722A
Authority
JP
Japan
Prior art keywords
image
feature
features
identified
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004546322A
Other languages
English (en)
Inventor
博一 加藤
ビリングハースト,マーク・ネイザン
Original Assignee
アートゥールワークス
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アートゥールワークス filed Critical アートゥールワークス
Publication of JP2006507722A publication Critical patent/JP2006507722A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

対象表面の識別された透視イメージの中の対象表面の3次元位置及び向きを決定する装置が記載されている。対象表面は固有の視覚的特徴を有し、当該視覚的特徴のサブセットが選択される。該装置は、識別された透視イメージより時間的に前にある対象表面の透視イメージにおける選択された視覚的特徴の位置を用いて、識別された透視イメージの中の探索ゾーンを識別する。該装置は、選択された視覚的特徴を求めて識別された探索ゾーンを探索して、その選択された視覚的特徴が生じる2次元位置の決定する。決定された2次元位置に基づいて、該装置は、識別された透視イメージにおける対象表面の3次元位置及び向きを決定する。

Description

[関連出願の相互参照]
本出願は、(1)2002年10月22日に出願され、発明の名称が「イメージ・テクスチャから発生されたマッチング・テンプレートに基づく拡張現実感位置合わせ方法(An Augumented Reality Registration Method Based On Matching Templates Generated From An Image Texture)」である米国仮特許出願No.60/420,638、及び(2)本出願と同時に出願され、発明の名称が「基準マーカを用いた特有の平面のシーンの位置合わせ(Registrating a Specific Planar Scene Using Fiducial Markers)」である米国仮特許出願No.60/513,725(特許カウンセル案件No.37181−8002−US00)の恩恵を主張し、それらの出願のそれぞれは、本明細書に全部援用されている。
[技術分野]
本発明は、コンピュータ・ビジョン(画像認識)及びビデオ処理の分野を指向している。
[背景]
コンピュータ・ビジョンの分野において直面している1つの課題は、ビデオ・シーン内の対象物の動きを追跡することである。多くの場合、対象物の追跡は、カメラに対する対象物の位置及び向き、即ち、ビデオ・シーンがそれから捕捉される透視図である空間内の点を追跡することから成る。
動き追跡タスクの1つの有意なサブセットは、ビデオ・シーン内のおおよそ平坦な、即ち2次元の表面の動きを追跡することである。そのような表面は、自立している1枚の紙であるにせよ、又は本の中の1枚の紙にせよ、1枚の紙の1つの面であり得る。それはまた、事実上任意の他の対象物により与えられる表面であり得る。表面追跡の1つの応用は、仮想の3次元対象物のビュー(view)を、その表面の周りに浮かんでいるように見えるビデオ・シーンの各フレームの中に導入すること(これは、現実感拡張(reality augmentation)と呼ばれる。)である。
表面追跡は、基準マーカの追跡を用いることにより都合良く対処されてきた。基準マーカ追跡は、特別の視覚的に区別可能なシンボル(例えば、白い内部を有する太い輪郭の黒い正方形のようなもの)を追跡すべき表面に付けること、各ビデオ・フレームの中のそのシンボル(基準マーカと呼ばれる)の位置を特定することと、各ビデオ・フレームの中のシンボル(基準マーカと呼ばれる。)の位置を特定することと、ビデオ・フレームの中のマーカのサイズ及びビデオ・フレームの中のマーカの位置に基づいてカメラに対する表面の位置を決定することと、ビデオ・フレームの中マーカの向きに基づいてカメラに対する表面の向きを決定することとを伴う。
しかしながら、基準マーカ追跡は、著しい欠点を有する。第1に、基準マーカ追跡は、その基準マーカがシーンの中に存在しないときはいつでも機能しなくなる。これは、表面がシーンの中に留まる間ですら、広範囲の状況で起こる可能性がある。例えば、基準マーカは、カメラと基準マーカとの間の空間に介在する物体、例えば、人の手、又は別の不活発な物体のようなものにより隠蔽(occlude)され得る。基準マーカはまた、例えば、シーンが基準マーカを除外する表面の一部しか含むことができない程表面の近くまでカメラが動く(又は当該表面にズームインする)ときのように、ビデオ・シーンの境界の外側に動かし得る。この欠点は、表面に一層多くの数の基準マーカを追加することにより克服することができ、それにより表面の様相を圧倒し、そしてその固有の視覚的特徴を見えにくくする。
第2に、基準マーカ追跡は、表面がカメラから隔たっているとき、及び表面のカメラの視野が余りに制限されて基準マーカを区別することができないとき失敗する可能性がある。この欠点に対処する唯一つの方法は、より大きい基準マーカを用いることであり、それにより再び表面の様相を圧倒し、そしてその固有の視覚的特徴を見えにくくする。
これらの欠点に鑑みて、表面に付けられた基準マーカの連続的可視性及び識別可能性に依拠しない表面追跡に対するアプローチが、著しい有益性を有するであろう。
[詳細な説明]
表面の自然の視覚的特徴を用いて3次元シーンにおける表面を追跡するソフトウエア装置(以下、「本装置」)が提供される。或る実施形態においては、本装置は、表面のイメージを獲得し、そしてそれを用いて、本装置が表面を追跡するため用いる当該表面の視覚的特徴を選択する。或る実施形態においては、本装置は、この表面解析及び特徴選択を非リアルタイム・ベースで実行する。或る実施形態においては、本装置は、表面がカメラから種々の距離にある場合に使用するため、各特徴が異なるサイズである特徴のグループを選択する。或る実施形態においては、最初にビデオ・フレームの中の表面を識別するため、本装置は、ビデオ・シーン内の表面に付された基準マーカの位置を特定し、そして、それを用いて、カメラに対する表面の距離及び向きを決定する。この後に、本装置は、それまでの追跡結果を繰り返し用いて、(1)特徴の一グループを選択して、カメラからの表面の距離に基づいて探索することと、(2)本装置が自然の特徴をそれらの以前の位置に基づいてビデオ・シーンの中で見つける当該ビデオ・シーン内の探索ゾーンの輪郭を表すこととの両方を行う。次いで、本装置は、選択されたグループの中の自然の特徴を見つけようとこれらの探索ゾーンを探索し、そしてビデオ・シーンの中のそれらの位置を用いて、カメラに対する表面の位置及び向きを決定する。
自然の特徴のリアルタイム追跡を可能にするキーとなるアイデアは、予め「最良の」特徴を選択して、オフライン処理プログラムを用いて追跡することと、オンライン追跡フェーズ中にリアルタイムでこれらの特徴の検出及びマッチングを可能にする適切で早いマッチング方法を選定することとにある。これらの考慮に基づいて、我々は、複数の点を追跡すべき特徴として、またテンプレート・マッチングをマッチング技術として選定する。
図1は、表面に付されたとき本装置が追跡することができる典型的なイメージを示すイメージ図である。当該イメージは、基準マーカ110を含む視覚的コンテンツ100を有する。
追跡すべき特徴のオフライン抽出は、計算時間を非常に低減し、そしてリアルタイムで特徴を追跡することを可能にする。1組の追跡すべき特定のピクセルがアプリオリ(事前)に定義されるので、自然の点特徴は、各フレームから抽出する必要がないが、しかし時間を通じて追跡のみされることになる。換言すると、オフライン特徴点抽出は、1組の固定の「自然のコーナ」を発生し、当該1組の「自然のコーナ」は、マーカが導入する人工的コーナと同じ機能を正確に実行する、即ち、基準点の座標が対象物フレームの中で既知である基準点となる。しかしながら、カメラがパンイン(pan in)又はパンアウト(pan out)するとき、カメラが感知する詳細(ディテール)のレベルは、著しく変化する。例えば、白い背景上の黒い文字は、カメラが平面のシーン(planar scene)に近接しているとき追跡すべき良好な特徴であり、そしてこの同じ文字はカメラが当該シーンから遠く離れているとき見えないことがあるかも知れない。この問題は、オフライン特徴抽出を独立に種々の解像度で実行し、且つカメラが動くにつれ当該1組の特徴をオンラインで適応させることにより解決することができる。
他の全ての点で、自然特徴ベースの追跡の一般的原理は、マーカ・ベースの追跡と同じである。4つの共平面特徴点の座標がページにおいて既知である当該4つの共平面特徴点とイメージ平面におけるそれらの投影とは、平面のホモグラフィー(planar homography)及び外因性パラメータを計算することを可能にする対応(correspondence)を与える。主要相違は、利用可能な4つより多い特徴点が通常存在し、従って隠蔽(occlusion)にうまく対処するため自然のメカニズムを提供することにある。即ち、追跡される平面のシーンが合理的なサイズを有する場合、ユーザの手がイメージの中の全ての利用可能な特徴を隠蔽することは極めてありそうもない。
しかしながら、自然特徴追跡の1つの欠点は、追跡器の初期化がデリケートなタスクであるように見えることであり、4つの自然の特徴点を最初のビデオ・フレームの中に検出することは、全ての単一の有り得る特徴点に対してイメージ全体についてテンプレート・マッチングを必要とする。この探索は、ビデオ・フレームが追跡すべきシーンの垂直の視野を与えない場合計算の上でコストがかかり且つ非効率である。この欠点を克服するため、以下で更に説明するように、マーカは、初期ホモグラフィーを与えるためページ上に配置される。このホモグラフィーを用いて、イメージをアンワープ(un−warp)し、それにより追跡器は、シーンの垂直の視野を有する。それから、追跡器は、事前定義された自然特徴点を捜すべき場所を知り、もはや見えるマーカを必要としない。探索サイズが固定され、そしてテンプレート・マッチングが、予測された特徴点の位置を囲む窓で実行される。検出された4つの「最良の」自然特徴点は、ホモグラフィーを更新するための入力として選択される。また、ピクセルを囲む領域がカメラが移動するにつれ変化するので、更新されたホモグラフィーを用いて、特徴点を囲む新しいテンプレートを発生する。前の特徴点の位置及び変位を用いて、次のフレームの中のそれらの位置を予測する。次いで、追跡器は、カメラが見るように平面のシーンの現在の解像度を推定し、そして適切ならば追跡すべき1組の事前定義された特徴を変える。最後に、カメラの姿勢が推定され、そして仮想モデルを本のページ(book page)の頂部に描くことができる。
図2は、本装置が表面を追跡するため典型的に実行するステップを示すフロー図である。本装置は、マーカ・ベースの初期化モード210で始まる。ステップ211において、本装置は、表面のイメージを2値形式に変換する。ステップ212において、本装置は、接続された構成要素(components)を表面のイメージの2値バージョンから抽出する。ステップ213において、本装置は、輪郭を表面のイメージから抽出する。ステップ214において、本装置は、抽出された輪郭の中のどの間違った輪郭も拒絶し、そしてマーカのコーナの座標のサブピクセル回復を実行する。ステップ215において、本装置は、表面のホモグラフィー(即ち、カメラに対するその位置及び向き)を計算し、そして、カメラに対する表面の決定された位置及び向きに関して表面のイメージを正規化することにより、当該表面のイメージをアンワープする。ステップ216において、本装置は、最良の4つの特徴のような表面の最良の視覚的特徴を選択する。これらの選択された特徴は、時に、「点特徴(point features)」と呼ばれる。
マーカ・ベースの初期化モード210のステップの完了後に、本装置は、自然特徴追跡モード220に入る。ステップ221において、本装置は、マーカ・ベースの初期化フェーズ中に確立されたテンプレートを更新する。ステップ222において、本装置は、それまでの追跡結果を用いて、表面の点特徴が次のビデオ・フレームにおいて生じるビデオ・イメージ内の位置を予測する。ステップ223において、本装置は、テンプレート・マッチング・プロセスを用いて、ビデオ・フレームの中の予測された位置近くの点特徴を検出しようと試みる。ステップ224において、本装置は、ステップ223の結果を用いて、表面のホモグラフィーを更新する。ステップ225において、本装置は、自然特徴追跡モードの次の反復のため特徴点選択における解像度を評価する。或る実施形態においては、ステップ225は、自然特徴追跡モードにおけるステップ221に進む(図示せず)。
自然特徴追跡モード220の完了後に、本装置は、試験230を実行して、自然特徴追跡モードの最も新しい反復がビデオ・シーンの中の表面を追跡することに失敗したかどうかを決定する。そうであれば、本装置は、マーカ・ベースの初期化モードで、ビデオ・シーンの中の表面の位置を再び特定することを継続する。そうでなければ、本装置は、自然特徴追跡モードで、表面を追跡することを継続する。
図3は、本装置が動作する典型的な環境を示すブロック図である。当該環境はコンピュータ・システム300(当該コンピュータ・システム300は、本装置のような、プログラムを実行する1又はそれより多いプロセッサ310を含む。)、複数のイメージから成る個々のイメージ及び/又はビデオ・シーケンスを獲得するカメラ360に接続されているビデオ・インターフェース320、永続型記憶装置330、少なくとも本装置341を含むメモリ340、及びフロッピー・ディスク(登録商標)、CD−ROM又はDVDのような、コンピュータ可読媒体から情報を読み出し又は本装置のようなプログラムをインストールするためのコンピュータ可読媒体ドライブ350を含む。当業者は、データ及び/又はプログラムがメモリ管理及びデータ保全性の目的のためメモリと永続型記憶装置との間で転送され得ることを認めるであろう。様々な実施形態が前述した環境の点から見て説明したが、当業者は、本装置が1又はそれより多いコンピュータ・システムの組み合わせ、又は様々な方法で接続されている類似の装置を含む様々な他の環境で実現され得ることを認めるであろう。
1. オフライン特徴抽出
このサブセクションは、異なる解像度でのテンプレート・マッチングのための最良の候補点を検出する特徴抽出スキームの設計を説明する。
1.1 テンプレート・マッチング
オフライン特徴抽出方法は、テンプレート・マッチングが良好に働く点を検出する。従って、特徴抽出スキームの設計は、テンプレート・マッチング技術の設計次第である。2つの連続したビデオ・フレームI及びIk+1との間の不一致が小さいと仮定すると、点特徴をマッチングさせるため用いることができる判定基準は、類似度である。点に対して、強度の類似度の万能尺度は相関である。pがIの中の1つの特徴とし、Wをp上に中心付けされたサイズw+1及びh+1(ここで、w及びhは奇数である。)の窓であるとする。Wは、Ik+1の中で捜すべきテンプレートを定義する。
図4は、テンプレート・マッチングで用いられる窓と、それを含むビデオ・フレーム内の探索範囲との関係を示すピクセル図である。長方形400はビデオ・フレームIk+1である。長方形410は探索範囲である。長方形420は、(y,x)にあるピクセル430上に中心付けされた探索窓Wである。窓Wは、列がx−w/2からx+w/2まで及び、そして行がy−w/2からy+w/2まで及ぶ。
に最も対応しそうであるピクセルをIk+1の中で見つけることは、探索範囲内でWを有する最も高い相関スコアを有するサイズw+1及びh+1の領域をIk+1の中で見つけることと等価である。正規化された相互相関(NCC)(これは、F.Vial著「ビジョン・ベースのリアルタイム増強型現実のための自然特徴追跡についての最新技術報告(State of the Art Report on Natural Feature Tracking for Vision−Based Real−Time Augmented Reality)」(技術報告書、人間インターフェース技術研究所ニュージーランド(Technical Report, Human Interface Technology Laboratory New Zealand)(HITLab NZ)、University of Canterbury、Christchurch、ニュージーランド、2003)に説明されている。)が、実効的な点相関方法であることを示した。テンプレートWと、Ik+1内のピクセル(x,y)を囲む同じサイズの領域との間のNCCを計算するため、考察しているピクセルの強度値は、中心付けされねばならない。i及びjがWと同じサイズの正方形領域に及ぶ指数とする。従って、
Figure 2006507722
及び
Figure 2006507722
は、Ik+1及びWの中の考察している領域内のピクセル(i,j)のそれぞれの中心付けされた値(「中心値」)であり、ここで、
Figure 2006507722
及び
Figure 2006507722
である。
従って、Wと(y,x)を囲む領域との間の正規化された相互相関スコアは、次式をもたらす。
Figure 2006507722
1つの利点は、NCCが−1と1との間のスコアを取り、類似度のスレッショルド化を実行するための直感的範囲を与え、−1の値は、類似度が全く無いことを示し、一方1の値は、完全な類似度を示す。NCCを用いる別の便益は、照度変化に対するその不感受性から生じる。我々が一定値を領域の全てのピクセルに追加することにより照度変化をモデル化する場合、NCCのスコアは、そのオフセット無しの場合と同じであろう。しかしながら、相関は、いずれのアフィン変換又は透視変換に対して不感受性では無い。従って、テンプレートは、前述したようにシステムにより取り込まれた各フレームに対して発生されるであろう。
更に、NCCは、計算の上でコストがかかり、そしてw,hの値及び探索範囲のサイズが大きくなるとき非効率的となる場合があり得る。これを補償するため、粗から精細への技術(coarse to fine technique)を用いる。即ち、最初に、探索窓内のテンプレート・マッチングをn個のピクセル毎に実行して、探索の複雑さを係数nだけ低減する。NCCスコアが最高である3つの位置を記憶する。次いで、精細探索を実行する。即ち、テンプレート・マッチングを、3つの記憶された位置を囲む領域の中のピクセル毎に実行する。最も高いNCCスコアが、最後に検出された位置を提供する。
1.2 点特徴抽出スキーム
マーカを含む追跡すべき平面のシーンの正面の表示(front−facing representation)は、追跡器に供給されねばならない。通常、JPEG又はGIFファイルが、入力イメージ・ファイルとして用いられる。最初に、マーカは、米国仮特許出願No.60/513,725(特許カウンセル案件No.37181−8002−US00)に記載されている技術のような周知の技術を用いて、入力イメージの中で検出される。入力イメージの中のシーンの位置及びサイズが、計算され、ファイルに格納される。
その後、シーンの自然特徴の抽出が実行される。自然の特徴点をフレームからフレームへマッチングさせるための特定のテンプレート・マッチング技術の選定は、我々が元のイメージから抽出されるべき特徴点に対する1組の制約を定義することを要求する。
・制約1:候補特徴点を囲む(及び制約2に定義される円形範囲の外側の)w×h領域内部のピクセル同士間の類似度は、均一又は低いコントラスト領域が拒絶されるように小さくあるべきである。これは、テンプレートが最小の分散を有するべきであると言うことと等価である。
・制約2:候補特徴点を囲む半径nの円形領域内のw×h領域内部のピクセル同士間の類似度は、テンプレート・マッチングの粗のステップにおける最良の3つの結果が当該特徴の正しい位置を囲む領域を含むように高くあるべきである。換言すると、この制約は、正しい特徴点がテンプレート・マッチングの粗のステップにより抜かされないことを保証する。
・制約3:テンプレート・マッチングが実行される候補特徴点を囲む探索範囲内に類似の領域が存在すべきでない。換言すると、我々は、追跡器が混乱しないようにするように、候補ピクセルを囲むサイズwsearch及びhsearchの探索範囲においてサイズw及びhのテンプレートに対して1より多いマッチングが存在することができないことを確認することを希望する。
図5は、候補ピクセルに関する特徴点制約を示すピクセル図である。候補ピクセル501は、(1)候補ピクセルの周りの小さい環状領域502内の類似度が高く、(2)テンプレート503の内側、及び円形領域502の外側の類似度は、低い、即ち、高い分散が存在し、且つ(3)類似のテンプレート領域が、探索範囲504内に存在しない場合、テンプレート503内の良好な特徴となりそうである。
オフライン特徴抽出プログラムはこのように進む。即ち、ユーザは、当該ユーザが特徴を自動的に抽出したい種々の解像度を与える。より多くの解像度が指定されれば、追跡器はより正確になるが、しかしより多くの処理時間が必要とされるであろう。自然特徴抽出にため固定されねばならないパラメータは、次のとおりである。即ち、
・テンプレート寸法w及びh
・上記の制約1に記載した分散の最小値を定義するスレッショルドtvar
・テンプレート・マッチングのための探索サイズwsearch及びhsearch
・制約3で説明した最大の許容された類似度を定義するスレッショルドtMaxSim
・小さい円形領域の半径r、及び制約2で説明した最小の許容された類似度を定義するスレッショルドtMinSim
これらのパラメータに対するデフォルト値を与える実験的結果が実行された(以下のセクション3を参照)。第1のステップにおいて、特徴抽出プロセスは、制約1及び3に対してのみ試験を行う。その手順は、以下のコード・ブロック1に示される疑似コードに概説されている。
Figure 2006507722
(「コード・ブロック1」の翻訳
「 ユーザが選定した解像度毎に対して、
入力イメージの中のピクセルpix毎に対して、
・pixを囲むサイズw及びhのテンプレートtpを発生する。
・半径nの中心の円形範囲を除く領域tpにわたって分散を計算する。
(分散<tvar)の場合、pixを棄却し、次のピクセルへ行く。
・pixを囲むwsearch×hsearch窓に含まれるw×h領域毎に対して、
→正規化された相互相関を用いてregとtpとの間の類似度simを計算する。
→探索範囲内の類似度の最大値を更新する。
→(類似度>tMaxSim)の場合、pixを棄却し、次のピクセルへ行く。
〜に対して終了
・Pix=sim
〜に対して終了
〜に対して終了)。
2つの異なる解像度で図1のイメージに対して実行されるこのアルゴリズムの結果が図6A及び図6Bに示されている。図6Aは、200dpiの元のイメージ解像度に対するオフライン特徴抽出アルゴリズムのこの最初のステップの出力を示す。図6Bは、100dpiのより低い解像度での出力を示す。これら両方の図面は、25×25ピクセルのテンプレート・サイズを表す。出力イメージにおいて、暗い領域は、特徴点がそれから選定されるべきでない非常に相関の高い領域(一様領域)を含む。これに反して、明るい領域は、テンプレート・マッチングが良好に作用しそうであるイメージ領域である。予測されるように、より低い解像度のイメージでは細部がより少なくしか見えない。
異なる解像度において候補特徴の得られたマップが、追跡すべき最良の点特徴を選択する第2のアルゴリズムのための入力として用いられる。この動作は、制約2を強制することにより、且つ得られた結果をスレッショルド化することにより実行される。追加の制約は、選択されたテンプレート領域が出来るだけ均一に分布されねばならず且つオーバラップしてはならない。tvarパラメータは、抽出された特徴の数に直接影響を及ぼす。即ち、tvarが高ければ高い程、制約1を満たす特徴点はそれだけ少ない。図7は、図1に示されるイメージから抽出されたサンプル特徴を示すイメージ図である。図7は、tvar=10に関して元のイメージの中の抽出された特徴を示す。赤の正方形のそれぞれは、tvar=10、tMaxSim=0.65及びtMinSim=0.85を有する元の解像度(200dpi)に対して抽出された特徴を識別する。多数の抽出された特徴を有することは、追跡器が隠蔽により良く対処することを可能にするが、しかし追跡プロセスを遅くし、そして一部の隠蔽条件の下で追跡器を混乱させ得る。
他方、特徴の数が少ししか無いことは、追跡プロセスが速くするが、しかしシステムが隠蔽に対する感度を非常に高くするようにする。その結果、良好な隠蔽処理と速い追跡との間の最適均衡を見つけるためのトレードオフを行わなければならない。マーカに対する抽出された特徴点の相対的位置が、オンライン通信モード中に用いられるであろうファイルに格納される。
2. オンライン追跡
このサブセクションは、有意の(significant)隠蔽が存在する際に継続したパターン追跡を可能にする事前定義された特徴の効率的追跡アルゴリズムを説明する。基本的考え方は、マーカにより与えられる4つの人工的コーナに単純に依拠する代わりに、既知の点特徴をフレームからフレームへと追跡し、且つこれらの自然の特徴に基づいて平面のシーンに対するホモグラフィーを更新することにある。
2.1 初期化
前に説明したように、追跡器の初期化は、セクション1.2で説明したような基準マーカを用いて行われる。
2.2 特徴選択及びテンプレート更新
初期ホモグラフィーが計算されたので、追跡器は、どの自然特徴が現在のフレームの中で選定すべき「最良の」特徴であるかを決定しなければならない。我々のアプリケーションがリアルタイムでラン(走る)しなければならないことを意識して、我々は、その位置が最適である特徴の数が出来るだけ少なくなるよう選定したい。従って、次の発見的選択方法(heuristic selection method)を選定する。即ち、
1.前のフレームのホモグラフィーを用いて、特徴のイメージ座標を、対象フレームの中のそれらの既知の座標から得る。現在の解像度の推定を用いて、現在のビデオ・フレームの中の見えない全ての特徴を拒絶する。
2.第1の特徴点の選択:特徴点の位置がビデオ・フレーム中心から最も遠い特徴点を選択する。
3.第2の特徴点の選択:第1の特徴点から最も遠い特徴点を選択する。
4.第3の特徴点の選択:2つの最初に選択された特徴点と一緒に形成される三角形の面積を最大にする特徴点を選択する。
5.第4の特徴点の選択:4つの最初に選択された特徴点と一緒に形成される長方形の面積を最大にする特徴点を選択する。
この選択スキームの後ろにある動機付けは、互いに離れている点特徴から計算されたホモグラフィーが誤差をより受けにくくすることである。ひとたびこれらの4つの点が選択されると、前のフレームからのホモグラフィーをまた用いて、特徴点を囲む新しいテンプレートを発生する。このテンプレートの更新は、テンプレートの回転されたビューがテンプレート・マッチング技術が働くのを妨げないことを保証する。
2.3 粗い特徴予測
追跡モードの第1の段階は、前のフレームにおいて計算されたホモグラフィーを用いて、現在のフレームの中の特徴の位置を予測することから成る。時間コヒーレンスを仮定すると、3つの単純な予測方法を導出することができる。
最初に、現在のフレームIの中の特徴が、小さいフレーム間動き仮説を用いて前のフレームIk−1におけるのと同じ位置に配置されるであろう。
Figure 2006507722
ここで、上付き文字「^」は、推定を表す。
カメラ・イメージがほぼ常に動いているので、この仮定は、ほぼ常に違反されており、従って、我々は、むしろ特徴の一定速度を仮定する。そこで、任意のフレームIに対して、k>2の場合、速度ベクトルvの値は、次式を生じる。
Figure 2006507722
ここで、ΔtはフレームIk−1とIとの間に経過した時間である。我々は、2つのフレーム間を経過した時間が一定であり、且つ単位値を有することを仮定する。我々は、続いて次のように書くことができる。
Figure 2006507722
従って、
Figure 2006507722
は、次のように推定することができる。
Figure 2006507722
同様の要領で、我々は特徴の加速度が一定であると考える場合、フレームIにおけるその位置は次式により推定することができる。
Figure 2006507722
それらの位置推定は、粗いものであり、そしてG.Iannizzotto及びL.Vita著「カラー・ビデオ解析のためのオンライン対象追跡(On−line Object Tracking for Colour Video Analysis)」(リアルタイム・イメージング(Real−Time Imaging)8:2、145−155頁、2002年4月刊)及びD.Koller、G.Klinker、E.Rose、D.Breen、R.Whitaker及びM.Tuceryan著「拡張現実感アプリケーションのためのリアルタイム・ビジョン・ベース型カメラ追跡(Real−Time Vision−Based Camera Tracking for Augmented Reality Applications)」(仮想現実感ソフトウエア及び技術についてのACMシンポジウム会報(Proc. of the ACM Symposium on Virtual Reality Software and Technology)、87−94頁、スイス国ローザンヌ、1997年9月刊)において議論されている広範囲に用いられているカルマン・フィルタリングには精度の点で対抗できないであろうが、しかしそれらは、計算の上でコストが安いという大きな利点を有する。なお、これらの文献は、そのまま全部本明細書に援用されている。これらの推定の1つ、又は2つ、あるいは3つ全ての後で、現在のフレームの中のpの位置を予測することができる。
2.4 特徴検出
特徴の推定された位置は、ホモグラフィーの中の小さい誤差に起因した、並びにセクション4.4.2において導入される近似に起因した誤差を受けやすい。その位置を囲む探索窓は、テンプレート・マッチングを続行するため定義されねばならない。扱いに注意を要する(tricky)タスクは、この探索範囲のサイズを固定することである。単純なアプローチは、そのサイズを一定と宣言すること、及びそれを、現実の条件において試験により経験的に決定された値に設定することである。このアプローチは、非常に単純であり、そして動的な動きに十分に適応されないことが有り得るが、しかしそれは、我々が固定の探索窓サイズを仮定して特徴を抽出したので我々のシステムの基礎である。大きい探索窓が、より大きい動きに対して可能であるが、しかし、正規化された相互相関が多数のピクセルに対して実行されねばならないので、マッチング・プロセスの速度を遅くする。逆に、小さい探索窓サイズは、マッチング・プロセスの速度を増大させるが、しかし迅速な動きに起因した追跡器失敗の機会を増大させる。探索窓サイズの経験的決定についてはセクション3を参照されたい。選択された特徴の位置は、1.1において説明したテンプレート・マッチング・プロセスにより決定され(典型的には、NCCスコアが0.7より大きい場合マッチングが見つけられる。)、そして半径方向の歪みが補正される。
2.5 ホモグラフィーの更新及び解像度の推定
特徴点の対応
Figure 2006507722
を用いて、新しいホモグラフィーHが決定される。再投影誤差尺度が次のように定義される。
Figure 2006507722
εが事前定義されたスレッショルド(5.0の値が有効なスレッショルド値であると実証された。)より小さい場合、ホモグラフィーが受け入れられ、そして別の追跡サイクルが次のビデオ・フレームで始めることができる。εがスレッショルドより大きい場合、それは、点対応の組みが雑音又は隠蔽に起因した疑似値を含むことを指示し得る。これを処理するため、第5の特徴点の探索が実行される。1つの追加の特徴点が検出された場合、平面のホモグラフィーが、5個の特徴点の中の4個の特徴点のサブセット毎に対して計算され、そしてεを最小にする1つの特徴点がその結果選定される。第5の特徴点を検出することができない場合、追跡は失敗し、そして追跡器は初期モードに戻る。基準マーカは、追跡器が再初期化されるため見えなければならない。
追跡が成功した場合、平面のシーンの見られている解像度(viewed resolution)の推定は、次の通りに計算される。即ち、その座標がワールド・フレーム(world frame)とイメージ・フレームとにおいて既知である2つの特徴点が選定される。我々は、ワールド・フレームの中の2つの特徴を隔てているミリメートル単位の距離と、イメージ・フレームの中のそれらを隔てているピクセル単位の距離とを知る。その結果、何個のピクセルがワールド座標で1センチメートルを表すかを知ること、及びカメラが現在見ているシーンの解像度を推論することは容易である。必要ならば、その解像度に対応する特徴の違った組みを選定する。
3. 実現の詳細
3.1 パラメータの決定
我々の特徴抽出技術は、我々がテンプレートの寸法w及びh、並びに探索サイズの寸法wsearch及びhsearchを一度だけ全体のプロセスに対して設定することを必要とする。単純さのため、我々は、両方の窓が正方形、即ち、w=h及びwsearch=hsearchであると宣言する。
3.1.1 テンプレート・サイズ
正規化された相互相関が信頼できるために、wは大きくなければならないが、しかしこれはまた、テンプレート・マッチングが計算の上でコストがかかることを意味する。正規化された相互相関が必要とする計算時間が、wの値の或る範囲に対して計算された。25個のピクセルの値が、寸法3800ピクセル×1920ピクセルのイメージに対して信頼性と速度との間の良好なトレードオフであることを示した。
3.1.2 探索範囲サイズ
オンライン追跡フェーズに関して、特徴予測方法は、探索範囲のサイズに対して直接影響を及ぼす。小さい探索範囲は、マッチング・プロセスをより速くするであろうが、しかし追跡を当該予測方法の粗い性質に起因して失敗させるであろう。これは、wsearchの余りに小さい値が、追跡された特徴が探索範囲の中に無くて追跡を失敗させるより高い機会を与えるであろうことを意味する。wsearchを経験的に決定するため、現実の条件での追跡が、4000個の特徴に対して予測方法(2.3.1)、(2.3.2)及び(2.3.3)の種々の組み合わせを用いて実行された。探索範囲の中で検出されなかった特徴点のパーセンテージを表す誤り率は、探索範囲サイズの関数として計算された。その結果が図8に示されている。
図8は、これらの予測方法の種々の組み合わせの実験的有効性を示すグラフである。グラフ800は、凡例801を用いて符号化され、そこにおいて数字1は予測方法(2.3.1)を、数字2は予測方法(2.3.2)を、数字3は予測方法(2.3.3)をそれぞれ表す。
予測方法(2.3.1)は、探索窓サイズが大きくない場合芳しくない結果を与える。更に、我々は、2つの予測方法の任意の組み合わせ、又は3つの予測方法の任意の組み合わせが似た結果を与えることを観測した。探索範囲サイズを選定するため、我々は、41個のピクセルと61個のピクセルとの間の範囲をより詳細に調べて、どの値が全ての予測方法に対して許容可能な誤り率を与えるかを知った。
予測方法(2.3.1)及び(2.3.2)の組み合わせを、追跡器の予測段階が必要とする時間を低減するため選定する。その結果、49の探索範囲サイズが特徴点を探索範囲の中に見つけることを保証する最小サイズであるので、その49の探索範囲サイズを選択する。
最後に、オンライン追跡中に、テンプレート・マッチングの粗いステップが、n=3ピクセル毎に実行される。この値は、追跡器がリアルタイムで動作することに対して十分な速度改善を可能にする。
3.2 性能評価
我々の拡張現実感(augumented reality)システムの主要設計目標の1つは、標準のパーソナル・コンピュータについてのリアルタイム性能であった。ソフトウエアは、ウインドウズXP(登録商標)オペレーティング・システムの元で動作し、そして用いたカメラは、640ピクセル×480ピクセル・ビデオ・フレームを供給する既製のUSBウェブ・カメラである。追跡システムは、増補されたグラフィックスをビデオの上に表すため用いられたOpenGL及びVRML付きのCで現在実現されている。全ての試験は、GeForce4・Ti4600ビデオ・カード付きのインテル・ペンティアムIV(登録商標)の2.4GHzプロセッサ上で実行した。
3.2.1 オフライン特徴抽出
オフライン特徴抽出は、アプリケーション全体のアルゴリズムの複雑さのためそのアプリケーション全体のボトルネックである。小さいイメージ(640ピクセル×480ピクセル)に対しては、処理時間は数分であることができる。しかしながら、入力のサイズが、我々のアプリケーションのケース(3800ピクセル×1920ピクセル)のように大きくなると、特徴マップを種々の解像度で発生するために必要である時間は、5時間より多い。これは、アプリケーションの主要欠点のままである。
3.2.2 オンライン追跡
オンライン追跡は、25フレーム/秒から30フレーム/秒のフレーム速度で見込みのある結果を示す。これは、上記方法がリアルタイムの目的に適していることを実証する。
スケール不変性が、シーンから遠く離れてカメラを用いて追跡を開始し、そして徐々にカメラを当該シーンへより接近させることにより試験される。多重解像度テンプレート・スキームが図9Aから図9Cに示されるように良好に働く。
図9Aから図9Cは、シーンにおける様々な解像度に対する追跡結果を示す追跡図である。図9Aは、低い解像度に対する追跡結果を示し、図9Bは、中間の解像度に対する追跡結果を示し、図9Cは、高い解像度に対する追跡結果を示す。これらの図面の中の番号を付された緑の正方形は、追跡される現在の点特徴を表す。テンプレートのズームされたビューを各図面の左側に見ることができる。
次いで、隠蔽処理が、典型的なユーザの反応、即ち、手を追跡すべきシーンの上に置くことを用いて試験される。ここで再び、追跡器は、代替の特徴点を選定することに成功し、従って連続した追跡を行う。隠蔽に対する結果が、図10A及び図10Bに示されている。
図10A及び図10Bは、隠蔽条件の下での追跡結果を示す追跡図である。図10Aは隠蔽されてないシーンに対する追跡結果を示し、一方図10Bは、人間の手により隠蔽されている類似のシーンに対する追跡結果を示す。図10Aに示される特徴2の隠蔽は、図10Bのシーンにおいて隠蔽により妨げられるので、本装置は、特徴番号4として示される図10Bのシーンにおける新しい特徴を位置合わせする(register)ことを始める。
自然の特徴追跡モードのみが隠蔽に対する強固さを与える。追跡器のマーカ・ベースの初期化モードは、マーカが完全に見えることを必要とする。異なる向きに対する追跡器の強固さがまた、試験された。シーンは、代替として、異なる角度から見られ、そして追跡器は、厳しい回転下でさえ、4個の特徴を見つけることを成功した。一例が、図11Aから図11Dに示されている。
図11Aから図11Dは、様々な回転角度の下でのシーンに対する追跡結果を示す追跡図である。図11Aは回転無しの下での追跡結果を、図11Bは45°の回転の下での追跡結果を、図11Cは60°の回転の下での追跡結果を、図11Dは80°の回転の下での追跡結果をそれぞれ示す。
追跡器の一部の実施形態の1つの制限は、迅速な動きに対するその敏感さである。カメラが急速に回転又は並進される場合、追跡器は通常失敗する。これは、単純なUSBウェブ・カメラにより供給される貧弱なイメージ品質のためである。カメラが急速に移動するとき、カメラにより与えられるフレームは、余りにぼやけ過ぎて、テンプレート・マッチングが成功しない程である。より高いシャッター速度を有するより高い品質のカメラの使用は、迅速なイメージの移動に対する追跡器の強固さを相当に増大させる筈である。
6. 追加の詳細
このセクションは、本装置及びその実現についての追加の詳細を含む。
6.1 追跡されるイメージ
図12A及び図12Bは、本装置により追跡されるサンプル・イメージを示すイメージ図である。図12Aのイメージは、文字及び写真から成り、そして約20cm×28cmのサイズを有する。図12Bのイメージは、カラー地図の一例であり、そして約80cm×104cmのサイズである。
6.2 テンプレート・マッチングによる位置合わせ
6.2.1 座標系
図13は、本装置が用いる座標系を示す座標図である。追跡される対象物上に中心付けされた対象物座標フレームがある。対象物座標の原点、X軸及びY軸が表面上にあり、一方Z軸は当該表面に対して垂直である。カメラはカメラ座標フレームを有し、そしてカメラ座標とスクリーン座標との間に透視関係がある。3D環境における直線は、スクリーン座標に変換されたとき理想的には直線のままであるべきである。しかしながら、実際には、これは、レンズの歪みのため起こらない。これを補償するため、我々は、2つのスクリーン座標、即ち、カメラ座標との透視変換を保つ理想スクリーン座標とカメラからの歪んだイメージを表す観測スクリーン座標とを導入する。対象物座標から理想スクリーン座標への変換は、
Figure 2006507722
により表される。ここで、行列Cは、透視投影モデルに基づく焦点距離、倍率、光心、アスペクト比、及びスキュー(斜め)係数の固有のカメラ・パラメータを含む。行列TCOは、カメラ座標に対する対象物座標間の変換を表し、そして変換要素及び回転要素から成る。
理想スクリーン座標における点(x,y)は、次式の歪み関数により、観測スクリーン座標における点(x,y)に変換される。
Figure 2006507722
ここで、(xd0,yd0)は歪みの中心であり、sはスケール・パラメータであり、fは歪み係数である。この変換は、非線形関数であるが、しかし我々は、それを次のように表す。
Figure 2006507722
そこで、位置合わせ問題は、変換行列TCOの計算に還元する。我々は、これの実行の仕方を次のセクションで説明する。
6.2.2 ポーズ及び位置計算
対象物座標にn個の特徴点(Xoi,Yoi,Zoi)(i=0,1,,n−1)があり、且つそれらが観測スクリーン座標における(xdi,ydi)(i=0,1,,n−1)に投影されると仮定すると、誤差関数は、理想スクリーン座標において次の(式6.4)のように表される。
Figure 2006507722
行列TCOがこの誤差関数を最小にする。nが3より大きく且つ適切な初期値がTCOに対して与えられる場合、この計算は可能である。我々は、この計算に対してARToolKitにより与えられた関数を用いる。適切な初期値をTCOに設定するため、前のフレームに対する結果を反復追跡フェーズで用いる。黒い正方形基準(black square fiducial)及びARToolKit関数を用いて、初期検出フェーズにおいて初期値を設定する。
COに対して後続の値を計算するため、我々は、対象物座標におけるn個の特徴点に対応する観測スクリーン座標における位置を検出することが必要である。我々は、このプロセスのためテンプレート・マッチングを用いる。
6.2.3 テンプレート・マッチングによる特徴検出
テンプレート・マッチングは、イメージからテンプレートに類似の領域を検出することができる。一般的には、テンプレートは、前もって準備されていなければならない。しかしながら、これは、1つの特徴点のイメージがその6DOF動きにより変わるので、この種類の3D追跡では不可能である。従って、テンプレートは、各イメージ・フレームに対して発生されねばならない。我々は、追跡される対象物の動きがそれぞれの連続のイメージ・フレーム間で小さいと仮定する。従って、テンプレートは、前のフレームの中のポーズ及び位置情報に基づいて前もって捕捉されている追跡対象物のテクスチャ・イメージ(texture image)から発生される。特徴点の検出は、次の3つのステップから成る。
1)特徴点の観測スクリーン座標(xdi,ydi)の計算
追跡される対象物が、対象物座標のX−Y表面に存在する。そこで、特徴点は、(Xoi,Yoi,0)(i=0,1,,n−1)として表すことができる。前のフレームにおける対象物座標からカメラ座標への変換行列がTCOであると仮定すると、(Xoi,Yoi,0)に対応する観測スクリーン座標(xdi,ydi)は、(式1)及び(式2)により計算することができる。
2)(xdi,ydi)がその中で中心付けされるテンプレートの発生
(xdi,ydi)がその中で中心付けされるテンプレートを発生するため、観測スクリーン座標から対象物座標におけるXo−Yo表面への変換が必要とされる。Zo=0とすると、次の式が得られる。
Figure 2006507722
従って、
Figure 2006507722
この式を用いることにより、全てのテンプレート・ピクセルに対する対象物座標が計算され、そしてカラー値が、追跡される対象物のテクスチャ・イメージからテンプレートにおいて置換されることができる。
テンプレート・マッチング
我々は、テンプレート・マッチングのために正規化された相関を用いる。
Figure 2006507722
ここで、xはピクセル値であり、
Figure 2006507722
はピクセル値の平均であり、yはテンプレート値であり、そして
Figure 2006507722
はテンプレート値の平均である。計算された値は、−1.0と1.0との間である。最大値が見つけられる位置は、観測スクリーン座標における対応の位置(xdi,ydi)を対象物座標における特徴位置(Xoi,Yoi,0)にマッチングさせる。
少なくとも3つの対応の位置を得ることができる場合、前のセクションでの計算を用いて現在のイメージ・フレームに対してTCOを見つけることができる。
6.3 性能及び精度の改善
6.3.1 マルチ・スケール・テンプレート及び焦点はずし
テンプレートは、(式6.6)を用いることにより発生されることができるが、しかしテクスチャ・イメージの解像度が発生されたテンプレートの解像度と全く異なる場合、期待されたテンプレートは、再サンプリング問題のため見つけることができない。補間技術を再サンプリングで用いるならば、それを避けることができるであろう。しかし、それは、多くの計算コストを必要とする。このことを克服するため、幾つかの解像度を有する一部のテクスチャされたイメージ(textured images)が、前もって準備される必要がある。
我々はまた、カメラが自動焦点制御を持たず、且つ入力イメージがカメラと追跡される対象物との間の或る一定の距離でぼやけて捕捉されることを想定する。これを補償するため、我々は、3×3のマスクの平均化フィルタを採用することにより一部のテクスチャ・イメージに対して焦点はずし(defocus)を行う。
6.3.2 特徴選択
テクスチャ・イメージの中の特徴点は、それらがテンプレート・マッチングのため用いることができるように、前もって我々のソフトウエアでもって位置合わせされる。しかしながら、テンプレート・マッチングのための適切な特徴点は、解像度に依存する。例えば、カメラが追跡される対象物の近くにあるとき、観測されるイメージの解像度は高く、そしてイメージの中の小さい文字を特徴点として用いることができる。他方、カメラが追跡される対象物から遠くにあるとき、観測されるイメージの解像度は低く、そして小さい文字は分析(resolve)することができない。これを補償するため、適切な特徴点は、テクスチャ・イメージの種々の解像度に対して独立に位置合わせされる。
できるだけ多くの特徴点が位置合わせされ、そしてこれらのうちの最良のものが、追跡フェーズで動的に選択される。我々はテンプレート・マッチングのため特別のハードウエアを用いないので、特徴点の最小数及び最適位置の選択が、計算コストをできるだけ大きく低減するため、希求される。その上、特徴点の選択の順序が、重要であり、そして各特徴点の追跡と共に反復して行われる。
我々は、発見的特徴選択方法を次のように用いる。まず第1に、最も重要な特徴選択方針は、4つの特徴点がイメージから検出されることである。これが不可能である場合、3つの特徴点の検出が必要とされる。3つより少ない数の特徴点が検出される場合、追跡は失敗である。1つの特徴点が選択されるとき、テンプレート・マッチングは、その選択された特徴に対して行われる。テンプレート・マッチングが成功した場合、換言すると、正規化された相関の最大値が0.7より大きい場合、当該特徴点が記憶され、そして次の特徴点の選択が続けられる。テンプレート・マッチングが失敗した場合、特徴点は、拒絶され、そして代替の特徴点の選択が続けられる。この選択方針が用いる条件は、次のとおりである。
1)選択順序に関係しない共通条件
1.1−特徴点の位置は、その3D位置が観測スクリーン座標に投影されるとき、前のフレームから得られたTCO行列を用いることにより、イメージ窓内になければならない。
1.2−特徴点の解像度を、それが観測スクリーン座標に投影されるとき各特徴に対して事前定義された条件でもって満足させる。
2)第1の特徴点の選択
特徴位置はイメージ中心から最も遠い。
3)第2の特徴点の選択
特徴点は、第1の特徴点から最も遠い。
4)第3の特徴点の選択
第1及び第2の特徴点と一緒に形成される三角形の面積が最大である。
5)第4の特徴点の選択
第1、第2及び第3の特徴点と一緒に形成される長方形の面積が最大である。
6)第5の特徴点の選択
特徴が、位置合わせされた順序で選択される。
テンプレート・マッチングが4つの特徴点に対して成功したとき、変換行列TCOは、それらから(式6.4)に基づいて計算される。誤差が或る一定の値(実験で5.0)より小さい場合、対象物追跡は成功である。そうで無い場合、ミスされた検出が含まれている可能性があり、そして第5の特徴点の検出が実行される。1個が見つけられると、変換行列TCOが、5個の特徴点の組みの中の4つの特徴点の全ての組み合わせに対して計算される。従って、最小誤差を有する変換行列が、その結果拾い上げられる。1個の第5の特徴点の検出が失敗した場合、変換行列TCOは、4個の特徴点の組みの中の3個の特徴点の全ての組み合わせに対して計算される。従って、最小誤差を有する変換行列が、その結果拾い上げられる。最小誤差値がスレッショルドより大きい場合、対象物追跡は失敗である。
6.3.3 テンプレート・マッチングに関する性能の改善
正規化された相関は高い計算コストを有するが、一方それはマッチング点を首尾良く検出する。我々のテンプレート・サイズは、640×240のイメージに対して24×12ピクセルである。640×480のイメージが入力されるが、しかしフィールド順次式イメージがテンプレート・マッチングのため用いられる。性能を更に改善するため、テンプレート・マッチングは、カラー・ピクセルを平均化することにより計算されるグレイスケール・ピクセル値に対して行われる。今のところ、マッチング・データの寸法は24×12×1=288であり、そしてその計算コストは依然高い。
計算コストを低減するため、我々は、2ステップ・テンプレート・マッチングを用いる。まず第1に、粗い探索が実行される。探索範囲上を走査する際に、テンプレート・マッチングが、x方向において3ピクセル毎に1回行われ、そして最良の3つの結果の位置が、記憶される。また、(式6.9)が、このテンプレート・マッチングのために用いられる。
Figure 2006507722
ここで、I(i,j)はテンプレートがオーバラップする領域の中の位置(i,j)でのピクセルであり、I ̄(本明細書では、「X ̄」は記号Xの上に ̄を付した記号を表す。)はテンプレートがオーバラップする領域の中の平均ピクセル値であり、T(i,j)はテンプレートの中の位置(i,j)でのピクセル値であり、T ̄はテンプレートの中の平均ピクセル値である。前述したように、テンプレート・サイズは24×12ピクセルである。しかしながら、この計算は、その計算コストが低減されるように2ピクセル毎に1ピクセルを用いる。
次に、精細な探索が実行される。24×12テンプレート・サイズの場合の正規化された相関が、前に得られた3つの位置を囲む領域の中で式(6.7)に基づいて用いられる。従って、最も高い相関値を有する位置が、その結果として見つけられる。
このテンプレート・マッチングがうまく働くため、正しい位置を囲む領域の中のマッチング結果は、それらが粗い探索における最良の3つの結果に含まれるように高い類似度を保たねばならない。テクスチャ・イメージの焦点をはずすことが、同様に、この2ステップ・マッチング・プロセスを支援する。
6.4 オフライン自動特徴検出
多くの適切な特徴点は、セクション3で説明したテンプレート・マッチングがうまく働くように全ての解像度のイメージにおいて位置合わせされねばならない。適切な特徴点に対する2つの条件がある。
1)テンプレート・マッチングの探索サイズ内に類似の領域が無い。
2)特徴点からの3つのピクセル内の類似度が高い。
我々は、最良の特徴点の自動検出の方法を開発した。特徴点としての適性は、全ての解像度のテクスチャ・イメージに対して全ての位置で検査される。テクスチャ・イメージの中の各点に対して、領域の特徴点が中心である当該領域が、テンプレートとして抽出され、そして正規化された相関の最大値が、中心の5×5ピクセル領域を除く49×49ピクセルの探索範囲から計算される。この値は、テクスチャ・イメージの中の全ての位置で計算される。
図14A及び図14Bは、予備の特徴点抽出結果を示す図である。図14Aは、図12Aのイメージに対する予備の特徴点抽出結果を示し、一方図14Bは、図12Bのイメージに対する予備の特徴点抽出結果を示す。これらのイメージの中の明るいピクセルは、相関値が殆ど無いことを、即ち、明るい位置は、特徴点として条件1に適していることを意味する。イメージの中の正方形マーカ領域がまた、この計算から省かれている。
次に、正規化された相関が、中心点を除く5×5領域に対して実行される。最小値が0.6より大きく且つ最大値が1.0より小さい場合、当該位置は、特徴点として位置合わせされる。しかしながら、そのテンプレート領域が事前位置合わせされた特徴点のテンプレート領域とのオーバラップを有する場合、それは取り消される。図15A及び図15Bは、予備の特徴点抽出結果を示す図である。図15Aは、図12Aのイメージに対する予備の特徴点抽出結果を示し、一方図15Bは、図12Bのイメージに対する予備の特徴点抽出結果を示す。それぞれの図面は、3つの異なるレベルの解像度で抽出された特徴点、即ち、高いレベルの解像度での赤いボックスにより識別される特徴点、中間レベルの解像度での緑のボックスにより識別される特徴点、及び低いレベルの解像度での青のボックスにより識別される特徴点を示す。
6.5 実験
実験が図1におけるテクスチャ・イメージに対して行われた。我々は、インテル・ペンティアム4(登録商標)の2.0GHz、リナックスOS、アナログ・ビデオ・キャプチャ・カード及びGeForce3グラフィックス・カードを有するPCを用いた。カメラがHMD上に取り付けられ、そしてそのシャッター速度は1/250秒であった。640×480のイメージが捕捉され、そして追跡プログラムが約30フレーム/秒で正確に動作することができた。追跡が続く間に、16個のワイヤフレーム立方体が、追跡される対象物上に被せられる。
図16Aから図16Hは、サンプル追跡実験の結果を示す追跡図である。我々は、仮想対象物が幾つかの条件において追跡される対象物上に適切に被せられることが分かった。
図17Aから図17Dは、例示のイメージに対するテンプレート・マッチング結果を示す。各図面の左端部に沿って配列された長方形は、マッチングされた特徴に対して本装置が発生した特徴テンプレートを示す。イメージの中の緑の長方形領域は、受け入れられたマッチング領域であり、そして黄色の長方形領域は、拒絶された領域である。我々は、4個のマッチング領域を見つけるまでテンプレート・マッチングを試みられることを知ることができる。そこで、位置合わせは、テクスチャが手で隠蔽されるときですら、うまく働く。
追跡される対象物が急速に回転するとき追跡が時々失敗した。それは、テンプレート・マッチングが、並進移動に対して強固であるが、しかし追跡される領域の回転に対して強固でないからである。別の問題は、3個の特徴点からのポーズ及び位置計算であった。3個の特徴点が殆ど直線上にあるとき、位置合わせが悪く、そしてそれは、追跡を次のフレームで失敗させた。そこで、4個の特徴点の組みの中の3個の特徴点を選択する条件が、考慮されねばならない。
上記で説明した装置が、様々な方法で直接適用され、又は拡張され得ることが当業者により認められるであろう。上記の説明は好適な実施形態を参照してなされたが、本発明の範囲は、添付の特許請求の範囲及びその中に記載された構成要素によってのみ定義されるものである。
図1は、表面に付されたとき、装置が追跡することができる典型的なイメージを示すイメージ図である。 図2は、装置が表面を追跡するため典型的に実行するステップを示すフロー図である。 図3は、装置が動作する典型的な環境を示すブロック図である。 図4は、テンプレート・マッチングで用いられる窓と、それを含むビデオ・フレーム内の探索範囲との関係を示すピクセル図である。 図5は、候補ピクセルに対する特徴点の制約を示すピクセル図である。 図6Aは、200dpiの元のイメージ像解像度のためのオフライン特徴抽出アルゴリズムのこの最初のステップの出力を示す。図6Bは、100dpiのより低い解像度での出力を示す。これらの両方の図面は、25×25ピクセルのテンプレート・サイズを表す。 図7は、図1に示されるイメージから抽出されたサンプル特徴を示すイメージ図である。 図8は、これらの予測方法の異なる組み合わせの実験に基づく有効性を示すグラフである。 図9Aから図9Cは、シーンにおいて様々な解像度に対する追跡結果を示す追跡図である。 図10A及び図10Bは、隠蔽条件下での追跡結果を示す追跡図である。 図11から図11Dは、様々な回転の度合い下のシーンに対する追跡結果を示す追跡図である。 図12A及び図12Bは、装置が追跡するサンプル・イメージを示すイメージ図である。 図13は、装置が用いる座標系を示す座標図である。 図14A及び図14Bは、予備特徴点抽出結果を示す図である。 図15A及び図15Bは、予備特徴点抽出結果を示す図である。 図16Aから図16Fは、サンプル追跡実験の結果を示す追跡図である。図16G及び図16Hは、サンプル追跡実験の結果を示す追跡図である。 図17Aから図17Dは、サンプル・イメージに対するテンプレート・マッチング結果を示す。

Claims (31)

  1. 任意の様相を有する寸法のある表面のカメラに対する動きを追跡するコンピュータ・システムにおける方法であって、
    前記表面のイメージを捕捉するステップと、
    表面の前記の捕捉されたイメージを解析して、前記の捕捉されたイメージに存在する視覚的特徴を識別するステップと、
    前記の識別された視覚的特徴から、前記表面の動きを追跡するのに使用するため複数の視覚的特徴を選択するステップと、
    前記カメラにより捕捉された一連のイメージを受け取るステップであって、前記一連のイメージのうちの少なくとも一部のイメージが前記表面の少なくとも一部分のビューを構成する、前記受け取るステップと、を備え、
    更に、前記一連のイメージの各イメージに対して、
    前記の選択された特徴が前記イメージの中で生じる2次元位置を識別するステップと、
    前記特徴が前記イメージの中で識別される前記2次元位置に基づいて、前記カメラに対して前記一連のイメージのうちの現在のイメージの中で前記表面の3次元位置及び向きを決定するステップと、を備える、方法。
  2. 前記の選択された特徴が前記イメージの中で生じる2次元位置は、前記選択された特徴が前記イメージにおいて同一平面上に見えるという想定の元に予測される請求項1記載の方法。
  3. 前記表面が2次元表面である請求項1記載の方法。
  4. 前記表面が平坦な表面である請求項1記載の方法。
  5. 前記表面が、或る距離で観察されたとき平坦に見える不規則な物体(body)である請求項1記載の方法。
  6. 表面の前記の決定された位置及び向きを用いて、前記表面のイメージと関連するサイズ、位置及び向きで、補足のイメージを前記一連のイメージのうちの複数のイメージに導入するステップを更に備える請求項1記載の方法。
  7. 表面の前記の決定された位置及び向きを用いて、3次元の対象物のビューを前記表面の上に重畳するステップを更に備える請求項1記載の方法。
  8. 前記の識別された特徴の選択が、前記の識別された特徴のそれぞれにより与えられるコントラストのレベル同士の比較に基づいて実行される請求項1記載の方法。
  9. 前記の識別された特徴の選択が、全ての前記の識別された特徴の中で各前記の識別された特徴の一意性のレベル同士の比較に基づいて実行される請求項1記載の方法。
  10. 前記の識別された特徴の選択が、前記表面の位置及び向きを決定するため前記の識別された特徴を用いることができる正確さのレベル同士の比較に基づいて実行される請求項1記載の方法。
  11. 前記の識別された特徴の選択が、少なくとも2つの異なるサイズ範囲において視覚的特徴を選択することを含み、
    前記方法は更に、前記サイズ範囲のうちの1つのサイズ範囲を、前記表面の現在位置に対する距離の尺度に基づいて選択するステップを含み、
    前記の選択されたサイズ範囲における選択された特徴を用いて、前記表面の位置及び向きを決定する
    請求項1記載の方法。
  12. 前記一連のイメージの各イメージに対して、
    特徴が前記一連のイメージのうちの1又はそれより多い前のイメージの中で識別される2次元位置に基づいて、前記特徴が現在のイメージの中に生じるであろう2次元位置を予測するステップと、
    探索ゾーンを前記の予測された位置の周りに確立するステップと、を更に備え、
    前記の選択された特徴がイメージの中に生じる2次元位置を識別する前記ステップが、前記の選択された特徴を求めて前記の確立された探索ゾーンを探索するステップを備える
    請求項1記載の方法。
  13. 前記表面が、任意の様相を有することに加えて、1又はそれより多い基準マーカを含むように変更され、
    前記方法は更に、前記一連のイメージの第1のイメージにおいて、基準マーカに対応する前記イメージの部分を識別し且つ解析して、前記イメージでの前記表面の3次元位置及び向きを決定するステップを備え、
    前記一連のイメージの第1のイメージでの前記表面の3次元位置及び向きを決定する前記ステップを用いて、前記の選択された特徴が前記一連のイメージの第1のイメージで生じる2次元位置を識別する
    請求項1記載の方法。
  14. 各基準マーカが一意の識別パターンを備える請求項13記載の方法。
  15. 各基準マーカが正方形の形状である請求項13記載の方法。
  16. 前記一連のイメージのうちの現在のイメージにおける前記表面の3次元位置及び向きが、明示された基準マーカを用いること無しに決定される請求項1記載の方法。
  17. 前記カメラを用いて前記一連のイメージを捕捉するステップを更に備え、
    前記決定を前記の捕捉に対してリアルタイムで行う
    請求項1記載の方法。
  18. 前記一連のイメージのうちの2つの連続したイメージの間で、前記カメラが前記環境に対して移動する請求項1記載の方法。
  19. 前記一連のイメージのうちの2つの連続したイメージの間で、前記表面が前記環境に対して移動する請求項1記載の方法。
  20. コンピュータ可読媒体のコンテンツが、
    表面のイメージを捕捉するステップと、
    表面の前記の捕捉されたイメージを解析して、前記の捕捉されたイメージに存在する視覚的特徴を識別するステップと、
    前記の識別された視覚的特徴から、前記表面の動きを追跡するのに使用するため複数の視覚的特徴を選択するステップと、
    前記カメラにより捕捉された一連のイメージを受け取るステップであって、前記一連のイメージのうちの少なくとも一部が前記表面の少なくとも一部分のビューを構成する、前記受け取るステップと、
    前記一連のイメージの各イメージに対して、
    前記の選択された特徴が前記イメージの中で生じる2次元位置を識別するステップと、
    前記特徴が前記イメージの中で識別される前記2次元位置に基づいて、前記カメラに対して、前記一連のイメージのうちの現在のイメージにおける前記表面の3次元位置及び向きを決定するステップと
    を行うことにより、コンピュータ・システムに、任意の様相を有する寸法のある表面の前記カメラに対する動きを追跡させる、コンピュータ可読媒体。
  21. 固有の視覚的様相を有し且つ1又はそれより多い明示の基準マーカが付されている2次元表面を追跡するコンピュータ・システムにおける方法であって、
    前記表面の固有の視覚的様相の視覚的に有意の外観を識別するステップと、
    前記表面の一連の透視イメージのうちの最初の透視イメージにおいて、基準マーカの認識を実行して、当該最初の透視イメージでの前記表面の3次元位置及び向きを決定するステップと、
    前記表面の連続した透視イメージにおいて、前記表面の固有の視覚的様相の前記の識別された外観の認識を実行して、前記連続した透視イメージでの前記表面の3次元位置及び向きを決定するステップと
    を備える方法。
  22. 連続したイメージのそれぞれにおける前記表面の固有の視覚的様相の前記の識別された外観の認識が、前のイメージでの前記表面の3次元位置及び向きにより案内される請求項21記載の方法。
  23. 各基準マーカが正方形の形状である請求項21記載の方法。
  24. 前記表面の固有の視覚的様相の前記の識別された外観の認識が、前記の選択された特徴が前記の連続した透視イメージにおいて同一平面上に見えるという想定の元に予測される請求項21記載の方法。
  25. 固有の視覚的様相を有し且つ1又はそれより多い明示の基準マーカが付されている2次元表面を追跡するコンピュータ・システムであって、
    前記表面の固有の視覚的様相の視覚的に有意の外観を識別する視覚解析サブシステムと、
    前記表面の一連の透視イメージのうちの最初の透視イメージにおいて、基準マーカの認識を実行して、前記最初の透視イメージでの前記表面の3次元位置及び向きを決定する第1の認識サブシステムと、
    前記表面の連続した透視イメージにおいて、前記表面の固有の視覚的様相の前記の識別された外観の認識を実行して、前記連続した透視イメージでの前記表面の3次元位置及び向きを決定する第2の認識サブシステムと
    を備えるコンピュータ・システム。
  26. 対象表面の識別された透視イメージでの前記対象表面の3次元位置及び向きを決定するコンピュータ・システムにおける方法であって、前記対象表面が固有の視覚的特徴を有し、当該固有の視覚的特徴のサブセットが選択される、前記方法において、
    前記の識別された透視イメージより時間的に前にある前記対象表面の透視イメージでの前記の選択された視覚的特徴の位置を用いて、前記の識別された透視イメージの中の探索ゾーンを識別するステップと、
    前記の選択された視覚的特徴を求めて前記の識別された探索ゾーンを探索して、前記の選択された視覚的特徴が生じる2次元位置を決定するステップと、
    前記の決定された2次元位置に基づいて、識別された透視イメージでの対象表面の3次元位置及び向きを決定するステップと
    を備える方法。
  27. 前記対象表面の前記の選択された固有の視覚的特徴の数が少なくとも4個である請求項26記載の方法。
  28. 前記対象表面の固有の視覚的特徴のサブセットのそれぞれが異なる一般的サイズの特徴を含む、複数の前記サブセットを選択し、
    前記方法は更に、前記対象表面の前に決定された3次元位置に基づいて、特徴の1つのサブセットを選定するステップを備え、
    前記の選定されたサブセットの特徴を求めて前記の識別された探索ゾーンを探索する
    請求項26記載の方法。
  29. 前記の選択された視覚的特徴が生じる2次元位置の決定が、前記の選択された視覚的特徴が前記イメージにおいて同一平面上に見えるという想定の元に予測される請求項26記載の方法。
  30. コンピュータ可読媒体のコンテンツが、コンピュータ・システムに、対象表面の識別された透視イメージでの前記対象表面の3次元位置及び向きを以下のステップを行うことにより決定させる、コンピュータ可読媒体であって、前記対象表面が固有の視覚的特徴を有し、当該固有の視覚的特徴のサブセットが選択される、前記コンピュータ可読媒体において、
    前記以下のステップが、
    前記の識別された透視イメージより時間的に前にある前記対象表面の透視イメージでの前記の選択された視覚的特徴の位置を用いて、前記の識別された透視イメージの中の探索ゾーンを識別するステップと、
    前記の選択された視覚的特徴を求めて前記の識別された探索ゾーンを探索して、前記の選択された視覚的特徴が生じる2次元位置を決定するステップと、
    前記の決定された2次元位置に基づいて、識別された透視イメージでの対象表面の3次元位置及び向きを決定するステップとである、コンピュータ可読媒体。
  31. 或る様相を有する表面に関する視覚的追跡データ構造を格納する1又はそれより多いコンピュータ・メモリであって、
    前記データ構造が、複数の自然の特徴テンプレートを備え、
    自然の特徴テンプレートのそれぞれが、前記表面の様相に生じる特徴に対応し、且つ前記表面の透視イメージの中の前記特徴を識別するための適切な情報を含み、
    それにより、前記データ構造のコンテンツを用いて、前記自然の特徴テンプレートが前記表面の透視イメージにおいて対応する特徴の少なくとも1つのサブセットを識別し、且つ前記透視イメージがそれから捕捉される空間内の点に対する前記表面の距離及び向きを決定し得る、1又はそれより多いコンピュータ・メモリ。
JP2004546322A 2002-10-22 2003-10-22 表面の生来の視覚的特徴を用いて3次元シーンにおける表面の追跡 Pending JP2006507722A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US42063802P 2002-10-22 2002-10-22
US51372503P 2003-10-22 2003-10-22
PCT/IB2003/006418 WO2004038657A2 (en) 2002-10-22 2003-10-22 Tracking a surface in a 3-dimensional scene using natural visual features of the surface

Publications (1)

Publication Number Publication Date
JP2006507722A true JP2006507722A (ja) 2006-03-02

Family

ID=32179808

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004546322A Pending JP2006507722A (ja) 2002-10-22 2003-10-22 表面の生来の視覚的特徴を用いて3次元シーンにおける表面の追跡

Country Status (7)

Country Link
US (2) US7343278B2 (ja)
EP (1) EP1556805B1 (ja)
JP (1) JP2006507722A (ja)
AT (1) ATE521953T1 (ja)
AU (1) AU2003298491A1 (ja)
NZ (1) NZ539632A (ja)
WO (1) WO2004038657A2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009015720A (ja) * 2007-07-06 2009-01-22 Ntt Docomo Inc 認識装置および認識方法
JP2010517129A (ja) * 2007-01-22 2010-05-20 トタル イメルシオン ビデオストリームにおいて、マーク無しに、テクスチャー化平面幾何学的オブジェクトをリアルタイムで自動追跡するリアリティ向上方法および装置
US7987079B2 (en) 2002-10-22 2011-07-26 Artoolworks, Inc. Tracking a surface in a 3-dimensional scene using natural visual features of the surface
JP2014514539A (ja) * 2011-03-23 2014-06-19 メタイオ ゲゼルシャフト ミット ベシュレンクテル ハフツング 共線変換ワープ関数を用いて第1の画像の少なくとも一部と第2の画像の少なくとも一部を位置合わせする方法
JP2016028331A (ja) * 2011-03-04 2016-02-25 クゥアルコム・インコーポレイテッドQualcomm Incorporated 動的テンプレート追跡

Families Citing this family (83)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7590261B1 (en) * 2003-07-31 2009-09-15 Videomining Corporation Method and system for event detection by analysis of linear feature occlusion
TWI246338B (en) * 2004-04-09 2005-12-21 Asustek Comp Inc A hybrid model sprite generator and a method to form a sprite
JP4532982B2 (ja) * 2004-05-14 2010-08-25 キヤノン株式会社 配置情報推定方法および情報処理装置
JP2006221603A (ja) * 2004-08-09 2006-08-24 Toshiba Corp 3次元情報復元装置、3次元情報復元方法および3次元情報復元プログラム
US8437502B1 (en) * 2004-09-25 2013-05-07 Cognex Technology And Investment Corporation General pose refinement and tracking tool
EP1662440A1 (en) * 2004-11-30 2006-05-31 IEE INTERNATIONAL ELECTRONICS & ENGINEERING S.A. Method for determining the position of an object from a digital image
KR100659888B1 (ko) * 2005-01-07 2006-12-20 엘지전자 주식회사 이동 단말기의 3차원 영상 처리방법
WO2006122009A2 (en) * 2005-05-09 2006-11-16 Lockheed Martin Corporation Continuous extended range image processing
US7817150B2 (en) 2005-09-30 2010-10-19 Rockwell Automation Technologies, Inc. Three-dimensional immersive system for representing an automation control environment
CA2566260C (en) * 2005-10-31 2013-10-01 National Research Council Of Canada Marker and method for detecting said marker
GB2432064B (en) * 2005-10-31 2011-01-19 Hewlett Packard Development Co Method of triggering a detector to detect a moving feature within a video stream
US9052161B2 (en) * 2005-12-19 2015-06-09 Raydon Corporation Perspective tracking system
US20070190495A1 (en) * 2005-12-22 2007-08-16 Kendir O T Sensing device for firearm laser training system and method of simulating firearm operation with various training scenarios
JP5018767B2 (ja) * 2006-03-01 2012-09-05 株式会社ニコン 被写体追跡プログラム、被写体追跡装置、およびカメラ
KR101195942B1 (ko) * 2006-03-20 2012-10-29 삼성전자주식회사 카메라 보정 방법 및 이를 이용한 3차원 물체 재구성 방법
TWI321297B (en) * 2006-09-29 2010-03-01 Ind Tech Res Inst A method for corresponding, evolving and tracking feature points in three-dimensional space
US7835592B2 (en) * 2006-10-17 2010-11-16 Seiko Epson Corporation Calibration technique for heads up display system
US20080170750A1 (en) * 2006-11-01 2008-07-17 Demian Gordon Segment tracking in motion picture
US8089635B2 (en) 2007-01-22 2012-01-03 California Institute Of Technology Method and system for fast three-dimensional imaging using defocusing and feature recognition
WO2008091691A1 (en) 2007-01-22 2008-07-31 California Institute Of Technology Method and apparatus for quantitative 3-d imaging
AU2008244492A1 (en) 2007-04-23 2008-11-06 California Institute Of Technology Single-lens, single-sensor 3-D imaging device with a central aperture for obtaining camera position
JP2009053815A (ja) * 2007-08-24 2009-03-12 Nikon Corp 被写体追跡プログラム、および被写体追跡装置
KR102204485B1 (ko) 2007-09-26 2021-01-19 에이큐 미디어 인크 오디오-비주얼 내비게이션 및 통신
WO2009067223A2 (en) * 2007-11-19 2009-05-28 California Institute Of Technology Method and system for fast three-dimensional imaging using defocusing and feature recognition
US8514268B2 (en) * 2008-01-22 2013-08-20 California Institute Of Technology Method and device for high-resolution three-dimensional imaging which obtains camera pose using defocusing
US20100045701A1 (en) * 2008-08-22 2010-02-25 Cybernet Systems Corporation Automatic mapping of augmented reality fiducials
WO2010029553A1 (en) 2008-09-11 2010-03-18 Netanel Hagbi Method and system for compositing an augmented reality scene
KR100974900B1 (ko) * 2008-11-04 2010-08-09 한국전자통신연구원 동적 임계값을 이용한 마커 인식 장치 및 방법
JP5029647B2 (ja) * 2009-04-08 2012-09-19 株式会社ニコン 被写体追尾装置、およびカメラ
US8773507B2 (en) * 2009-08-11 2014-07-08 California Institute Of Technology Defocusing feature matching system to measure camera pose with interchangeable lens cameras
US8773514B2 (en) * 2009-08-27 2014-07-08 California Institute Of Technology Accurate 3D object reconstruction using a handheld device with a projected light pattern
EP2489033A4 (en) * 2009-10-15 2017-01-25 Apple Inc. Systems and methods for tracking natural planar shapes for augmented reality applications
TWI396116B (zh) * 2009-12-18 2013-05-11 Pixart Imaging Inc 位移偵測裝置及方法
GB201009725D0 (en) * 2010-06-11 2010-07-21 Univ Leuven Kath Method of quantifying local bone loss
EP3091508B1 (en) 2010-09-03 2018-12-26 California Institute of Technology Three-dimensional imaging system
US9013550B2 (en) * 2010-09-09 2015-04-21 Qualcomm Incorporated Online reference generation and tracking for multi-user augmented reality
WO2012063468A1 (ja) * 2010-11-11 2012-05-18 パナソニック株式会社 画像処理装置、画像処理方法、およびプログラム
US9092864B2 (en) * 2010-11-30 2015-07-28 Pixart Imaging Inc Displacement detection apparatus and method
JP5627439B2 (ja) * 2010-12-15 2014-11-19 キヤノン株式会社 特徴検出装置、特徴検出方法、およびそのプログラム
US9721387B2 (en) 2010-12-21 2017-08-01 Cyberlink Corp. Systems and methods for implementing augmented reality
US9026242B2 (en) 2011-05-19 2015-05-05 Taktia Llc Automatically guided tools
US8686851B2 (en) 2011-06-08 2014-04-01 General Electric Company System and method for rapid location of an alarm condition
CN103582893B (zh) * 2011-06-08 2017-10-13 英派尔科技开发有限公司 用于增强现实表示的二维图像获取
KR20140068855A (ko) * 2011-06-23 2014-06-09 오블롱 인더스트리즈, 인크 공간 입력 장치를 위한 적응적 추적 시스템
US10242456B2 (en) 2011-06-23 2019-03-26 Limitless Computing, Inc. Digitally encoded marker-based augmented reality (AR)
US8948447B2 (en) 2011-07-12 2015-02-03 Lucasfilm Entertainment Companyy, Ltd. Scale independent tracking pattern
US9202278B2 (en) 2011-08-19 2015-12-01 Adobe Systems Incorporated Plane-based self-calibration for structure from motion
JP5872923B2 (ja) 2012-02-22 2016-03-01 株式会社マイクロネット Ar画像処理装置及び方法
WO2013163588A1 (en) 2012-04-26 2013-10-31 Alec Rothmyer Rivers Systems and methods for performing a task on a material, or locating the position of a device relative to the surface of the material
US9299160B2 (en) 2012-06-25 2016-03-29 Adobe Systems Incorporated Camera tracker target user interface for plane detection and object creation
US9208577B2 (en) 2012-06-25 2015-12-08 Adobe Systems Incorporated 3D tracked point visualization using color and perspective size
US9418480B2 (en) * 2012-10-02 2016-08-16 Augmented Reailty Lab LLC Systems and methods for 3D pose estimation
EP2818948B1 (en) * 2013-06-27 2016-11-16 ABB Schweiz AG Method and data presenting device for assisting a remote user to provide instructions
JP6237326B2 (ja) * 2014-02-25 2017-11-29 富士通株式会社 姿勢推定装置、姿勢推定方法及び姿勢推定用コンピュータプログラム
KR20150116260A (ko) 2014-04-07 2015-10-15 삼성전자주식회사 마커 추적 방법 및 그 전자 장치
JP6405891B2 (ja) * 2014-10-29 2018-10-17 富士通株式会社 位置・姿勢推定装置、位置・姿勢推定方法、及び、プログラム
ES2872724T3 (es) 2015-02-19 2021-11-02 Magic Pony Tech Limited Mejora de los datos visuales mediante el uso de redes neuronales actualizadas
EP3278559B1 (en) 2015-03-31 2021-05-05 Magic Pony Technology Limited Training end-to-end video processes
GB201603144D0 (en) 2016-02-23 2016-04-06 Magic Pony Technology Ltd Training end-to-end video processes
GB201604672D0 (en) 2016-03-18 2016-05-04 Magic Pony Technology Ltd Generative methods of super resolution
WO2016183390A1 (en) 2015-05-13 2016-11-17 Taktia Llc Systems, methods and apparatus for guided tools
JP2017045124A (ja) * 2015-08-24 2017-03-02 株式会社日本自動車部品総合研究所 視差検出装置
KR102410268B1 (ko) * 2015-11-20 2022-06-20 한국전자통신연구원 객체 추적 방법 및 그 방법을 수행하는 객체 추적 장치
US10823950B2 (en) * 2016-01-07 2020-11-03 Digital Surigcals PTE. LTD. Camera system with balanced monocular cues for use in digital stereo microscopes
US11406264B2 (en) 2016-01-25 2022-08-09 California Institute Of Technology Non-invasive measurement of intraocular pressure
WO2017178808A1 (en) 2016-04-12 2017-10-19 Magic Pony Technology Limited Visual data processing using energy networks
GB201607994D0 (en) 2016-05-06 2016-06-22 Magic Pony Technology Ltd Encoder pre-analyser
US11577159B2 (en) 2016-05-26 2023-02-14 Electronic Scripting Products Inc. Realistic virtual/augmented/mixed reality viewing and interactions
EP4375773A2 (en) 2016-08-19 2024-05-29 Shaper Tools, Inc. Apparatus and method for guiding a tool positioned on the surface of a piece of material
TWI619093B (zh) * 2016-10-19 2018-03-21 財團法人資訊工業策進會 視覺定位裝置、方法及其電腦程式產品
US10311593B2 (en) * 2016-11-16 2019-06-04 International Business Machines Corporation Object instance identification using three-dimensional spatial configuration
US10891502B1 (en) * 2017-01-19 2021-01-12 State Farm Mutual Automobile Insurance Company Apparatuses, systems and methods for alleviating driver distractions
US11055538B2 (en) * 2017-03-31 2021-07-06 Disney Enterprises, Inc. Object re-identification with temporal context
IL301087A (en) * 2017-05-01 2023-05-01 Magic Leap Inc Adapting content to a three-dimensional spatial environment
US10565802B2 (en) * 2017-08-31 2020-02-18 Disney Enterprises, Inc. Collaborative multi-modal mixed-reality system and methods leveraging reconfigurable tangible user interfaces for the production of immersive, cinematic, and interactive content
KR20230108356A (ko) 2017-12-22 2023-07-18 매직 립, 인코포레이티드 혼합 현실 시스템에서 가상 콘텐츠를 관리하고 디스플레이하기위한 방법들 및 시스템
CA3089646A1 (en) 2018-02-22 2019-08-20 Magic Leap, Inc. Browser for mixed reality systems
CA3091026A1 (en) 2018-02-22 2019-08-29 Magic Leap, Inc. Object creation with physical manipulation
US11017548B2 (en) 2018-06-21 2021-05-25 Hand Held Products, Inc. Methods, systems, and apparatuses for computing dimensions of an object using range images
US11113837B2 (en) * 2019-10-25 2021-09-07 7-Eleven, Inc. Sensor mapping to a global coordinate system
WO2020206313A1 (en) 2019-04-03 2020-10-08 Magic Leap, Inc. Managing and displaying webpages in a virtual three-dimensional space with a mixed reality system
US10600210B1 (en) * 2019-07-25 2020-03-24 Second Spectrum, Inc. Data processing systems for real-time camera parameter estimation
US11782254B2 (en) * 2020-07-24 2023-10-10 United Scope LLC Digital microscopy system and graphical user interface

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08101924A (ja) * 1994-09-30 1996-04-16 Hitachi Ltd 画像合成方法
JPH1032751A (ja) * 1996-07-17 1998-02-03 Canon Inc 撮像装置及び画像処理装置
JPH10177699A (ja) * 1996-12-16 1998-06-30 Toyota Motor Corp 画像情報を利用した車両用音声案内装置
JPH10339646A (ja) * 1997-06-10 1998-12-22 Toyota Motor Corp 車両用案内表示装置
JP2000020728A (ja) * 1998-01-14 2000-01-21 Canon Inc 画像処理装置及び方法
US20020039111A1 (en) * 2000-06-27 2002-04-04 James Gips Automated visual tracking for computer access
JP2002530970A (ja) * 1998-11-20 2002-09-17 アマン,ジェームズ エイ. 多標的追跡システム
US6618076B1 (en) * 1999-12-23 2003-09-09 Justsystem Corporation Method and apparatus for calibrating projector-camera system

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5850352A (en) 1995-03-31 1998-12-15 The Regents Of The University Of California Immersive video, including video hypermosaicing to generate from multiple video views of a scene a three-dimensional video mosaic from which diverse virtual video scene images are synthesized, including panoramic, scene interactive and stereoscopic images
US6858826B2 (en) * 1996-10-25 2005-02-22 Waveworx Inc. Method and apparatus for scanning three-dimensional objects
JP3512992B2 (ja) * 1997-01-07 2004-03-31 株式会社東芝 画像処理装置および画像処理方法
US6160907A (en) 1997-04-07 2000-12-12 Synapix, Inc. Iterative three-dimensional process for creating finished media content
US6084590A (en) 1997-04-07 2000-07-04 Synapix, Inc. Media production with correlation of image stream and abstract objects in a three-dimensional virtual stage
US6175652B1 (en) * 1997-12-31 2001-01-16 Cognex Corporation Machine vision system for analyzing features based on multiple object images
US6757422B1 (en) * 1998-11-12 2004-06-29 Canon Kabushiki Kaisha Viewpoint position detection apparatus and method, and stereoscopic image display system
US7483049B2 (en) * 1998-11-20 2009-01-27 Aman James A Optimizations for live event, real-time, 3D object tracking
US6542249B1 (en) * 1999-07-20 2003-04-01 The University Of Western Ontario Three-dimensional measurement method and apparatus
AU2001233019A1 (en) * 2000-01-28 2001-08-07 Intersense, Inc. Self-referenced tracking
US6525306B1 (en) * 2000-04-25 2003-02-25 Hewlett-Packard Company Computer mouse with integral digital camera and method for using the same
US7523411B2 (en) * 2000-08-22 2009-04-21 Bruce Carlin Network-linked interactive three-dimensional composition and display of saleable objects in situ in viewer-selected scenes for purposes of object promotion and procurement, and generation of object advertisements
US6753828B2 (en) * 2000-09-25 2004-06-22 Siemens Corporated Research, Inc. System and method for calibrating a stereo optical see-through head-mounted display system for augmented reality
US20020105484A1 (en) 2000-09-25 2002-08-08 Nassir Navab System and method for calibrating a monocular optical see-through head-mounted display system for augmented reality
JP2002164066A (ja) * 2000-11-22 2002-06-07 Mitsubishi Heavy Ind Ltd 積層型熱交換器
JP3804916B2 (ja) * 2001-02-09 2006-08-02 シャープ株式会社 撮像システムとその画像データ制御に用いられるプログラムおよびその撮像システムにおける撮像画像の歪み補正方法とその手順を記憶させた記憶媒体
US6834119B2 (en) * 2001-04-03 2004-12-21 Stmicroelectronics, Inc. Methods and apparatus for matching multiple images
US9400921B2 (en) * 2001-05-09 2016-07-26 Intel Corporation Method and system using a data-driven model for monocular face tracking
US6639594B2 (en) * 2001-06-03 2003-10-28 Microsoft Corporation View-dependent image synthesis
WO2003007237A1 (fr) * 2001-07-12 2003-01-23 Do Labs Procede et systeme pour produire des informations formatees liees aux distorsions geometriques
JP4573085B2 (ja) * 2001-08-10 2010-11-04 日本電気株式会社 位置姿勢認識装置とその位置姿勢認識方法、及び位置姿勢認識プログラム
US20030076980A1 (en) * 2001-10-04 2003-04-24 Siemens Corporate Research, Inc.. Coded visual markers for tracking and camera calibration in mobile computing systems
US7231063B2 (en) * 2002-08-09 2007-06-12 Intersense, Inc. Fiducial detection system
AU2003298491A1 (en) 2002-10-22 2004-05-13 Artoolworks Tracking a surface in a 3-dimensional scene using natural visual features of the surface

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08101924A (ja) * 1994-09-30 1996-04-16 Hitachi Ltd 画像合成方法
JPH1032751A (ja) * 1996-07-17 1998-02-03 Canon Inc 撮像装置及び画像処理装置
JPH10177699A (ja) * 1996-12-16 1998-06-30 Toyota Motor Corp 画像情報を利用した車両用音声案内装置
JPH10339646A (ja) * 1997-06-10 1998-12-22 Toyota Motor Corp 車両用案内表示装置
JP2000020728A (ja) * 1998-01-14 2000-01-21 Canon Inc 画像処理装置及び方法
JP2002530970A (ja) * 1998-11-20 2002-09-17 アマン,ジェームズ エイ. 多標的追跡システム
US6618076B1 (en) * 1999-12-23 2003-09-09 Justsystem Corporation Method and apparatus for calibrating projector-camera system
US20020039111A1 (en) * 2000-06-27 2002-04-04 James Gips Automated visual tracking for computer access

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7987079B2 (en) 2002-10-22 2011-07-26 Artoolworks, Inc. Tracking a surface in a 3-dimensional scene using natural visual features of the surface
JP2010517129A (ja) * 2007-01-22 2010-05-20 トタル イメルシオン ビデオストリームにおいて、マーク無しに、テクスチャー化平面幾何学的オブジェクトをリアルタイムで自動追跡するリアリティ向上方法および装置
KR101328759B1 (ko) * 2007-01-22 2013-11-13 또딸 이메르지옹 비디오 스트림 내에서 마커 없는 텍스쳐 기하학적 평면 객체를 실시간으로 자동 추적하는 증강 현실 방법 및 장치
JP2009015720A (ja) * 2007-07-06 2009-01-22 Ntt Docomo Inc 認識装置および認識方法
JP2016028331A (ja) * 2011-03-04 2016-02-25 クゥアルコム・インコーポレイテッドQualcomm Incorporated 動的テンプレート追跡
US10133950B2 (en) 2011-03-04 2018-11-20 Qualcomm Incorporated Dynamic template tracking
JP2014514539A (ja) * 2011-03-23 2014-06-19 メタイオ ゲゼルシャフト ミット ベシュレンクテル ハフツング 共線変換ワープ関数を用いて第1の画像の少なくとも一部と第2の画像の少なくとも一部を位置合わせする方法

Also Published As

Publication number Publication date
US7343278B2 (en) 2008-03-11
WO2004038657A3 (en) 2004-12-29
AU2003298491A8 (en) 2004-05-13
EP1556805B1 (en) 2011-08-24
US20040136567A1 (en) 2004-07-15
EP1556805A2 (en) 2005-07-27
WO2004038657A9 (en) 2004-07-29
ATE521953T1 (de) 2011-09-15
WO2004038657A8 (en) 2004-06-24
NZ539632A (en) 2008-01-31
US20080232645A1 (en) 2008-09-25
US7987079B2 (en) 2011-07-26
EP1556805A4 (en) 2009-08-12
WO2004038657A2 (en) 2004-05-06
AU2003298491A1 (en) 2004-05-13

Similar Documents

Publication Publication Date Title
JP2006507722A (ja) 表面の生来の視覚的特徴を用いて3次元シーンにおける表面の追跡
US10032286B2 (en) Tracking objects between images
KR101469398B1 (ko) 텍스트 기반 3d 증강 현실
JP6430064B2 (ja) データを位置合わせする方法及びシステム
EP2915138B1 (en) Systems and methods of merging multiple maps for computer vision based tracking
US9330307B2 (en) Learning based estimation of hand and finger pose
JP5940453B2 (ja) 画像のシーケンス内のオブジェクトのリアルタイム表現のハイブリッド型追跡のための方法、コンピュータプログラム、および装置
EP2015227B1 (en) User interface for three-dimensional navigation
Kumar Mishra et al. A review of optical imagery and airborne lidar data registration methods
US20130051626A1 (en) Method And Apparatus For Object Pose Estimation
US20060188131A1 (en) System and method for camera tracking and pose estimation
Huang et al. GTSCalib: Generalized Target Segmentation for Target-Based Extrinsic Calibration of Non-Repetitive Scanning LiDAR and Camera
CN114943849A (zh) 图像处理方法和服务器
Zhanlong et al. Image registration using curvature scale space corner and pseudo-Zernike moments
Tateno et al. Model-based 3d object tracking with online texture update
Skrzypczyński Fusing laser and vision data for a perceptually rich environment description

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060427

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080930

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090204

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090911

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20091210

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20091217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100823

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20101115

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20101122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110223

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110525