JP2006507722A - 表面の生来の視覚的特徴を用いて3次元シーンにおける表面の追跡 - Google Patents
表面の生来の視覚的特徴を用いて3次元シーンにおける表面の追跡 Download PDFInfo
- Publication number
- JP2006507722A JP2006507722A JP2004546322A JP2004546322A JP2006507722A JP 2006507722 A JP2006507722 A JP 2006507722A JP 2004546322 A JP2004546322 A JP 2004546322A JP 2004546322 A JP2004546322 A JP 2004546322A JP 2006507722 A JP2006507722 A JP 2006507722A
- Authority
- JP
- Japan
- Prior art keywords
- image
- feature
- features
- identified
- images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/24—Aligning, centring, orientation detection or correction of the image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Stereoscopic And Panoramic Photography (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
Description
本出願は、(1)2002年10月22日に出願され、発明の名称が「イメージ・テクスチャから発生されたマッチング・テンプレートに基づく拡張現実感位置合わせ方法(An Augumented Reality Registration Method Based On Matching Templates Generated From An Image Texture)」である米国仮特許出願No.60/420,638、及び(2)本出願と同時に出願され、発明の名称が「基準マーカを用いた特有の平面のシーンの位置合わせ(Registrating a Specific Planar Scene Using Fiducial Markers)」である米国仮特許出願No.60/513,725(特許カウンセル案件No.37181−8002−US00)の恩恵を主張し、それらの出願のそれぞれは、本明細書に全部援用されている。
本発明は、コンピュータ・ビジョン(画像認識)及びビデオ処理の分野を指向している。
コンピュータ・ビジョンの分野において直面している1つの課題は、ビデオ・シーン内の対象物の動きを追跡することである。多くの場合、対象物の追跡は、カメラに対する対象物の位置及び向き、即ち、ビデオ・シーンがそれから捕捉される透視図である空間内の点を追跡することから成る。
表面の自然の視覚的特徴を用いて3次元シーンにおける表面を追跡するソフトウエア装置(以下、「本装置」)が提供される。或る実施形態においては、本装置は、表面のイメージを獲得し、そしてそれを用いて、本装置が表面を追跡するため用いる当該表面の視覚的特徴を選択する。或る実施形態においては、本装置は、この表面解析及び特徴選択を非リアルタイム・ベースで実行する。或る実施形態においては、本装置は、表面がカメラから種々の距離にある場合に使用するため、各特徴が異なるサイズである特徴のグループを選択する。或る実施形態においては、最初にビデオ・フレームの中の表面を識別するため、本装置は、ビデオ・シーン内の表面に付された基準マーカの位置を特定し、そして、それを用いて、カメラに対する表面の距離及び向きを決定する。この後に、本装置は、それまでの追跡結果を繰り返し用いて、(1)特徴の一グループを選択して、カメラからの表面の距離に基づいて探索することと、(2)本装置が自然の特徴をそれらの以前の位置に基づいてビデオ・シーンの中で見つける当該ビデオ・シーン内の探索ゾーンの輪郭を表すこととの両方を行う。次いで、本装置は、選択されたグループの中の自然の特徴を見つけようとこれらの探索ゾーンを探索し、そしてビデオ・シーンの中のそれらの位置を用いて、カメラに対する表面の位置及び向きを決定する。
このサブセクションは、異なる解像度でのテンプレート・マッチングのための最良の候補点を検出する特徴抽出スキームの設計を説明する。
オフライン特徴抽出方法は、テンプレート・マッチングが良好に働く点を検出する。従って、特徴抽出スキームの設計は、テンプレート・マッチング技術の設計次第である。2つの連続したビデオ・フレームIk及びIk+1との間の不一致が小さいと仮定すると、点特徴をマッチングさせるため用いることができる判定基準は、類似度である。点に対して、強度の類似度の万能尺度は相関である。piがIkの中の1つの特徴とし、Wをpi上に中心付けされたサイズw+1及びh+1(ここで、w及びhは奇数である。)の窓であるとする。Wは、Ik+1の中で捜すべきテンプレートを定義する。
従って、Wと(y0,x0)を囲む領域との間の正規化された相互相関スコアは、次式をもたらす。
マーカを含む追跡すべき平面のシーンの正面の表示(front−facing representation)は、追跡器に供給されねばならない。通常、JPEG又はGIFファイルが、入力イメージ・ファイルとして用いられる。最初に、マーカは、米国仮特許出願No.60/513,725(特許カウンセル案件No.37181−8002−US00)に記載されている技術のような周知の技術を用いて、入力イメージの中で検出される。入力イメージの中のシーンの位置及びサイズが、計算され、ファイルに格納される。
・テンプレート寸法w及びh
・上記の制約1に記載した分散の最小値を定義するスレッショルドtvar
・テンプレート・マッチングのための探索サイズwsearch及びhsearch
・制約3で説明した最大の許容された類似度を定義するスレッショルドtMaxSim
・小さい円形領域の半径r、及び制約2で説明した最小の許容された類似度を定義するスレッショルドtMinSim
「 ユーザが選定した解像度毎に対して、
入力イメージの中のピクセルpix毎に対して、
・pixを囲むサイズw及びhのテンプレートtpを発生する。
・半径nの中心の円形範囲を除く領域tpにわたって分散を計算する。
(分散<tvar)の場合、pixを棄却し、次のピクセルへ行く。
・pixを囲むwsearch×hsearch窓に含まれるw×h領域毎に対して、
→正規化された相互相関を用いてregとtpとの間の類似度simを計算する。
→探索範囲内の類似度の最大値を更新する。
→(類似度>tMaxSim)の場合、pixを棄却し、次のピクセルへ行く。
〜に対して終了
・Pix=sim
〜に対して終了
〜に対して終了)。
このサブセクションは、有意の(significant)隠蔽が存在する際に継続したパターン追跡を可能にする事前定義された特徴の効率的追跡アルゴリズムを説明する。基本的考え方は、マーカにより与えられる4つの人工的コーナに単純に依拠する代わりに、既知の点特徴をフレームからフレームへと追跡し、且つこれらの自然の特徴に基づいて平面のシーンに対するホモグラフィーを更新することにある。
前に説明したように、追跡器の初期化は、セクション1.2で説明したような基準マーカを用いて行われる。
初期ホモグラフィーが計算されたので、追跡器は、どの自然特徴が現在のフレームの中で選定すべき「最良の」特徴であるかを決定しなければならない。我々のアプリケーションがリアルタイムでラン(走る)しなければならないことを意識して、我々は、その位置が最適である特徴の数が出来るだけ少なくなるよう選定したい。従って、次の発見的選択方法(heuristic selection method)を選定する。即ち、
1.前のフレームのホモグラフィーを用いて、特徴のイメージ座標を、対象フレームの中のそれらの既知の座標から得る。現在の解像度の推定を用いて、現在のビデオ・フレームの中の見えない全ての特徴を拒絶する。
2.第1の特徴点の選択:特徴点の位置がビデオ・フレーム中心から最も遠い特徴点を選択する。
3.第2の特徴点の選択:第1の特徴点から最も遠い特徴点を選択する。
4.第3の特徴点の選択:2つの最初に選択された特徴点と一緒に形成される三角形の面積を最大にする特徴点を選択する。
5.第4の特徴点の選択:4つの最初に選択された特徴点と一緒に形成される長方形の面積を最大にする特徴点を選択する。
追跡モードの第1の段階は、前のフレームにおいて計算されたホモグラフィーを用いて、現在のフレームの中の特徴の位置を予測することから成る。時間コヒーレンスを仮定すると、3つの単純な予測方法を導出することができる。
カメラ・イメージがほぼ常に動いているので、この仮定は、ほぼ常に違反されており、従って、我々は、むしろ特徴の一定速度を仮定する。そこで、任意のフレームIkに対して、k>2の場合、速度ベクトルvの値は、次式を生じる。
特徴の推定された位置は、ホモグラフィーの中の小さい誤差に起因した、並びにセクション4.4.2において導入される近似に起因した誤差を受けやすい。その位置を囲む探索窓は、テンプレート・マッチングを続行するため定義されねばならない。扱いに注意を要する(tricky)タスクは、この探索範囲のサイズを固定することである。単純なアプローチは、そのサイズを一定と宣言すること、及びそれを、現実の条件において試験により経験的に決定された値に設定することである。このアプローチは、非常に単純であり、そして動的な動きに十分に適応されないことが有り得るが、しかしそれは、我々が固定の探索窓サイズを仮定して特徴を抽出したので我々のシステムの基礎である。大きい探索窓が、より大きい動きに対して可能であるが、しかし、正規化された相互相関が多数のピクセルに対して実行されねばならないので、マッチング・プロセスの速度を遅くする。逆に、小さい探索窓サイズは、マッチング・プロセスの速度を増大させるが、しかし迅速な動きに起因した追跡器失敗の機会を増大させる。探索窓サイズの経験的決定についてはセクション3を参照されたい。選択された特徴の位置は、1.1において説明したテンプレート・マッチング・プロセスにより決定され(典型的には、NCCスコアが0.7より大きい場合マッチングが見つけられる。)、そして半径方向の歪みが補正される。
特徴点の対応
3.1 パラメータの決定
我々の特徴抽出技術は、我々がテンプレートの寸法w及びh、並びに探索サイズの寸法wsearch及びhsearchを一度だけ全体のプロセスに対して設定することを必要とする。単純さのため、我々は、両方の窓が正方形、即ち、w=h及びwsearch=hsearchであると宣言する。
正規化された相互相関が信頼できるために、wは大きくなければならないが、しかしこれはまた、テンプレート・マッチングが計算の上でコストがかかることを意味する。正規化された相互相関が必要とする計算時間が、wの値の或る範囲に対して計算された。25個のピクセルの値が、寸法3800ピクセル×1920ピクセルのイメージに対して信頼性と速度との間の良好なトレードオフであることを示した。
オンライン追跡フェーズに関して、特徴予測方法は、探索範囲のサイズに対して直接影響を及ぼす。小さい探索範囲は、マッチング・プロセスをより速くするであろうが、しかし追跡を当該予測方法の粗い性質に起因して失敗させるであろう。これは、wsearchの余りに小さい値が、追跡された特徴が探索範囲の中に無くて追跡を失敗させるより高い機会を与えるであろうことを意味する。wsearchを経験的に決定するため、現実の条件での追跡が、4000個の特徴に対して予測方法(2.3.1)、(2.3.2)及び(2.3.3)の種々の組み合わせを用いて実行された。探索範囲の中で検出されなかった特徴点のパーセンテージを表す誤り率は、探索範囲サイズの関数として計算された。その結果が図8に示されている。
我々の拡張現実感(augumented reality)システムの主要設計目標の1つは、標準のパーソナル・コンピュータについてのリアルタイム性能であった。ソフトウエアは、ウインドウズXP(登録商標)オペレーティング・システムの元で動作し、そして用いたカメラは、640ピクセル×480ピクセル・ビデオ・フレームを供給する既製のUSBウェブ・カメラである。追跡システムは、増補されたグラフィックスをビデオの上に表すため用いられたOpenGL及びVRML付きのCで現在実現されている。全ての試験は、GeForce4・Ti4600ビデオ・カード付きのインテル・ペンティアムIV(登録商標)の2.4GHzプロセッサ上で実行した。
オフライン特徴抽出は、アプリケーション全体のアルゴリズムの複雑さのためそのアプリケーション全体のボトルネックである。小さいイメージ(640ピクセル×480ピクセル)に対しては、処理時間は数分であることができる。しかしながら、入力のサイズが、我々のアプリケーションのケース(3800ピクセル×1920ピクセル)のように大きくなると、特徴マップを種々の解像度で発生するために必要である時間は、5時間より多い。これは、アプリケーションの主要欠点のままである。
オンライン追跡は、25フレーム/秒から30フレーム/秒のフレーム速度で見込みのある結果を示す。これは、上記方法がリアルタイムの目的に適していることを実証する。
このセクションは、本装置及びその実現についての追加の詳細を含む。
6.1 追跡されるイメージ
図12A及び図12Bは、本装置により追跡されるサンプル・イメージを示すイメージ図である。図12Aのイメージは、文字及び写真から成り、そして約20cm×28cmのサイズを有する。図12Bのイメージは、カラー地図の一例であり、そして約80cm×104cmのサイズである。
6.2.1 座標系
図13は、本装置が用いる座標系を示す座標図である。追跡される対象物上に中心付けされた対象物座標フレームがある。対象物座標の原点、X0軸及びY0軸が表面上にあり、一方Z0軸は当該表面に対して垂直である。カメラはカメラ座標フレームを有し、そしてカメラ座標とスクリーン座標との間に透視関係がある。3D環境における直線は、スクリーン座標に変換されたとき理想的には直線のままであるべきである。しかしながら、実際には、これは、レンズの歪みのため起こらない。これを補償するため、我々は、2つのスクリーン座標、即ち、カメラ座標との透視変換を保つ理想スクリーン座標とカメラからの歪んだイメージを表す観測スクリーン座標とを導入する。対象物座標から理想スクリーン座標への変換は、
対象物座標にn個の特徴点(Xoi,Yoi,Zoi)(i=0,1,,n−1)があり、且つそれらが観測スクリーン座標における(xdi,ydi)(i=0,1,,n−1)に投影されると仮定すると、誤差関数は、理想スクリーン座標において次の(式6.4)のように表される。
テンプレート・マッチングは、イメージからテンプレートに類似の領域を検出することができる。一般的には、テンプレートは、前もって準備されていなければならない。しかしながら、これは、1つの特徴点のイメージがその6DOF動きにより変わるので、この種類の3D追跡では不可能である。従って、テンプレートは、各イメージ・フレームに対して発生されねばならない。我々は、追跡される対象物の動きがそれぞれの連続のイメージ・フレーム間で小さいと仮定する。従って、テンプレートは、前のフレームの中のポーズ及び位置情報に基づいて前もって捕捉されている追跡対象物のテクスチャ・イメージ(texture image)から発生される。特徴点の検出は、次の3つのステップから成る。
追跡される対象物が、対象物座標のXo−Yo表面に存在する。そこで、特徴点は、(Xoi,Yoi,0)(i=0,1,,n−1)として表すことができる。前のフレームにおける対象物座標からカメラ座標への変換行列がTCOであると仮定すると、(Xoi,Yoi,0)に対応する観測スクリーン座標(xdi,ydi)は、(式1)及び(式2)により計算することができる。
(xdi,ydi)がその中で中心付けされるテンプレートを発生するため、観測スクリーン座標から対象物座標におけるXo−Yo表面への変換が必要とされる。Zo=0とすると、次の式が得られる。
我々は、テンプレート・マッチングのために正規化された相関を用いる。
6.3.1 マルチ・スケール・テンプレート及び焦点はずし
テンプレートは、(式6.6)を用いることにより発生されることができるが、しかしテクスチャ・イメージの解像度が発生されたテンプレートの解像度と全く異なる場合、期待されたテンプレートは、再サンプリング問題のため見つけることができない。補間技術を再サンプリングで用いるならば、それを避けることができるであろう。しかし、それは、多くの計算コストを必要とする。このことを克服するため、幾つかの解像度を有する一部のテクスチャされたイメージ(textured images)が、前もって準備される必要がある。
テクスチャ・イメージの中の特徴点は、それらがテンプレート・マッチングのため用いることができるように、前もって我々のソフトウエアでもって位置合わせされる。しかしながら、テンプレート・マッチングのための適切な特徴点は、解像度に依存する。例えば、カメラが追跡される対象物の近くにあるとき、観測されるイメージの解像度は高く、そしてイメージの中の小さい文字を特徴点として用いることができる。他方、カメラが追跡される対象物から遠くにあるとき、観測されるイメージの解像度は低く、そして小さい文字は分析(resolve)することができない。これを補償するため、適切な特徴点は、テクスチャ・イメージの種々の解像度に対して独立に位置合わせされる。
1.1−特徴点の位置は、その3D位置が観測スクリーン座標に投影されるとき、前のフレームから得られたTCO行列を用いることにより、イメージ窓内になければならない。
1.2−特徴点の解像度を、それが観測スクリーン座標に投影されるとき各特徴に対して事前定義された条件でもって満足させる。
2)第1の特徴点の選択
特徴位置はイメージ中心から最も遠い。
3)第2の特徴点の選択
特徴点は、第1の特徴点から最も遠い。
4)第3の特徴点の選択
第1及び第2の特徴点と一緒に形成される三角形の面積が最大である。
5)第4の特徴点の選択
第1、第2及び第3の特徴点と一緒に形成される長方形の面積が最大である。
6)第5の特徴点の選択
特徴が、位置合わせされた順序で選択される。
正規化された相関は高い計算コストを有するが、一方それはマッチング点を首尾良く検出する。我々のテンプレート・サイズは、640×240のイメージに対して24×12ピクセルである。640×480のイメージが入力されるが、しかしフィールド順次式イメージがテンプレート・マッチングのため用いられる。性能を更に改善するため、テンプレート・マッチングは、カラー・ピクセルを平均化することにより計算されるグレイスケール・ピクセル値に対して行われる。今のところ、マッチング・データの寸法は24×12×1=288であり、そしてその計算コストは依然高い。
多くの適切な特徴点は、セクション3で説明したテンプレート・マッチングがうまく働くように全ての解像度のイメージにおいて位置合わせされねばならない。適切な特徴点に対する2つの条件がある。
2)特徴点からの3つのピクセル内の類似度が高い。
我々は、最良の特徴点の自動検出の方法を開発した。特徴点としての適性は、全ての解像度のテクスチャ・イメージに対して全ての位置で検査される。テクスチャ・イメージの中の各点に対して、領域の特徴点が中心である当該領域が、テンプレートとして抽出され、そして正規化された相関の最大値が、中心の5×5ピクセル領域を除く49×49ピクセルの探索範囲から計算される。この値は、テクスチャ・イメージの中の全ての位置で計算される。
実験が図1におけるテクスチャ・イメージに対して行われた。我々は、インテル・ペンティアム4(登録商標)の2.0GHz、リナックスOS、アナログ・ビデオ・キャプチャ・カード及びGeForce3グラフィックス・カードを有するPCを用いた。カメラがHMD上に取り付けられ、そしてそのシャッター速度は1/250秒であった。640×480のイメージが捕捉され、そして追跡プログラムが約30フレーム/秒で正確に動作することができた。追跡が続く間に、16個のワイヤフレーム立方体が、追跡される対象物上に被せられる。
図17Aから図17Dは、例示のイメージに対するテンプレート・マッチング結果を示す。各図面の左端部に沿って配列された長方形は、マッチングされた特徴に対して本装置が発生した特徴テンプレートを示す。イメージの中の緑の長方形領域は、受け入れられたマッチング領域であり、そして黄色の長方形領域は、拒絶された領域である。我々は、4個のマッチング領域を見つけるまでテンプレート・マッチングを試みられることを知ることができる。そこで、位置合わせは、テクスチャが手で隠蔽されるときですら、うまく働く。
Claims (31)
- 任意の様相を有する寸法のある表面のカメラに対する動きを追跡するコンピュータ・システムにおける方法であって、
前記表面のイメージを捕捉するステップと、
表面の前記の捕捉されたイメージを解析して、前記の捕捉されたイメージに存在する視覚的特徴を識別するステップと、
前記の識別された視覚的特徴から、前記表面の動きを追跡するのに使用するため複数の視覚的特徴を選択するステップと、
前記カメラにより捕捉された一連のイメージを受け取るステップであって、前記一連のイメージのうちの少なくとも一部のイメージが前記表面の少なくとも一部分のビューを構成する、前記受け取るステップと、を備え、
更に、前記一連のイメージの各イメージに対して、
前記の選択された特徴が前記イメージの中で生じる2次元位置を識別するステップと、
前記特徴が前記イメージの中で識別される前記2次元位置に基づいて、前記カメラに対して前記一連のイメージのうちの現在のイメージの中で前記表面の3次元位置及び向きを決定するステップと、を備える、方法。 - 前記の選択された特徴が前記イメージの中で生じる2次元位置は、前記選択された特徴が前記イメージにおいて同一平面上に見えるという想定の元に予測される請求項1記載の方法。
- 前記表面が2次元表面である請求項1記載の方法。
- 前記表面が平坦な表面である請求項1記載の方法。
- 前記表面が、或る距離で観察されたとき平坦に見える不規則な物体(body)である請求項1記載の方法。
- 表面の前記の決定された位置及び向きを用いて、前記表面のイメージと関連するサイズ、位置及び向きで、補足のイメージを前記一連のイメージのうちの複数のイメージに導入するステップを更に備える請求項1記載の方法。
- 表面の前記の決定された位置及び向きを用いて、3次元の対象物のビューを前記表面の上に重畳するステップを更に備える請求項1記載の方法。
- 前記の識別された特徴の選択が、前記の識別された特徴のそれぞれにより与えられるコントラストのレベル同士の比較に基づいて実行される請求項1記載の方法。
- 前記の識別された特徴の選択が、全ての前記の識別された特徴の中で各前記の識別された特徴の一意性のレベル同士の比較に基づいて実行される請求項1記載の方法。
- 前記の識別された特徴の選択が、前記表面の位置及び向きを決定するため前記の識別された特徴を用いることができる正確さのレベル同士の比較に基づいて実行される請求項1記載の方法。
- 前記の識別された特徴の選択が、少なくとも2つの異なるサイズ範囲において視覚的特徴を選択することを含み、
前記方法は更に、前記サイズ範囲のうちの1つのサイズ範囲を、前記表面の現在位置に対する距離の尺度に基づいて選択するステップを含み、
前記の選択されたサイズ範囲における選択された特徴を用いて、前記表面の位置及び向きを決定する
請求項1記載の方法。 - 前記一連のイメージの各イメージに対して、
特徴が前記一連のイメージのうちの1又はそれより多い前のイメージの中で識別される2次元位置に基づいて、前記特徴が現在のイメージの中に生じるであろう2次元位置を予測するステップと、
探索ゾーンを前記の予測された位置の周りに確立するステップと、を更に備え、
前記の選択された特徴がイメージの中に生じる2次元位置を識別する前記ステップが、前記の選択された特徴を求めて前記の確立された探索ゾーンを探索するステップを備える
請求項1記載の方法。 - 前記表面が、任意の様相を有することに加えて、1又はそれより多い基準マーカを含むように変更され、
前記方法は更に、前記一連のイメージの第1のイメージにおいて、基準マーカに対応する前記イメージの部分を識別し且つ解析して、前記イメージでの前記表面の3次元位置及び向きを決定するステップを備え、
前記一連のイメージの第1のイメージでの前記表面の3次元位置及び向きを決定する前記ステップを用いて、前記の選択された特徴が前記一連のイメージの第1のイメージで生じる2次元位置を識別する
請求項1記載の方法。 - 各基準マーカが一意の識別パターンを備える請求項13記載の方法。
- 各基準マーカが正方形の形状である請求項13記載の方法。
- 前記一連のイメージのうちの現在のイメージにおける前記表面の3次元位置及び向きが、明示された基準マーカを用いること無しに決定される請求項1記載の方法。
- 前記カメラを用いて前記一連のイメージを捕捉するステップを更に備え、
前記決定を前記の捕捉に対してリアルタイムで行う
請求項1記載の方法。 - 前記一連のイメージのうちの2つの連続したイメージの間で、前記カメラが前記環境に対して移動する請求項1記載の方法。
- 前記一連のイメージのうちの2つの連続したイメージの間で、前記表面が前記環境に対して移動する請求項1記載の方法。
- コンピュータ可読媒体のコンテンツが、
表面のイメージを捕捉するステップと、
表面の前記の捕捉されたイメージを解析して、前記の捕捉されたイメージに存在する視覚的特徴を識別するステップと、
前記の識別された視覚的特徴から、前記表面の動きを追跡するのに使用するため複数の視覚的特徴を選択するステップと、
前記カメラにより捕捉された一連のイメージを受け取るステップであって、前記一連のイメージのうちの少なくとも一部が前記表面の少なくとも一部分のビューを構成する、前記受け取るステップと、
前記一連のイメージの各イメージに対して、
前記の選択された特徴が前記イメージの中で生じる2次元位置を識別するステップと、
前記特徴が前記イメージの中で識別される前記2次元位置に基づいて、前記カメラに対して、前記一連のイメージのうちの現在のイメージにおける前記表面の3次元位置及び向きを決定するステップと
を行うことにより、コンピュータ・システムに、任意の様相を有する寸法のある表面の前記カメラに対する動きを追跡させる、コンピュータ可読媒体。 - 固有の視覚的様相を有し且つ1又はそれより多い明示の基準マーカが付されている2次元表面を追跡するコンピュータ・システムにおける方法であって、
前記表面の固有の視覚的様相の視覚的に有意の外観を識別するステップと、
前記表面の一連の透視イメージのうちの最初の透視イメージにおいて、基準マーカの認識を実行して、当該最初の透視イメージでの前記表面の3次元位置及び向きを決定するステップと、
前記表面の連続した透視イメージにおいて、前記表面の固有の視覚的様相の前記の識別された外観の認識を実行して、前記連続した透視イメージでの前記表面の3次元位置及び向きを決定するステップと
を備える方法。 - 連続したイメージのそれぞれにおける前記表面の固有の視覚的様相の前記の識別された外観の認識が、前のイメージでの前記表面の3次元位置及び向きにより案内される請求項21記載の方法。
- 各基準マーカが正方形の形状である請求項21記載の方法。
- 前記表面の固有の視覚的様相の前記の識別された外観の認識が、前記の選択された特徴が前記の連続した透視イメージにおいて同一平面上に見えるという想定の元に予測される請求項21記載の方法。
- 固有の視覚的様相を有し且つ1又はそれより多い明示の基準マーカが付されている2次元表面を追跡するコンピュータ・システムであって、
前記表面の固有の視覚的様相の視覚的に有意の外観を識別する視覚解析サブシステムと、
前記表面の一連の透視イメージのうちの最初の透視イメージにおいて、基準マーカの認識を実行して、前記最初の透視イメージでの前記表面の3次元位置及び向きを決定する第1の認識サブシステムと、
前記表面の連続した透視イメージにおいて、前記表面の固有の視覚的様相の前記の識別された外観の認識を実行して、前記連続した透視イメージでの前記表面の3次元位置及び向きを決定する第2の認識サブシステムと
を備えるコンピュータ・システム。 - 対象表面の識別された透視イメージでの前記対象表面の3次元位置及び向きを決定するコンピュータ・システムにおける方法であって、前記対象表面が固有の視覚的特徴を有し、当該固有の視覚的特徴のサブセットが選択される、前記方法において、
前記の識別された透視イメージより時間的に前にある前記対象表面の透視イメージでの前記の選択された視覚的特徴の位置を用いて、前記の識別された透視イメージの中の探索ゾーンを識別するステップと、
前記の選択された視覚的特徴を求めて前記の識別された探索ゾーンを探索して、前記の選択された視覚的特徴が生じる2次元位置を決定するステップと、
前記の決定された2次元位置に基づいて、識別された透視イメージでの対象表面の3次元位置及び向きを決定するステップと
を備える方法。 - 前記対象表面の前記の選択された固有の視覚的特徴の数が少なくとも4個である請求項26記載の方法。
- 前記対象表面の固有の視覚的特徴のサブセットのそれぞれが異なる一般的サイズの特徴を含む、複数の前記サブセットを選択し、
前記方法は更に、前記対象表面の前に決定された3次元位置に基づいて、特徴の1つのサブセットを選定するステップを備え、
前記の選定されたサブセットの特徴を求めて前記の識別された探索ゾーンを探索する
請求項26記載の方法。 - 前記の選択された視覚的特徴が生じる2次元位置の決定が、前記の選択された視覚的特徴が前記イメージにおいて同一平面上に見えるという想定の元に予測される請求項26記載の方法。
- コンピュータ可読媒体のコンテンツが、コンピュータ・システムに、対象表面の識別された透視イメージでの前記対象表面の3次元位置及び向きを以下のステップを行うことにより決定させる、コンピュータ可読媒体であって、前記対象表面が固有の視覚的特徴を有し、当該固有の視覚的特徴のサブセットが選択される、前記コンピュータ可読媒体において、
前記以下のステップが、
前記の識別された透視イメージより時間的に前にある前記対象表面の透視イメージでの前記の選択された視覚的特徴の位置を用いて、前記の識別された透視イメージの中の探索ゾーンを識別するステップと、
前記の選択された視覚的特徴を求めて前記の識別された探索ゾーンを探索して、前記の選択された視覚的特徴が生じる2次元位置を決定するステップと、
前記の決定された2次元位置に基づいて、識別された透視イメージでの対象表面の3次元位置及び向きを決定するステップとである、コンピュータ可読媒体。 - 或る様相を有する表面に関する視覚的追跡データ構造を格納する1又はそれより多いコンピュータ・メモリであって、
前記データ構造が、複数の自然の特徴テンプレートを備え、
自然の特徴テンプレートのそれぞれが、前記表面の様相に生じる特徴に対応し、且つ前記表面の透視イメージの中の前記特徴を識別するための適切な情報を含み、
それにより、前記データ構造のコンテンツを用いて、前記自然の特徴テンプレートが前記表面の透視イメージにおいて対応する特徴の少なくとも1つのサブセットを識別し、且つ前記透視イメージがそれから捕捉される空間内の点に対する前記表面の距離及び向きを決定し得る、1又はそれより多いコンピュータ・メモリ。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US42063802P | 2002-10-22 | 2002-10-22 | |
US51372503P | 2003-10-22 | 2003-10-22 | |
PCT/IB2003/006418 WO2004038657A2 (en) | 2002-10-22 | 2003-10-22 | Tracking a surface in a 3-dimensional scene using natural visual features of the surface |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006507722A true JP2006507722A (ja) | 2006-03-02 |
Family
ID=32179808
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004546322A Pending JP2006507722A (ja) | 2002-10-22 | 2003-10-22 | 表面の生来の視覚的特徴を用いて3次元シーンにおける表面の追跡 |
Country Status (7)
Country | Link |
---|---|
US (2) | US7343278B2 (ja) |
EP (1) | EP1556805B1 (ja) |
JP (1) | JP2006507722A (ja) |
AT (1) | ATE521953T1 (ja) |
AU (1) | AU2003298491A1 (ja) |
NZ (1) | NZ539632A (ja) |
WO (1) | WO2004038657A2 (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009015720A (ja) * | 2007-07-06 | 2009-01-22 | Ntt Docomo Inc | 認識装置および認識方法 |
JP2010517129A (ja) * | 2007-01-22 | 2010-05-20 | トタル イメルシオン | ビデオストリームにおいて、マーク無しに、テクスチャー化平面幾何学的オブジェクトをリアルタイムで自動追跡するリアリティ向上方法および装置 |
US7987079B2 (en) | 2002-10-22 | 2011-07-26 | Artoolworks, Inc. | Tracking a surface in a 3-dimensional scene using natural visual features of the surface |
JP2014514539A (ja) * | 2011-03-23 | 2014-06-19 | メタイオ ゲゼルシャフト ミット ベシュレンクテル ハフツング | 共線変換ワープ関数を用いて第1の画像の少なくとも一部と第2の画像の少なくとも一部を位置合わせする方法 |
JP2016028331A (ja) * | 2011-03-04 | 2016-02-25 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | 動的テンプレート追跡 |
Families Citing this family (83)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7590261B1 (en) * | 2003-07-31 | 2009-09-15 | Videomining Corporation | Method and system for event detection by analysis of linear feature occlusion |
TWI246338B (en) * | 2004-04-09 | 2005-12-21 | Asustek Comp Inc | A hybrid model sprite generator and a method to form a sprite |
JP4532982B2 (ja) * | 2004-05-14 | 2010-08-25 | キヤノン株式会社 | 配置情報推定方法および情報処理装置 |
JP2006221603A (ja) * | 2004-08-09 | 2006-08-24 | Toshiba Corp | 3次元情報復元装置、3次元情報復元方法および3次元情報復元プログラム |
US8437502B1 (en) * | 2004-09-25 | 2013-05-07 | Cognex Technology And Investment Corporation | General pose refinement and tracking tool |
EP1662440A1 (en) * | 2004-11-30 | 2006-05-31 | IEE INTERNATIONAL ELECTRONICS & ENGINEERING S.A. | Method for determining the position of an object from a digital image |
KR100659888B1 (ko) * | 2005-01-07 | 2006-12-20 | 엘지전자 주식회사 | 이동 단말기의 3차원 영상 처리방법 |
WO2006122009A2 (en) * | 2005-05-09 | 2006-11-16 | Lockheed Martin Corporation | Continuous extended range image processing |
US7817150B2 (en) | 2005-09-30 | 2010-10-19 | Rockwell Automation Technologies, Inc. | Three-dimensional immersive system for representing an automation control environment |
CA2566260C (en) * | 2005-10-31 | 2013-10-01 | National Research Council Of Canada | Marker and method for detecting said marker |
GB2432064B (en) * | 2005-10-31 | 2011-01-19 | Hewlett Packard Development Co | Method of triggering a detector to detect a moving feature within a video stream |
US9052161B2 (en) * | 2005-12-19 | 2015-06-09 | Raydon Corporation | Perspective tracking system |
US20070190495A1 (en) * | 2005-12-22 | 2007-08-16 | Kendir O T | Sensing device for firearm laser training system and method of simulating firearm operation with various training scenarios |
JP5018767B2 (ja) * | 2006-03-01 | 2012-09-05 | 株式会社ニコン | 被写体追跡プログラム、被写体追跡装置、およびカメラ |
KR101195942B1 (ko) * | 2006-03-20 | 2012-10-29 | 삼성전자주식회사 | 카메라 보정 방법 및 이를 이용한 3차원 물체 재구성 방법 |
TWI321297B (en) * | 2006-09-29 | 2010-03-01 | Ind Tech Res Inst | A method for corresponding, evolving and tracking feature points in three-dimensional space |
US7835592B2 (en) * | 2006-10-17 | 2010-11-16 | Seiko Epson Corporation | Calibration technique for heads up display system |
US20080170750A1 (en) * | 2006-11-01 | 2008-07-17 | Demian Gordon | Segment tracking in motion picture |
US8089635B2 (en) | 2007-01-22 | 2012-01-03 | California Institute Of Technology | Method and system for fast three-dimensional imaging using defocusing and feature recognition |
WO2008091691A1 (en) | 2007-01-22 | 2008-07-31 | California Institute Of Technology | Method and apparatus for quantitative 3-d imaging |
AU2008244492A1 (en) | 2007-04-23 | 2008-11-06 | California Institute Of Technology | Single-lens, single-sensor 3-D imaging device with a central aperture for obtaining camera position |
JP2009053815A (ja) * | 2007-08-24 | 2009-03-12 | Nikon Corp | 被写体追跡プログラム、および被写体追跡装置 |
KR102204485B1 (ko) | 2007-09-26 | 2021-01-19 | 에이큐 미디어 인크 | 오디오-비주얼 내비게이션 및 통신 |
WO2009067223A2 (en) * | 2007-11-19 | 2009-05-28 | California Institute Of Technology | Method and system for fast three-dimensional imaging using defocusing and feature recognition |
US8514268B2 (en) * | 2008-01-22 | 2013-08-20 | California Institute Of Technology | Method and device for high-resolution three-dimensional imaging which obtains camera pose using defocusing |
US20100045701A1 (en) * | 2008-08-22 | 2010-02-25 | Cybernet Systems Corporation | Automatic mapping of augmented reality fiducials |
WO2010029553A1 (en) | 2008-09-11 | 2010-03-18 | Netanel Hagbi | Method and system for compositing an augmented reality scene |
KR100974900B1 (ko) * | 2008-11-04 | 2010-08-09 | 한국전자통신연구원 | 동적 임계값을 이용한 마커 인식 장치 및 방법 |
JP5029647B2 (ja) * | 2009-04-08 | 2012-09-19 | 株式会社ニコン | 被写体追尾装置、およびカメラ |
US8773507B2 (en) * | 2009-08-11 | 2014-07-08 | California Institute Of Technology | Defocusing feature matching system to measure camera pose with interchangeable lens cameras |
US8773514B2 (en) * | 2009-08-27 | 2014-07-08 | California Institute Of Technology | Accurate 3D object reconstruction using a handheld device with a projected light pattern |
EP2489033A4 (en) * | 2009-10-15 | 2017-01-25 | Apple Inc. | Systems and methods for tracking natural planar shapes for augmented reality applications |
TWI396116B (zh) * | 2009-12-18 | 2013-05-11 | Pixart Imaging Inc | 位移偵測裝置及方法 |
GB201009725D0 (en) * | 2010-06-11 | 2010-07-21 | Univ Leuven Kath | Method of quantifying local bone loss |
EP3091508B1 (en) | 2010-09-03 | 2018-12-26 | California Institute of Technology | Three-dimensional imaging system |
US9013550B2 (en) * | 2010-09-09 | 2015-04-21 | Qualcomm Incorporated | Online reference generation and tracking for multi-user augmented reality |
WO2012063468A1 (ja) * | 2010-11-11 | 2012-05-18 | パナソニック株式会社 | 画像処理装置、画像処理方法、およびプログラム |
US9092864B2 (en) * | 2010-11-30 | 2015-07-28 | Pixart Imaging Inc | Displacement detection apparatus and method |
JP5627439B2 (ja) * | 2010-12-15 | 2014-11-19 | キヤノン株式会社 | 特徴検出装置、特徴検出方法、およびそのプログラム |
US9721387B2 (en) | 2010-12-21 | 2017-08-01 | Cyberlink Corp. | Systems and methods for implementing augmented reality |
US9026242B2 (en) | 2011-05-19 | 2015-05-05 | Taktia Llc | Automatically guided tools |
US8686851B2 (en) | 2011-06-08 | 2014-04-01 | General Electric Company | System and method for rapid location of an alarm condition |
CN103582893B (zh) * | 2011-06-08 | 2017-10-13 | 英派尔科技开发有限公司 | 用于增强现实表示的二维图像获取 |
KR20140068855A (ko) * | 2011-06-23 | 2014-06-09 | 오블롱 인더스트리즈, 인크 | 공간 입력 장치를 위한 적응적 추적 시스템 |
US10242456B2 (en) | 2011-06-23 | 2019-03-26 | Limitless Computing, Inc. | Digitally encoded marker-based augmented reality (AR) |
US8948447B2 (en) | 2011-07-12 | 2015-02-03 | Lucasfilm Entertainment Companyy, Ltd. | Scale independent tracking pattern |
US9202278B2 (en) | 2011-08-19 | 2015-12-01 | Adobe Systems Incorporated | Plane-based self-calibration for structure from motion |
JP5872923B2 (ja) | 2012-02-22 | 2016-03-01 | 株式会社マイクロネット | Ar画像処理装置及び方法 |
WO2013163588A1 (en) | 2012-04-26 | 2013-10-31 | Alec Rothmyer Rivers | Systems and methods for performing a task on a material, or locating the position of a device relative to the surface of the material |
US9299160B2 (en) | 2012-06-25 | 2016-03-29 | Adobe Systems Incorporated | Camera tracker target user interface for plane detection and object creation |
US9208577B2 (en) | 2012-06-25 | 2015-12-08 | Adobe Systems Incorporated | 3D tracked point visualization using color and perspective size |
US9418480B2 (en) * | 2012-10-02 | 2016-08-16 | Augmented Reailty Lab LLC | Systems and methods for 3D pose estimation |
EP2818948B1 (en) * | 2013-06-27 | 2016-11-16 | ABB Schweiz AG | Method and data presenting device for assisting a remote user to provide instructions |
JP6237326B2 (ja) * | 2014-02-25 | 2017-11-29 | 富士通株式会社 | 姿勢推定装置、姿勢推定方法及び姿勢推定用コンピュータプログラム |
KR20150116260A (ko) | 2014-04-07 | 2015-10-15 | 삼성전자주식회사 | 마커 추적 방법 및 그 전자 장치 |
JP6405891B2 (ja) * | 2014-10-29 | 2018-10-17 | 富士通株式会社 | 位置・姿勢推定装置、位置・姿勢推定方法、及び、プログラム |
ES2872724T3 (es) | 2015-02-19 | 2021-11-02 | Magic Pony Tech Limited | Mejora de los datos visuales mediante el uso de redes neuronales actualizadas |
EP3278559B1 (en) | 2015-03-31 | 2021-05-05 | Magic Pony Technology Limited | Training end-to-end video processes |
GB201603144D0 (en) | 2016-02-23 | 2016-04-06 | Magic Pony Technology Ltd | Training end-to-end video processes |
GB201604672D0 (en) | 2016-03-18 | 2016-05-04 | Magic Pony Technology Ltd | Generative methods of super resolution |
WO2016183390A1 (en) | 2015-05-13 | 2016-11-17 | Taktia Llc | Systems, methods and apparatus for guided tools |
JP2017045124A (ja) * | 2015-08-24 | 2017-03-02 | 株式会社日本自動車部品総合研究所 | 視差検出装置 |
KR102410268B1 (ko) * | 2015-11-20 | 2022-06-20 | 한국전자통신연구원 | 객체 추적 방법 및 그 방법을 수행하는 객체 추적 장치 |
US10823950B2 (en) * | 2016-01-07 | 2020-11-03 | Digital Surigcals PTE. LTD. | Camera system with balanced monocular cues for use in digital stereo microscopes |
US11406264B2 (en) | 2016-01-25 | 2022-08-09 | California Institute Of Technology | Non-invasive measurement of intraocular pressure |
WO2017178808A1 (en) | 2016-04-12 | 2017-10-19 | Magic Pony Technology Limited | Visual data processing using energy networks |
GB201607994D0 (en) | 2016-05-06 | 2016-06-22 | Magic Pony Technology Ltd | Encoder pre-analyser |
US11577159B2 (en) | 2016-05-26 | 2023-02-14 | Electronic Scripting Products Inc. | Realistic virtual/augmented/mixed reality viewing and interactions |
EP4375773A2 (en) | 2016-08-19 | 2024-05-29 | Shaper Tools, Inc. | Apparatus and method for guiding a tool positioned on the surface of a piece of material |
TWI619093B (zh) * | 2016-10-19 | 2018-03-21 | 財團法人資訊工業策進會 | 視覺定位裝置、方法及其電腦程式產品 |
US10311593B2 (en) * | 2016-11-16 | 2019-06-04 | International Business Machines Corporation | Object instance identification using three-dimensional spatial configuration |
US10891502B1 (en) * | 2017-01-19 | 2021-01-12 | State Farm Mutual Automobile Insurance Company | Apparatuses, systems and methods for alleviating driver distractions |
US11055538B2 (en) * | 2017-03-31 | 2021-07-06 | Disney Enterprises, Inc. | Object re-identification with temporal context |
IL301087A (en) * | 2017-05-01 | 2023-05-01 | Magic Leap Inc | Adapting content to a three-dimensional spatial environment |
US10565802B2 (en) * | 2017-08-31 | 2020-02-18 | Disney Enterprises, Inc. | Collaborative multi-modal mixed-reality system and methods leveraging reconfigurable tangible user interfaces for the production of immersive, cinematic, and interactive content |
KR20230108356A (ko) | 2017-12-22 | 2023-07-18 | 매직 립, 인코포레이티드 | 혼합 현실 시스템에서 가상 콘텐츠를 관리하고 디스플레이하기위한 방법들 및 시스템 |
CA3089646A1 (en) | 2018-02-22 | 2019-08-20 | Magic Leap, Inc. | Browser for mixed reality systems |
CA3091026A1 (en) | 2018-02-22 | 2019-08-29 | Magic Leap, Inc. | Object creation with physical manipulation |
US11017548B2 (en) | 2018-06-21 | 2021-05-25 | Hand Held Products, Inc. | Methods, systems, and apparatuses for computing dimensions of an object using range images |
US11113837B2 (en) * | 2019-10-25 | 2021-09-07 | 7-Eleven, Inc. | Sensor mapping to a global coordinate system |
WO2020206313A1 (en) | 2019-04-03 | 2020-10-08 | Magic Leap, Inc. | Managing and displaying webpages in a virtual three-dimensional space with a mixed reality system |
US10600210B1 (en) * | 2019-07-25 | 2020-03-24 | Second Spectrum, Inc. | Data processing systems for real-time camera parameter estimation |
US11782254B2 (en) * | 2020-07-24 | 2023-10-10 | United Scope LLC | Digital microscopy system and graphical user interface |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08101924A (ja) * | 1994-09-30 | 1996-04-16 | Hitachi Ltd | 画像合成方法 |
JPH1032751A (ja) * | 1996-07-17 | 1998-02-03 | Canon Inc | 撮像装置及び画像処理装置 |
JPH10177699A (ja) * | 1996-12-16 | 1998-06-30 | Toyota Motor Corp | 画像情報を利用した車両用音声案内装置 |
JPH10339646A (ja) * | 1997-06-10 | 1998-12-22 | Toyota Motor Corp | 車両用案内表示装置 |
JP2000020728A (ja) * | 1998-01-14 | 2000-01-21 | Canon Inc | 画像処理装置及び方法 |
US20020039111A1 (en) * | 2000-06-27 | 2002-04-04 | James Gips | Automated visual tracking for computer access |
JP2002530970A (ja) * | 1998-11-20 | 2002-09-17 | アマン,ジェームズ エイ. | 多標的追跡システム |
US6618076B1 (en) * | 1999-12-23 | 2003-09-09 | Justsystem Corporation | Method and apparatus for calibrating projector-camera system |
Family Cites Families (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5850352A (en) | 1995-03-31 | 1998-12-15 | The Regents Of The University Of California | Immersive video, including video hypermosaicing to generate from multiple video views of a scene a three-dimensional video mosaic from which diverse virtual video scene images are synthesized, including panoramic, scene interactive and stereoscopic images |
US6858826B2 (en) * | 1996-10-25 | 2005-02-22 | Waveworx Inc. | Method and apparatus for scanning three-dimensional objects |
JP3512992B2 (ja) * | 1997-01-07 | 2004-03-31 | 株式会社東芝 | 画像処理装置および画像処理方法 |
US6160907A (en) | 1997-04-07 | 2000-12-12 | Synapix, Inc. | Iterative three-dimensional process for creating finished media content |
US6084590A (en) | 1997-04-07 | 2000-07-04 | Synapix, Inc. | Media production with correlation of image stream and abstract objects in a three-dimensional virtual stage |
US6175652B1 (en) * | 1997-12-31 | 2001-01-16 | Cognex Corporation | Machine vision system for analyzing features based on multiple object images |
US6757422B1 (en) * | 1998-11-12 | 2004-06-29 | Canon Kabushiki Kaisha | Viewpoint position detection apparatus and method, and stereoscopic image display system |
US7483049B2 (en) * | 1998-11-20 | 2009-01-27 | Aman James A | Optimizations for live event, real-time, 3D object tracking |
US6542249B1 (en) * | 1999-07-20 | 2003-04-01 | The University Of Western Ontario | Three-dimensional measurement method and apparatus |
AU2001233019A1 (en) * | 2000-01-28 | 2001-08-07 | Intersense, Inc. | Self-referenced tracking |
US6525306B1 (en) * | 2000-04-25 | 2003-02-25 | Hewlett-Packard Company | Computer mouse with integral digital camera and method for using the same |
US7523411B2 (en) * | 2000-08-22 | 2009-04-21 | Bruce Carlin | Network-linked interactive three-dimensional composition and display of saleable objects in situ in viewer-selected scenes for purposes of object promotion and procurement, and generation of object advertisements |
US6753828B2 (en) * | 2000-09-25 | 2004-06-22 | Siemens Corporated Research, Inc. | System and method for calibrating a stereo optical see-through head-mounted display system for augmented reality |
US20020105484A1 (en) | 2000-09-25 | 2002-08-08 | Nassir Navab | System and method for calibrating a monocular optical see-through head-mounted display system for augmented reality |
JP2002164066A (ja) * | 2000-11-22 | 2002-06-07 | Mitsubishi Heavy Ind Ltd | 積層型熱交換器 |
JP3804916B2 (ja) * | 2001-02-09 | 2006-08-02 | シャープ株式会社 | 撮像システムとその画像データ制御に用いられるプログラムおよびその撮像システムにおける撮像画像の歪み補正方法とその手順を記憶させた記憶媒体 |
US6834119B2 (en) * | 2001-04-03 | 2004-12-21 | Stmicroelectronics, Inc. | Methods and apparatus for matching multiple images |
US9400921B2 (en) * | 2001-05-09 | 2016-07-26 | Intel Corporation | Method and system using a data-driven model for monocular face tracking |
US6639594B2 (en) * | 2001-06-03 | 2003-10-28 | Microsoft Corporation | View-dependent image synthesis |
WO2003007237A1 (fr) * | 2001-07-12 | 2003-01-23 | Do Labs | Procede et systeme pour produire des informations formatees liees aux distorsions geometriques |
JP4573085B2 (ja) * | 2001-08-10 | 2010-11-04 | 日本電気株式会社 | 位置姿勢認識装置とその位置姿勢認識方法、及び位置姿勢認識プログラム |
US20030076980A1 (en) * | 2001-10-04 | 2003-04-24 | Siemens Corporate Research, Inc.. | Coded visual markers for tracking and camera calibration in mobile computing systems |
US7231063B2 (en) * | 2002-08-09 | 2007-06-12 | Intersense, Inc. | Fiducial detection system |
AU2003298491A1 (en) | 2002-10-22 | 2004-05-13 | Artoolworks | Tracking a surface in a 3-dimensional scene using natural visual features of the surface |
-
2003
- 2003-10-22 AU AU2003298491A patent/AU2003298491A1/en not_active Abandoned
- 2003-10-22 NZ NZ539632A patent/NZ539632A/en not_active IP Right Cessation
- 2003-10-22 AT AT03796236T patent/ATE521953T1/de not_active IP Right Cessation
- 2003-10-22 US US10/692,020 patent/US7343278B2/en active Active
- 2003-10-22 EP EP03796236A patent/EP1556805B1/en not_active Expired - Lifetime
- 2003-10-22 WO PCT/IB2003/006418 patent/WO2004038657A2/en active Application Filing
- 2003-10-22 JP JP2004546322A patent/JP2006507722A/ja active Pending
-
2008
- 2008-03-11 US US12/046,389 patent/US7987079B2/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08101924A (ja) * | 1994-09-30 | 1996-04-16 | Hitachi Ltd | 画像合成方法 |
JPH1032751A (ja) * | 1996-07-17 | 1998-02-03 | Canon Inc | 撮像装置及び画像処理装置 |
JPH10177699A (ja) * | 1996-12-16 | 1998-06-30 | Toyota Motor Corp | 画像情報を利用した車両用音声案内装置 |
JPH10339646A (ja) * | 1997-06-10 | 1998-12-22 | Toyota Motor Corp | 車両用案内表示装置 |
JP2000020728A (ja) * | 1998-01-14 | 2000-01-21 | Canon Inc | 画像処理装置及び方法 |
JP2002530970A (ja) * | 1998-11-20 | 2002-09-17 | アマン,ジェームズ エイ. | 多標的追跡システム |
US6618076B1 (en) * | 1999-12-23 | 2003-09-09 | Justsystem Corporation | Method and apparatus for calibrating projector-camera system |
US20020039111A1 (en) * | 2000-06-27 | 2002-04-04 | James Gips | Automated visual tracking for computer access |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7987079B2 (en) | 2002-10-22 | 2011-07-26 | Artoolworks, Inc. | Tracking a surface in a 3-dimensional scene using natural visual features of the surface |
JP2010517129A (ja) * | 2007-01-22 | 2010-05-20 | トタル イメルシオン | ビデオストリームにおいて、マーク無しに、テクスチャー化平面幾何学的オブジェクトをリアルタイムで自動追跡するリアリティ向上方法および装置 |
KR101328759B1 (ko) * | 2007-01-22 | 2013-11-13 | 또딸 이메르지옹 | 비디오 스트림 내에서 마커 없는 텍스쳐 기하학적 평면 객체를 실시간으로 자동 추적하는 증강 현실 방법 및 장치 |
JP2009015720A (ja) * | 2007-07-06 | 2009-01-22 | Ntt Docomo Inc | 認識装置および認識方法 |
JP2016028331A (ja) * | 2011-03-04 | 2016-02-25 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | 動的テンプレート追跡 |
US10133950B2 (en) | 2011-03-04 | 2018-11-20 | Qualcomm Incorporated | Dynamic template tracking |
JP2014514539A (ja) * | 2011-03-23 | 2014-06-19 | メタイオ ゲゼルシャフト ミット ベシュレンクテル ハフツング | 共線変換ワープ関数を用いて第1の画像の少なくとも一部と第2の画像の少なくとも一部を位置合わせする方法 |
Also Published As
Publication number | Publication date |
---|---|
US7343278B2 (en) | 2008-03-11 |
WO2004038657A3 (en) | 2004-12-29 |
AU2003298491A8 (en) | 2004-05-13 |
EP1556805B1 (en) | 2011-08-24 |
US20040136567A1 (en) | 2004-07-15 |
EP1556805A2 (en) | 2005-07-27 |
WO2004038657A9 (en) | 2004-07-29 |
ATE521953T1 (de) | 2011-09-15 |
WO2004038657A8 (en) | 2004-06-24 |
NZ539632A (en) | 2008-01-31 |
US20080232645A1 (en) | 2008-09-25 |
US7987079B2 (en) | 2011-07-26 |
EP1556805A4 (en) | 2009-08-12 |
WO2004038657A2 (en) | 2004-05-06 |
AU2003298491A1 (en) | 2004-05-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2006507722A (ja) | 表面の生来の視覚的特徴を用いて3次元シーンにおける表面の追跡 | |
US10032286B2 (en) | Tracking objects between images | |
KR101469398B1 (ko) | 텍스트 기반 3d 증강 현실 | |
JP6430064B2 (ja) | データを位置合わせする方法及びシステム | |
EP2915138B1 (en) | Systems and methods of merging multiple maps for computer vision based tracking | |
US9330307B2 (en) | Learning based estimation of hand and finger pose | |
JP5940453B2 (ja) | 画像のシーケンス内のオブジェクトのリアルタイム表現のハイブリッド型追跡のための方法、コンピュータプログラム、および装置 | |
EP2015227B1 (en) | User interface for three-dimensional navigation | |
Kumar Mishra et al. | A review of optical imagery and airborne lidar data registration methods | |
US20130051626A1 (en) | Method And Apparatus For Object Pose Estimation | |
US20060188131A1 (en) | System and method for camera tracking and pose estimation | |
Huang et al. | GTSCalib: Generalized Target Segmentation for Target-Based Extrinsic Calibration of Non-Repetitive Scanning LiDAR and Camera | |
CN114943849A (zh) | 图像处理方法和服务器 | |
Zhanlong et al. | Image registration using curvature scale space corner and pseudo-Zernike moments | |
Tateno et al. | Model-based 3d object tracking with online texture update | |
Skrzypczyński | Fusing laser and vision data for a perceptually rich environment description |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060427 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080930 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20081217 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090204 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090911 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20091210 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20091217 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100205 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100823 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20101115 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20101122 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110223 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20110525 |