JP2001283229A - 3次元空間内の物体の位置及び向きを計算する方法 - Google Patents

3次元空間内の物体の位置及び向きを計算する方法

Info

Publication number
JP2001283229A
JP2001283229A JP2000257304A JP2000257304A JP2001283229A JP 2001283229 A JP2001283229 A JP 2001283229A JP 2000257304 A JP2000257304 A JP 2000257304A JP 2000257304 A JP2000257304 A JP 2000257304A JP 2001283229 A JP2001283229 A JP 2001283229A
Authority
JP
Japan
Prior art keywords
points
dimensional
solution
marked
calculating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000257304A
Other languages
English (en)
Inventor
Sebastien Roy
ロイ セバスチャン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JP2001283229A publication Critical patent/JP2001283229A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/757Matching configurations of points or features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Abstract

(57)【要約】 【課題】 3次元空間内の物体の位置及び向きを計算す
る。 【解決手段】 (a)3次元モデル上の複数の特徴点及
び2次元照会画像上の対応する特徴点をマークする段階
と、(b)段階(a)でマークされた3つの2次元特徴
点の全ての可能な部分集合に対し、4つの剛体運動の各
々の後に、ある定まった透視投影の下で、3つの3次元
の点が3つの2次元の対応する点に正確に写像されるよ
うに、3次元空間内の3つの点の組の4つの可能な3次
元の剛体運動の解を計算する段階と、(c)段階(b)
で得られた各解に対し、2次元照会画像内の解に使用さ
れた3つの点の中にはない点を使用して誤差測度を計算
する段階と、(d)計算された誤差測度に基づいて、段
階(c)からの解を順位付けする段階と、(e)段階
(d)における順位に基づいて最良の解を選択する段階
とを有する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明はコンピュータ・ビジ
ョンに関し、特に、3次元(3D)空間内の物体の位置
及び向き(或いは「ポーズ」とも呼ばれる)の計算に関
する。
【0002】
【従来の技術】人の顔の3次元(以下、3D)モデルを
収集する装置は、当業界では公知である。これらの装置
は、収集される3Dモデルと位置を整合して顔の画像を
同時に収集する。3Dモデルは、顔の表面上の、典型的
には約640×640の大量の点(point)の3次元座
標から成り、これに加えて、各点においてカラーの画素
値を有している。これにより、任意の視点からの顔の現
実的なコンピュータ・グラフィックスによる表示が可能
である。この装置は、大量の顔のモデルを収集するため
に使用することも可能である。幾つかの応用例では、こ
の数は約百万或いはそれ以上に達する。
【0003】この装置の1つの応用例は、顔を同定する
装置、すなわち、任意の2次元(以下、2D)の顔の写
真による照会(query)について、以前に収集された顔
の3Dモデルの大規模なデータベースを検索して、その
2D写真に最も合致するモデルを見い出す装置である。
【0004】これを達成するためには、克服しなければ
ならない多くの障害がある。
【0005】一般に、照会写真(query photograph)が
撮影された状態の知識はなく、またその状態を制御する
こともできない。このため、照会写真のポーズ(すなわ
ち被写体の位置と向き)及び照明状態は不明である。
【0006】顔の認識の問題には多数の解決手順が考え
られて来た。。本発明者らは、モデルとの照会の手順の
内、1つのものに注目する。この手順は、照会写真内の
顔のポーズを決定するタスクで始まる。ここで、「ポー
ズ」は顔の3Dの位置及び向きである。
【0007】本発明は、このポーズの決定に関するもの
である。2D写真が与えられた場合に3D物体のポーズ
を見い出すことに関して考慮すべき従来技術がある。本
発明は、1組の3Dモデルが利用可能な場合に関係す
る。この問題を処理するための従来技術による方法は、
次の2種類に分類することができる。 1.ある3Dモデル内の対応する特徴と比較された2D
画像から抽出された「特徴」に基づくもの。 2.直接画像を使用するもの。
【0008】本発明の方法は第1の種類に分類される。
従来の当業者により使用されていた特徴は、手動で選択
された点から、自動的に検出された「角」、極値、直
線、直線の接合点及び曲線等がある。本発明は、これら
の方法のうち入力として2組の点を利用する最も単純な
方法のみを扱う。点の第1の組は、3Dモデルの上に手
動によりマークされ、その結果、点の3D座標が得られ
ている。点の第2の組は、同一物体の2D画像の上に手
動により同様にマークされる。3Dの点と2Dの点との
間の対応は公知である。すなわち、各々の3Dの点に対
して、これに対応すると知られている2Dの点が正確に
存在し、逆もまた同様である。3Dの点が2Dの点に
「対応する」と言うことは、これらの点が物体の同じ特
徴、例えば、誰かの顔の左目の目尻或いは飛行機の左翼
の左後部の角であることを意味している。解決すべき問
題は、3D点の組の透視投影(すなわち、カメラ画像)
が2D点の組となるように、全ての点が共に同一に動い
ている3D点の組の剛体運動(rigid motion)を計算す
ることである。これは、透視投影カメラで撮影した3D
点の組の写真が2D点の組となるように、透視投影カメ
ラの位置及び向きを見い出すことと同じである。これ
は、時々、「透視n点問題」と呼ばれており、ここでn
は関係する点の数である。
【0009】
【発明が解決しようとする課題】透視n点問題に対して
これまで多数の専門家が解法を提案している。これら
は、比較的簡単な最小2乗解から、現在では一般に「整
列による認識」と呼ばれているものを経て、統計的選択
技法の範囲に及ぶ。
【0010】この問題に対する既存の方法には幾つかの
問題がある。第1の問題は、3対よりも多くの対応点が
ある場合に、解析的な解(closed form solution)を得
ることが通常不可能なことである。より多数の点に対し
ては、最小2乗処理法が必要である。一般に、透視投影
の非線形性(すなわち、透視はz座標による除算を含
む)及び3D空間内の2D画像の回転における非線形効
果のために、反復法によって最小2乗問題を解く必要が
ある。反復法は、解析的な解法と比較して遅く、更に、
関係する応用例において、最終的には、各照会に対して
数億或いはそれ以上の3D点の異なる組に対してこの問
題を解く必要があるため、速度が重要となる。グラフィ
ック・ディスプレイ用には、結果として得られた解に対
して変化する点の位置の効果を滑らかに表示することが
リアルタイムで可能なように、求解が非常に速いことが
更に望ましい。
【0011】従って、本発明の目的は、従来技術による
方法と比較して速く、3次元空間内の物体の位置及び向
きを計算する方法を提供することである。
【0012】更に、本発明の目的は、従来技術による方
法と比較して速いだけではなく、安定に3次元空間内の
物体の位置及び向きを計算する方法を提供することであ
る。
【0013】更に、本発明の別の目的は、対応が既知で
ある手動によりマークされた少数の点を、ポーズを見い
出すために使用する必要がある応用によく適合する、3
次元空間内の物体の位置及び向きを計算する方法を提供
することである。
【0014】更に、本発明の別の目的は、カメラモデル
の知識を必要とせず、或いはカメラモデルを解く必要の
ない、3次元空間内の物体の位置及び向きを計算する方
法を提供することである。
【0015】また、更に本発明の別の目的は、従来技術
による発見的方法及び反復解よりも計算が簡単な、3次
元空間内の物体の位置及び向きを計算する方法を提供す
ることである。
【0016】
【課題を解決するための手段】従って、3次元空間内の
物体の位置及び向きを計算する方法が提供される。本方
法は、(a)3次元モデル上の複数の特徴点及び2次元
照会画像上の対応する特徴点をマークする段階と、
(b)段階(a)でマークされた3つの2次元特徴点の
全ての可能な部分集合に対して、4つの剛体運動のそれ
ぞれの後に、ある定まった透視投影の下で、前記3つの
3次元の点が前記3つの2次元の対応する点に正確に写
像されるように、3次元空間内の3つの点の組の4つの
可能な3次元の剛体運動の解を計算する段階と、(c)
段階(b)で得られた各解に対して、前記2次元照会画
像内の、前記解に使用された前記3つの点の中にはない
が、対応するマークされた点を具備する前記3次元モデ
ル内の全ての3次元のマークされた点の前記投影内の誤
差から導かれる誤差測度を計算する段階と、(d)前記
計算された誤差測度に基づいて、段階(c)からの前記
解を順位付けする段階と、(e)段階(d)における前
記順位に基づいて最良の解を選択する段階とを有する。
【0017】本発明の方法の第1の変形において、本方
法は、段階(a)の後に、前記特徴点のそれぞれから導
出された所定数の摂動点を計算する段階をさらに有し、
段階(b)の前記計算は前記照会画像内にマークされた
3つの2次元の点の全ての可能な部分集合上、更に加え
て前記対応する摂動点上で行われる。通常、前記所定数
の摂動点は球ガウス分布からのサンプリングにより得ら
れる。
【0018】本発明の方法の第2の変形において、本方
法はさらに、段階(d)の後に、(i)段階(d)の前
記順位に基づいて、前記解の部分集合を段階(c)から
選択する段階と、(ii)前記解の前記部分集合のそれぞ
れから導出された所定数の摂動点を計算する段階と、
(iii)前記所定数の摂動点に段階(b)を繰り返す段
階と、(iv)段階(iii)において得られた各々の解に
対して段階(c)を繰り返す段階をさらに有し、段階
(d)の前記順位は、段階(c)と(iv)の両方におい
て計算された前記誤差に基づいている。選択された解の
部分集合は、順位付けされた解の上位10パーセントの
ような、順位付けされた解の所定の部分であることが望
ましい。
【0019】本発明の方法及び変形の方法段階を実行す
るための計算機により実行可能な命令のプログラムを具
体的に実現する、計算機により読み取り可能なプログラ
ム記憶装置と、本発明の方法及びその変形を実行するた
めのコンピュータ読取り可能な媒体内で具体化されてい
るコンピュータ・プログラム・プロダクトとが更に供給
される。コンピュータ・プログラムは、本発明の方法及
びその変形の段階に対応するモジュールを有することが
望ましい。
【0020】
【発明の実施の形態】本発明は、多数の様々な形式の物
体の識別に適用可能であるが、人の顔を認識する状況に
おいて特に有用であることが判明している。以下では、
本発明の適用可能性を人の顔の認識に制限せずに、この
ような状況における本発明について説明する。
【0021】本発明の方法はポーズ推定法である。照会
が創り出されたポーズ及び照明状況の下で各モデルの外
観を予測することにより、3Dモデルの大規模なデータ
ベース内で2D写真照会が3Dモデルと照合されるシス
テムにおいて、本発明の方法は、照会の外観を最も良く
説明する、それぞれの3Dモデルの近似ポーズ、すなわ
ち照会に最も類似している画像に導く3次元空間におけ
るモデルの位置及び向き、を判定する問題を解決する。
本発明の方法は、手動により選択された3Dモデル及び
2D照会における少数の対応点を使用して行われる。4
次方程式の解として解析的に計算可能である仮の解を計
算するために、3つの2D−3Dの点対(point-pair)
が一度に考慮されることが望ましい。このような解のそ
れぞれに対して、残留点(現在の3つの点対に対する仮
の解に使用されなかったもの)(remaining point)の
誤差は、最良の仮の解を選択するために記録され使用さ
れる。これは、このような可能な3つ組(possible tri
ple)の全てに対して徹底的に実行される。更に加え
て、手動による点のマーキングにおいて仮定されるガウ
スの誤差の効果を反映するために、ガウスのジッタ技法
が使用されることが望ましい。
【0022】本発明の方法は、「最良三角」法、或いは
「ロバスト三角」法とも呼ばれ、従来技術のRANSA
C法に類似しているが顕著な差がある。RANSAC法
は同じ問題、すなわち「透視n点問題」を解くために主
として開発された。RANSAC法においては、3D空
間内のn個の点の相対的位置と2D画像内の同数の点が
与えられ、問題は3Dの点を2Dの点へ写像する透視投
影を得ることである。2Dの点と3Dの点との間の対応
は公知である。
【0023】2Dの点が何らかの自動的(或いは手動に
よっても)プロセスにより抽出された場合、このような
点、特に自動的なプロセスにより抽出された点は総誤差
の影響を受けやすいために、問題が生じる。これは、ア
ウトライアー棄却問題と呼ばれる。仮に、最小2乗適合
(least squares fit)を行えば、誤差の2乗が最小限
に抑えられるため、大きく「間違っている」データが解
に対して大きな効果を与える。このとき、このような大
きな間違いの解答を排除することが問題となる。長年に
わたって、この問題に対する多数の解決方法が提案され
ている。コンピュータ・ビジョンの文献では、最近数年
間、この問題は「ロバスト」法と呼ばれている。
【0024】RANSAC法は、合理的な誤差限界(er
ror bound)を予め計算することを試み、次に、データ
点の部分集合をとることを試みる。RANSAC法は、
許容可能な総誤差を実現するために、作成した各部分集
合から点を除去する。部分集合は無作為に或いは確定的
に選択され、利用可能な点の数及び予想される誤差統計
に基づいて、部分集合が幾つで適切であるか及び部分集
合の大きさが適切であるかを示す分析を作成者が与え
る。RANSAC法は、かなり多数の点が存在する状態
で使用されることを意図しており、従って、全ての組み
合わせの徹底的なテストが予測されている訳ではない。
RANSAC法は、基本的な計算として、3点上の解析
的な解、或いはいくらか多数の点上の最小2乗解を使用
する。当業界には、3つの点に対して、一般に物理的に
有意義な4つの解が得られる4次方程式を解くことを含
む簡単な解があるという事実を、コンピュータ・ビジョ
ンの文献に初めて明らかに示した人物がいる。
【0025】本発明の最良三角法は、その基本的な計算
として、3つの点に対する解析的な解を使用し、その解
のためのアルゴリズムはRANSAC法の4次方程式の
解法(quartic exposition)に基づいている。本発明の
最良三角法は、従来技術による方法が使用している最小
二乗法或いはいかなる反復法も決して使用しない。
【0026】しかしながら、本発明の最良三角法は、R
ANSAC法とは次の2つの重要な相違点を有する。 1.本発明の最良三角法は、データ内の全ての可能な3
点の部分集合に対して徹底的に解を計算する。目的とす
る問題が、わずか約12点しか使用しない場合、これは
実用的である。 2.本発明の最良三角法は、全ての残留点を使用して最
小2乗解を求める一方で点を除去するのではなく、わず
か3点のみを使用して解を計算する。その解の「品質
(quality)」は、どのように残留点が良く適合するか
に基づいているが、解自身は他の点上の誤差には全く影
響されない。
【0027】本発明の最良三角法は、この「品質」ファ
クターによって3つの点に対する全ての解を順位付けす
ることにより、その最終解を選択する。残留点に関して
最も小さい残差(residual)を有する解が最良の解であ
ると判定される。
【0028】これは2つの異なる方法で安定性(robust
ness)を実現する。第1に、解は3つの点に基づいてい
る。推定上、データの中には大きな間違いではない点が
3つは存在するため、解は少なくとも合理的であると期
待される。他方、大きな間違いの点が、どの解が最良で
あるかの決定に対して関与する場合、それらは2つの方
法のいずれかである。第1に、それらは、「他の点」の
1つであり、すなわち、解の計算に使用された3つの中
の1つではないことがあり得る。このような全ての状況
の中で、良くない点は解の間の競合に単に影響を与える
だけである。仮に、これらの点が大きな間違いである場
合、次に、3つの点の全ての合理的な解に対して、これ
らの点は近似的に等しい大きな間違いの誤差に寄与する
と期待され、従って解の中から選択する場面で著しい差
異を生ずることはない。大きな間違いの点が解を計算す
るために使用される3つの中の1つである場合には、大
きな間違いの点は解を非常に歪めるであろうと予測さ
れ、従って他の全ての点に寄与される順位付けの誤差に
よって、この解が競合から容易に排除されるであろう。
【0029】本発明の最良三角法は、照合すべきデータ
点が少なく、例えば12である場合には、反復解の必要
がないために従来技術による方法と比較して非常に速
い。本発明の最良三角法は、一般に、n個のデータ点が
ある場合、次式の解を計算しなければならない。
【0030】
【数1】
【0031】n=12に対し、これは(12×11×1
0)/6=220が解となる。3つの点に対する解析的
な4次方程式の解法に要する時間は一定であるため、ア
ルゴリズムのおおよそのコストに影響を与えない。明ら
かなように、これはnの妥当な値に対してのみ実用的で
あるが、nが小さい場合には非常に効率的である。これ
に比較して、任意の数の点に対する最小2乗解は、固有
値或いは特異値のような何かを計算するために、反復計
算を必要とする。
【0032】本発明の最良三角法は、計算に対して更に
他の技術を加えている。解に対して3点のみが使用され
ることを補償するために、またデータ点がガウスの誤差
分だけそれらの真値とは異なると仮定して、最良三角法
は各データ点の周りに数個の点のガウスの雲(cloud)
を人為的に生成し、雲の中の全ての点の組み合わせに対
して3点の問題を解く。これは、より近く正解を近似す
るように、3点解を改善する可能性をもたらす。
【0033】当然のことながら、ガウス分布以外のある
分布が点配置誤差をより良く描写していることを確信す
る何らかの理由があれば、このような分布からサンプル
を取り出してもよい。
【0034】しかしながら、このような分布が知られて
いることは、大多数の場合にありそうもなく、単に少数
のサンプルのみが取られるためにガウス分布の使用とは
僅かな差である可能性が高い。更に、サンプルを生成す
るための単純な方法を分布が許容しなければならず、多
くの場合これは非ガウス分布にとって困難である。従っ
て、大多数の状況の下ではガウス分布がほぼ最良の選択
である。
【0035】本発明の方法に類似している他の方法が
「整列による認識」、或いは、単に「整列」として知ら
れている。この方法においては、本発明の方法と同様
に、剛体運動を解くために点の3つ組が使用される。本
発明の方法と同様に、これらの解は品質測度(quality
measure)に基づいて採点され、そして、最良の解が得
られることになる。しかしながら、それらの間には若干
の重要な差がある。第1に、これらの従来技術による方
法は、単に正射影のみ、或いはスケーリング・ファクタ
ーを有する正射影のみを考慮し、透視投影は考慮してい
ない。これらの手法では透視3点問題に対する解析的な
解は非実用的であるとして、避けられている。これは、
最善の策として、正射影とスケール近似を使用せざるを
得ない。正射影とスケール近似は、カメラから被写体へ
の距離が被写体により占められる全体の深度と比較して
大きいことを想定する。人間の頭の写真或いはモデル
は、多くの場合、頭部の寸法の数倍にすぎない距離、例
えば1メートルの距離から収集されるため、これは本発
明の方法を使用する装置に対して良い近似ではない。本
発明の方法は、透視3点問題の実行可能な解を利用する
ため、より良い近似を実現することができる。 従来技
術による整列方法は、上述した数式1のように複雑な限
界(complexity bounds)を与えるが、非常に多数、お
そらく数千個の点から3つ組を引き出す環境にあるた
め、全ての可能な3つ組を徹底的にチェックすることを
予期していない。その代わりに、従来技術による整列方
法は、所定の3Dの点が照会の中の2Dの点に一致する
可能性に対する発見的判定法のような、3つ組の探索を
除去する方法に関係している。更に、従来技術による整
列方法は、点自身が機械により自動的に抽出されている
ため、点自身は非常に信頼できない環境にある。最後
に、従来技術による整列方法が使用する品質測度は点に
基づいていない。より正確に言えば、照会画像の中で抽
出されたエッジに基づいている。更に、これは信頼でき
ない点の大量の数の誤差よりも信頼性が高いという事実
により規定される。
【0036】従って、従来技術による整列方法が解こう
とする基本的問題は、正確に言えば本発明の方法が扱う
問題とは異なっている。従来技術による整列方法は、3
Dモデルのかなり小さい集合(例えば、10個)を使用
し、そのそれぞれは著しく異なっている。また、従来技
術による整列方法は、多数の信頼できない点を自動的に
抽出する。従来技術による整列方法は、2D−3Dの点
の対応を事前に認識していないため、それらを推測しな
ければならない。従来技術による整列方法の大部分の精
力は、多数の信頼できない点を扱うことに関与してお
り、剛体運動の解に使用されない点の誤差を使用せず、
むしろ線分に関する誤差を使用している。更に重要なこ
とには、従来技術による整列方法は、透視投影に対して
正射影、或いは正射影+スケール近似を使用している。
【0037】これに対して、本発明は、そのそれぞれが
全く同様である3Dモデルの大きい集合(例えば、10
0万個までも)を対象としており、少数の比較的信頼性
が高い点を手動により抽出する。本発明は、2D−3D
の点の対応を事前に認識しているため、これらを推測す
る必要がない。本発明の大部分の精力は、点の3つ組の
全ての選択に対して徹底的な解を実行することに関与す
る。本発明は、いかなる種類のエッジにも関与せず、残
りの対応点の誤差のみを使用する。更に重要なことに
は、本発明は透視投影への近似ではなく、透視投影を正
確に使用する。
【0038】図1は、人の顔100の3次元モデルの2
次元写像の概念図である。顔100は写真の外観を有す
るが、2Dデータのみが表示されているにもかかわらず
3Dデータが利用可能なように、この2D表象の全ての
点において深度データと組み合わされていることが望ま
しい。顔の特有の特徴と定められる若干数の点102を
クリックするために、人間のオペレータはマウスのよう
な入力装置を使用する。図1の場合において、12個の
点が定められマークされている。これらの点は、両眼の
目尻と目頭、両眼の瞳孔、唇の両端、2つの唇の間の境
界の中心、及び鼻が顔の残りと接する3つの点、すなわ
ち鼻の基部の左右の先端と鼻の基部の中心とに定められ
る。これらは使用される代表的な12の特徴であること
が望ましい。明らかなように、これよりも多数或いは少
数の特徴点を使用することもできる。
【0039】あるポーズでは、これら全ての点が見える
わけではない。しかし、この時点では3Dモデルの上に
3Dの点をマークしているにすぎない。これらの点はマ
ークされ、その3D座標が3Dモデル情報データベース
の一部として蓄積される。3Dの点をマークするこのプ
ロセスは、データベース内の全てのモデルに対して実行
される。
【0040】ここで図2を参照すると、ある将来の時点
において、2D照会写真200がシステムに呈示され
る。次に、人間のオペレータが、12個の定められた特
徴点の内、照会写真200内に見えるだけの数の特徴点
202をマークする。これらのマーク202は交換可能
ではないことに注目されたい。従って、マーク番号nは
常に特徴番号nを示す。特徴番号nが見えない場合に
は、マーク番号nは作成されない。
【0041】次に解くべき問題を図3に示す。本発明者
らは、次に、各3Dモデル100から2D照会写真20
0が生成されると仮定する。問題は、カメラ投影変換3
00(透視投影)により映し出されるときに、そのモデ
ル点102が照会の中でマークされた2D照会点202
に対する最良近似をもたらすような、各3Dモデル10
0に対する3Dモデル100の平行移動及び回転(すな
わち、剛体運動)を見い出すことである。本発明者らは
点対応、すなわち、どの3Dの点が各2Dの点の元とな
っているかを認識しており、またその逆も同様に認識し
ている。
【0042】非線形の最小二乗法のような、多大の費用
を要する計算を避けるために、本発明者らは、全ての可
能性のある特徴点の3つ組を考慮する。図4において、
200は2D照会写真を示し、100は3Dモデルを示
し、共に全ての見える特徴点はそれぞれ202,102
とマークされている(この場合、全ての12個の特徴点
は2D照会内で見ることができる。)。本発明者らは、
照会内の特徴点の各3つ組400を組織的に考慮する。
この場合、12個の特徴点が存在するため、(12×1
1×10)/6=220のような3つ組が存在する。本
発明者らはモデル及び照会内の特徴の間の対応を知って
いるため、このような各3つ組は、各3Dモデル100
内の特徴点402の唯一の3つ組に対応する。本発明者
らは、三角形404,406により結合されているもの
として、これらの各3つ組を想像することができる。3
Dモデル200内の三角形406は、図には2次元のみ
で描写されているが、実際には3次元空間内の三角形で
あることに注意すべきである。
【0043】計算すべき第1のものは、2Dへのある定
まったカメラ投影の下で2D照会三角形404をもたら
す3Dモデル三角形406の剛体運動である。わずかに
3点の2つの組を含むのみであるため、従来技術から原
理的に知られている4次方程式を解くことにより、この
剛体運動は解析的に計算することができる。
【0044】ここで、本発明者らは、4次方程式の解を
使用することにより、透視3点問題を解くためのRAN
SAC技法を繰り返す。ここで図5を参照すると、透視
投影を定める1つの方法は、3次元空間(3-space)内
の点である投影中心Lと、3次元空間内の像面(image
plane)の位置及び向きとが与えられることである。3
次元空間内の点pの像面内の点qに対する透視投影は、
3次元空間内でq及びLの両方を通過する唯一の直線を
引くとともに、qをこの直線が像面と交差する唯一の点
であると定めることにより行われる。このとき、像面が
投影中心を含む縮退した場合を除く。
【0045】これを説明するために、次のように仮定す
る。
【0046】A*,B*,C*は像面内の3点。
【0047】A’,B’,C’は3次元空間内の3点。
【0048】次に、Aの透視投影がA*であり、Bの透
視投影がB*であり、Cの透視投影がC*であるように、
3次元空間内のA’,B’,C’を3次元空間内の3点
の他の位置A,B,Cに剛体運動として動かす。||
A’−B’||,||B’−C’||及び||C’−
A’||の3つの距離を知れば、剛体運動を行なった三
角形ABCを知ることができることに注意しておく。す
なわち、||A−B||,||B−C||及び||C−
A||が同じ値を有する全ての三角形ABCは、剛体運
動により三角形A秩CB秩CC窒ニ整列できる。
【0049】L及びA*,B*,C*が既知であるため、
A,B,Cをそれぞれ通過する解くべき投影線を形成す
ることが可能である。従って、||A−B||,||B
−C||及び||C−A||が、それぞれ||A’−
B’||,||B’−C’||及び||C’−A’||
と同じ値を有するように、これらの直線に沿った点を得
ることで十分である。
【0050】ここで図6を参照すると、四面体LAB
C、すなわち、頂点L,A,B及びCを有する四面体を
考えると、これは、3つの「辺」(辺LA,LB,L
C)の長さを解くことと等価である。辺LA,LB,L
Cの長さをそれぞれa,b,cと呼ぶ。更に、表記法を
簡潔にするために、Rab,Rbc及びRacを、それぞれ|
|A−B||,||B−C||及び||C−A||と定
める。
【0051】同様に、Qab,Qbc及びQacを、それぞ
れ、LAがLBと成す角、LBがLCと成す角、及びL
AがLCと成す角と定める。
【0052】従って、透視3点問題に対する解は次の3
元連立方程式の解となる。
【0053】
【数2】
【0054】
【数3】
【0055】
【数4】
【0056】表記法を簡潔にするために、量K1、K
2、及びxを次式により定める。
【0057】
【数5】
【0058】
【数6】
【0059】
【数7】
【0060】3次元空間内の点のいずれも透視中心には
存在せず、従って「a」は0ではあり得ないと仮定して
いるため、xが正しく定義されていることに注意してお
く。
【0061】従って、数式(連立方程式)2〜4の解
は、数式(4次方程式)8の解により与えられる。
【0062】
【数8】
【0063】ここで、
【0064】
【数9】
【0065】
【数10】
【0066】
【数11】
【0067】
【数12】
【0068】
【数13】
【0069】である。
【0070】この解が得られれば、3Dモデル100内
の全ての他の点を同様の剛体運動によって動かすことが
でき、カメラ変換を介して画像に投影することができ
る。2D照会200の元となった3Dモデル100か
ら、すなわち、本発明者らが写真を識別しようとしてい
る実際の人からの点を使用しているとしても、残留点
は、一般にこの時点で、それらの対応する2Dの点に正
確に投影しないであろう。人間が点を指示することによ
る誤差、丸め(roundoff)誤差、長い時間にわたる顔の
変化、場合によっては不正確なカメラモデル、レンズの
歪曲、及びその他多数の誤差と雑音の原因によって、こ
れらの点の2D投影には若干の誤差があろう。
【0071】多くの場合、照会対象と異なる3Dモデル
に対して、この問題を解くことになるであろう。その場
合には、残留点の誤差は、正しいモデルに対するより
も、はるかに大きいと予想される。
【0072】しかしながら、別の誤差の原因もある。多
くのポーズにおいて、三角形を作る点は、非常に狭い三
角形に押し込まれるであろう。このような状態では、点
の位置の非常にわずかな変化により剛体運動の解が大き
く変化することがあるため、剛体運動の変換に対する解
の正確度は大きな数値的誤差を受けやすい。
【0073】更に、候補となる2つの3Dモデルが非常
に似ている可能性があり、間違った三角形を選択して使
用する場合、間違ったモデルが残留点誤差の競合に勝つ
おそれがある。これらの可能性に対処するために、本発
明者らは全ての3つ組を考慮し、最少の残留点誤差を有
するものがもたらす剛体運動を選択する。その三角形の
みが剛体運動の計算に寄与することに注意しておく。他
の点は、調べられた220個の三角形に対応する220
の解の中から選択するために寄与するのみである。
【0074】「残留点誤差」に対しては多くの合理的で
明らかな選択があるが、本発明者らは2乗誤差、或いは
「L2誤差」として普通に知られている定義を使用して
いる。
【0075】以下の説明において、Rkは標準のk次元
の実ユークリッド空間を示す。n個の点、すなわち、n
個の2Dの点と対応するn個の3Dの点を使用している
と仮定する(本例では、n=12である)。これらの点
を、インデックス(1,2,・・・,n)により示す。選
択された各々の3つ組に対して、選択された3つ組が
1,2及び3と番号を付けられた点から成るるように、
点の番号を付け直す。照会内の点をxiにより示し、こ
こでiは(1,2,・・・,n)の1つである。xiはR2
内の点であることに注意しておく。同様に、3Dモデル
内の対応する特徴点をyiと示し、ここでiは(1,
2,・・・,n)の1つである。yiはR3内の点であるこ
とに注意しておく。透視3点問題を解くことにより解か
れたモデルの剛体運動を、Tにより示す。Tは次式によ
り示されるR3からR3への写像であることに注意してお
く。
【0076】
【数14】
【0077】Pを
【0078】
【数15】
【0079】とし、カメラにより行われた透視投影を示
す。次に、番号を付け直した後の最初の3点は照合され
たものであることを想起すると、本発明者らが透視3点
問題で解いた問題は次式で表される。
【0080】
【数16】
【0081】残留点誤差は、残りのn−3点、すなわ
ち、点(4,5,・・・,n)に、何が起こるかに依存す
るであろう。
【0082】
【数17】
【0083】ここで、||z||はR2における通常の
(ユークリッド)ノルムを意味する。このノルムを定め
るために、Z=(Zx,Zy)とする。ここで、ZxはZ
のX成分であり、ZyはZのY成分である。x及びy
は、それぞれR2及びR3内の点として使用されている上
記及び下記と異なり、ここでx及びyはR2の軸を表す
ことに注意しておく。。従って、ノルムは次式により定
められる。
【0084】
【数18】
【0085】Eiは点iにおける2乗誤差として既知で
ある。
【0086】従って、総2乗誤差、Etotはこれらの量
の合計により与えられる。
【0087】
【数19】
【0088】3つの三角形の点i=(1,2,3)は相
互に(求解の及び計算機の丸め誤差を含んで)正確に写
像するように解かれているため、それらの点における誤
差はすでに零であることに注意しておく。このことは、
もし望めば、i=(1,2,3)に対してEi=0であ
るため、上式は次式で置換可能であることを意味してい
る。
【0089】
【数20】
【0090】透視3点問題を解くために使用された3つ
組の点に対する220個の異なる選択に対応する220
個の解(すなわち、n=12に対して)の間の競合にお
いて、勝者はEtotの最低値を実現するものである。
【0091】手動によりマークされた点は、ある程度の
不正確さを受ける可能性がある。これは、マークされた
点に対応する特徴が3Dモデル或いは2D照会写真のど
の中にも完全に明確に定められた位置を有していない恐
れがあるという事実と同様に、マーキングに使用された
装置の解像度限界を含む様々な原因等のために生じるも
のである。これらの欠点を補償するために、本発明の方
法は、データ内の呈示された正確な点よりも良い点を発
見しようと試みる技術を含んでいてもよい。これは、マ
ークされた点が真の位置に平均を有する球ガウス分布に
従うという仮定に基づいて行われる。すなわち、真の位
置が照会内の(u,v)にある場合、このモジュール
は、この点が実際に(x,y)にマークされた確率は次
式により与えられると仮定する。
【0092】
【数21】
【0093】ここで、Aは正規化ファクター(normaliz
ation factor)であり、sは適当に選択された標準偏差
であって、通常、画素の直径の約1〜3倍である。この
ような分布から無作為標本を生成するための公知の技術
がある。本アルゴリズムは、データ値(x,y)の周り
に少数の点の雲を生成するために、このような技術を使
用する(このような雲の中で使用するための摂動点の数
は、アルゴリズムの所定の実行に対して固定されてい
る。それは照会毎に変化させることができるが、各照会
に対しては、点の数は摂動されるべき全てのデータ点に
対して同じでなければならない。)。(x,y)の関数
としての(u,v)値の分布として上記の分布を逆に扱
うことにより、本アルゴリズムはこれを実行する。すな
わち次式の分布を使用する。
【0094】
【数22】
【0095】これは、真の位置である可能性のある
(u,v)のサンプルを生成するために、これを平均
(x,y)を有する(u,v)の分布として見なすこと
以外では、上式は数式21と全く同じである。例えば、
摂動点の数が4に設定された場合、分布(数式22参
照)から4個の連続したサンプルを抜き取り、照会内の
各データ点(xi,yi)においてこのプロセスを連続し
て繰り返す。次に、本アルゴリズムは、次のようにこれ
らの追加点を使用する。本アルゴリズムは、3次元内の
点(p1,p2,p3)の3つ組が2次元内の点(q1,q
2,q3)の3つ組と一致する度に、まず、各qiの周囲
の点のガウスの雲を生成する。
【0096】通常、雲には約3〜10個の点がある。雲
にk個の点があるとすれば、各qiにおいて、本アルゴ
リズムは次式による点を有する雲を生成する。
【0097】
【数23】
【0098】次に、透視3点解で使用される点の3つ組
にqiが出現する度に、qiが解に使用されるのみでな
く、全てのjに対する各qijも同様に解に使用される。
すなわち、3個の2次元点が(q1,q2,q3)である
場合、jが(1,・・・,k)内の全ての値を取る全ての
(q1j,q2j,q3j)が使用される。すなわち、まず、
(q1,q2,q3)を使用して解が実行される。次に、
(q1,q2,q3)のそれぞれにおいて、k個の点の雲
が生成される。次に、各雲内のj番目のこのような雲点
(cloud point)を使用して解が実行される。これによ
り、アルゴリズムのコストが一定係数(k+1)だけ増
加する。
【0099】摂動点の数が4に設定された上記の例にお
いて、各データ点qiにおいて分布から4個のサンプル
が抜き取られる。すなわち、q1に平均を有する分布か
ら、サンプルq1,1,q1,2,q1,3,q1,4を抜き取り、
2に平均を有する分布から、サンプルq2,1,q2,2
2,3,q2,4を抜き取り、q3に平均を有する分布か
ら、サンプルq3,1,q3,2,q3,3,q3,4を抜き取る。
【0100】各qは、2次元空間内の点であることに注
意しておく。
【0101】次に、(p1,p2,p3)の投影に対する
解を計算していることを想起すれば、次式の対応の各々
に対して、解は計算される。
【0102】
【数24】
【0103】
【数25】
【0104】
【数26】
【0105】
【数27】
【0106】この手順の省コストの変形は、第1に、雑
音がない全ての3つ組のポーズを解くこと、すなわち、
iの非摂動値を使用して解くことである。次に、品質
得点(quality score)に基づいて、この非摂動段階(u
nperturbed stage)で使用された3つ組をソートするこ
とである。最後に、少数の最良解に対してのみ、追加し
たk個の摂動する3つ組を実行する。このような小さい
摂動が品質に大きな改良をもたらすことは全くありそう
もないため、第1の段階で非常に悪い品質得点をもたら
す3つ組に雑音を加える必要はない。
【0107】本発明の方法は、Cプログラム言語を使っ
て実現されている。透視3点問題の解を計算するために
使用される本方法は、RANSAC法で提供されるもの
の1つである。これは4次方程式を解く問題を減少させ
る。具体例は、インターネット上のパブリックドメイン
で入手可能な4次方程式ソルバを使用している。
【0108】他の方法に対する主な利点は、速度と安定
性との間のより良いトレードオフである。本発明の方法
は、非常に速くかつ非常に安定である。
【0109】本発明の方法は、ポーズを見い出すため
に、既知の対応を有する手動によりマークされた少数の
点を使用する必要がある応用に特に好適である。
【0110】本発明の方法は、「通常の」カメラモデル
で機能を発揮するほど十分に安定であり、かつカメラモ
デルを解く必要もないため、カメラモデルの知識を必要
としない。
【0111】4次方程式を解くためのコードは幾分複雑
であるが、これはよく知られている領域である。本発明
の方法は、4次方程式の解を使用するため、発見的方法
も反復解も不要であり、多くの処理法よりも他の点では
簡単である。
【0112】本発明の方法を、図7、図8、図9(a)
及び図9(b)のフローチャートを参照して要約する。
これらの図において、類似の参照番号は類似の或いは同
様な段階を示す。ここで、図7のフローチャートを参照
すると、本発明の方法は、それぞれ段階702及び段階
704において、3Dモデル及び2D照会写真の両方の
上に、通常、人間のオペレータにより、所定数の特徴点
をマークする段階を有する。選択された特徴点の数は、
8〜12の範囲であることが望ましい。段階706にお
いて、対応する特徴点の3対の全ての部分集合が生成さ
れる。3次元空間内の3つの特徴点の各部分集合及び2
次元空間内の3つの対応する特徴点を仮定すると、3次
元空間での3点の可能な4つの剛体運動が、これらのそ
れぞれの剛体運動の後に、ある定まった透視投影が3つ
の3次元の点を3つの対応する2次元の点へ正確に写像
するように、段階708において計算される。次に、照
会内のマークされた3つの2次元の点の全ての可能な部
分集合に対して、段階708が繰り返される。段階70
8において得られた各々の解に対して、その解に使用さ
れた3つの点の中にはないが、2次元の照会内には対応
するマークされた点を有するモデル内の全ての3次元の
マークされた点の投影誤差から導出される誤差測度が、
段階710において計算される。段階712では、段階
710において計算された誤差に基づいて、解が順位付
けされる。最後に、段階714では、段階712の順位
に基づいて最良解が選択される。
【0113】図8のフローチャートを参照して、上述し
た方法の第1の変形を要約する。本発明の方法の第1の
変形において、段階702,704及び706は上述し
た方法と同様に実行される。段階802において、元の
特徴点のそれぞれから導出される少数(約10)の摂動
点が計算される。これらの点は、通常、球ガウス分布か
らサンプリングすることにより得られる。段階802か
らの対応する摂動点に対して計算が実行されることを除
いて、段階804は上述した方法に関連して上述した段
階708に類似している。段階804において得られた
各々の解に対して、その解に使用された3つの点の中に
はないが、2次元の照会内には対応するマークされた点
を有するモデル内の全ての3次元のマークされた点の投
影誤差から導出される誤差測度が、段階710において
計算される。段階712では、段階710において計算
された誤差に基づいて、解が順位付けされる。最後に、
段階714において、段階712の順位に基づいて最良
解が選択される。
【0114】図9(a)及び図9(b)のフローチャー
トを参照して、本発明の方法の第2の変形を要約する。
本発明の方法の第2の変形は、図7に関連して上述した
方法と同様に、同じ段階702,704,706,70
8,710及び712により開始する。しかしながら、
段階712の順位に基づいて最良の解が選択された段階
714の代わりに、段階902において、段階712の
順位に基づいて最も有望な解の部分集合が選択される。
本発明の方法の第1の変形に関連して上述した段階80
2と同様に、有望な部分集合の要素である元の特徴点の
それぞれから導出された少数(約10)の摂動点が段階
904において計算される。段階802とは異なり、点
対3つ組(point-pair triple)の「有望な」部分集合
のみが使用される。段階906では、段階804の計算
は段階904からの対応する摂動点に実行される。段階
908では、段階906において得られた各々の解に対
して、その解に使用された3つの点の中にはないが、2
次元の照会内には対応するマークされた点を有するモデ
ル内の対応する摂動した3次元のマークされた点の投影
誤差から導出される誤差測度が計算される。段階910
において、段階708及び906からの解は、段階71
0及び908において計算された誤差に基づいて順位付
けされる。最後に、段階714において、段階910の
順位に基づいて最良解が選択される。
【0115】本発明の好ましい形態と考えられるものを
例示して説明したが、本発明の技術思想から逸脱するこ
となく、形式或いは細部において様々な修正及び変更が
容易に可能であることは当然理解されよう。従って、本
発明は、説明され例示された正確な形式に限定されるも
のではなく、添付した特許請求の範囲内に含まれる全て
の修正を含むように構成される。
【図面の簡単な説明】
【図1】人の顔の3次元モデルの2次元写像の概念図で
ある。
【図2】2次元の照会写真の概念図である。
【図3】カメラ投影変換により映し出されたときに、照
会でマークされた2次元照会点に対して最も近似する3
次元モデルのモデル点を示す図である。
【図4】図2に示した2次元照会画像と3次元モデルと
を示す図であり、両者は共に全ての可視特徴点がマーク
されている。
【図5】3次元空間における点pの画像平面における点
qへの透視投影のグラフ図である。
【図6】頂点L,A,B及びCを有する四面体LABC
を示す図である。
【図7】本発明の方法を示すフローチャートである。
【図8】図7に示した方法の第1の変形を示すフローチ
ャートである。
【図9】図7に示した方法の第2の変形を示すフローチ
ャートである。
フロントページの続き Fターム(参考) 5B050 BA12 EA05 EA18 FA19 GA08 5B057 AA20 DA11 DC05 DC31 5L096 AA09 BA18 FA09 FA67 FA69 JA03

Claims (21)

    【特許請求の範囲】
  1. 【請求項1】 3次元空間内の物体の位置及び向きを計
    算する方法であって、 (a)3次元モデル上の複数の特徴点及び2次元照会画
    像上の対応する特徴点をマークする段階と、 (b)段階(a)でマークされた3つの2次元特徴点の
    全ての可能な部分集合に対して、4つの剛体運動のそれ
    ぞれの後に、ある定まった透視投影の下で、前記3つの
    3次元の点が前記3つの2次元の対応する点に正確に写
    像されるように、3次元空間内の3つの点の組の4つの
    可能な3次元の剛体運動の解を計算する段階と、 (c)段階(b)で得られた各解に対して、前記2次元
    照会画像内の、前記解に使用された前記3つの点の中に
    はないが、対応するマークされた点を具備する前記3次
    元モデル内の全ての3次元のマークされた点の前記投影
    の誤差から導かれる誤差測度を計算する段階と、 (d)前記計算された誤差測度に基づいて、段階(c)
    からの前記解を順位付けする段階と、 (e)段階(d)における前記順位に基づいて最良の解
    を選択する段階とを有する、3次元空間内の物体の位置
    及び向きを計算する方法。
  2. 【請求項2】 段階(a)においてマークされた特徴点
    の数が、8から12の範囲である、請求項1に記載の方
    法。
  3. 【請求項3】 段階(a)の後に前記特徴点のそれぞれ
    から導出された所定数の摂動点を計算する段階をさらに
    有し、 段階(b)の前記計算は前記照会画像内にマークされた
    3つの2次元の点の全ての可能な部分集合上、更に加え
    て前記対応する摂動点上で行われる、請求項1に記載の
    方法。
  4. 【請求項4】 段階(d)の後に、 (i)段階(d)の前記順位に基づいて、前記解の部分
    集合を段階(c)から選択する段階と、 (ii)前記解の前記部分集合のそれぞれから導出された
    所定数の摂動点を計算する段階と、 (iii)前記所定数の摂動点に段階(b)を繰り返す段
    階と、 (iv)段階(iii)において得られた各々の解に対して
    段階(c)を繰り返す段階とをさらに有し、 段階(d)の前記順位は、段階(c)及び段階(iv)の
    両方において計算された前記誤差に基づいている、請求
    項1に記載の方法。
  5. 【請求項5】 選択された解の前記部分集合が、前記順
    位付けされた解の所定の部分である、請求項4に記載の
    方法。
  6. 【請求項6】 前記所定の部分が、前記順位付けされた
    解の上位10%である、請求項5に記載の方法。
  7. 【請求項7】 前記所定数の摂動点が、球ガウス分布か
    らのサンプリングにより得られる、請求項3または請求
    項4に記載の方法。
  8. 【請求項8】 3次元空間内の物体の位置及び向きを計
    算するために、コンピュータ読取り可能な媒体の中で具
    体化されたコンピュータ・プログラム・プロダクトであ
    って、 (a)3次元モデル上の複数の特徴点及び2次元照会画
    像上の対応する特徴点をマークするための、コンピュー
    タ読取り可能なプログラム・コード手段と、 (b)マークされた3つの2次元特徴点の全ての可能な
    部分集合に対して、前記4つの剛体運動の各々の後に、
    ある定まった透視投影の下で、前記3つの3次元の点が
    前記3つの2次元の対応する点に正確に写像されるよう
    に、3次元空間内の3つの点の集合の4つの可能な3次
    元の剛体運動の解を計算するための、コンピュータ読取
    り可能なプログラム・コード手段と、 (c)各々の解に対して、前記2次元照会画像内の、前
    記解に使用された前記3つの点の中にはないが、対応す
    るマークされた点を具備する前記3次元モデル内の全て
    の3次元のマークされた点の前記投影の誤差から導かれ
    る誤差測度を計算するための、コンピュータ読取り可能
    なプログラム・コード手段と、 (d)前記計算された誤差測度に基づいて前記解を順位
    付けするための、コンピュータ読取り可能なプログラム
    ・コード手段と、 (e)前記順位に基づいて最良の解を選択するための、
    コンピュータ読取り可能なプログラム・コード手段とを
    有する、コンピュータ・プログラム・プロダクト。
  9. 【請求項9】 マークされた特徴点の数が、8から12
    の範囲である、請求項8に記載のコンピュータ・プログ
    ラム・プロダクト。
  10. 【請求項10】 前記特徴点のそれぞれから導出された
    所定数の摂動点を計算するコンピュータ読取り可能なプ
    ログラム・コード手段をさらに有し、 (b)における前記計算は、前記照会画像内のマークさ
    れた3つの2次元の点の全ての可能な部分集合上、更に
    加えて前記対応する摂動点上で行われる、請求項8に記
    載のコンピュータ・プログラム・プロダクト。
  11. 【請求項11】 (i)前記(d)の順位に基づいて
    (c)からの前記解の部分集合を選択するコンピュータ
    読取り可能なプログラム・コード手段と、 (ii)前記解の前記部分集合のそれぞれから導出された
    所定数の摂動点を計算するコンピュータ読取り可能なプ
    ログラム・コード手段と、 (iii)前記所定数の摂動点に(b)を繰り返すコンピ
    ュータ読取り可能なプログラム・コード手段と、 (iv)(iii)において得られた各々の解に対して
    (c)を繰り返すコンピュータ読取り可能なプログラム
    ・コード手段とをさらに有し、 前記(d)の順位が、(c)及び(iv)の両方において
    計算された前記誤差に基づいている、請求項8に記載の
    コンピュータ・プログラム・プロダクト。
  12. 【請求項12】 選択された解の前記部分集合が、前記
    順位付けされた解の所定の部分である、請求項11に記
    載のコンピュータ・プログラム・プロダクト。
  13. 【請求項13】 前記所定の部分が、前記順位付けされ
    た解の上位10%である、請求項12に記載のコンピュ
    ータ・プログラム・プロダクト。
  14. 【請求項14】 前記所定数の摂動点が、球ガウス分布
    からのサンプリングにより得られる、請求項10または
    請求項11に記載のコンピュータ・プログラム・プロダ
    クト。
  15. 【請求項15】 2次元画像を複数の3次元候補モデル
    の1つに照合する方法段階を実行するための機械によっ
    て実行可能な命令のプログラムを具体的に実現する、機
    械により読み取り可能なプログラム記憶装置であって、 前記方法は、 (a)3次元モデル上の複数の特徴点及び2次元照会画
    像上の対応する特徴点をマークする段階と、 (b)段階(a)でマークされた3つの2次元特徴点の
    全ての可能な部分集合に対して、4つの剛体運動のそれ
    ぞれの後に、ある定まった透視投影の下で、前記3つの
    3次元の点が前記3つの2次元の対応する点に正確に写
    像されるように、3次元空間内の3つの点の組の4つの
    可能な3次元の剛体運動の解を計算する段階と、 (c)段階(b)で得られた各解に対して、前記2次元
    照会画像内の、前記解に使用された前記3つの点の中に
    はないが、対応するマークされた点を具備する前記3次
    元モデル内の全ての3次元のマークされた点の前記投影
    の誤差から導かれる誤差測度を計算する段階と、 (d)前記計算された誤差測度に基づいて、段階(c)
    からの前記解を順位付けする段階と、 (e)段階(d)における前記順位に基づいて最良の解
    を選択する段階とを有する、機械により読み取り可能な
    プログラム記憶装置。
  16. 【請求項16】 段階(a)においてマークされた前記
    特徴点の数が、8から12の範囲内である、請求項15
    に記載のプログラム記憶装置。
  17. 【請求項17】 段階(a)の後に前記特徴点のそれぞ
    れから導出された所定数の摂動点を計算する段階をさら
    に有し、 段階(b)の前記計算は前記照会画像内にマークされた
    3つの2次元の点の全ての可能な部分集合上、更に加え
    て前記対応する摂動点上で行われる、請求項15に記載
    のプログラム記憶装置。
  18. 【請求項18】 段階(d)の後に、 (i)段階(d)の前記順位に基づいて、前記解の部分
    集合を段階(c)から選択する段階と、 (ii)前記解の前記部分集合のそれぞれから導出された
    所定数の摂動点を計算する段階と、 (iii)前記所定数の摂動点に段階(b)を繰り返す段
    階と、 (iv)段階(iii)において得られた各々の解に対して
    段階(c)を繰り返す段階とをさらに有し、 段階(d)の前記順位は、段階(c)と(iv)の両方に
    おいて計算された前記誤差に基づいている、請求項15
    に記載のプログラム記憶装置。
  19. 【請求項19】 選択された解の前記部分集合が、前記
    順位付けされた解の所定の部分である、請求項18に記
    載のプログラム記憶装置。
  20. 【請求項20】 前記所定の部分が、前記順位付けされ
    た解の上位10%である、請求項19に記載のプログラ
    ム記憶装置。
  21. 【請求項21】 前記所定数の摂動点が、球ガウス分布
    からのサンプリングにより得られる、請求項17または
    請求項18に記載のプログラム記憶装置。
JP2000257304A 2000-03-30 2000-08-28 3次元空間内の物体の位置及び向きを計算する方法 Pending JP2001283229A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US09/538,208 US6580821B1 (en) 2000-03-30 2000-03-30 Method for computing the location and orientation of an object in three dimensional space
US09/538208 2000-03-30

Publications (1)

Publication Number Publication Date
JP2001283229A true JP2001283229A (ja) 2001-10-12

Family

ID=24145948

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000257304A Pending JP2001283229A (ja) 2000-03-30 2000-08-28 3次元空間内の物体の位置及び向きを計算する方法

Country Status (4)

Country Link
US (1) US6580821B1 (ja)
EP (1) EP1139270B1 (ja)
JP (1) JP2001283229A (ja)
DE (1) DE60023447T2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7218773B2 (en) 2001-08-10 2007-05-15 Nec Corporation Pose estimation method and apparatus
US7706601B2 (en) 2003-08-29 2010-04-27 Nec Corporation Object posture estimation/correlation system using weight information
EP2479726A1 (en) 2003-10-21 2012-07-25 Nec Corporation Image comparison system and image comparison method
KR101791590B1 (ko) 2010-11-05 2017-10-30 삼성전자주식회사 물체 자세 인식장치 및 이를 이용한 물체 자세 인식방법

Families Citing this family (90)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19837004C1 (de) * 1998-08-14 2000-03-09 Christian Eckes Verfahren zum Erkennen von Objekten in digitalisierten Abbildungen
US6714214B1 (en) 1999-12-07 2004-03-30 Microsoft Corporation System method and user interface for active reading of electronic content
US6807290B2 (en) * 2000-03-09 2004-10-19 Microsoft Corporation Rapid computer modeling of faces for animation
DE10025922A1 (de) * 2000-05-27 2001-12-13 Robert Massen Automatische photogrammetrische Digitalisierung von Körpern und Objekten
JP4193342B2 (ja) * 2000-08-11 2008-12-10 コニカミノルタホールディングス株式会社 3次元データ生成装置
US7020305B2 (en) * 2000-12-06 2006-03-28 Microsoft Corporation System and method providing improved head motion estimations for animation
JP3709803B2 (ja) * 2001-03-28 2005-10-26 日本電気株式会社 パターン照合装置とそのパターン照合方法、及びパターン照合プログラム
US7184406B2 (en) * 2001-09-28 2007-02-27 Tektronix, Inc. Visualization of active codes, their spreading factors and power levels, in a code domain power display
US20030123734A1 (en) * 2001-12-28 2003-07-03 Koninklijke Philips Electronics N.V. Methods and apparatus for object recognition
AUPS170902A0 (en) 2002-04-12 2002-05-16 Canon Kabushiki Kaisha Face detection and tracking in a video sequence
AU2003203644B2 (en) * 2002-04-12 2005-10-06 Canon Kabushiki Kaisha Face detection and tracking in a video sequence
CN1313979C (zh) * 2002-05-03 2007-05-02 三星电子株式会社 产生三维漫画的装置和方法
DE60316690T2 (de) * 2002-07-10 2008-07-17 Nec Corp. System zur bildvergleichung mit verwendung eines dreidimensionalen objectmodelles, bildvergleichverfahren und bildvergleichprogramm
CN101075461A (zh) * 2002-09-02 2007-11-21 三星电子株式会社 再现存储在光学信息存储介质中的信息的设备
US8547437B2 (en) * 2002-11-12 2013-10-01 Sensormatic Electronics, LLC Method and system for tracking and behavioral monitoring of multiple objects moving through multiple fields-of-view
US7221775B2 (en) * 2002-11-12 2007-05-22 Intellivid Corporation Method and apparatus for computerized image background analysis
WO2004081868A2 (en) * 2003-03-11 2004-09-23 Sarnoff Corporation Method and apparatus for determining camera pose from point correspondences
JP4222369B2 (ja) * 2003-07-11 2009-02-12 トヨタ自動車株式会社 画像処理装置、画像処理方法、画像処理プログラム、及び記録媒体
JP2005100367A (ja) * 2003-09-02 2005-04-14 Fuji Photo Film Co Ltd 画像生成装置、画像生成方法、及び画像生成プログラム
US8098901B2 (en) 2005-01-26 2012-01-17 Honeywell International Inc. Standoff iris recognition system
US8050463B2 (en) 2005-01-26 2011-11-01 Honeywell International Inc. Iris recognition system having image quality metrics
US8442276B2 (en) 2006-03-03 2013-05-14 Honeywell International Inc. Invariant radial iris segmentation
US8705808B2 (en) 2003-09-05 2014-04-22 Honeywell International Inc. Combined face and iris recognition system
US8085993B2 (en) 2006-03-03 2011-12-27 Honeywell International Inc. Modular biometrics collection system architecture
US7593550B2 (en) 2005-01-26 2009-09-22 Honeywell International Inc. Distance iris recognition
US8090157B2 (en) * 2005-01-26 2012-01-03 Honeywell International Inc. Approaches and apparatus for eye detection in a digital image
US8049812B2 (en) 2006-03-03 2011-11-01 Honeywell International Inc. Camera with auto focus capability
US8064647B2 (en) 2006-03-03 2011-11-22 Honeywell International Inc. System for iris detection tracking and recognition at a distance
US7286157B2 (en) * 2003-09-11 2007-10-23 Intellivid Corporation Computerized method and apparatus for determining field-of-view relationships among multiple image sensors
US7346187B2 (en) * 2003-10-10 2008-03-18 Intellivid Corporation Method of counting objects in a monitored environment and apparatus for the same
US7280673B2 (en) * 2003-10-10 2007-10-09 Intellivid Corporation System and method for searching for changes in surveillance video
CN100538739C (zh) * 2003-12-11 2009-09-09 皇家飞利浦电子股份有限公司 弹性的图像配准
EP1759334A2 (en) * 2004-06-22 2007-03-07 Sarnoff Corporation Method and apparatus for visual odometry
US7623685B2 (en) * 2004-08-20 2009-11-24 The Regents Of The University Of Colorado Biometric signatures and identification through the use of projective invariants
US7542034B2 (en) 2004-09-23 2009-06-02 Conversion Works, Inc. System and method for processing video images
KR100601989B1 (ko) * 2005-02-07 2006-07-18 삼성전자주식회사 3차원 형상 생성 장치와 방법 및 컴퓨터 프로그램을저장한 컴퓨터로 읽을 수 있는 기록매체
JP4829290B2 (ja) * 2005-03-25 2011-12-07 センサーマティック・エレクトロニクス・エルエルシー インテリジェントなカメラ選択および対象追跡
US7706603B2 (en) * 2005-04-19 2010-04-27 Siemens Corporation Fast object detection for augmented reality systems
US9036028B2 (en) * 2005-09-02 2015-05-19 Sensormatic Electronics, LLC Object tracking and alerts
JP4752433B2 (ja) * 2005-10-03 2011-08-17 コニカミノルタホールディングス株式会社 モデリングシステム、モデリング方法およびプログラム
JP4991317B2 (ja) * 2006-02-06 2012-08-01 株式会社東芝 顔特徴点検出装置及びその方法
US20070183665A1 (en) * 2006-02-06 2007-08-09 Mayumi Yuasa Face feature point detecting device and method
US8265392B2 (en) * 2006-02-07 2012-09-11 Qualcomm Incorporated Inter-mode region-of-interest video object segmentation
US8265349B2 (en) * 2006-02-07 2012-09-11 Qualcomm Incorporated Intra-mode region-of-interest video object segmentation
US8150155B2 (en) * 2006-02-07 2012-04-03 Qualcomm Incorporated Multi-mode region-of-interest video object segmentation
WO2007101276A1 (en) 2006-03-03 2007-09-07 Honeywell International, Inc. Single lens splitter camera
JP2009529201A (ja) 2006-03-03 2009-08-13 ハネウェル・インターナショナル・インコーポレーテッド 都合のよい符合化システム
JP4585471B2 (ja) * 2006-03-07 2010-11-24 株式会社東芝 特徴点検出装置及びその方法
US7825792B2 (en) * 2006-06-02 2010-11-02 Sensormatic Electronics Llc Systems and methods for distributed monitoring of remote sites
US7671728B2 (en) 2006-06-02 2010-03-02 Sensormatic Electronics, LLC Systems and methods for distributed monitoring of remote sites
US8655052B2 (en) * 2007-01-26 2014-02-18 Intellectual Discovery Co., Ltd. Methodology for 3D scene reconstruction from 2D image sequences
JP5121258B2 (ja) * 2007-03-06 2013-01-16 株式会社東芝 不審行動検知システム及び方法
WO2008111452A1 (ja) 2007-03-09 2008-09-18 Omron Corporation 認識処理方法およびこの方法を用いた画像処理装置
US8274530B2 (en) 2007-03-12 2012-09-25 Conversion Works, Inc. Systems and methods for filling occluded information for 2-D to 3-D conversion
WO2008112786A2 (en) * 2007-03-12 2008-09-18 Conversion Works, Inc. Systems and method for generating 3-d geometry using points from image sequences
GB2447976B (en) * 2007-03-30 2011-04-27 Sony Uk Ltd Apparatus and method of image capture
US8063889B2 (en) 2007-04-25 2011-11-22 Honeywell International Inc. Biometric data collection system
JP2010533319A (ja) * 2007-06-09 2010-10-21 センサーマティック・エレクトロニクス・コーポレーション ビデオ分析およびデータ分析/マイニングを統合するためのシステムおよび方法
DE602007003849D1 (de) * 2007-10-11 2010-01-28 Mvtec Software Gmbh System und Verfahren zur 3D-Objekterkennung
US8436907B2 (en) 2008-05-09 2013-05-07 Honeywell International Inc. Heterogeneous video capturing system
US8090246B2 (en) 2008-08-08 2012-01-03 Honeywell International Inc. Image acquisition system
US8280119B2 (en) 2008-12-05 2012-10-02 Honeywell International Inc. Iris recognition system using quality metrics
US8472681B2 (en) 2009-06-15 2013-06-25 Honeywell International Inc. Iris and ocular recognition system using trace transforms
US8630464B2 (en) 2009-06-15 2014-01-14 Honeywell International Inc. Adaptive iris matching using database indexing
TWI409717B (zh) * 2009-06-22 2013-09-21 Chunghwa Picture Tubes Ltd 適用於電腦產品與影像顯示裝置的影像轉換方法
US8326523B2 (en) * 2009-12-22 2012-12-04 General Electric Company Method of determining range
US8386096B2 (en) * 2009-12-22 2013-02-26 General Electric Company Relative navigation system
US8352100B2 (en) * 2009-12-22 2013-01-08 General Electric Company Relative navigation system and a method thereof
CN101719264B (zh) * 2009-12-28 2012-05-23 清华大学 一种多视角动态场景采集的视觉场计算方法
JP5035372B2 (ja) * 2010-03-17 2012-09-26 カシオ計算機株式会社 三次元モデリング装置、三次元モデリング方法、ならびに、プログラム
CN101807247B (zh) * 2010-03-22 2012-07-18 中国农业大学 果蔬采摘点微调定位方法
JP5024410B2 (ja) * 2010-03-29 2012-09-12 カシオ計算機株式会社 三次元モデリング装置、三次元モデリング方法、ならびに、プログラム
EP2385483B1 (en) 2010-05-07 2012-11-21 MVTec Software GmbH Recognition and pose determination of 3D objects in 3D scenes using geometric point pair descriptors and the generalized Hough Transform
US8742887B2 (en) 2010-09-03 2014-06-03 Honeywell International Inc. Biometric visitor check system
US9875386B2 (en) * 2011-11-15 2018-01-23 Futurewei Technologies, Inc. System and method for randomized point set geometry verification for image identification
JP6026119B2 (ja) * 2012-03-19 2016-11-16 株式会社東芝 生体情報処理装置
CN103295025B (zh) * 2013-05-03 2016-06-15 南京大学 一种三维模型最优视图的自动选择方法
CN103366158A (zh) * 2013-06-27 2013-10-23 东南大学 基于三维结构和色彩模型的单目视觉路面检测方法
DE102014005181A1 (de) 2014-04-03 2015-10-08 Astrium Gmbh Positions- und Lagebestimmung von Objekten
US9727776B2 (en) * 2014-05-27 2017-08-08 Microsoft Technology Licensing, Llc Object orientation estimation
CN104182765B (zh) * 2014-08-21 2017-03-22 南京大学 一种互联网图像驱动的三维模型最优视图自动选择方法
CN104778731A (zh) * 2015-03-03 2015-07-15 北京空间机电研究所 基于拟合平面法向量方向求模型三维相似变换参数的方法
CN104867156B (zh) * 2015-06-01 2017-09-15 中国科学院光电技术研究所 一种针对合作标志器位姿测量的特征点识别方法
US20170228929A1 (en) * 2015-09-01 2017-08-10 Patrick Dengler System and Method by which combining computer hardware device sensor readings and a camera, provides the best, unencumbered Augmented Reality experience that enables real world objects to be transferred into any digital space, with context, and with contextual relationships.
US9868212B1 (en) * 2016-02-18 2018-01-16 X Development Llc Methods and apparatus for determining the pose of an object based on point cloud data
US11521460B2 (en) 2018-07-25 2022-12-06 Konami Gaming, Inc. Casino management system with a patron facial recognition system and methods of operating same
AU2019208182B2 (en) 2018-07-25 2021-04-08 Konami Gaming, Inc. Casino management system with a patron facial recognition system and methods of operating same
EP3975040A1 (en) * 2020-09-28 2022-03-30 BAE SYSTEMS plc Large space tracking using a wearable optics device
WO2022064190A1 (en) * 2020-09-28 2022-03-31 Bae Systems Plc Large space tracking using a wearable optics device
CN112907671B (zh) * 2021-03-31 2022-08-02 深圳市慧鲤科技有限公司 点云数据生成方法、装置、电子设备及存储介质

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4860216A (en) * 1986-11-13 1989-08-22 The United States Of America As Represented By The Secretary Of The Air Force Communication adaptive multi-sensor system
US4975969A (en) * 1987-10-22 1990-12-04 Peter Tal Method and apparatus for uniquely identifying individuals by particular physical characteristics and security system utilizing the same
GB9316214D0 (en) * 1993-08-05 1993-09-22 Philips Electronics Uk Ltd Image processing
WO1999015945A2 (en) * 1997-09-23 1999-04-01 Enroute, Inc. Generating three-dimensional models of objects defined by two-dimensional image data

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7218773B2 (en) 2001-08-10 2007-05-15 Nec Corporation Pose estimation method and apparatus
US7313266B2 (en) 2001-08-10 2007-12-25 Nec Corporation Pose estimation method and apparatus
US7706601B2 (en) 2003-08-29 2010-04-27 Nec Corporation Object posture estimation/correlation system using weight information
EP2479726A1 (en) 2003-10-21 2012-07-25 Nec Corporation Image comparison system and image comparison method
KR101791590B1 (ko) 2010-11-05 2017-10-30 삼성전자주식회사 물체 자세 인식장치 및 이를 이용한 물체 자세 인식방법

Also Published As

Publication number Publication date
DE60023447T2 (de) 2006-08-10
EP1139270A3 (en) 2003-08-20
EP1139270A2 (en) 2001-10-04
US6580821B1 (en) 2003-06-17
DE60023447D1 (de) 2005-12-01
EP1139270B1 (en) 2005-10-26

Similar Documents

Publication Publication Date Title
JP2001283229A (ja) 3次元空間内の物体の位置及び向きを計算する方法
Muñoz-Salinas et al. Mapping and localization from planar markers
CN107392947B (zh) 基于轮廓共面四点集的2d-3d图像配准方法
CN111815757A (zh) 基于图像序列的大型构件三维重建方法
KR100816607B1 (ko) 화상 대조 시스템, 화상 대조 방법 및 컴퓨터로 판독가능한 기록 매체
JP4785880B2 (ja) 三次元オブジェクト認識のためのシステムおよび方法
KR100874817B1 (ko) 스테레오 결합 메커니즘을 사용하는 얼굴 특징 검출 방법,매체 및 장치
CN105741346A (zh) 用于校准深度照相机的方法
CN109074666B (zh) 用于估计无纹理对象的姿势的系统和方法
CN113393524B (zh) 一种结合深度学习和轮廓点云重建的目标位姿估计方法
CN105701455A (zh) 基于asm算法的人脸特征点采集及三维人脸建模方法
Pedersini et al. Accurate and simple geometric calibration of multi-camera systems
CN108447094B (zh) 一种单目彩色相机的姿态估算方法及系统
Davies et al. Advanced methods and deep learning in computer vision
Treiber Optimization for computer vision
CN105574812A (zh) 多角度三维数据配准方法及装置
CN109300188A (zh) 三维模型处理方法及装置
CN114255285A (zh) 视频与城市信息模型三维场景融合方法、系统及存储介质
EP2879018A1 (en) Estimating gaze from un-calibrated eye measurement points
Tyler et al. In search of leonardo: computer-based facial image analysis of renaissance artworks for identifying leonardo as subject
CN117333548A (zh) 一种基于类环面的相机位姿估计方法、系统和存储介质
Bajramovic et al. Global Uncertainty-based Selection of Relative Poses for Multi Camera Calibration.
CN115359119A (zh) 一种面向无序分拣场景的工件位姿估计方法及装置
Kang et al. 3D urban reconstruction from wide area aerial surveillance video
CN111524217A (zh) 一个新型的提高素描形准度的方法与应用系统

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20040107