JP6216508B2 - 3dシーンにおける3d物体の認識および姿勢決定のための方法 - Google Patents

3dシーンにおける3d物体の認識および姿勢決定のための方法 Download PDF

Info

Publication number
JP6216508B2
JP6216508B2 JP2012278117A JP2012278117A JP6216508B2 JP 6216508 B2 JP6216508 B2 JP 6216508B2 JP 2012278117 A JP2012278117 A JP 2012278117A JP 2012278117 A JP2012278117 A JP 2012278117A JP 6216508 B2 JP6216508 B2 JP 6216508B2
Authority
JP
Japan
Prior art keywords
point
scene
data
points
pose
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012278117A
Other languages
English (en)
Other versions
JP2014081347A (ja
Inventor
ベルトラム・ドロスト
マルクス・ウルリヒ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MVTec Software GmbH
Original Assignee
MVTec Software GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MVTec Software GmbH filed Critical MVTec Software GmbH
Publication of JP2014081347A publication Critical patent/JP2014081347A/ja
Application granted granted Critical
Publication of JP6216508B2 publication Critical patent/JP6216508B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/653Three-dimensional objects by matching three-dimensional models, e.g. conformal mapping of Riemann surfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/757Matching configurations of points or features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Description

発明の分野
本発明は、概して、機械視覚システム(マシンビジョンシステム)に関し、より特定的には、画像センサおよび3Dセンサの双方によって観測されるシーン(scene)における3D物体の認識および位置測定に関する。
発明の背景
物体認識および位置測定は、多くのマシンビジョン用途の一部である。シーンにおいて対象の物体の詳細な位置を知ることは、後続の操作タスクおよび検査タスクのために極めて重要である。シーンの強度画像または3Dスキャンにおいて物体を発見するための多くの異なる技術が開発されており、そのタスクは一般的にマッチングと称される。本書は、シーンの強度画像および3Dスキャンの双方を同時に用い、3Dデータおよび強度データの双方におけるモデルとシーンとの間の一致性を最適化することによって物体を発見するマッチングアプローチについて説明する。
米国特許第6,711,293号 米国特許第8,165,401号 欧州特許第2047403号 欧州特許第1986153号 欧州特許第2026279号
キャンベル(Campbell)およびフライン(Flynn)、「自由形状物体表現技術および認識技術の調査(A Survey Of Free-Form Object Representation and Recognition Techniques)」、2001年、コンピュータビジョンと画像の理解(Computer Vision and Image Understanding)、Vol.81、第2号、p166-210 マミック(Mamic)およびベナモン(Bennamoun)、「3D自由形状物体の表現および認識(Representation and recognition of 3D free-form objects)」、2002年、デジタル信号処理(Digital Signal Processing)、Vol.12、第1号、p47-76 ミアン(Mian)ら、「3Dモデリングのための自動一致:広範なレビュー(Automatic Correspondence for 3D Modeling: An Extensive Review)」、2005年、形状モデリング国際ジャーナル(International Journal for Shape Modeling)、Vol.11、第2号、p523 キャニー(Canny)、「エッジ検出への演算アプローチ(A Computational Approach to Edge Detection)」、パターン解析と人工知能についてのIEEE会議(IEEE Transactions on Pattern Analysis and machine Intelligence)、8(6):679-698、1986年 ロゥエ(Lowe)、「局部スケール不変フィーチャからの物体認識(Object recognition from local scale-invariant features)」、コンピュータビジョンについての国際会議議事録、2、p1150-1157 ベイ(Bay)ら、「SURF:高速化ロバストフィーチャ(SURF: Speeded Up Robust Features)」、コンピュータビジョンと画像の理解(Computer Vision and Image Understanding: CVIU)、2008年、Vol.110、No.3、p346-359 カツオーラス(Katsoulas)、「ハフ変換を制約することによる距離画像における頂点のロバスト抽出(Robust extraction of vertices in range images by constraining the hough transform)」、2003年、コンピュータ科学における講義ノート(Lecture Notes in Computer Science)、Vol.2652、p360-369 ラバーニ(Rabbani)およびヒューベル(Heuvel)、「ポイントクラウドにおける円筒の自動検出のための効率的ハフ変換(Efficient hough transform for automatic detection of cylinders in point clouds)」、2005年、第11回演算と画像のための高等学校の年次大会の議事録(Proceedings of the 11th Annual Conference of the Advanced school for Computing and Images:ASCI’05)、p60-65 ザハリア(Zaharia)およびプレトー(Preteux)、「ハフ変換ベースの3Dメッシュ検索(Hough transform-base 3D mesh retrieval)」、ビジョンジオメトリXについてのSPIE会議4476の議事録(Proceedings of the SPIE Conf. 4476 on Vision Geometric X)、p175-185 ザン(Zhang)、「自由形状曲線の登録のための反復点マッチング(Iterative point matching for registration of free-form curves)」、1994年、コンピュータビジョン国際ジャーナル(International Journal of Computer Vision)、Vol.7、第3号、p119-152 フィッツギボン(Fitzgibbon)、「2Dおよび3Dポイントセットのロバスト登録(Robust registration of 2D and 3D point sets)」、2003年、画像およびビジョンコンピューティング(Images and Vision Computing)、Vol.21、第13−14号、p1145-1153 ヴィードマン(Wiedmann)ら、「3D物体の認識と追跡(Recognition and Tracking of 3D objects)」、IEEE ロボティクスおよび自動化国際会議2009(IEEE International Conference on Robotics and Automation 2009)、p1191-1198 グランガー(Granger)およびペネック(Pennec)、「マルチスケールEM−ICP:曲面レジストレーションのための高速かつロバストレージクラスタなアプローチ(Multi-scale EM-ICP: A fast and robust approach for surface registration)」、2002年、コンピュータビジョンについての欧州会議(European Conference on Computer Vision)(ECCV 2002)、p418-432
記述子(Descriptor)ベースまたはフィーチャ(feature)ベースの技術は、シーンにおけるポイントとモデル上のポイントとの間の対応を、記述子を用いることによって検索することに基づいている。このような記述子は、所与のシーンポイントの周囲の3D表面または強度を、低次元表現を用いて表現する。そのような記述子は、典型的には、モデルのすべてのポイントまたは選択された一組のポイントについてオフラインで演算されるとともに、データベース内に記憶される。シーン内の物体を認識するために、シーン内のポイントについて記述子が計算されるとともに、予め演算されたデータベースを用いて、対応するモデルポイントが探索される。十分な対応が見出されると、物体の姿勢(pose)を再生することができる。異なる3D表面記述子の広範囲の概要が、キャンベル(Campbell)およびフライン(Flynn)(「自由形状物体表現技術および認識技術の調査(A Survey Of Free-Form Object Representation and Recognition Techniques)」、2001年、コンピュータビジョンと画像の理解(Computer Vision and Image Understanding)、Vol.81、第2号、p166-210)、マミック(Mamic)およびベナモン(Bennamoun)(「3D自由形状物体の表現および認識(Representation and recognition of 3D free-form objects)」、2002年、デジタル信号処理(Digital Signal Processing)、Vol.12、第1号、p47-76)、ミアン(Mian)ら(「3Dモデリングのための自動一致:広範なレビュー(Automatic Correspondence for 3D Modeling: An Extensive Review)」、2005年、形状モデリング国際ジャーナル(International Journal for Shape Modeling)、Vol.11、第2号、p523)において与えられる。強度データにおいて一般的に用いられるフィーチャ記述子は、キャニー(Canny)(「エッジ検出への演算アプローチ(A Computational Approach to Edge Detection)」、パターン解析と人工知能についてのIEEE会議(IEEE Transactions on Pattern Analysis and machine Intelligence)、8(6):679-698、1986年)において説明されているようなエッジ(edge)、ロゥエ(Lowe)によるSIFTキーポイント記述子(「局部スケール不変フィーチャからの物体認識(Object recognition from local scale-invariant features)」、コンピュータビジョンについての国際会議議事録、2、p1150-1157;米国特許第6,711,293号も参照)、および、ベイ(Bay)らによるSURFキーポイント記述子(「SURF:高速化ロバストフィーチャ(SURF: Speeded Up Robust Features)」、コンピュータビジョンと画像の理解(Computer Vision and Image Understanding: CVIU)、2008年、Vol.110、No.3、p346-359;米国特許第8,165,401号も参照)を含む。多くのほかのフィーチャポイント記述子が文献において提案されている。フィーチャ記述子に依存する方法は、対象の物体が特有の形状または強度情報をあまり有していない場合にはしばしば動作しないことがあり、これは記述子が特徴的ではないからである。
いくつかのアプローチは、いわゆる幾何プリミティブ(geometric primitive)を用いて、シーン内の物体を検出する。幾何プリミティブは、平面、円筒、または球のような、単純な幾何物体である。自由形状物体と比較して、幾何プリミティブは、それらの固有の対称性のために、シーン内で容易に検出可能である。シーン内におけるプリミティブまたは幾何プリミティブから成る物体を検出するいくつかの方法が存在する。欧州特許2047403においては、3D物体は、幾何プリミティブへ区分される。そして、3Dシーン内において、そのような幾何プリミティブが探索され、物体内のプリミティブと類似のシーン内のプリミティブを同定することによって、物体が認識される。他の方法は、一般化ハフ変換(Hough transform)の変形を用いて、シーン内の幾何プリミティブを検出する。たとえば、カツオーラス(Katsoulas)(「ハフ変換を制約することによる距離画像における頂点のロバスト抽出(Robust extraction of vertices in range images by constraining the hough transform)」、2003年、コンピュータ科学における講義ノート(Lecture Notes in Computer Science)、Vol.2652、p360-369)、ラバーニ(Rabbani)およびヒューベル(Heuvel)(「ポイントクラウドにおける円筒の自動検出のための効率的ハフ変換(Efficient hough transform for automatic detection of cylinders in point clouds)」、2005年、第11回演算と画像のための高等学校の年次大会の議事録(Proceedings of the 11th Annual Conference of the Advanced school for Computing and Images:ASCI’05)、p60-65)、および、ザハリア(Zaharia)およびプレトー(Preteux)(「ハフ変換ベースの3Dメッシュ検索(Hough transform-base 3D mesh retrieval)」、ビジョンジオメトリXについてのSPIE会議4476の議事録(Proceedings of the SPIE Conf. 4476 on Vision Geometric X)、p175-185)である。幾何プリミティブに依存するすべての方法は、一般の自由形状物体では動作しないという欠点を有する。
たとえば、欧州特許第1986153号のような、距離画像における3D物体を認識するためのさまざまな方法が開発されている。そのような方法は、さまざまなセンサシステムによって返されるような、単一の距離画像上で動作する。しかしながら、全距離画像ベースのシステムは、単一の距離画像から得られた3D情報に制限され、他の3Dセンサまたは異なる距離画像の組合せからの一般的な3D情報に対処できない。さらに、それらは、典型的にパラメータ空間内において総当たり探索を必要とするので、リアルタイムシステムのために十分な速さを有していない。
物体の既知の3D姿勢を改善(refining)するためのさまざまなシステムが知られている。そのような方法は、入力として、シーン内における物体のおよその3D姿勢を必要とし、その姿勢の精度を増加する。反復最近点(Iterative Closest Point:ICP)のような、3Dデータのみを用いて姿勢を最適化するいくつかのそのような方法が開発されている(たとえば、ザン(Zhang)の「自由形状曲線の登録のための反復点マッチング(Iterative point matching for registration of free-form curves)」、1994年、コンピュータビジョン国際ジャーナル(International Journal of Computer Vision)、Vol.7、第3号、p119-152、欧州特許第2026279号、および、フィッツギボン(Fitzgibbon)の「2Dおよび3Dポイントセットのロバスト登録(Robust registration of 2D and 3D point sets)」、2003年、画像およびビジョンコンピューティング(Images and Vision Computing)、Vol.21、第13−14号、p1145-1153を参照)。物体の姿勢を改善するための他の方法は、ヴィードマン(Wiedmann)らによる「3D物体の認識と追跡(Recognition and Tracking of 3D objects)」、IEEE ロボティクスおよび自動化国際会議2009(IEEE International Conference on Robotics and Automation 2009)、p1191-1198のように強度データのみを使用する。姿勢改善の主な欠点は、入力姿勢が正しい姿勢に十分に近いことが必要であり、そうでなければ、その方法は収束しない。しかしながら、実際のアプリケーションにおいては、3Dシーンがしばしばクラッタ(clutter)、閉塞(occlusion)、ノイズ、および複数の物体事象(object instance)を含むために、正しい姿勢の良好な近似は得難い。
上述の理由のために、任意の自由形状3D物体の効果的な認識、ならびに、1つまたはより多くの強度画像および1つまたはより多くの3Dセンサで捕捉されたシーン内のそれらの3D姿勢の再生を可能とする方法が必要とされている。本書の目的に関して、強度画像および3Dセンサで捕捉されたシーンを、マルチモーダルシーン(multimodal scene)とも称することとする。
発明の要約
本発明は、マルチモーダルシーンにおける剛体3D物体を探索するため、およびシーン座標における物体の3D姿勢を決定するためのシステムおよび方法を提供する。典型的なアプリケーションにおいては、マルチモーダルシーンは、たとえば、2つまたはより多くのカメラを用いるステレオ法、タイムオフフライト法(time-of-flight)、デプスフロムフォーカス法(depth from focus)、照度差ステレオ法(photometric stereo)、または立体照明を用いた立体写真を用いて取得される。そして、物体の3D姿勢は、提示された方法を用いて探索される。結果として得られる3D姿勢は、たとえば、ロボットを用いて物体を操作するため、物体表面の欠陥を検出するため、または、物体の表面特性を演算するために用いられる。
提示された方法は、先行の方法に対していくつかの利点を有する。任意の種類の表面形状を有する自由形状物体の認識が可能になり、そのため、特定のタイプまたは形状の物体には限定されない。さらに、本方法は、ノイズ、物体の部分の欠損、クラッタ、および小さな変形に対してロバストである。3D物体の姿勢が、高精度で決定される。3D物体の探索およびその3D姿勢の再生は、ほとんど演算時間を必要とせず、リアルタイム環境に適している。
方法は、2つのフェーズを備える。オフラインフェーズにおいては、後に物体の探索に用いられるモデル記述が演算される。ユーザは、探索されるべき物体の3D表現、たとえば、3D CADモデルまたは一組の3Dポイント、および任意的にさまざまな視点からの物体の画像を提供する必要がある。画像が提供されない場合は、物体の3D表現から人工的にレンダリングされる。このように、本方法は、物体の幾何形状のみが必要とされる。色、テクスチャ、または表面反射情報は必要とされず、広範囲の物体のタイプについて本発明を適合させることができる。しかしながら、他の強度フィーチャを用いるため、そしてそれによって本方法のロバスト性をさらに増加するために、色およびテクスチャのような追加的な局部情報が提供されてもよい。モデル記述は、特定のレートで物体表面をサンプリングし、異なる視点からの物体の強度画像からフィーチャポイントおよびフィーチャポイント記述子を演算し、任意的に3D表現を用いてフィーチャポイントをフィルタリングし、各サンプリングされた3Dポイントを各フィーチャポイントとペアリングし、そのような各ペアを記述する記述子を演算し、上記ポイントペア記述子によってインデックスが付けられたデータベース内のポイントペアを記憶することによって形成される。
オンラインフェーズにおいては、ユーザは、一組の強度画像および一組の3Dシーンで構成されるマルチモーダルシーン、および、オフラインフェーズにおいて演算されたモデル表現を提供する。画像およびシーンは、互いに対して調整されなければならず、すなわち、固有センサパラメータおよびそれらの相対位置が事前に知られていなくてはならない。各強度画像について、フィーチャポイント抽出され、フィーチャポイント記述子が演算されるとともに、与えられた3Dデータを用いて任意的にフィルタリングされる。典型的に、フィーチャポイントとしてエッジが用いられ、フィーチャ記述子としてエッジの方向が用いられる。3Dデータは、テクスチャエッジを除去し、それによって幾何エッジのみを得るために用いられる。そして、3Dシーンが特定のレートでサンプリングされるとともに、それらのポイントのサブセットが基準ポイントとして用いられる。各基準ポイントについて、物体の3D姿勢が、基準ポイントに対してパラメータ化される。サンプリングされた3Dポイントは、抽出されたフィーチャポイントとペアリングされ、記述子がそのような各ペアについて演算される。モデルから、シーン内のペアと類似したポイントペアを見出すために、オフラインフェーズで演算されたデータベースが用いられる。一致したものはグループ化され、最も一致したものを有する3D姿勢が用いられる。これは、3D表面の重なり(overlap)および強度フィーチャの一致性を同時に最適化する。任意の事後処理ステップとして、再生された姿勢がさらに改善され得る。
第1の局面に従えば、本発明は、3Dシーンデータおよびシーン強度データにおける3D物体の事象を認識するため、ならびに、その事象の3D姿勢を決定するための方法を提供し、以下の、(a)3D物体データを提供するとともに強度データを取得するステップと、(b)3Dシーンデータおよびシーン強度データを提供するステップと、(c)強度データからシーンフィーチャポイントを抽出するステップと、(d)3Dシーンデータから少なくとも1つの基準ポイントを選択するステップと、(e)各選択された基準ポイントについて、基準ポイントが3D物体の一部であるという推定の下で、所与の姿勢候補における3D物体と一致する抽出されたシーンフィーチャポイントの数を最大化することによって、3D物体についての姿勢候補を演算するステップと、(f)上記の姿勢候補からフィルタリングされた一組の姿勢を演算するステップとを備える。ステップ(a)における3D物体データおよびステップ(b)における3Dシーンデータは、好ましくは、一組の3Dポイントまたは3Dコンピュータ支援設計(CAD)モデルとして提供される。ステップ(a)および(b)における強度データは、好ましくは、グレースケール画像またはカラー画像として提供される。あるいは、それらは、3Dシーンデータまたは3D物体データを人工的にレンダリングすることによって生成されてもよい。
好ましくは、3Dモデルは、ステップ(a)の後に3D物体から演算され、以下の、(a1)3D物体データから少なくとも1つのサンプルポイントを選択するステップと、(a2)物体強度データから物体フィーチャポイントを抽出するステップと、(a3)選択されたサンプルポイントおよび抽出された物体フィーチャポイントの各ペアについて、2つのポイントとそれらの関係とを記述する、ポイントペア記述子を演算するステップと、(a4)ポイントペア記述子によってインデックスが付けられたポイントペアを記憶するモデルを生成するステップとを含む。好ましくは、ステップ(a4)は、(a4a)ポイントペア記述子をサンプリングするステップと、(a4b)サンプリングされた各ポイントペア記述子をポイントペアのリストへマッピングするグローバルモデル記述を生成するステップとを含み、各リストは、選択されたサンプルポイントと、類似のサンプルポイントペア記述子を有する抽出された物体フィーチャポイントとのすべてのペアを含む。ステップ(a1)におけるサンプルポイントは、好ましくは、3Dデータからランダムに選択されるか、または3Dデータを均一にサンプリングすることによって選択される。ステップ(a2)において抽出された物体フィーチャポイントは、好ましくは、エッジ検出器で演算されたエッジポイントであり、好ましくは、物体のシルエットエッジ(silhouette edge)のみを得るために3D物体データを用いてフィルタリングされる。ステップ(a4b)において生成されるグローバルモデルは、好ましくは、ハッシュテーブルを使用し、ポイントペア記述子のサンプリングされたバージョンによってインデックスが付与される。
好ましくは、3D物体データ、3Dシーンデータ、物体強度データ、およびシーン強度データは処理の前にフィルタリングされ、フィルタリングは、異常値を検出し除去するステップ、ノイズを低減するステップ、および、3Dデータについて面法線を演算するステップのうちの少なくとも1つを含む。
ポイントペア記述子は、好ましくは、物体フィーチャポイントの距離によってスケーリングされ、サンプルポイントの距離および強度データの画像平面内の抽出された物体フィーチャポイントを記述するフィーチャベクトルを、エッジの相対方向、表面ポイント法線、および2つのポイントの差分ベクトルとともに記述する。さらに好ましい実施形態に従えば、以下の特徴、フィーチャポイントについて演算されたフィーチャポイント記述子、各ポイントのカラー値またはグレー値、各ポイントのテクスチャ情報、各ポイントにおける表面記述子、各ポイントにおける曲率、各ポイントにおける他の幾何学的表面情報のフィーチャの選択がさらに含まれる。
さらに好ましい実施形態に従えば、ステップ(d)において、基準ポイントは、3Dシーンデータからランダムに選択されるか、または、3Dシーンデータを均一にサンプリングすることによって選択される。3Dシーンデータの均一サンプリングのためのサンプリング距離が、好ましくは、3D物体のサイズに対して演算される。
ステップ(e)において、各姿勢候補についてのスコア値が計算されることがさらに好ましい。好ましくは、姿勢候補は、投票方式(voting scheme)を用いて演算される。投票方式は、以下の、(e1)可能性のある物体姿勢の空間をサンプリングするステップと、(e2)各姿勢空間サンプルについてカウンタを生成するステップと、(e3)抽出されたシーンフィーチャポイントから少なくとも1つのシーンフィーチャポイントを選択するステップと、(e4)各選択されたシーンフィーチャポイントについて、基準ポイントが3D物体の表面上であり、かつシーンフィーチャポイントが3D物体に一致するようなマッチング姿勢を演算するステップと、(e5)ステップ(e4)において演算された各マッチング姿勢について、対応する姿勢空間サンプルのためのカウンタを増加させるステップと、(e6)サンプリングされた姿勢空間におけるピークカウンタ値を検出するとともに、対応する姿勢空間サンプルを姿勢候補として選択するステップとを含む。ステップ(e6)において、ピークカウンタ値は、好ましくは、しきい値を超えるカウンタ値に制限される。ステップ(e1)において、好ましくは、可能性のある物体姿勢の空間は2つのパラメータによって表現され、第1のパラメータは3D物体上のポイントであり、第2のパラメータは面法線周りの回転を示す角度である。3D物体上のポイントは、好ましくは、3D物体データから選択された一組のポイントへのインデックスとして表現され、回転角は一組の角度を等しいサイズの間隔に分割することによってサンプリングされる。一組のポイントは、好ましくは、3D物体データから、3D物体の表面を均一にまたはランダムにサンプリングすることによって選択される。
ステップ(a)において、物体フィーチャポイントは、物体強度データから抽出されることがさらに好ましい。フィーチャポイントは、好ましくはエッジポイントであり、深度不連続性(depth discontinuity)または物体のシルエットにおけるエッジポイントのみを取得するために、好ましくは3D物体データを用いてフィルタリングされる。
ステップ(e4)において、姿勢は、基準ポイントおよび選択されたシーンフィーチャポイントのペアと類似した、3D物体ポイントおよび物体フィーチャポイントのペアの探索を可能とするデータ構造を用いて演算されることが好ましい。ポイントペアの探索は、好ましくは、(e4a)基準ポイント、選択されたシーンフィーチャポイント、およびそれらの関係を記述するポイントペア記述子を演算するステップと、(e4b)ポイントペア記述子を、データ構造へのインデックスとして使用するステップとを含む。
ポイントペア記述子は、好ましくは、物体フィーチャポイントの距離によってスケーリングされ、サンプルポイントの距離および強度データの画像平面内の抽出された物体フィーチャポイントを記述するフィーチャベクトルを、エッジの相対方向、表面ポイント法線、および2つのポイントの差分ベクトルとともに記述する。さらに好ましい実施形態に従えば、以下の特徴、フィーチャポイントについて演算されたフィーチャポイント記述子、各ポイントのカラー値またはグレー値、各ポイントのテクスチャ情報、各ポイントにおける表面記述子、各ポイントにおける曲率、各ポイントにおける他の幾何学的表面情報のフィーチャの選択がさらに含まれる。
好ましい実施形態に従えば、ステップ(c4b)は、(c4c)ポイントペア記述子をサンプリングするステップと、(c4d)サンプリングされたポイントペア記述子をポイントペアのリストにマッピングするデータ構造を用いるステップとを含む。ステップ(c4d)においては、データ構造として、好ましくはハッシュテーブルが用いられる。
好ましい実施形態に従えば、ステップ(f)において演算は、(f1)姿勢候補間の近接関係を規定するステップと、(f2)近接する姿勢候補のスコアの荷重和として、各姿勢のスコアを演算するステップと、(f3)(f2)において演算されたスコアによって姿勢をランク付けすることにより、一組のフィルタリングされた姿勢を選択するステップとを含む。好ましくは、近接関係は、姿勢の並進および姿勢の回転におけるしきい値化、または、両姿勢の下での3D物体上のポイントが有し得る最大距離のしきい値化によって規定される。方法は、(f3)において選択された姿勢が、近接する姿勢にわたる平均姿勢として再演算されるステップをさらに含んでもよい。重み付けは、好ましくは、候補姿勢および現在の近接している姿勢に依存する。
本発明の方法は、好ましくは、以下の、3Dシーンと3D物体との間の距離、その姿勢の下でのシーン強度データおよびモデル強度データの一致性のうちの1つまたは双方に基づく誤差関数を最適化することによって、一組のフィルタリングされた姿勢の各姿勢を改善するステップをさらに備える。
本発明の方法は、好ましくは、一組のフィルタリングされた姿勢の各姿勢についてのスコアを演算するステップをさらに備え、そのスコアは、その姿勢の下での、3Dシーンと3D物体のとの間の一致性を示す。
本発明の方法は、好ましくは、最終姿勢の各々についてのスコアを演算するステップをさらに備える。演算されたスコアは、好ましくは、演算された姿勢の下での、3D物体の表面にある3Dシーンにおけるポイントの数である。
本発明は、添付の図面と関連して、以下の詳細な説明からより完全に理解され得る。
3Dデータが、均一サンプリングによってどのように正規化されるかを示す図である。 3Dポイントと画像ポイントとの間の関係が、どのように記述され得るかを示す図である。 物体座標系、局部座標系、および、局部座標を用いるシーン座標系の間の変換を示す図である。
好ましい実施形態の詳細な説明
標記および定義
以下のすべてのデータは、電子的形式、好ましくはデジタルで利用可能であると考えられる。記述された方法およびアルゴリズムは、電子的形式およびコンピュータ実行可能であるものと考えられる。
以下の標記においては、3Dポイントは、3つの座標値を有する3D空間のポイントである。各3Dポイントは、もっとも顕著な座標系として、3Dシーンデータが定義されるシーン座標系、および対象の3D物体が定義される物体座標系を有する座標系を参照する。3Dベクトルは、3つの座標値を有する3D空間におけるベクトルである。表面上のポイントにおける3D法線ベクトルは、1のユークリッド長さを有し、かつ所与のポイントにおける表面に垂直な3Dにおけるベクトルである。指向性ポイント群(oriented point cloud)は、3D法線ベクトルが各ポイントと関連する3Dポイント群である。3D剛体変換は、ポイント距離を維持する3Dポイントへの3Dポイントのマッピングであり、公式的には、任意のポイントP,Qについて、式|P−Q|=|f(P)−f(Q)|を維持するようなマッピングfである。すべての3D剛体変換は、回転と並進(translation)に分解され、最初に回転が対象の(argument)ポイントに適用され、その結果に並進が適用される。公式的には、すべての3D剛体変換は、f(P)=R(P)+Tのような、3D回転Rおよび3DベクトルTに分解され得る。
3Dデータ正規化は、図1に示されるような、3Dにおける表面を、上記表面にわたって均一に分布した一組の3Dポイントに変換する方法である。好ましい実施形態においては、3Dデータ正規化は、入力として(a)3Dにおける2D表面(101)を記述する3Dデータ、および(b)サンプリング距離dを利用する方法である。その方法は、(a)入力3Dデータの表面上にもあるポイントのみからなり、(b)結果のポイント群におけるすべてのポイントのペアが少なくとも距離dを有し、(c)入力3Dデータの各ポイントが、最大でもdの距離を有する出力ポイントの組を有するという特性を有する、一組の3Dポイント(102)を出力する。本発明の好ましい実施形態においては、3Dポイントの組について、一組の入力ポイントにわたって繰り返し、かつサンプリング距離よりも新しいポイントに近いポイントがポイント群内にまだない場合のみに、それらの各々を出力の組に追加することによって、それらの所望の特性を有する正規化されたポイントの組が生成される。3D CADモデルは、各面を一組のポイントに変換するとともに、結果として得られたポイントの組を前述のように取り扱うことによって変換される。代替的な実施形態においては、3Dデータは、表面からランダムにポイントを選択することによって正規化される。他の代替的な実施形態においては、法線方向が正規化のために用いられ、サブサンプリングされたポイントの組は、高曲率の領域においてより高密度になる。好ましい実施形態においては、3Dデータの表面から選択されたポイントの表面法線が演算される(103)。
入力ポイント群の正規化は、典型的には、依然としてもとの群の良好な表現であるより少ないポイントを有する群をもたらす。正規化は、ポイントの数を効果的に減少させるために、オフラインフェーズおよびオンラインフェーズの双方における我々の発明によって用いられ、より高速な性能をもたらす。以下に示すように、局部パラメータ空間のサンプリングについても同様に重要である。好ましい実施形態においては、サンプリング距離dは、物体の直径に対する事項についてパラメータ化され、ここで、その直径は、3D物体上の2つのポイント間の最大距離である。物体の直径をDobjとおくと、サンプリング距離dは、τdによって、d=τd・Dobjとしてパラメータ化される。代替的な実施形態においては、サンプリングファクタはユーザによって与えられる。他の実施形態においては、サンプリングファクタは、3Dデータのノイズレベルのような事前情報に従って設定される。
シーンまたは物体の強度データは、1つまたはより多くの所与の視点および視野方向からのシーンまたは物体の出現であり、シーンまたは物体から照射される光の量を測定することによって得られる。強度データは、典型的には、強度画像の形式で表わされる。実際のシーンまたは物体について、強度データは、典型的には、カメラのような画像装置を用いて捕捉される。さらに、強度データは、3Dデータを仮想視野へレンダリングすることによって3Dデータから合成的に生成され得る。そのようなレンダリングされた視野の可能性のある品質は、提供される3Dデータのタイプおよび品質に依存する。3Dデータは、追加的なテクスチャ(texture)情報によって増大され得、それらは、より実際的な3D画像を生成するために、レンダリングプロセスにおいて用いられる。強度データは、1つまたはより多くのデータのチャネルから成り、各チャネルはシーンまたは物体の発現のフィルタリングされたバージョンを表わす。典型的には、複数のチャネルが、異なる光の波長を表わしており、たとえば、シーンまたは物体のカラーバージョンを可能とする。強度データは、典型的には、2Dグリッドの画素を用いて表わされる。以下において、この2Dグリッドにおける位置は、強度データにおけるポイント、画像内の位置、または画像内の座標とも称される。
フィーチャポイントは、強度データ内のポイントである。フィーチャポイントは、高密度に、または強度データを通して均一に分布され、あるいは、強度データ内における突き出した場所に位置付けられる。多くの異なるタイプのフィーチャポイントが文献から公知である。フィーチャポイントは、典型的には、ノイズ、クラッタ、閉塞(occlusion)、および他の外乱の存在において、安定的で反復性のある位置を有するように設計される。好ましい実施形態においては、フィーチャポイントとしてエッジポイントが用いられる。好ましい実施形態においては、キャニーエッジ抽出器が用いられる(キャニー.J(Canny, J)、「エッジ検出への演算アプローチ(A Computational Approach To Edge Detection)」、パターン解析および人工知能についてのIEEE会議(IEEE Transactions on Pattern Analysis and machine Intelligence)、8(6):679-698、1986年)。代替的な実施形態においては、任意の他のタイプのフィーチャポイントが使用され得る。
フィーチャ記述子は、フィーチャポイント周辺の領域における強度データの圧縮された記述である。フィーチャ記述子は、典型的には、圧縮された意味における強度データの部分を記述するために用いられ、上記部分から最も表現されている情報を抽出することによって記述される。それらは、しばしば、他の場所または視野における強度データの類似の部分を同定するため、あるいは、異なる強度画像における同じ部分の空間を同定するために用いられる。好ましい実施形態においては、フィーチャポイントの位置における強度データの傾き(gradient)の方向が、フィーチャ記述子として用いられる。代替的な実施形態においては、フィーチャポイントの位置における強度値が、フィーチャ記述子として用いられ得る。他の代替的な実施形態においては、任意の種類のフィーチャ記述子が用いられ得る。複数の異なるフィーチャ記述子は、単一のフィーチャ記述子へ結合されてもよい。
ポイントペア記述子は、一方のポイントが3Dポイントであり他方のポイントがフィーチャポイントであるポイントのペアを記述する値のリストである。好ましい実施形態においては、まず、強度データ内の3Dポイントの位置が取得される。そして、ポイントペア記述子は、強度データの画像平面内の2つのポイント間の距離、エッジ方向と2つのポイント間の差分ベクトルとの間の角度、3Dポイントの法線ベクトルと差分ベクトルとの角度、および、法線ベクトルと強度データの投影中心、典型的にはカメラ中心に向かう方向との角度を含む。他の好ましい実施形態においては、フィーチャポイントおよび3Dポイントの追加的なフィーチャ記述子が、ポイントペア記述子に含まれる。代替的な実施形態においては、2つのポイントにおける表面の色、2つのポイントにおける曲率および他の幾何的特性のような局部特性、ならびに、背景部分において言及される局部ポイント記述子が、ポイントペア記述子に含まれ得る。代替的な実施形態においては、他の測定が、本発明の範囲から逸脱することなく、2つのポイントおよびそれらの関係を記述するために用いられ得る。ポイントペア記述子に多くの情報を追加することは、ポイントの異なるペア間を区別するための能力を増加するが、その複雑性、すなわち、他の記述子を計算し、記憶しおよび取り扱うための複雑性も増加する。
好ましい実施形態においては、強度画像内のrに位置するとともに方向vとエッジ法線e1を有するエッジポイントeから見られる法線nrとを有する、3DポイントPのポイントペア記述子Fの公式定義は、図2に示されるように、以下の式(1)で示される。
ここで、∠(a,b)は、2つのベクトルの間の角度を示す。
グローバルモデル記述(global model description)は、所与のポイントペアと類似の物体についてのすべてのポイントペアをシーンから効果的に探索することを可能とするデータ構造である。すなわち、グローバルモデル記述は、シーンからのポイントペアを入力として採用し、入力ポイントペアに類似の物体についてのポイントペアのリストを出力するデータ構造および方法である。好ましい実施形態においては、サンプルポイントペア記述子からポイントペアの組へのマッピングが、ポイントペア記述子として用いられる。所与のポイントペアについてのサンプルポイントペア記述子を計算するとともに、ハッシュマップを用いて等しいサンプルポイントペア記述子を有するすべてのポイントペアを読み出すことによって、探索がなされる。ハッシュテーブルは、タイミングがモデル記述に記憶されたポイントペアの数とは独立の類似のポイントペアへの効果的なアクセスを可能にする。代替的な実施形態においては、ニアレストネイバーアクセス(nearest neighbor access)のための方法が、所与のポイントペアのうちの1つに類似のポイントペア記述子を有するすべてのポイントペアを読み出すために用いられ得る。他の代替的な実施形態においては、任意のインデキシングスキーム、たとえばサーチツリーが、データ構造として用いられ得る。
シーン内の物体の局部姿勢は、所与の基準ポイントが物体の表面にあるとの想定の下で、基準ポイントと称される所与の3Dシーンポイントに対するシーン内の物体に3D姿勢として定義される。この想定は、可能性のある姿勢を制限する。そのため、局部姿勢は、全3D姿勢よりも少ない自由度を有する。好ましい実施形態においては、局部姿勢は、以下のように、局部座標を用いてパラメータ化される。シーン内の物体表面にあると想定される基準ポイントをsrとおくと、(a)mrはsrに対応するモデル表面上のポイントであり、(b)αは、sr、mrおよびそれらの法線を揃えた後の、srの法線周りの回転角である(図3)。srに対する局部座標は(mr,α)として記述され、全部で3つの自由度を有し、その2つはモデルの表面上のmrの位置であり、1つは回転角αである。代替的な実施形態においては、u−v座標またはテクスチャ座標のような、物体表面の異なるパラメータ化が用いられ得る。
シーンの基準ポイントsrについて、TS→Lを、srをもとの位置へ並進させるとともに、正方向を指すx軸上のsrの法線を回転させる剛体3D変換とおく。モデルポイントmrについて、TM→Lを、mrをもとの位置へ並進させるとともに、正方向を指すx軸上のmrの法線を回転させる剛体3D変換とおく。Rx(α)を、角度αでx軸周りに回転する剛体3D変換とおく。そして、基準ポイントsrに対する局部座標(mr,α)が与えられると、モデル空間におけるポイントmiからシーン空間内の対応するポイントsiへのマッピングは、以下の式(3)として記述され得る。
i、mi、TS→LおよびTM→Lが既知の場合は、上記の式は、αについて解くことができる。
3Dモデル生成
本方法のオフラインフェーズにおいて、シーン内において後に認識するのに適した手法についての対象の物体を記述する方法が構築される。モデルを生成するための方法は、以下の、(a)3D物体データの任意的な準備のステップと、(b)物体サンプルポイントの選択のステップと、(c)グローバルモデル記述の生成のステップと、(d)任意的に、姿勢改善のための準備のステップとを含む。好ましい実施形態においては、生成されたモデルは、選択サンプルポイントおよびグローバルモデル記述を含む。代替的な実施形態においては、以下の情報、3D物体データ、姿勢改善のために演算されたデータ、方法のユーザによって要求される追加情報が含まれ得る。
3D物体データの準備は、不必要な特性を除去するとともに必要とされる特性を追加することの目的を提供する。好ましい実施形態においては、以下の、(a1)3Dセンサによって生成されたノイズや異常値のような、データからの不必要な特性の任意的な抑制ステップが含まれ、まさに使用される方法がデータ取得のために用いられるセンサにも依存し、さらに(a2)表面法線の演算ステップが含まれ、これは表面法線がすでに利用可能の場合は任意的である。物体強度データの準備は、不必要な特性は除去し必要な特性が追加する目的を提供する。好ましい実施形態においては、物体強度データは、ガウスフィルタを用いて平滑化される。
好ましい実施形態においては、3D物体データは、一組の3Dポイント、またはコンピュータ支援設計モデル(CADモデル)の形式のいずれかとして与えられる。代替的な実施形態においては、代数曲面が用いられ得る。他の代替的な実施形態においては、3D表面の任意の他の表現が用いられ得る。好ましい実施形態においては、物体強度データは、1つまたはより多くのデジタルカメラを用いて取得され、各々が1つまたはより多くのチャネルを含む、1つまたはより多くの強度画像の形式で与えられる。他の好ましい実施形態においては、物体強度データは、仮想カメラに所与の3D物体データをレンダリングすることによって、人工的に生成される。他の実施形態においては、他の画像技術を用いて物体強度データを取得してもよい。
3D物体データから、一組の物体サンプルポイントがモデルの生成のために選択される必要がある。好ましい実施形態においては、3D物体データが、上述の3Dデータ正規化方法を用いて副次的にサンプリングされて、少量のサンプルポイントの組が生成される。代替的な実施形態においては、ユーザは、サンプルポイントとして用いられるべき一組のポイントを提供してもよい。他の代替的な実施形態においては、3D物体データからのすべてのポイントが、物体サンプルポイントよして用いられ得る。さらに他の代替的な実施形態においては、物体からのランダムなポイントのサブセットがサンプルポイントとして用いられ得る。他の代替的な実施形態においては、本発明の範囲から逸脱することなく、他の物体サンプルポイント選択戦略が可能である。
物体強度データから、グローバルモデル記述の生成のために、一組のフィーチャポイントが抽出される必要がある。好ましい実施形態においては、ロバストエッジ抽出器を用いて、強度データからエッジポイントが抽出される。他の代替的な実施形態においては、本発明の範囲から逸脱することなく、他のフィーチャポイントが抽出され得る。
グローバルモデル記述を生成するための方法は、グローバルモデル記述のために選択された特定のデータ構造に依存する。好ましい実施形態においては、グローバルモデル記述の生成は、(c1)物体サンプルポイントおよび物体フィーチャポイントの各々のペアについてのポイントペア記述子の演算と、(c2)演算されたポイントペア記述子をインデックスとして用いることによる、グローバルモデル記述におけるそのようなポイントのペアの記憶とを含む。代替的な実施形態においては、ポイントは、類似のポイントペアの効果的な検索のためにポイントペア記述子が必要ないように、データ構造内に記憶され得る。
任意的な姿勢改善がマッチングプロセスにおいて用いられる場合、および姿勢改善のために選択された方法が3D物体から事前演算され得るいくつかの種類のデータを必要とする場合は、データはオフラインフェーズにおいても演算され、モデルとともに記憶され得る。好ましい実施形態においては、所与の探索ポイントに最も近い物体についてのポイントの高速探索を可能とするデータ構造が演算される。このデータ構造は、姿勢改善のための反復最近点(ICP)法のために、後に用いられる。代替的な実施形態においては、任意の他の姿勢改善法のデータ構造を用いることができ、たとえば、期待値最大化法(expectation maximization:EM)がある。(グランガー(Granger)およびペネック(Pennec)の「マルチスケールEM−ICP:曲面レジストレーションのための高速かつロバストレージクラスタなアプローチ(Multi-scale EM-ICP: A fast and robust approach for surface registration)」、2002年、コンピュータビジョンについての欧州会議(European Conference on Computer Vision)(ECCV 2002)、p418-432)。
物体認識および姿勢決定
方法のオンラインフェーズは、3Dシーンデータおよびシーン強度データ内の3D物体の事象を認識し、シーン内のその事象の3D姿勢を演算する。入力として、オフラインフェーズにおいて演算されたような3Dシーン、シーン強度データ、および3Dモデルを利用し、シーン内の物体の一組の3D姿勢、および任意的に姿勢をランク付けする一組のスコアを出力する。オンラインフェーズは、以下の、(a)3Dシーンデータの準備ステップと、(b)シーン強度データの準備ステップと、(c)シーンフィーチャポイントの抽出ステップと、(d)基準ポイントの選択ステップと、(e)基準ポイントが対象の物体上であるとの想定の下で、物体とシーンとの高い一致性を導く、各基準ポイントについての一組の局部座標の演算ステップと、(d)結果として得られた姿勢をフィルタリングして最終姿勢を形成するステップと、(e)任意的な姿勢改善ステップと、(f)任意的な最終姿勢のスコアリングを行なうステップとを含む。
3Dシーンデータの準備は、不必要な特徴を削除するとともに必要な特徴を追加することによって入力3Dデータを準備する目的を達成するステップである。好ましい実施形態においては、入力3Dデータを準備するステップは、以下の、(a1)3Dセンサによって生成されるノイズや異常値のような不必要な特徴のデータからの任意的な抑制のステップを含み、使用される方法もまたデータを取得するためのセンサに依存し、(a2)表面法線の演算ステップを含み、これは表面法線がすでに利用可能である場合には任意的であり、(a3)投影ベースのレンジスキャナの場合には、よりスキャナに近接した部分であるような、シーンのより高密度にサンプリングされた部分に向かうバイアスを避けるために、シーンポイント群においてポイントを均一に分布するステップを含む。好ましい実施形態においては、ステップ(a3)のためのサンプリング距離は、オフラインフェーズにおけるモデルポイント群を正規化するために用いられたサンプリング距離と等しいかより大きく、かつ、サンプルポイントペア記述子を生成するために用いられたサンプリング距離と等しいかより大きくなるように設定される。サンプリング距離を変更することは、異なるポイント数を有する正規化ポイント群をもたらし、それによって開示された方法の実行時間および精度に影響を後続的に及ぼし、その2つをバランスさせるための重要なパラメータである。代替的な実施形態においては、サンプリング距離は、ユーザによって与えられ得る。他の代替的な実施形態においては、サンプリング距離は、3Dデータのノイズレベルのような事前情報から演算され得る。シーン強度データの準備は、不必要な特徴を除去するとともに必要な特徴を追加する目的を達成する。
好ましい実施形態においては、3Dシーンデータは、一組の3Dポイントとして、またはコンピュータ支援設計モデル(CADモデル)の形式のいずれかで与えられる。代替的な実施形態においては、代数曲面が用いられ得る。他の代替的な実施形態においては、3D表面の任意の他の表現が用いられ得る。好ましい実施形態においては、シーン強度データは、1つまたはより多くの強度画像の形式で与えられ、各々は、1つまたはより多くのチャネルを含み、1つまたはより多くのデジタルカメラを用いて取得される。他の実施形態においては、シーン強度データは、所与の3Dシーンデータを仮想カメラにレンダリングすることによって人工的に生成される。他の実施形態においては、シーン強度データを取得するために、他の画像技術が用いられ得る。
多くの基準ポイントが3Dシーンデータから選択され、後続のステップにおいて用いられる。方法を実行するために、対象の物体の表面上に存在する少なくとも1つの基準ポイントが選択されることが重要であり、これは、少なくとも1つの基準ポイントがそのような条件を満たす場合にのみ、後続のステップが物体姿勢を見出すためである。好ましい実施形態においては、基準ポイントは、シーンポイント群から、ポイントのランダムなサブセットを利用することによって選択され、そのサブセットにおけるポイントの数は、シーンポイント群のサイズに対してパラメータ化される。代替的な実施形態においては、均一分布されたシーンポイントセットから、またはもとの3Dシーンデータからのすべてのポイントが、基準ポイントとして用いられ得る。他の代替的な実施形態においては、ユーザが提供した物体のおよその位置についての知識、モデルの表面特性についての知識、シーンポイント群または他の方法の正規化が、基準ポイントの選択を進めるために用いられ得る。それらは、本発明の範囲から逸脱することなく、本発明において容易に使用することができる。選択された基準ポイントの数は、開示された方法の実行時間に直接的に影響を及ぼす。したがって、基準ポイント選択方法は、性能低下を引き起こしてしまう多すぎる基準ポイントの選択、および、対象の物体を見逃す機会が増加してしまう少なすぎる基準ポイントの選択の間をバランスさせることが必要である。
前のステップにおいて選択された各基準ポイントについて、基準ポイントが対象の表面上にあるという想定の下で、対象の物体が最も有していそうな3D姿勢に対応する一組の局部座標が演算される。好ましい実施形態においては、観測データを最もよく説明する局部座標を演算する、一般化ハフ(Hough)変換に類似した投票方式が採用される。代替的な実施形態においては、局部座標を最適化するいくつかの他の手法が可能であり、限定されないが、全数検索およびエネルギ関数の数値最小化が含まれる。
好ましい実施形態においては、対象の物体の局部座標を演算するために、一般化ハフ変換に類似した投票方式が採用される。その手法は、以下の、(e1)局部座標の空間にであるパラメータ空間が一組のサンプルに区分されるステップと、(e2)カウンタが各サンプルに取付けられるとともに、初期値をゼロに設定するステップと、(e3)一組のシーンフィーチャポイントが、抽出されたシーンフィーチャポイントから選択されるステップと、(e4)シーン強度データから抽出された各フィーチャポイントについて、モデルによるフィーチャポイントの説明をもたらすそれらすべての座標が決定されるステップとを含み、それは、それらの局部座標を用いて物体を変換する場合に、現在の基準ポイントが物体の表面上にあり、かつ現在のフィーチャポイントが物体と一致していることを意味する。その手法は、さらに、(e5)フィーチャポイントを説明する各局部座標について、局部座標を含む対応するパラメータ空間サンプルのカウンタを増加させるステップと、(e6)ステップ(e4)および(e5)を通してすべてのシーンポイントを処理した後に、局部座標空間の各サンプルについてのカウンタがパラメータ空間の部分を説明するシーンポイントの数に対応するステップとを含む。最大値を有するサンプルは、最良の手法においてシーンポイントを説明する局部座標に対応する。最終ステップにおいて、最大値を有するサンプル、またはしきい値を超えるカウンタの一組のサンプルが選択される。投票方式のいくつかの代替的な実施形態が可能であり、限定されないが、ステップ(e4)において、すべてのシーンフィーチャではなくシーンフィーチャのサブセットのみを用いたり、ステップ(e5)において、現在のフィーチャポイントの重みに依存する値だけカウンタを増加させたり、ステップ(e6)において、ヒストグラム解析や他の方法を用いて、ピークのための投票空間を解析したりすることを含む。
好ましい実施形態においては、上記のステップ(c1)におけるパラメータ空間の区分は、以下のようになされる。局部座標の第1の要素、すなわち、モデル表面上の位置を示す要素が、3D物体データから選択されたサンプルポイントの1つによって記述され、それにより、離散値へ黙示的に区分される。第2の要素、すなわち、基準ポイントの法線周りの回転角を記述する要素が、上述のサンプルポイントペアの角度値のサンプリングと同様に、可能性のある回転角の間隔[0°;360°]を等しいサイズのna個の間隔に分割することによって区分される。
ステップ(c2)において、現在のシーンポイントを説明する局部座標の演算が以下のようになされる。(c2.1)基準ポイントと現在のフィーチャポイントとの間のポイントペア記述子が、上述のように計算されかつサンプリングされ、(c2.2)サンプルポイント記述子が、オフラインフェーズにおいて演算されたグローバルモデル記述子にアクセスするために用いられ、シーンポイントペアと同様のモデルポイントペアのリストを返し、(c2.3)そのような各モデルポイントペアについて、式(3)を用いて、シーンおよびモデルのポイントペアを揃える局部座標が、シーンポイントペアおよびモデルポイントペアを用いて演算される。代替的な実施形態においては、グローバルモデル記述子は、ポイントペア記述子をサンプリングすることなく、類似のポイントペアを探索することができるニアレストネイバー法のようなデータ構造に基づき得る。他の代替的な実施形態においては、ポイントペア記述子を必要とせずに類似のポイントを直接探索することができるデータ構造が用いられ得る。
すべてのシーンポイントが処理された後に、ステップ(C4)は、対応するカウンタが最大値を有するパラメータ空間のサンプルを選択する。好ましい実施形態においては、最大値を有するカウンタ、すなわち、グローバル最大値が選択される。代替的な実施形態においては、特定のしきい値を超えるカウンタ値を有するすべてのサンプルが用いられ、そのしきい値は、固定であってもよいし、すべてのカウンタの最大値に依存してもよい。他の代替的な実施形態においては、グローバルしきい値の代わりに、カウンタ空間における局部ピークを検出するための方法が用いられ得る。
1つの局部座標が、選択された各サンプルから取得され、局部座標は、全3D姿勢(full 3D pose)に変換され、その各々は、対応する局部座標サンプルのカウンタ値とともに返される。カウンタ値は、3D姿勢のスコアである。
姿勢フィルタリングは、入力として、1つまたはより多くの基準ポイントから任意的にスコア値を用いて増加された姿勢候補(pose candidate)を採用するとともに、姿勢が正しいという可能性によって指示された、対象の物体の最もありそうな姿勢のみを含む一組のフィルタリングされた姿勢を出力する。一般的に、一組の姿勢は、ゼロ、1つまたはより多くの姿勢を含み得る。姿勢フィルタリングは、以下の、異なる目的を達成する。
(1)異常値の削除:基準ポイントについての姿勢候補は、基準ポイントが対象の物体の表面上に存在すると想定して演算される。その想定が正しくない場合、たとえば、対象の物体の表面には属しない、シーン内のクラッタポイントの場合、または、基準ポイントの法線が正しくない場合は、その基準ポイントについて結果として得られる姿勢候補は、物体の正しい姿勢に対応しない、正しくない姿勢を含むことになる。姿勢フィルタリングは、そのような正しくない姿勢を除去するように支援する。
(2)精度および安定性の増加:いくつかの基準ポイントが物体の表面上にある場合は、それらの各々についての姿勢候補は、物体の正しい姿勢に対応する姿勢を含んでいる。しかしながら、計算における数値誤差、データ内のノイズのため、および、上記のスキームに含まれるサンプリングステップのために、姿勢は正しい姿勢から若干異なる。姿勢フィルタリングは、異なる基準ポイントについて探索された全ての正しい姿勢をグルーピングするとともに、平均姿勢を演算し、したがって、最終結果の精度および安定性を増加する。
好ましい実施形態においては、姿勢フィルタリングは、以下のステップを含む。(d1)姿勢同士間の近接関係を定義するステップであって、それらの回転部分の違いが固定のしきい値よりも小さい場合、およびそれらの並進ベクトルの差が固定のしきい値よりも小さい長さを有する場合に、姿勢が近接していると定義される。姿勢フィルタリングは、さらに、(d2)各姿勢に対して、((d1)において定義されたような)近接する姿勢のすべてのスコアにわたる合計である新しいスコアを割り当てるステップと、(d3)新しいスコアによって姿勢を並び替えるステップと、(d4)最もよいスコアを有する姿勢を選択するステップと、(d5)近接する姿勢にわったて平均することによって選択された姿勢を任意的に再演算するステップとを含む。代替的な実施形態においては、ステップ(d1)における姿勢の近接関係は、2つの姿勢の下で、モデルからのポイントが有し得る最大偏差を、たとえば、以下のようにしきい値化することによって定義される。
ステップ(d2)の代替的な実施形態においては、近接する姿勢のスコアの加重和としてスコアが計算され、その加重関数は2つの姿勢に依存する。(d1)の他の代替的な実施形態においては、全ての姿勢が近接するとみなされ、上述のように加重関数が用いられる。さらに、ステップ(d1)において、すべての姿勢が近接していないとみなされ、それによって、投票方式からの最高の単一のスコアを有する姿勢の選択を効果的にもたらす。代替的な実施形態においては、k平均法(k-mean)またはミーンシフト法(mean shift)のような、クラスタリング方法が、最終姿勢の組を選択するために用いられ得る。ステップ(d5)の好ましい実施形態においては、並進は、姿勢の並進ベクトルの平均を計算することによって平均化され、回転は姿勢の回転の平均ロドリゲスベクトルを演算することによって平均化される。ステップ(d5)の代替的な実施形態においては、回転は、平均回転の計算に先立って、選択された姿勢の回転の逆数で構成される。これによって、平均回転の安定性が増加する。ステップ(d5)のほかの代替的な実施形態においては、平均回転は、姿勢と平均姿勢とに依存するスコア関数を最適化することによって計算される。代替的な実施形態においては、本発明の範囲から逸脱することなく、上述した1つまたはより多くの目的を達成するためのいくつかのほかの方法が可能である。
姿勢改善は、シーン内のモデルのおよその姿勢に沿った、物体データとシーンデータとの組を入力として採用して、改善されたより精密なモデルの姿勢を出力する方法のクラスを記述する。姿勢改善方法は、典型的には、誤差関数を最小化することによって、シーンと物体との間の一致性を最適化する。姿勢改善の欠点は。初期のおよその姿勢が公知であり、かつその方法が十分に収束することが必要とされることである。上述のような我々の発明は、姿勢改善を用いて改善されるのに十分良好な、物体のおよその姿勢を演算する。姿勢改善の使用は任意的であり、本発明のユーザによって要求される精度に依存する。提案した方法の結果として得られる姿勢は、典型的には、グラスピング(grasping)のような物体操作に十分な精度を有する。しかしながら、表面検査、たとえば不正確に製造された部品を検出するために本発明を使用する用途は、姿勢改善のステップを必要とするかもしれない。姿勢改善は、3Dデータ、強度データまたはその双方を用いることができる。好ましい実施形態においては、反復最近点(ICP)が、姿勢改善のために用いられる。ICPについて、シーン内の3Dポイントと物体表面との間の距離の和が最小化される。他の代替的な実施形態においては、期待値最大化が、姿勢改善のために用いられ得る。他の代替的な実施形態においては、シーンポイントと物体との間の距離を最小化する任意の方法が用いられ得る。他の代替的な実施形態においては、本発明の範囲から逸脱することなく、およその姿勢を改善するためのいくつかの他の方法が可能である。
スコアリングは、アルゴリズム内で計算されたような最終姿勢とともに3Dシーンデータおよび3D物体データを入力として採用し、計算された姿勢の品質または上記の姿勢の下でのシーンと物体との間の一致性を記述する、1つまたはより多くの値を出力する方法である。最終姿勢の品質および精度は、特に、シーン内における物体の存在(presence)と視認性(visibility)、ならびに、シーンデータおよびモデルデータの品質に依存する。スコアリングは、本方法のユーザに、結果として得られた姿勢を評価する手法を与え、その評価は後続の決定のための基礎となる。
最終姿勢をスコアリングするためのいくつかの代替的な実施形態が可能であり、その実施形態は、限定されないが、(a)投票方式において計算されたような姿勢のスコアを返す方法と、(b)姿勢フィルタリングステップにおいて計算されたような積算スコアを返す方法と、(c)結果の姿勢が与えられたモジュールでウェハ表面上にあるシーンポイントの数をカウントする方法と、(d)シーンポイントと、結果の姿勢の下でモデルに近接したシーンポイントについてのモデル表面との間の距離の共分散(covariance)を演算する方法と、(e)シーンデータを取得するために用いられたレンジセンサの画像へモデルを投影するとともに、画像領域においてモデルとシーンポイントとの間の距離を演算する方法と、(f)ステレオ法(stereo method)の場合に必要とされるような、1つより多くの視野から、投影されたモデルポイントの視認性を検証するステップを追加的に有する(e)の方法と、(g)モデル表面ポイントの法線と対応するシーン表面ポイントとの間のドットプロダクツ(dot product)の和を演算する方法と、(h)視認可能なモデル表面とトータルモデル表面との比率、または、視認可能なモデル表面と結果の姿勢が与えられたセンサカメラにおいて視認可能なモデル表面との間の比率を演算する方法と、(i)シーンフィーチャと物体フィーチャとの間の類似性を演算する方法と、(j)(a)から(i)までのうちの2つまたはより多くの方法を用いるとともに、結果として得られる値を組み合わせる方法とを含む。本発明の範囲から逸脱することなく、ユーザの要求およびセンサの特性に依存する、スコアを演算する追加の手法も可能である。
好ましい実施形態においては、姿勢改善が用いられない場合には、方法(b)において計算されたような姿勢フィルタリングステップにおいて計算されたスコアが返され、姿勢改善が用いられる場合には、方法(c),(d),(e)または(f)のスコアが返される。
図面および上述の説明において、本発明の詳細が例示されかつ説明されたが、そのような例示および説明は、制限的ではなく、例示的であるとみなされるべきである。変形および修正が、以下の特許請求の範囲内で、当業者によってなされてもよいことが理解されるであろう。特に、本発明は、上述の異なる実施形態からの特徴の任意の組合せを有するさらなる実施形態および下記に及ぶ。
さらに、請求項において、「備える(comprising)」の用語は、他の要素およびステップを排除するものではなく、不定冠詞「a」または「an」は複数を排除するものではない。単一のユニットは、請求項に記載された、いくつかの特徴の機能を満たし得る。特性および値に関連して、「本質的な」、「約」、「およそ」などの用語は、特に、まさにその特性、または、まさにその値も規定する。請求項中の参照符号は、範囲を限定するように解釈されるべきではない。
101 2D表面、102 3Dポイント、103 表面法線。

Claims (17)

  1. 3Dシーン(scene)データおよびシーン強度データにおける3D物体の事象を認識するため、および前記事象の3D姿勢(pose)を決定するための方法であって、
    (a)3D物体データを提供し、物体強度データを取得し、前記3D物体データおよび物体強度データからモデルを演算するステップであって、
    (a1)前記3D物体データからの少なくとも1つのサンプルポイントを選択するステップと、
    (a2)前記物体強度データから物体フィーチャポイントを抽出するステップと、
    (a3)選択されたサンプルポイントおよび抽出された物体フィーチャポイントの各ペアについて、前記選択されたサンプルポイントおよび前記抽出された物体フィーチャポイントとそれらの幾何学的関係とを記述するポイントペア記述子を演算するステップを含み、前記幾何学的関係は、前記物体強度データの画像平面内の前記選択されたサンプルポイントおよび前記抽出された物体フィーチャポイントの間の距離、エッジ方向と前記選択されたサンプルポイントおよび前記抽出された物体フィーチャポイントの間の差分ベクトルとの間の角度、前記サンプルポイントの法線ベクトルと前記差分ベクトルとの角度、および、前記法線ベクトルと前記物体強度データの投影中心に向かう方向との間の角度の少なくとも1つを含み、
    (a4)前記ポイントペア記述子によってインデックスが付けられたポイントペアを記憶するモデルを生成するステップ、とを含むステップと、
    (b)3Dシーンデータおよびシーン強度データを提供するステップと、
    (c)前記シーン強度データからエッジポイントをシーンフィーチャポイントとして抽出するステップと、
    (d)3Dシーンデータから少なくとも1つの基準ポイントを選択するステップと、
    (e)各選択された基準ポイントについて、前記基準ポイントが3D物体の一部であるという推定の下で、投票方式を用いることによって、前記3D物体についての姿勢候補を演算するステップとを備え、前記投票方式は、
    (e1)可能性のある物体姿勢の空間をサンプリングするステップを含み、前記可能性のある物体姿勢の空間は、2つのパラメータによって表現され、第1のパラメータは、前記3D物体上のポイントであり、第2のパラメータは、角度であり、前記投票方式はさらに、
    (e2)各姿勢空間サンプルについてカウンタを生成するステップと、
    (e3)前記抽出されたシーンフィーチャポイントから少なくとも1つのシーンフィーチャポイントを選択するステップと、
    (e4)選択された各シーンフィーチャポイントについて、前記ステップ(a)で計算された前記モデルを用いて、前記基準ポイントが前記3D物体の表面上であり、かつ前記シーンフィーチャポイントが前記3D物体に一致するようなマッチング姿勢を演算するステップと、
    (e5)ステップ(e4)において演算された各マッチング姿勢について、対応する姿勢空間サンプルのためのカウンタを増加させるステップと、
    (e6)前記サンプリングされた姿勢空間におけるピークカウンタ値を検出するとともに、対応する姿勢空間サンプルを姿勢候補として選択するステップとを含み、
    (f)前記姿勢候補からフィルタリングされた一組の姿勢を演算するステップとを備える、方法。
  2. ステップ(a)において、前記物体強度データは、前記3D物体データを仮想視野へとレンダリングすることを通して、前記3D物体データからの強度データを合成的に生成することによって取得される、請求項1に記載の方法。
  3. ステップ(a)において、前記物体強度データが与えられる、請求項1に記載の方法。
  4. ステップ(a4)は、
    (a4a)前記ポイントペア記述子をサンプリングするステップと、
    (a4b)サンプリングされたポイントペア記述子をポイントペアのリストへマッピングするグローバルモデル記述を生成するステップとを含み、
    各リストは、選択されたサンプルポイントと、類似のサンプルポイントペア記述子を有する抽出された物体フィーチャポイントとのすべてのペアを含む、請求項1に記載の方法。
  5. ステップ(d)において、前記基準ポイントは、前記3Dシーンデータからランダムに選択されるか、または、前記3Dシーンデータを均一にサンプリングすることによって選択される、請求項1〜4のいずれか1項に記載の方法。
  6. ステップ(e1)において、前記3D物体上のポイントは、前記3D物体データから選択された一組のポイントへのインデックスとして表現され、
    前記角度は、前記角度の組を、等しいサイズの間隔に分割することによってサンプリングされる、請求項1に記載の方法。
  7. ステップ(e4)において、前記マッチング姿勢は、前記基準ポイントと前記選択されたシーンフィーチャポイントとのペアに類似した、3D物体ポイントと物体フィーチャポイントとのペアの探索を可能とするデータ構造を用いて演算される、請求項1に記載の方法。
  8. 類似ポイントの前記探索は、
    (e4a)前記基準ポイント、前記選択されたシーンフィーチャポイント、およびそれらの関係を記述するポイントペア記述子を演算するステップと、
    (e4b)前記ポイントペア記述子を、前記データ構造へのインデックスとして使用するステップとを含む、請求項7に記載の方法。
  9. ステップ(e4b)は、
    (e4c)前記ポイントペア記述子をサンプリングするステップと、
    (e4d)前記サンプリングされたポイントペア記述子を3D物体ポイントおよび物体フィーチャポイントのリストにマッピングするデータ構造を用いるステップとを含む、請求項8に記載の方法。
  10. ステップ(e4d)において、ハッシュテーブルがデータ構造として用いられる、請求項9に記載の方法。
  11. ステップ(f)の演算は、
    (f1)前記姿勢候補間の近接関係を規定するステップと、
    (f2)近接する姿勢候補のスコアの荷重和として、各姿勢のスコアを演算するステップと、
    (f3)(f2)において演算されたスコアによって前記姿勢をランク付けすることにより、前記一組のフィルタリングされた姿勢を選択するステップとを含む、請求項1に記載の方法。
  12. 前記近接関係は、前記姿勢の並進(translation)と前記姿勢の回転との差のしきい値化、または、両姿勢の下で前記3D物体上のポイントが有し得る最大距離のしきい値化によって規定される、請求項11に記載の方法。
  13. (f3)において選択された姿勢が、前記近接する姿勢にわたる平均姿勢として再演算されるステップをさらに備える、請求項11に記載の方法。
  14. 前記姿勢の下での、前記3Dシーンと前記3D物体との間の距離に基づく誤差関数を最適化することによって、前記一組のフィルタリングされた姿勢の各姿勢を改善(refine)するステップをさらに備える、請求項1〜13のいずれか1項に記載の方法。
  15. 前記姿勢の下での、前記シーン強度データと前記物体強度データとの間の一致性に基づく誤差関数を最適化することによって、前記一組のフィルタリングされた姿勢の各姿勢を改善するステップをさらに備える、請求項1〜13のいずれか1項に記載の方法。
  16. 前記姿勢の下での、前記3Dシーンと前記3D物体との間の距離、および、前記シーン強度データと前記物体強度データとの間の一致性に基づく誤差関数を最適化することによって、前記一組のフィルタリングされた姿勢の各姿勢を改善するステップをさらに備える、請求項1〜13のいずれか1項に記載の方法。
  17. 幾何学的エッジのみを取得するために、シーンの前記エッジポイントが前記3Dシーンデータを用いてさらにフィルタリングされるステップ(c1)をさらに備える、請求項1に記載の方法。
JP2012278117A 2012-10-12 2012-12-20 3dシーンにおける3d物体の認識および姿勢決定のための方法 Active JP6216508B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP12188290.6 2012-10-12
EP12188290.6A EP2720171B1 (en) 2012-10-12 2012-10-12 Recognition and pose determination of 3D objects in multimodal scenes

Publications (2)

Publication Number Publication Date
JP2014081347A JP2014081347A (ja) 2014-05-08
JP6216508B2 true JP6216508B2 (ja) 2017-10-18

Family

ID=47115339

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012278117A Active JP6216508B2 (ja) 2012-10-12 2012-12-20 3dシーンにおける3d物体の認識および姿勢決定のための方法

Country Status (4)

Country Link
US (1) US8994723B2 (ja)
EP (1) EP2720171B1 (ja)
JP (1) JP6216508B2 (ja)
CN (1) CN103729643B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7423462B2 (ja) 2020-07-13 2024-01-29 新光電気工業株式会社 実装基板及び半導体装置

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9690979B2 (en) * 2006-03-12 2017-06-27 Google Inc. Techniques for enabling or establishing the use of face recognition algorithms
DE102011010975A1 (de) * 2011-02-10 2012-08-16 Martin Tank Verfahren und Analysesystem zur geometrischen Analyse von Scandaten oraler Strukturen
KR102060758B1 (ko) * 2013-02-28 2019-12-31 한국전자통신연구원 포인트 클라우드를 이용한 프리미티브 피팅 장치 및 방법
CN104424655A (zh) * 2013-09-10 2015-03-18 鸿富锦精密工业(深圳)有限公司 点云曲面重构系统及方法
JPWO2016035181A1 (ja) 2014-09-03 2017-06-22 株式会社ニコン 撮像装置、情報処理装置、及び撮像システム
US9995573B2 (en) 2015-01-23 2018-06-12 Cognex Corporation Probe placement for image processing
DE102015205088B4 (de) * 2015-03-20 2021-03-04 Kuka Deutschland Gmbh Verfahren zum Ermitteln eines Kalibrierungsparameters eines Fahrzeuges sowie Fahrzeug hierzu
JP6695895B2 (ja) * 2015-03-24 2020-05-20 ケーエルエー コーポレイション 物体の形状分類方法
US9818043B2 (en) 2015-06-24 2017-11-14 Microsoft Technology Licensing, Llc Real-time, model-based object detection and pose estimation
EP3185171B1 (en) * 2015-12-24 2020-03-04 Dassault Systèmes 3d object localization with descriptor
EP3185172B1 (en) * 2015-12-24 2020-02-12 Dassault Systèmes 3d object localization with quantization of the point pair descriptors
US9868212B1 (en) * 2016-02-18 2018-01-16 X Development Llc Methods and apparatus for determining the pose of an object based on point cloud data
CN107092430B (zh) * 2016-02-18 2020-03-24 纬创资通(中山)有限公司 空间绘画计分方法、用于进行空间绘画计分的装置及系统
EP3428877A4 (en) * 2016-03-09 2019-10-30 Nikon Corporation DETECTION DEVICE, INFORMATION PROCESSING DEVICE, METHOD, PROGRAM, AND DETECTION SYSTEM
CN107436679B (zh) * 2016-05-27 2020-08-07 富泰华工业(深圳)有限公司 手势控制系统及方法
WO2017214595A1 (en) * 2016-06-10 2017-12-14 The Board Of Trustees Of The Leland Systems and methods for performing three-dimensional semantic parsing of indoor spaces
CN106204727A (zh) * 2016-07-11 2016-12-07 北京大学深圳研究生院 一种足部三维扫描重建的方法及装置
US10482621B2 (en) * 2016-08-01 2019-11-19 Cognex Corporation System and method for improved scoring of 3D poses and spurious point removal in 3D image data
US10417533B2 (en) * 2016-08-09 2019-09-17 Cognex Corporation Selection of balanced-probe sites for 3-D alignment algorithms
JP6798826B2 (ja) * 2016-08-31 2020-12-09 株式会社ミマキエンジニアリング 三次元造形物製造方法
US10152786B2 (en) 2016-10-11 2018-12-11 Biosense Webster (Israel) Ltd. Registration of a magnetic tracking system with an imaging device
CN106524945B (zh) * 2016-10-13 2019-07-12 无锡科技职业学院 一种基于机械臂和结构光视觉的平面夹角在线测量方法
TWI647595B (zh) * 2016-11-21 2019-01-11 宏達國際電子股份有限公司 人體姿勢偵測系統、穿戴裝置以及方法
US11138742B2 (en) 2017-02-14 2021-10-05 The Trustees Of The University Of Pennsylvania Event-based feature tracking
CN107507218B (zh) 2017-08-31 2020-01-10 深圳大学 基于静态帧的部件运动性预测方法
EP3495771A1 (en) * 2017-12-11 2019-06-12 Hexagon Technology Center GmbH Automated surveying of real world objects
US10956790B1 (en) * 2018-05-29 2021-03-23 Indico Graphical user interface tool for dataset analysis
CN109785389A (zh) * 2019-01-18 2019-05-21 四川长虹电器股份有限公司 一种基于哈希描述与迭代最近点的三维物体检测方法
CN111986299B (zh) * 2019-05-24 2024-03-01 北京京东乾石科技有限公司 点云数据处理方法、装置、设备及存储介质
CN110472532B (zh) * 2019-07-30 2022-02-25 中国科学院深圳先进技术研究院 一种视频对象行为识别方法和装置
EP3846136A1 (en) * 2019-12-31 2021-07-07 Dassault Systèmes Augmenting a video flux of a real scene
US20220276652A1 (en) * 2021-03-01 2022-09-01 The Boeing Company Autonomous maneuver generation to mate connectors
CN113066126A (zh) * 2021-03-12 2021-07-02 常州龙源智能机器人科技有限公司 穿刺入针点的定位方法
US11900516B2 (en) * 2021-04-02 2024-02-13 Carnegie Mellon University System and method for pose tolerant feature extraction using generated pose-altered images
TWI771004B (zh) * 2021-05-14 2022-07-11 財團法人工業技術研究院 物件姿態估測系統及其執行方法與圖案化使用者介面
CN116416305B (zh) * 2022-09-17 2024-02-13 上海交通大学 一种基于优化采样五维点对特征的多实例位姿估计方法

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1038542A (ja) * 1996-07-19 1998-02-13 Tsubakimoto Chain Co 物体認識方法及び装置並びに記録媒体
US6711293B1 (en) 1999-03-08 2004-03-23 The University Of British Columbia Method and apparatus for identifying scale invariant features in an image and use of same for locating an object in an image
JP2004141514A (ja) * 2002-10-28 2004-05-20 Toshiba Corp 画像処理装置及び超音波診断装置
EP1766552A2 (en) * 2004-06-23 2007-03-28 Strider Labs, Inc. System and method for 3d object recognition using range and intensity
AT502551B1 (de) * 2005-06-15 2010-11-15 Arc Seibersdorf Res Gmbh Verfahren und bildauswertungseinheit zur szenenanalyse
ATE470912T1 (de) 2006-04-28 2010-06-15 Toyota Motor Europ Nv Robuster detektor und deskriptor für einen interessenspunkt
JP5109294B2 (ja) * 2006-06-19 2012-12-26 三菱電機株式会社 3次元位置補正装置
DE102006036346B4 (de) 2006-08-03 2010-12-30 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren zur automatisierten 3-D-Objekterkennung und Lagebestimmung
US7844105B2 (en) 2007-04-23 2010-11-30 Mitsubishi Electric Research Laboratories, Inc. Method and system for determining objects poses from range images
ATE529836T1 (de) 2007-08-13 2011-11-15 Aqsense S L Verfahren und system zur ausrichtung dreidimensionaler oberflächen
KR20100081881A (ko) * 2009-01-07 2010-07-15 삼성전자주식회사 데이터 매칭 장치, 데이터 매칭 방법, 및 이를 이용한 이동로봇
US20100208981A1 (en) * 2009-02-13 2010-08-19 Harris Corporation Method for visualization of point cloud data based on scene content
JP5655301B2 (ja) * 2009-12-22 2015-01-21 東ソー株式会社 有機半導体材料
JP5618569B2 (ja) * 2010-02-25 2014-11-05 キヤノン株式会社 位置姿勢推定装置及びその方法
EP2385483B1 (en) * 2010-05-07 2012-11-21 MVTec Software GmbH Recognition and pose determination of 3D objects in 3D scenes using geometric point pair descriptors and the generalized Hough Transform
JP5839929B2 (ja) * 2010-11-19 2016-01-06 キヤノン株式会社 情報処理装置、情報処理システム、情報処理方法及びプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7423462B2 (ja) 2020-07-13 2024-01-29 新光電気工業株式会社 実装基板及び半導体装置

Also Published As

Publication number Publication date
US20140105506A1 (en) 2014-04-17
EP2720171A1 (en) 2014-04-16
EP2720171A8 (en) 2014-05-28
EP2720171B1 (en) 2015-04-08
CN103729643B (zh) 2017-09-12
US8994723B2 (en) 2015-03-31
CN103729643A (zh) 2014-04-16
JP2014081347A (ja) 2014-05-08

Similar Documents

Publication Publication Date Title
JP6216508B2 (ja) 3dシーンにおける3d物体の認識および姿勢決定のための方法
JP5677798B2 (ja) 3次元シーンにおける3次元物体の認識及び位置姿勢決定方法
JP5705147B2 (ja) 記述子を用いて3dオブジェクトまたはオブジェクトを表す方法
CN108604301B (zh) 用于大rgb-d扫描的可缩放自动全局配准的基于关键点的点对特征
Aldoma et al. Multimodal cue integration through hypotheses verification for rgb-d object recognition and 6dof pose estimation
Choi et al. Voting-based pose estimation for robotic assembly using a 3D sensor
Drost et al. Model globally, match locally: Efficient and robust 3D object recognition
US8908913B2 (en) Voting-based pose estimation for 3D sensors
JP4865557B2 (ja) 有界三次元対象物の分類と空間ローカライゼーションのためのコンピュータ視覚システム
CN110648361A (zh) 一种三维目标物体的实时位姿估计方法及定位抓取系统
Tazir et al. CICP: Cluster Iterative Closest Point for sparse–dense point cloud registration
Alhamzi et al. 3d object recognition based on local and global features using point cloud library
Li et al. A tutorial review on point cloud registrations: principle, classification, comparison, and technology challenges
CN108830888B (zh) 基于改进的多尺度协方差矩阵特征描述子的粗匹配方法
CN109272577B (zh) 一种基于Kinect的视觉SLAM方法
CN110930456A (zh) 基于pcl点云库的钣金零件的三维立体识别及定位方法
Goron et al. Robustly segmenting cylindrical and box-like objects in cluttered scenes using depth cameras
Li et al. Approximately global optimization for robust alignment of generalized shapes
Ekekrantz et al. Adaptive iterative closest keypoint
Giachetti et al. SHREC’14 track: automatic location of landmarks used in manual anthropometry
Wan et al. A performance comparison of feature detectors for planetary rover mapping and localization
Zrira et al. Evaluation of PCL's Descriptors for 3D Object Recognition in Cluttered Scene
Hlubik et al. Advanced point cloud estimation based on multiple view geometry
CN113111741A (zh) 一种基于三维特征点的装配状态识别方法
Sarkar et al. Feature-augmented Trained Models for 6DOF Object Recognition and Camera Calibration.

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150806

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160624

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161003

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170307

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170515

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170912

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170925

R150 Certificate of patent or registration of utility model

Ref document number: 6216508

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250