JP5346863B2 - 3次元位置・姿勢認識装置およびそれを用いたシステム、方法、プログラム - Google Patents

3次元位置・姿勢認識装置およびそれを用いたシステム、方法、プログラム Download PDF

Info

Publication number
JP5346863B2
JP5346863B2 JP2010077213A JP2010077213A JP5346863B2 JP 5346863 B2 JP5346863 B2 JP 5346863B2 JP 2010077213 A JP2010077213 A JP 2010077213A JP 2010077213 A JP2010077213 A JP 2010077213A JP 5346863 B2 JP5346863 B2 JP 5346863B2
Authority
JP
Japan
Prior art keywords
point
point group
model
dimensional position
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010077213A
Other languages
English (en)
Other versions
JP2011209116A (ja
Inventor
浩之 大西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Screen Holdings Co Ltd
Dainippon Screen Manufacturing Co Ltd
Original Assignee
Screen Holdings Co Ltd
Dainippon Screen Manufacturing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Screen Holdings Co Ltd, Dainippon Screen Manufacturing Co Ltd filed Critical Screen Holdings Co Ltd
Priority to JP2010077213A priority Critical patent/JP5346863B2/ja
Publication of JP2011209116A publication Critical patent/JP2011209116A/ja
Application granted granted Critical
Publication of JP5346863B2 publication Critical patent/JP5346863B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Description

本発明は、対象体の3次元位置・姿勢の認識技術に関するもので、特に、ICPマッチング処理を用いる技術の改良に関する。
物品などの対象体の空間位置および空間姿勢の少なくとも一方を含む3次元座標値の組によって3次元位置・姿勢を定義する場合、対象体の3次元位置・姿勢を認識するために、その対象体の3次元形状を示す、各点が3次元位置情報を有する点群データ同士のマッチングを行う方法が従来から知られている。例えば非特許文献1、2に示されるようなICP(Iterative Closest Point)アルゴリズムを用いて、3次元位置・姿勢情報を有する点群データ同士のマッチングを行う方法(ICPマッチング)がある。
この方法は、対象体を計測し、ステレオ法等を用いて生成した3次元位置情報を各点が有する計測点群と、当該対象体に対応して予め準備された、各点が3次元位置情報を持つ点群であるモデル点群とをICPマッチングさせて、当該対象体の3次元位置・姿勢を認識する方法である。
このICPマッチングは、計測点群の各点を注目点とし、あらかじめ適宜に配置したモデル点群の中から最も近い点(最近傍点)をそれぞれ対応点として求め、それらの位置が合致するように計測点群全体の位置変換(回転移動と平行移動)を行う方法である。計測点群全体の位置変換(回転移動、平行移動)の変換値によって、計測点群とモデル点群との相対的な空間位置関係を把握し、対象体の位置および姿勢を認識する。
特開平9−277184号公報 特開2008−14691号公報 特開平7−27556号公報
IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MUCHINE INTELLIGENCE, "A Method for Registration of 3-D Shapes", FEBRUARY 1992, VOL.14 NO. 2 IEEE Int. Conf. on 3-D Imaging and Modeling, "Efficient Variants of the ICP algorithm.", 3DIM' 01
ところが従来のICPマッチングでは、計測点群とモデル点群との初期位置(3次元座標)が大きく異なっていると、その初期位置に依存してICPマッチングが失敗し、すなわち本来の対象体の3次元位置・姿勢とは異なる3次元位置・姿勢に計測点群が収束してしまう場合がある(局所解、ローカルミニマム)。このような場合を回避するために、例えば特許文献1、2、3に示すような方法がある。
特許文献1に示すのは、モデル点群の初期値を適切に選択するために、対象体の把持可能領域を推定する方法である。
特許文献2に示すのは、対象体の可視部を予測し、その部分の形状情報のみを用いてモデル点群を決定することにより、モデル点群の選定効率を向上させている。
また特許文献3では、稜線情報を用いた2次元画像からの特徴把握によって、対象体の計測時の欠落等に起因する、誤差の影響を低減している。
しかし、上記のような方法であっても、計測点群に、対象体の本来の3次元形状を示さない点(ノイズ)が含まれる場合、その影響によりICPマッチングを失敗し対象体の適切な3次元位置・姿勢が認識できない場合があり、そのような場合にもICPマッチングの精度を向上させる必要があった。
本発明は上記の要請からなされたものであり、計測点群にノイズが含まれるような場合にも精度よく対象体の3次元位置・姿勢の認識可能な、3次元位置・姿勢認識装置、3次元位置・姿勢認識システム、3次元位置・姿勢認識方法、およびそのプログラムを提供することを目的とする。
請求項1の発明は、対象体の空間位置と空間姿勢との組み合わせを3次元位置・姿勢として認識する装置であって、対象体の3次元計測によって得られた計測点群の各点の3次元位置情報と、前記対象体の3次元モデル上に規定されたモデル点群の各点の3次元位置情報とを取得する取得手段と、前記モデル点群の各点を注目点として、当該各注目点を前記計測点群中の対応点に近づけてゆくICPアルゴリズムを実行する逆マッチング処理を行うマッチング手段と、前記逆マッチング処理の結果に基づいて、前記対象体の3次元位置・姿勢を認識する認識手段とを備え、前記マッチング手段は、前記計測点群の各点を注目点とし、当該各注目点を前記モデル点群中の対応点に近づけていくICPアルゴリズムを実行する順マッチング処理を行う順マッチング手段と、前記順マッチング手段によって前記順マッチング処理された後の前記計測点群と前記モデル点群とに基づいて、前記逆マッチング処理を行う逆マッチング手段とを含むことを特徴とする。
請求項2の発明は、対象体の空間位置と空間姿勢との組み合わせを3次元位置・姿勢として認識する装置であって、対象体の3次元計測によって得られた計測点群の各点の3次元位置情報と、前記対象体の3次元モデル上に規定されたモデル点群の各点の3次元位置情報とを取得する取得手段と、前記モデル点群の各点を注目点として、当該各注目点を前記計測点群中の対応点に近づけてゆくICPアルゴリズムを実行する逆マッチング処理を行うマッチング手段と、前記逆マッチング処理の結果に基づいて、前記対象体の3次元位置・姿勢を認識する認識手段と、前記計測点群全体の空間位置を代表する計測代表点と、前記モデル点群全体の空間位置を代表するモデル代表点とのそれぞれの空間位置を一致させるように、前記計測点群と前記モデル点群との相対的な空間位置関係を調整する代表点一致化手段とを備え、前記マッチング手段は、前記計測点群と前記モデル点群との各点の3次元位置情報として、前記代表点一致化手段によって相対的な空間位置関係が調整された後の、各点の3次元位置情報を用いることを特徴とする。
請求項3の発明は、対象体の空間位置と空間姿勢との組み合わせを3次元位置・姿勢として認識する装置であって、対象体の3次元計測によって得られた計測点群の各点の3次元位置情報と、前記対象体の3次元モデル上に規定されたモデル点群の各点の3次元位置情報とを取得する取得手段と、前記モデル点群の各点を注目点として、当該各注目点を前記計測点群中の対応点に近づけてゆくICPアルゴリズムを実行する逆マッチング処理を行うマッチング手段と、前記逆マッチング処理の結果に基づいて、前記対象体の3次元位置・姿勢を認識する認識手段とを備え、前記マッチング手段は、前記逆マッチング処理に際して、前記計測点群中の前記対応点を中心として所定範囲内に存在する前記計測点群中の各点の空間位置を平均した点を、前記モデル点群中の前記注目点に対する対応点として採用することを特徴とする
請求項の発明は、請求項1〜3のいずれかに記載の3次元位置・姿勢認識装置であって、前記モデル点群は、前記3次元モデルの全周形状のうち一部分についての3次元形状を表現した点群であることを特徴とする。
請求項の発明は、請求項に記載の3次元位置・姿勢認識装置であって、前記取得手段は、前記3次元モデルの観察方向に応じて予め準備された複数のモデル点群から1つの点群の各点の3次元位置情報を抽出し、当該1つの点群を前記モデル点群として採用させる抽出手段を含むことを特徴とする。
また、請求項の発明の3次元位置・姿勢認識システムは、対象体を異なる方向から撮影する複数の撮影手段と、前記複数の撮影手段による撮影結果に基づいて、前記対象体の計測点群の各点の3次元位置情報を生成する生成手段と、前記対象体の3次元モデル上に規定されたモデル点群の各点の3次元位置情報を記憶する記憶手段と、前記計測点群と前記モデル点群との各点の3次元位置情報に基づいて、前記対象体の3次元位置・姿勢を認識する請求項1〜のいずれかに記載の3次元位置・姿勢認識装置とを備えることを特徴とする。
また、請求項7〜12の発明はそれぞれ、請求項1〜5の発明に対応する方法発明およびプログラム発明である。
請求項1〜請求項12の発明によれば、対象体の空間位置と空間姿勢との組み合わせを3次元位置・姿勢として認識するにあたって、モデル点群の各点を注目点として、当該各注目点を計測点群中の対応点に近づけてゆくICPアルゴリズムを実行する逆マッチング処理を行うため、ノイズなどの影響を受けにくく、対象体の3次元位置・姿勢の認識精度を向上させることが可能となる。
特に請求項の発明では、遠距離での有効性が高い順マッチング処理と、近距離での有効性が高い逆マッチングとのそれぞれの利点を組み合わせた複合的ICPアルゴリズムを用いることによって、3次元位置・姿勢の認識精度を向上させるにあたっての相乗的な効果がある。
特に請求項の発明では、計測代表点とモデル代表点とのそれぞれの空間位置を一致させておくことによって、逆マッチング処理の準備段階での精度が向上する。
また特に請求項の発明では、逆マッチング処理に際して、計測点群中の仮の対応点を中心として所定範囲内に存在する計測点群中の各点の空間位置を平均した点を正式な対応点として採用することにより、計測点群のエッジ点が空間的に分散していても、正確な3次元位置・姿勢の認識が可能となる。
第1実施形態にかかる3次元位置・姿勢認識システムの構成図である。 順マッチング処理を示すフローチャートである。 順マッチング処理を示す概念図である。 第1実施形態にかかる計測点群とモデル点群とを示す図である。 順マッチング処理と逆マッチング処理との特性を比較する模式図である。 第1実施形態にかかる逆マッチング処理を示すフローチャートである。 第1実施形態にかかる逆マッチング処理を示す概念図である。 第2実施形態にかかる3次元位置・姿勢認識システムの構成図である。 第2実施形態における計測点群のエッジとモデル点群のエッジとを示す模式図である。 第2実施形態における対応点の決定方法を示す模式図である。 第2実施形態にかかるICPマッチングを示す概念図である。 第3実施形態にかかる3次元位置・姿勢認識システムの構成図である。 第3実施形態における複数の部分モデルを全体モデルと比較して示す図である。 第3実施形態における部分モデル点群を用いた、逆マッチング処理を示した図である。 第3実施形態にかかる計測点群とモデル点群とを示す図である。 逆マッチング処理のみを行った場合の計測点群とモデル点群とを示した図である。 第3実施形態にかかる逆マッチング処理の前に順マッチング処理を行った場合の計測点群とモデル点群とを示した図である。 この発明の実施形態の3次元位置・姿勢認識システムがロボットに搭載された状態を示す図である。
<A.定義>
特に明示しない限り、この明細書における「対象体の3次元位置・姿勢」とは、対象体の空間位置および空間姿勢の少なくとも一方を含む座標値の組として定義される。空間姿勢は、対象体が1軸回転完全対称性を有する場合(例:円柱)には2自由度であり、1軸回転完全対称性を持たない場合には3自由度となる。
したがって、この発明における「3次元位置・姿勢のマッチング」とは、位置に関する3自由度と姿勢に関する3自由度との合計6自由度のすべてをマッチングさせる処理だけでなく、少なくとも、(1) 位置についての3自由度のマッチング、および、(2) 姿勢についての2以上の自由度のマッチング、のいずれかを含んでいれば、この発明の適用範囲に含まれる。
<B.第1実施形態>
<B−1.システムの概要>
図1は、本発明の第1実施形態にかかる3次元位置・姿勢認識システムSYS1の構成を示す概念図である。図1に示すように3次元位置・姿勢認識システムSYS1は、当該システムSYS1外の対象体3(物品など)を異なる方向から撮影する複数の撮影手段であるカメラ4、5と、カメラ4、5の撮影結果に基づいて、対象体3の3次元位置・姿勢を認識する3次元位置・姿勢認識装置100Aとを備える。
3次元位置・姿勢認識装置100Aは、ハードウエアとしては、汎用のコンピュータを用いて構成することが可能である。すなわち演算処理手段や制御手段としてのMPUのほか、記憶デバイスやディスプレイやマウスなどのマンマシン・インターフェイスを備えたコンピュータが3次元位置・姿勢認識装置100Aとして利用可能である。そして、このコンピュータにおいて3次元位置・姿勢認識装置100Aとしての機能を実現させるプログラムが、あらかじめこのコンピュータにインストールされている。
3次元位置・姿勢認識装置100Aは、このコンピュータプログラムによって実現される以下の各機能手段(1)〜(5)を備える。
(1) 生成手段6は、カメラ4、5の撮影結果に基づいて、対象体3の計測点群の各点の3次元位置情報を生成する。対象体3の計測点群は、カメラ4、5で撮影された対象体3のステレオ画像から抽出された、対象体3の形状を規定する特徴的な点の集合であって、各点がその3次元位置座標によって表現されている。
(2) 記憶手段7は、対象体3の3次元モデル上に規定されたモデル点群の各点の3次元位置情報を記憶する。3次元モデルとしては、対象体3が工業製品の場合にはそのCADデータなどを利用可能である。
(3) 取得手段8は、生成手段6から対象体3の計測点群の各点の3次元位置情報を取り込んで取得するとともに、モデル点群の各点の3次元位置情報を記憶手段7から読出して取得する。
(4) マッチング手段9は、取得手段8からの出力をもとにICPアルゴリズムを実行する。
(5) 認識手段10は、マッチング手段9における結果に基づいて、対象体3の3次元位置・姿勢を認識する。
<B−2.第1実施形態におけるマッチング処理の概要>
このシステムSYS1では、対象体に設定された計測点群の各点の3次元位置を実測し、ICPアルゴリズムを用いて当該対象体の3次元モデルの3次元位置・姿勢とマッチングさせることによって対象体の3次元位置・姿勢を認識する。
そこではまず、3次元位置・姿勢を認識したい対象体(たとえば物品)を異なる方向からカメラ等で撮影し、その画像を取得する。対象体が複数ある場合には、その画像中から目標とする対象体の部分を切り出して用いることも可能である。
次に、それらの画像に対しステレオ処理、すなわち2つのカメラ4,5からの視差に基づく三角測量の原理によって各カメラから対象体上の各点の3次元的な相対位置の特定を行うことにより、計測点群に相当する各点の3次元位置情報を生成する。
これ以後の段階でICPアルゴリズムを用いたICPマッチング処理が適用されるが、この発明ではICPマッチング処理を2種類に類別する。1つは「順マッチング処理」であり、これは従来のICPマッチング法で使用されている手法に対応する。そこでは、計測点群に含まれる各点を注目点とし、各注目点に対応する3次元モデル上の点(モデル点群の点)を捜してゆくという原理である。ここでモデル点群とは、対象体の3次元モデル上に規定され、各点が3次元位置情報を有し、全体として対象体の全周形状を示す点群である。
これに対して、逆マッチング処理は本発明の特徴に応じて新たに導入される原理であり、3次元モデル上に設定されたモデル点群に含まれる各点を注目点とし、各注目点に対応する計測点群中の点を捜してゆく。
前者は、計測点群中の注目点からモデル点群中の対応点を算出することから「順マッチング処理」と呼び、後者は、順マッチング処理とは逆方向の注目点−対応点の探索方向を有していることから、「逆マッチング処理」と呼ぶ。
後に詳述するように、計測点群にはノイズが含まれており、計測点群に属する各点(以下「計測点」)からモデル点群中の対応点を捜す順マッチングでは、ICPアルゴリズムの結果に誤差を含みやすい。それに対してモデル点群中の各点(以下「モデル点」)を注目点として、計測点群から対応点を捜す逆マッチングでは、注目点がモデルとしての理想位置を表現しているから、ICPアルゴリズムの結果の誤差を減少させることができる。
そこで、この発明では逆マッチング処理を主要なマッチング原理として採用する。その一方で、順マッチング処理にも固有の利点があるため、後述する第3実施形態では、順マッチング処理と逆マッチング処理との組合せを採用する。
以下ではまず、順マッチング処理について説明する。それは、第1実施形態では順マッチング処理は使用しないが、順マッチング処理との比較によって逆マッチング処理の特徴がより明確になることと、後述する第3実施形態においてはこの順マッチング処理も利用するからである。逆マッチング処理についてはその後に詳述する。
<B−3.ICPアルゴリズムによる順マッチング処理>
図2および図3は、順マッチング処理を説明するフローチャートとその概念図である。ICPマッチングに用いるICPアルゴリズムでは、まず、計測点群2とモデル点群1との各点のうち、ICPマッチングに用いる範囲を決める。このとき全ての点群についてICPマッチングに用いてもよい(図2ステップS1−1)。
次に、当該範囲内で、計測点群2中のある1点(注目点)から最近傍点であるモデル点群1中の1点(対応点)を仮に算出する(図2ステップS1−2、図3(a))。各注目点とそれに対する対応点が決定したら(図3(b))、注目点と対応点との距離の総和(平均二乗誤差)を最小化するような、計測点群2全体位置変換(回転移動、平行移動)を求める(図2ステップS1−3)。通常は回転と平行移動だけで足りるが、対象体として鏡映対称な2種類のものが想定されるときには、それらを互いに区別するために、空間反転の有無判断をこのステップS1−3に含めていてもよい。
上記の位置変換を行った後(図2ステップS1−4、図3(c))、再度注目点に対する対応点を決定し、注目点と対応点との距離の総和(平均二乗誤差)を計算する(図2ステップS1−5)。その値が所定閾値以下あるいはその値と先の総和の値との差が所定閾値以下である場合には、ICPマッチングを終了する(図2ステップS1−6)。そうでない場合には、ステップS1−1〜ステップS1−5までの動作を繰り返す。
なお、図3においては、計測点群2にのみ位置変換を行っているが、計測点群2とモデル点群1との位置関係は相対的なものであるので、モデル点群1を位置変換してもよいし、双方を位置変換してもよい。
ICPマッチング終了後の、計測点群2とモデル点群1との位置変換が、計測点群2とモデル点群1との相対的な空間位置関係を示すものであり、この関係により対象体の3次元位置・姿勢を認識することができる。
<B−4.ICPアルゴリズムによる逆マッチング処理>
ここで、順マッチング処理が大きな誤差を含むかあるいはマッチング処理そのものが失敗する、すなわち図3の計測点群2が対象体3の本来の3次元位置・姿勢を示す座標に収束しない原因のひとつとして、既述したように計測点群2に含まれるノイズの影響がある。ここでノイズとは、複数の画像をステレオ処理した際に計測点群2中に生じる、実際の対象体の3次元形状に対応する3次元位置・姿勢情報を示すものではない点をいう。例えば図4に示すように、計測点群2(黒丸)には、モデル点群1(白丸)中には対応する点がないノイズが含まれる。
図2のステップS1−2において、これらノイズについても注目点とし、それぞれの対応点を算出するため、本来含まれるべきでない点をも含めてICPマッチングが行われてしまう。その結果、ICPマッチングの失敗を生じやすくしてしまう。
そこで本発明においては、モデル点群1中の全部あるいは一部の点を注目点とし、その注目点から最近傍点である計測点群2中の1点(対応点)を算出するような対応点探索、すなわち逆マッチング処理を採用する。
理解を容易にするために、計測点群を{D1,D2,D3,…}とし、モデル点群を{M1,M2,M3,…}とした簡単な例を考える。すると、計測点群にノイズがない理想的な状況では、
※ 順マッチング処理:D1→M1,D2→M2,D3→M3,…;
※ 逆マッチング処理:M1→D1,M2→D2,M3→D3,…;
のように、双方は実質的に同じ結果を与える。
しかしながら、計測点群がノイズ点NPを含んで{D1,D2,NP,D3,…}となっていると、たとえば、
※ 順マッチング:D1→M1,D2→M2,DP→M3,D3→M3、…;
※ 逆マッチング:M1→D1,M2→D2,M3→D3,…;
のように、双方の結果は異なるものとなる。
すなわち、順マッチングではノイズ点DPも強制的に注目点とするために、本来は不要な対応点探索を行ってしまうが、逆マッチングで注目点(すなわち対応点探索の出発点)となるのはモデル点のみであるから、ノイズの影響を受けにくいことになる。
順マッチングでのこのような誤検出の影響は、対象体と3次元モデルとの位置姿勢がある程度近くなった以後、すなわちICPアルゴリズムの繰返しがある程度進んだ後に生じやすい。それは、双方がまだ遠いとき(図5(a))には、モデル点群から見たときに、本来の計測点(以下「真正計測点」)までの距離とノイズ点までの距離と方向とが、あまり変わらないのに対して、双方が近くなってきた段階(図5(b))では、ノイズ点とモデル点群との間の距離が(真正計測点と比較して)相対的にかなり大きくなることがあり、それがICPアルゴリズムへ及ぼす影響が増大するためである。
これに対して、逆マッチングでは、真正計測点群から離れたノイズ点は対応点として採用されにくくなり、ノイズ点による誤差を抑圧する機能に優れる(図5(c)(d))。このような理由によって、本発明では逆マッチング処理を採用するわけである。
逆マッチング処理は、図1に示すマッチング手段9において行われる。このとき用いられる計測点群2は、対象体3を撮影したカメラ4、5による撮影結果に基づいて生成手段6において生成された、3次元位置情報を有する各点からなるものである。またモデル点群1は、記憶手段7に記憶されている、対象体3の3次元モデル上に規定された点群である。各点が3次元位置情報を有している。
このようにして計測点群2およびモデル点群1それぞれの各点の3次元位置情報が、取得手段8において取得される。
図6および図7は、逆マッチング処理を段階的に説明するためのフローチャートとその概念図である。逆マッチング処理では、まず、計測点群2とモデル点群1との各点のうち、逆マッチング処理に用いる範囲(以下「対象範囲」)を決める(図6ステップS2−1)。この対象範囲はたとえば、空間範囲を限定したり、特定の方向から観察できる点だけに限定する(すなわち方向範囲を限定する)ことなどによって行われる。
次に、当該対象範囲内で、モデル点群1中のある1点(注目点)から最近傍点である計測点群2中の1点(対応点)を仮に算出する(図6ステップS2−2、図7(a))。各注目点とそれに対する対応点が決定したら(図7(b))、注目点と対応点との距離の総和(平均二乗誤差)を最小化するような、計測点群2全体の位置変換(回転移動および平行移動に相当する座標変換マトリクス)を求める(図6ステップS2−3)。
上記の位置変換を行った後(図6ステップS2−4、図7(c))、再度注目点に対する対応点を決定し、注目点と対応点との距離の総和(平均二乗誤差)を計算する(図6ステップS2−5)。その値が所定閾値以下あるいはその値と先の総和の値との差が所定閾値以下である場合には、逆マッチング処理を終了する(図6ステップS2−6)。そうでない場合には、ステップS2−1〜ステップS2−5までの動作を繰り返す。なお、図7においては、モデル点群1にのみ位置変換を行っているが、計測点群2とモデル点群1との位置関係は相対的なものであるので、計測点群2を位置変換してもよいし、双方を位置変換してもよい。
逆マッチング終了後、計測点群2、モデル点群1の位置変換から、計測点群2とモデル点群1との相対的な空間位置関係を認識手段10において把握し、実際の対象体3の3次元位置・姿勢を認識することができる。
<B−5.効果>
この逆マッチング処理によれば、注目点となるモデル点群1の各点は、その全てが対象体3の3次元形状を示す有効な点であるので、前述の順マッチング処理のようなノイズの影響を抑制することができる。よって、その結果に基づいた3次元位置・姿勢認識の精度を向上させることができる。
<C.第2実施形態>
<C−1.代表点の一致化>
図8に示すのは、第2実施形態にかかる3次元位置・姿勢認識システムSYS2である。図1に示すシステムSYS1と比較して、システムSYS2の3次元位置・姿勢認識装置100Bでは、取得手段8とマッチング手段9との間に、代表点一致化手段11が介在しているところが異なる。その他の構成については図1に示す場合と同様であるので、詳細な説明は省略する。
ところで、上記の逆マッチング処理を行う場合でも、モデル点群1と計測点群2との初期位置が大きく異なっていると、その初期位置に依存して逆マッチング処理が失敗してしまう場合がある。
そのような原因による逆マッチング処理の失敗を抑制するため、逆マッチング処理を行う前に、計測点群2全体の空間位置を代表する計測代表点としての計測重心点(または計測中心点)の空間位置と、モデル点群1全体の空間位置を代表するモデル代表点としてのモデル重心点(またはモデル中心点)の空間位置とを、予め一致させておくことが有効である。図8における代表点一致化手段11は、マッチング手段9において逆マッチング処理がなされる前に、計測重心点(または計測中心点)とモデル重心点(またはモデル中心点)とを一致させる(位置あわせ)機能をもつ。
ここで計測重心点とは、計測点群2に属する各点Diのそれぞれの3次元座標を(Xi,Yi,Zi)としたときの各座標値の平均値:
Xav=<Xi>, Yav=<Yi>, Zav=<Zi>,
で規定される3次元座標値(Xav,Yav,Zav)を持つ点を指す。ただし、記号<…>は平均値を示す。
また、計測中心点とは、各点Diの座標値の集合{Xi},{Yi},{Zi}のそれぞれにおける最大値Xmax,Ymax,Zmaxと、最小値Xmin,Ymin,Zminとの区間を2等分割する座標値:
Xmid=(Xmax−Xmin)/2,
Ymid=(Ymax−Ymin)/2,
Zmid=(Zmax−Zmin)/2,
を3次元座標値(Xmid,Ymid,Zmid)として持つ点を指す。
このように、代表点は計測点群の全体の空間的位置をおおまかに示す点であって、他の例としては、計測中央点、すなわち各点Diの総数Ndに対して、座標値順位が中央順位(N/2番目)付近となっている点なども採用可能である。モデル点群についての代表点も同様である。
このようにして計測点群2とモデル点群1との位置あわせを行ってから逆マッチング処理を行えば、モデル点群1中の注目点に対する計測点群2中の対応点が適切に算出され、ノイズの影響がより少なくなる。
<C−2.計測点周辺の平均値の利用>
生成手段6において、ステレオ法を用いて3次元位置情報を生成する場合、いわゆるブロックマッチング(例えば5×5画素や7×7画素といった小領域でのマッチング)を利用しているため、左右画像に存在する対象体のエッジをマッチングして3次元形状を生成すると、そのエッジを示す点群には所定の太さが生じる。このとき、この所定の太さを持った計測点群のエッジと、理想的に太さのほとんどないモデル点群のエッジとで逆マッチング処理すると、計測点群のエッジの太さの分だけ逆マッチング処理に誤差が生じ、逆マッチング処理の失敗を招くことがある。
図9に模擬的に示すように、モデル点群のエッジ300が本来位置変換されるべき座標(正しい位置)は計測点群のエッジ301の中央付近に位置しているが(図9(d))、逆マッチング処理の繰り返し回数がn、n+1、n+2と重ねられていっても、その座標に到達する前に逆マッチング処理は終了してしまう(図9(a)〜(c))ため、逆マッチング処理に誤差が生じる。
よって、図10に示すような方法で、計測点群のエッジを擬似的に細くする。すなわち、計測点群のエッジが所定の太さを持つ場合、モデル点群における注目点302(三角印で示す)からの最近傍点として算出された計測点群(各点を丸印で示す)中の1つの点303を中心とする所定範囲内(探索領域305)の計測点を平均し、その平均位置の座標値を持つ点を擬似最近傍点304(四角印で示す)として算出する。
ここにおける所定範囲としては、典型的には距離を指標として規定される空間範囲であり、たとえば、X,Y,Zの各方向について所定の距離の幅を持つ立方体(図10で破線で囲む範囲)や、所定距離を半径とする仮想的な球内の範囲を採用することができる。計測点群が対象体のエッジに沿って得られるようなときには、エッジに直交する方向についてのみの座標平均値などのように、方向をも追加指標として所定範囲を設定することもできる。最近傍点として算出した点303に代えて、その擬似最近傍点304を対応点として逆マッチング処理に用いることで、比較的大きな太さを持つエッジの場合にも、適切に逆マッチング処理ができ、その精度を向上させることができる。
<C−3.効果>
第2実施形態によれば、代表点一致化手段11によって相対的な空間位置関係が調整された後の、各点の3次元位置情報を用いることで、逆マッチング処理を行う前に、計測点群2とモデル点群1との相対的な空間位置関係が調整されるので、双方の初期位置が大きく異なることによるICPマッチングの失敗を抑制し、対象体3の3次元位置・姿勢認識の精度を向上させることができる。
さらに、逆マッチング処理に際して、計測点群2中の対応点を中心として所定範囲内に存在する計測点群2中の各点の空間位置を平均した点(擬似最近傍点)を、モデル点群1中の注目点に対する対応点として採用することで、所定の太さを持った計測点群のエッジ301を模擬的に細くし、適切に逆マッチング処理を行うことができる。よって、対象体3の3次元位置・姿勢認識の精度を向上させることができる。
<D.第3実施形態>
<D−1.構成>
カメラ等による撮影結果に基づいて生成される計測点群は、カメラ等の観測方向により計測可能な面が限定され、対象体の全周形状の一部分の形状を表すものとなる。図11に示すように、この部分形状に対応する計測点群2(黒丸)と、対象体の全周形状に対応するモデル点群1(白丸)とを逆マッチング処理させると、計測点群2(黒丸)とは対応しないモデル点群1(白丸)中の部分と逆マッチング処理されてしまう可能性が高まる。よって3次元位置・姿勢認識の精度が低下することになる。
図12に示すのは、本発明の第3実施形態にかかる3次元位置・姿勢認識システムSYS3の構成を示す概念図である。図1に示すシステムSYS1と比較して、システムSYS3の3次元位置・姿勢認識装置100Cでは、取得手段8内に抽出手段12が備えられていることが異なる。その他の構成については図1に示すシステムSYS1と同様であるので、詳細な説明は省略する。なお、図12においては、図8に示した代表点一致化手段11は記載されていないが、図8に示す場合と同様に、第3実施形態のシステムSYS3が代表点一致化手段を備えることも可能である。
<D−2.動作>
上記のような、計測点群2とは対応しないモデル点群1中の部分と逆マッチング処理されてしまうことを防ぐため、記憶手段7において記憶するモデル点群として、第1実施形態において示したような対象体3の全周形状に対応するモデル点群1ではなく、部分モデル点群101を採用する(図13参照)。部分モデル点群101は、対象体3のさまざまな部分的な形状に対応する複数の部分モデルから構成されており、対象体3の3次元モデルの観察方向に応じて、例えば各面の形状に対応する点群で構成される「点群の集合」である。
部分モデル点群101は、観察方向に応じた形状のみに対応する点群であるので、計測点群2との逆マッチング処理を行う際に、よりその精度を高めることができる。計測点群2を生成したときの観察方向に対応する部分モデル点群101を用いて逆マッチング処理すれば、計測点群2に含まれない部分の形状と逆マッチング処理してしまうことがなくなるからである。
抽出手段12は、記憶手段7において予め記憶された複数の部分モデル点群101のうちの1つの点群を特定してその点群(以下「特定点群」)に属する各点の3次元位置情報を抽出するとともに、マッチング手段9において計測点群2と逆マッチング処理させる点群として採用させる。これは、計測点群2のおおまかな分布から「特定点群」を自動選択してもよいし、その段階で対象体3がどのような方向に向いているかについての概略情報があらかじめわかっていれば、その情報に基づいて自動選択してもよい。オペレータがコンピュータの操作入力によって選択することも可能である。
また図14に示すように、カメラ4、5で2次元の画像が撮影された段階で、その2次元画像から対象体3の3次元姿勢の判別をし(例えば表、横、裏)、記憶手段7における部分モデル点群101の選択に反映させることもできる。これによって、3次元位置・姿勢認識の精度を向上させ、また処理時間の短縮にも効果がある。
<D−3.効果>
このように、第3実施形態のシステムSYS3の3次元位置・姿勢認識装置100Cは、3次元モデルの観察方向に応じて予め準備された複数の部分モデル点群101から1つの点群の各点の3次元位置情報を抽出し、当該1つの部分モデル点群101をモデル点群として採用させる抽出手段12を備える。
このため、計測点群2を生成したときと同じ観察方向に対応する部分モデル点群101を抽出して逆マッチング処理すれば、計測点群2に含まれない部分の形状と逆マッチング処理してしまうことがなくなり、3次元位置・姿勢認識の精度を高めることができる。
<E.第4実施形態>
<E−1.構成>
図15に示すのは、第4実施形態にかかる3次元位置・姿勢認識システムSYS4の構成を示す概念図である。第1実施形態の図1に示すシステムSYS1と比較して、システムSYS4の3次元位置・姿勢認識装置100Dは、マッチング手段9内に、取得手段8と接続される順マッチング手段13と、順マッチング手段13と接続される逆マッチング手段14とが備えられていることが異なる。その他の構成については第1実施形態の図1に示すシステムSYS1と同様であるので、詳細な説明は省略する。なお、図15においては、図8に示した代表点一致化手段11は記載されていないが、図8に示す場合と同様に備えることも可能である。また、図12に示した抽出手段12も記載されていないが、図12に示す場合と同様にシステムSYS4が抽出手段12を備えることも可能である。
<E−2.動作>
第4実施形態では、逆マッチング手段14において逆マッチング処理を行う前に、順マッチング手段13において順マッチング処理を行い、順マッチング手段13によって順マッチング処理された後の計測点群2とモデル点群1とに基づいて、逆マッチング処理を行う。
順マッチング処理は、前述のように計測点群2における各ノイズからの最近傍点をも算出してしまうが、例えば図16、図17のようにノイズが分布する計測点群2(黒丸)がある場合、逆マッチング処理のみを行った場合(図16)と、順マッチング処理を行った後、逆マッチング処理を行った場合(図17)とでは、3次元位置・姿勢認識の精度に差異が生じる。すなわちこの場合、図17に示す方が精度よくICPマッチングしている。
これは、ノイズも含めた計測点群2(黒丸)全体の分布とモデル点群1(白丸)とで行われる順マッチング処理により、計測点群2(黒丸)とモデル点群1(白丸)とが、計測点群2(黒丸)全体の分布に沿って位置あわせされ、その後の逆マッチング処理を開始する段階での計測点群2(黒丸)、モデル点群1(白丸)双方の初期位置が大きく異ならないことに起因する。これは図5を用いて既に概略説明した事情と対応している。原理的に計測点群2、モデル点群1双方の初期位置を、ノイズも含めた計測点群2全体の分布に沿って予め近づけておくことにより、逆マッチング処理の精度を高め、3次元位置・姿勢認識の精度を高めることができる。
換言すれば、順マッチングは位置・姿勢合わせの初期段階(すなわちラフな位置・姿勢合わせ)には有効であるが、近距離からの位置・姿勢合わせ(すなわち精密な位置・姿勢合わせ)の段階になると精度が低下するという性質があり、近距離からの位置・姿勢合わせには逆マッチングの方が効果が高い。そこで、これらを組み合わせるにあたっては、「先に順マッチングを行い、その後に逆マッチングを行う」という順序に格別の意義がある。この順序を反転させて逆マッチングの方を先に行う場合には、このような相乗的な効果は得られない。
この第4実施形態の後半の動作で実行される具体的な順マッチング処理の詳細は、図2および図3を参照して既に「第1実施形態」の欄で説明したので、この欄では省略する。
第4実施形態での逆マッチング処理の初期値は、順マッチング処理後の計測点およびモデル点のそれぞれの位置情報であるが、それらは生成手段6および記憶手段7から取り込んだ位置情報を起源としており、それらを座標変換したものに相当する。このため、第1〜第3実施形態のように逆マッチングだけを行う場合のほか、この第4実施形態中の逆マッチングもまた、取得手段8によって取得された位置情報に基づいたICPマッチング処理であると言える。
なお、順マッチング処理は、逆マッチング処理前の位置あわせを行うものであるので、注目点と対応点との距離の総和(平均二乗誤差)が最小化(収束)する前に、同処理を終了してもよい。その具体的な基準としては、たとえば、
・ICPアルゴリズムにおける繰返し回数の上限閾値を定めておき、繰返し回数(収束パラメータ)が当該閾値に至ると順マッチングを終了する、
・収束パラメータとして上記の平均二乗誤差を採用してその閾値を定めておき、収束パラメータが当該閾値以下になると順マッチングを終了する、
・収束パラメータとして上記の平均二乗誤差を採用し、その時点での収束パラメータが収束パラメータ自身の初期値の所定の%(閾値割合)以下になると順マッチングを終了する、
などを採用することができる。
<E−3.効果>
このように、第4実施形態によれば、順マッチング処理の後に逆マッチング処理を行うことにより、それらの固有の利点を相乗的に組み合わせて、3次元位置・姿勢認識の精度を高めることができる。
<F.ロボットに搭載した場合の動作>
図18に示すのは、本発明の実施形態にかかる3次元位置・姿勢認識システムを搭載した産業用ロボットである。具体的には産業用ロボットに備えられたコンピュータにインストールされて実行されることにより、3次元位置・姿勢認識装置としての機能を産業用ロボットに果たさせている。図に示すようにロボット200は、回転自在のロボット本体201と、ロボット本体に装着されたアーム202とを備える。
アーム202は、伸縮自在の多関節アームであり、その先端に装着されたハンド203により対象体3を挟む挟持動作を行うことが可能である。ハンド203には、カメラ4、5が備えられている。また、対象体3を照らす照明装置50、51も備えられている。
ロボット200は、対象体3をハンド203で挟む挟持動作の開始にあたって、カメラ4、5による撮影で2次元の画像データを生成する。その2次元の画像データに基づいて、計測点群の各点の3次元位置情報が図示しない生成手段6において生成される。それらの各点からなる計測点群と、図示しない記憶手段7において記憶された対象体3のモデル点群とを用いて逆マッチング処理することで、対象体3の3次元位置・姿勢を認識し、それに基づいてハンド203の機構的制御を行うことによって、対象体3をハンド203で正確に挟むことが可能となる。
この産業用ロボットにおける対象体3の3次元位置・姿勢の認識には既述した第1〜第4実施形態のいずれも利用可能であるほか、またそれらの変形例のいずれもが利用可能である。
工業製品などをロボット等の自動機械で取り扱おうとする場合、工業製品の3次元位置・姿勢の認識を自動的に行うことが重要となる。本発明にかかる3次元位置・姿勢認識システムを搭載することで、対象体の3次元位置・姿勢認識精度が向上し、導入の幅が広がる。
<G.変形例>
※ 対象物の3次元モデルを表現するモデル点群の位置情報は、データベースとして3次元位置・姿勢認識装置100A〜100Dの外部にあってもよい。この場合にはネットワーク経由で必要なモデル点群の位置情報を取得できる。また、比較的長期間にわたって同一種類の対象物の認識を行うシステムの場合には、モデル点群の位置情報は、オフラインでシステムにロードされてもよい。さらに、カメラ4,5からの画像情報に基づいて計測点群の位置情報を得るまでの段階は、別体のコンピュータで行ってもよい。すなわち、3次元位置・姿勢認識装置100A〜100Dのうち、この発明の特徴に相当する本質部分としては、取得手段8から認識手段10までの機能手段である。
※ この発明によって3次元位置・姿勢を認識可能な対象体は、物品だけでなく、生物(人間や動植物)も含まれる。また、3次元計測手段としてステレオカメラを用いたが、ステレオカメラに限らず、レーザによる光切断やTOF(Time of Flight)法を利用した距離画像センサ等により3次元計測点群を取得してもよい。なおTOF法とは、距離測定の1つの方法であり、光源から出た光を対象物で反射させ、センサに届くまでの光の飛行時間(遅れ時間)と光の速度(3×108m/s)とから、被写体までの距離を得る方法である。
1 モデル点群
2 計測点群
3 対象体
100A〜100D 3次元位置・姿勢認識装置
101 部分モデル点群
200 ロボット
300,301 エッジ
302 注目点
304 擬似最近傍点
305 探索領域
SYS1〜SYS4 3次元位置・姿勢認識システム

Claims (12)

  1. 対象体の空間位置と空間姿勢との組み合わせを3次元位置・姿勢として認識する装置であって、
    対象体の3次元計測によって得られた計測点群の各点の3次元位置情報と、前記対象体の3次元モデル上に規定されたモデル点群の各点の3次元位置情報とを取得する取得手段と、
    前記モデル点群の各点を注目点として、当該各注目点を前記計測点群中の対応点に近づけてゆくICPアルゴリズムを実行する逆マッチング処理を行うマッチング手段と、
    前記逆マッチング処理の結果に基づいて、前記対象体の3次元位置・姿勢を認識する認識手段とを備え、
    前記マッチング手段は、
    前記計測点群の各点を注目点とし、当該各注目点を前記モデル点群中の対応点に近づけていくICPアルゴリズムを実行する順マッチング処理を行う順マッチング手段と、
    前記順マッチング手段によって前記順マッチング処理された後の前記計測点群と前記モデル点群とに基づいて、前記逆マッチング処理を行う逆マッチング手段とを含むことを特徴とする、
    次元位置・姿勢認識装置。
  2. 対象体の空間位置と空間姿勢との組み合わせを3次元位置・姿勢として認識する装置であって、
    対象体の3次元計測によって得られた計測点群の各点の3次元位置情報と、前記対象体の3次元モデル上に規定されたモデル点群の各点の3次元位置情報とを取得する取得手段と、
    前記モデル点群の各点を注目点として、当該各注目点を前記計測点群中の対応点に近づけてゆくICPアルゴリズムを実行する逆マッチング処理を行うマッチング手段と、
    前記逆マッチング処理の結果に基づいて、前記対象体の3次元位置・姿勢を認識する認識手段と、
    前記計測点群全体の空間位置を代表する計測代表点と、前記モデル点群全体の空間位置を代表するモデル代表点とのそれぞれの空間位置を一致させるように、前記計測点群と前記モデル点群との相対的な空間位置関係を調整する代表点一致化手段とを備え、
    前記マッチング手段は、前記計測点群と前記モデル点群との各点の3次元位置情報として、前記代表点一致化手段によって相対的な空間位置関係が調整された後の、各点の3次元位置情報を用いることを特徴とする、
    次元位置・姿勢認識装置。
  3. 対象体の空間位置と空間姿勢との組み合わせを3次元位置・姿勢として認識する装置であって、
    対象体の3次元計測によって得られた計測点群の各点の3次元位置情報と、前記対象体の3次元モデル上に規定されたモデル点群の各点の3次元位置情報とを取得する取得手段と、
    前記モデル点群の各点を注目点として、当該各注目点を前記計測点群中の対応点に近づけてゆくICPアルゴリズムを実行する逆マッチング処理を行うマッチング手段と、
    前記逆マッチング処理の結果に基づいて、前記対象体の3次元位置・姿勢を認識する認識手段とを備え、
    前記マッチング手段は、前記逆マッチング処理に際して、前記計測点群中の前記対応点を中心として所定範囲内に存在する前記計測点群中の各点の空間位置を平均した点を、前記モデル点群中の前記注目点に対する対応点として採用することを特徴とする、
    次元位置・姿勢認識装置。
  4. 請求項1〜3のいずれかに記載の3次元位置・姿勢認識装置であって、
    前記モデル点群は、前記3次元モデルの全周形状のうち一部分についての3次元形状を表現した点群であることを特徴とする、
    次元位置・姿勢認識装置。
  5. 請求項に記載の3次元位置・姿勢認識装置であって、
    前記取得手段は、
    前記3次元モデルの観察方向に応じて予め準備された複数のモデル点群から1つの点群の各点の3次元位置情報を抽出し、当該1つの点群を前記モデル点群として採用させる抽出手段を含むことを特徴とする、
    次元位置・姿勢認識装置。
  6. 対象体を異なる方向から撮影する複数の撮影手段と、
    前記複数の撮影手段による撮影結果に基づいて、前記対象体の計測点群の各点の3次元位置情報を生成する生成手段と、
    前記対象体の3次元モデル上に規定されたモデル点群の各点の3次元位置情報を記憶する記憶手段と、
    前記計測点群と前記モデル点群との各点の3次元位置情報に基づいて、前記対象体の3次元位置・姿勢を認識する請求項1〜5のいずれかに記載の3次元位置・姿勢認識装置と、
    を備えることを特徴とする、
    3次元位置・姿勢認識システム
  7. 対象体の空間位置と空間姿勢との組み合わせを3次元位置・姿勢として認識する方法であって、
    (a)対象体の3次元モデルを表現するモデル点群の各点の3次元位置情報を記憶手段に記憶させるステップと、
    (b)前記対象体の3次元計測によって、計測点群の各点の3次元位置情報を生成するステップと、
    (c)前記モデル点群の各点を注目点として、当該各注目点を前記計測点群中の対応点に近づけてゆくICPアルゴリズムを実行する逆マッチング処理を行うステップと、
    (d)前記逆マッチング処理の結果に基づいて、前記対象体の3次元位置・姿勢を認識するステップとを備え、
    前記工程(c)は、
    前記計測点群の各点を注目点とし、当該各注目点を前記モデル点群中の対応点に近づけていくICPアルゴリズムを実行する順マッチング処理を行うステップと、
    前記順マッチング処理された後の前記計測点群と前記モデル点群とに基づいて、前記逆マッチング処理を行うステップとを含むことを特徴とする、
    3次元位置・姿勢認識方法
  8. 対象体の空間位置と空間姿勢との組み合わせを3次元位置・姿勢として認識する方法であって、
    (a)対象体の3次元モデルを表現するモデル点群の各点の3次元位置情報を記憶手段に記憶させるステップと、
    (b)前記対象体の3次元計測によって、計測点群の各点の3次元位置情報を生成するステップと、
    (c)前記モデル点群の各点を注目点として、当該各注目点を前記計測点群中の対応点に近づけてゆくICPアルゴリズムを実行する逆マッチング処理を行うステップと、
    (d)前記逆マッチング処理の結果に基づいて、前記対象体の3次元位置・姿勢を認識するステップと、
    (e)前記工程(b)の後前記工程(c)の前に、前記計測点群全体の空間位置を代表する計測代表点と、前記モデル点群全体の空間位置を代表するモデル代表点とのそれぞれの空間位置を一致させるように、前記計測点群と前記モデル点群との相対的な空間位置関係を調整するステップとを備え、
    前記工程(c)は、前記計測点群と前記モデル点群との各点の3次元位置情報として、前記工程(e)において相対的な空間位置関係が調整された後の、各点の3次元位置情報を用いて前記逆マッチング処理を行うステップであることを特徴とする、
    次元位置・姿勢認識方法。
  9. 対象体の空間位置と空間姿勢との組み合わせを3次元位置・姿勢として認識する方法であって、
    (a)対象体の3次元モデルを表現するモデル点群の各点の3次元位置情報を記憶手段に記憶させるステップと、
    (b)前記対象体の3次元計測によって、計測点群の各点の3次元位置情報を生成するステップと、
    (c)前記モデル点群の各点を注目点として、当該各注目点を前記計測点群中の対応点に近づけてゆくICPアルゴリズムを実行する逆マッチング処理を行うステップと、
    (d)前記逆マッチング処理の結果に基づいて、前記対象体の3次元位置・姿勢を認識するステップとを備え、
    前記工程(c)は、前記逆マッチング処理に際して、前記計測点群中の前記対応点を中心として所定範囲内に存在する前記計測点群中の各点の空間位置を平均した点を、前記モデル点群中の前記注目点に対する対応点として採用するステップであることを特徴とする、
    3次元位置・姿勢認識方法
  10. 請求項7〜9のいずれかに記載の3次元位置・姿勢認識方法であって、
    前記モデル点群は、前記3次元モデルの全周形状のうち一部分についての3次元形状を表現した点群であることを特徴とする、
    3次元位置・姿勢認識方法
  11. 請求項10に記載の3次元位置・姿勢認識方法であって、
    前記工程(b)は、
    前記3次元モデルの観察方向に応じて予め準備された複数のモデル点群から1つの点群の各点の3次元位置情報を抽出し、当該1つの点群を前記モデル点群として、当該モデル点群の各点の3次元位置情報を記憶手段に記憶させるステップを含むことを特徴とする、
    3次元位置・姿勢認識方法
  12. コンピュータにインストールされて実行されることにより、前記コンピュータを、請求項1〜5のいずれかに記載の3次元位置・姿勢認識装置として機能させることを特徴とする、
    プログラム
JP2010077213A 2010-03-30 2010-03-30 3次元位置・姿勢認識装置およびそれを用いたシステム、方法、プログラム Expired - Fee Related JP5346863B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010077213A JP5346863B2 (ja) 2010-03-30 2010-03-30 3次元位置・姿勢認識装置およびそれを用いたシステム、方法、プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010077213A JP5346863B2 (ja) 2010-03-30 2010-03-30 3次元位置・姿勢認識装置およびそれを用いたシステム、方法、プログラム

Publications (2)

Publication Number Publication Date
JP2011209116A JP2011209116A (ja) 2011-10-20
JP5346863B2 true JP5346863B2 (ja) 2013-11-20

Family

ID=44940338

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010077213A Expired - Fee Related JP5346863B2 (ja) 2010-03-30 2010-03-30 3次元位置・姿勢認識装置およびそれを用いたシステム、方法、プログラム

Country Status (1)

Country Link
JP (1) JP5346863B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11828603B2 (en) * 2017-05-19 2023-11-28 Pioneer Corporation Measurement device, measurement method and program

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013137760A (ja) * 2011-12-16 2013-07-11 Cognex Corp 複数のカメラに対する複数部品コレスポンダ
JP5867787B2 (ja) * 2012-03-23 2016-02-24 アイシン精機株式会社 欠陥抽出装置および欠陥抽出方法
CN102679871B (zh) * 2012-05-07 2015-03-11 上海交通大学 亚像素精度工业物体快速检测方法
CN104395929B (zh) * 2012-06-21 2017-10-03 微软技术许可有限责任公司 使用深度相机的化身构造
CN104462163B (zh) * 2014-03-06 2018-01-16 北京工商大学 一种三维模型表征方法、检索方法及检索系统
US9916495B2 (en) 2014-03-28 2018-03-13 Nec Corporation Face comparison device, method, and recording medium
JP6528723B2 (ja) 2016-05-25 2019-06-12 トヨタ自動車株式会社 物体認識装置、物体認識方法及びプログラム
JP6874772B2 (ja) 2016-11-25 2021-05-19 日本電気株式会社 画像生成装置、画像生成方法、およびプログラム
JP7111297B2 (ja) * 2018-11-26 2022-08-02 株式会社豊田中央研究所 位置ずれ補正装置及びプログラム
CN113065546B (zh) * 2021-02-25 2022-08-12 湖南大学 一种基于注意力机制和霍夫投票的目标位姿估计方法及系统
JP2022184429A (ja) * 2021-06-01 2022-12-13 村田機械株式会社 物品種類判定方法、および物品種類判定システム
JP2022184425A (ja) * 2021-06-01 2022-12-13 村田機械株式会社 エッジ位置検出方法、移載位置決定方法、および物品移載システム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4383230B2 (ja) * 2004-04-01 2009-12-16 三菱電機株式会社 3次元物体照合装置
JP2008014691A (ja) * 2006-07-04 2008-01-24 Japan Aerospace Exploration Agency ステレオ画像計測方法とそれを実施する装置
US7865316B2 (en) * 2008-03-28 2011-01-04 Lockheed Martin Corporation System, program product, and related methods for registering three-dimensional models to point data representing the pose of a part

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11828603B2 (en) * 2017-05-19 2023-11-28 Pioneer Corporation Measurement device, measurement method and program

Also Published As

Publication number Publication date
JP2011209116A (ja) 2011-10-20

Similar Documents

Publication Publication Date Title
JP5346863B2 (ja) 3次元位置・姿勢認識装置およびそれを用いたシステム、方法、プログラム
JP6426968B2 (ja) 情報処理装置およびその方法
JP5393318B2 (ja) 位置姿勢計測方法及び装置
JP6525459B2 (ja) 3d画像データにおける3dポーズの改良されたスコアリング及び偽ポイント除去のためのシステム及び方法
JP5430456B2 (ja) 幾何特徴抽出装置、幾何特徴抽出方法、及びプログラム、三次元計測装置、物体認識装置
US9384585B2 (en) 3-dimensional shape reconstruction device using depth image and color image and the method
JP5863440B2 (ja) 情報処理装置および方法
CN112001926B (zh) 基于多维语义映射rgbd多相机标定方法、系统及应用
US20120316820A1 (en) Information processing apparatus and information processing method
JP2014169990A (ja) 位置姿勢計測装置及び方法
JP6282098B2 (ja) キャリブレーション装置及び方法
JP2014002033A (ja) 画像処理装置、画像処理方法
JP6097903B2 (ja) 3次元形状の取得装置、処理方法およびプログラム
Shin et al. A multi-camera calibration method using a 3-axis frame and wand
CN113160335A (zh) 一种基于双目视觉的模型点云及三维表面重建方法
Siddique et al. 3d object localization using 2d estimates for computer vision applications
JP5018282B2 (ja) 製品の3次元形状モデルデータ作成方法
Cui et al. ACLC: Automatic Calibration for non-repetitive scanning LiDAR-Camera system based on point cloud noise optimization
Cociaş et al. Multiple-superquadrics based object surface estimation for grasping in service robotics
JP5462662B2 (ja) 位置姿勢計測装置、物体識別装置、位置姿勢計測方法及びプログラム
JP2013072857A (ja) 3次元位置・姿勢認識装置およびその方法、プログラム
JP5030183B2 (ja) 3次元物体位置姿勢計測方法
JP6890422B2 (ja) 情報処理装置、情報処理装置の制御方法およびプログラム
Gong et al. Feature-based three-dimensional registration for repetitive geometry in machine vision
Hong et al. Surface reconstruction of 3D objects using local moving least squares and KD trees

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120316

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130430

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130514

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130710

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130813

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130819

R150 Certificate of patent or registration of utility model

Ref document number: 5346863

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees