JP2012026974A - 3次元物体認識装置及び3次元物体認識方法 - Google Patents

3次元物体認識装置及び3次元物体認識方法 Download PDF

Info

Publication number
JP2012026974A
JP2012026974A JP2010168493A JP2010168493A JP2012026974A JP 2012026974 A JP2012026974 A JP 2012026974A JP 2010168493 A JP2010168493 A JP 2010168493A JP 2010168493 A JP2010168493 A JP 2010168493A JP 2012026974 A JP2012026974 A JP 2012026974A
Authority
JP
Japan
Prior art keywords
point
dimensional
distance
dimensional sensor
orientation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010168493A
Other languages
English (en)
Other versions
JP4940461B2 (ja
Inventor
Xu Gang
剛 徐
Tomohiro Nakamichi
朋弘 仲道
Yuto Senba
勇人 千馬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyoto Robotics Corp
Original Assignee
3D Media Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 3D Media Co Ltd filed Critical 3D Media Co Ltd
Priority to JP2010168493A priority Critical patent/JP4940461B2/ja
Priority to PCT/JP2011/060867 priority patent/WO2012014545A1/ja
Priority to CN2011800026665A priority patent/CN102472612A/zh
Publication of JP2012026974A publication Critical patent/JP2012026974A/ja
Application granted granted Critical
Publication of JP4940461B2 publication Critical patent/JP4940461B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)
  • Manipulator (AREA)
  • Image Processing (AREA)

Abstract

【課題】認識対象物を認識するための処理速度を向上させることができる3次元物体認識装置及び3次物体認識方法を提供する。
【解決手段】 認識対象の3次元モデルを中心に置いた空間を複数のボクセルに分割し、夫々のボクセルに3次元モデル表面の最近点までの距離及び最近点を示すIDを記録させたディスタンスフィールドを記憶し、3次元センサの位置姿勢を仮定して、3次元センサにより計測した点群を3次元モデルに設定されるモデル座標系に変換した各計測点を対応する前記ディスタンスフィールドの夫々のボクセルに入れることにより最近点との距離を取得し、前記3次元センサのあらゆる位置姿勢に対して、前記各計測点と対応するボクセルに記録にされた最近点までの点群間距離の自乗和を算出し、その結果に基づいて3次元センサの位置姿勢の評価における極値を求め、該極値を用いて最適化を行う。
【選択図】図1

Description

本発明は、形状が既知の認識対象となる3次元物体を認識するための3次元物体認識装置及び3次元物体認識方法に関する。
生産ラインにおいてロボットアームによる部品等の正確な操作を可能とするため、山積みにされた部品等を個々に認識し、各部品の位置及び姿勢を認識する3次元物体認識装置が近年開発されている。
従来、このような3次元物体認識装置としては、例えば、オフライン段階において、あらゆる位置姿勢における認識対象物の2次元画像を取得し、各画像に対して2次元モデルを算出し、多数の2次元モデルを3次元モデルにおいて保存し、オンライン段階において、2次元モデルをマッチングして認識対象物の3次元位置姿勢を得るものがある(例えば、特許文献1参照)。
特開2009−093611号公報
特許文献1の3次元物体認識装置では、漏れを無くし、認識精度を高めるためには、認識対象物体のあらゆる位置姿勢に対して、探索を行う必要がある。しかしながら、特許文献1のように輪郭による3次元認識の場合、細かく探索を行う必要があるため、探索空間が大きくなり過ぎて、十分な処理速度を得ることができないという問題がある。
本発明は、上記のような課題に鑑みてなされたものであって、認識対象物を認識するための処理速度を向上させることができる3次元物体認識装置及び3次物体認識方法を提供することを目的とする。
上記目的を達成するために、請求項1記載の3次元物体認識装置は、認識対象物の3次元モデルを中心に置いた3次元空間を複数のボクセルに分割し、該夫々のボクセルに前記3次元モデル表面の最近点までの距離又は該最近点までの距離及び前記最近点を示すIDを記録させたディスタンスフィールドを記憶するディスタンスフィールド記憶手段と、前記認識対象物の表面の点の3次元座標を示す点群を計測する3次元センサと、前記3次元センサの位置姿勢を仮定して、前記3次元センサにより計測した点群を前記3次元モデルに設定されるモデル座標系に変換する座標系変換手段と、前記モデル座標系に変換された各計測点を対応する前記ディスタンスフィールドの夫々のボクセルに入れることにより、該夫々のボクセルから前記最近点までの距離又は該最近点までの距離及び前記最近点を示すIDを取得する最近点距離取得手段と、前記3次元センサの位置の3自由度の夫々に対して、その存在し得る範囲に渡って所定間隔でサンプリングした全ての位置及び前記3次元センサの姿勢の3自由度の夫々に対して、その存在し得る範囲に渡って所定間隔でサンプリングした全ての姿勢に対して、前記座標系変換手段によりモデル座標系に変換された各計測点と前記最近点距離取得手段により取得した前記各計測点に対応する夫々のボクセルに記録された最近点との点群間距離を取得し、その結果に基づいて前記3次元センサの位置姿勢に関する点群間類似度評価における極大値を求める位置姿勢評価手段と、前記位置姿勢評価手段により求められた前記極大値の前記3次元センサの位置姿勢を初期値として用いて、前記座標系変換手段によりモデル座標系に変換された各計測点と前記最近点距離取得手段により取得した前記各計測点に対応する夫々のボクセルに記録された最近点との点群間距離の自乗和が最小となるように前記3次元センサの位置姿勢の最適化を行う第1の最適化手段と、を備えることを特徴としている。
請求項2記載の3次元物体認識装置は、前記3次元センサにより前記認識対象物の画像を取得し、該画像に対して前記認識対象物のエッジを抽出するエッジ抽出手段と、前記第1の最適化手段により得られた前記3次元センサの位置姿勢に合致する前記画像上に射影された前記3次元モデルの輪郭点と前記画像上のエッジ点との輪郭間距離の自乗和を用いた評価関数、又は前記第1の最適化手段により得られた前記3次元センサの位置姿勢に合致する前記画像上に射影された前記3次元モデルの輪郭点と前記画像上のエッジ点との輪郭類似度の評価関数に対して、前記第1の最適化手段により得られた結果を初期値として用いて前記3次元センサの位置姿勢の最適化を行う第2の最適化手段を備えることを特徴としている。
請求項3記載の3次元物体認識装置は、前記3次元センサにより前記認識対象物の画像を取得し、該画像に対して前記認識対象物のエッジを抽出するエッジ抽出手段と、前記第1の最適化手段により得られた前記3次元センサの位置姿勢に合致する前記画像上に射影された前記3次元モデルの輪郭点と前記画像上のエッジ点との輪郭間距離の自乗和と、前記3次元センサにより計測された点群が前記座標変換手段により前記モデル座標系に変換された各計測点と前記最近点距離取得手段により取得した前記各計測点に対応する夫々のボクセルに記録された最近点との点群間距離の自乗和とを統合した評価関数に対して、前記第1の最適化手段により得られた結果を初期値として用いて前記3次元センサの位置姿勢の最適化を行う第3の最適化手段を備えることを特徴としている。
請求項4記載の3次元物体認識装置は、認識対象物の3次元モデルを中心に置いた3次元空間を複数のボクセルに分割し、該夫々のボクセルに前記3次元モデル表面の最近点までの距離又は該最近点までの距離及び前記最近点を示すIDを記録させたディスタンスフィールドを記憶するディスタンスフィールド記憶手段と、前記認識対象物の表面の点の3次元座標を示す点群を計測、及び前記認識対象物の画像を取得する3次元センサと、前記3次元センサの位置姿勢を仮定して、前記3次元センサにより計測した点群を前記3次元モデルに設定されるモデル座標系に変換する座標系変換手段と、前記モデル座標系に変換された各計測点を対応する前記ディスタンスフィールドの夫々のボクセルに入れることにより、該夫々のボクセルから前記最近点までの距離又は該最近点までの距離及び前記最近点を示すIDを取得する最近点距離取得手段と、前記3次元センサの位置の3自由度の夫々に対して、その存在し得る範囲に渡って所定間隔でサンプリングした全ての位置及び前記3次元センサの姿勢の3自由度の夫々に対して、その存在し得る範囲に渡って所定間隔でサンプリングした全ての姿勢に対して、前記座標系変換手段によりモデル座標系に変換された各計測点と前記最近点距離取得手段により取得した前記各計測点に対応する夫々のボクセルに記録された最近点との点群間距離点群間距離を取得し、その結果に基づいて前記3次元センサの位置姿勢に関する点群間類似度評価における極大値を求める位置姿勢評価手段と、前記3次元センサにより取得した前記画像に対して前記認識対象物のエッジを抽出するエッジ抽出手段と、前記位置姿勢評価手段により求められた前記3次元センサの位置姿勢の評価における極大値に合致する前記画像上に射影された前記3次元モデルの輪郭点と前記画像上のエッジ点との輪郭間距離の自乗和を用いた評価関数、又は位置姿勢評価手段により求められた前記3次元センサの位置姿勢の評価における極大値に合致する前記画像上に射影された前記3次元モデルの輪郭点と前記画像上のエッジ点との輪郭類似度の評価関数に対して、前記位置姿勢評価手段により求められた前記極大値の前記3次元センサの位置姿勢を初期値として用いて前記3次元センサの位置姿勢の最適化を行う第2の最適化手段を備えることを特徴としている。
請求項5記載の3次元物体認識装置は、認識対象物の3次元モデルを中心に置いた3次元空間を複数のボクセルに分割し、該夫々のボクセルに前記3次元モデル表面の最近点までの距離又は該最近点までの距離及び前記最近点を示すIDを記録させたディスタンスフィールドを記憶するディスタンスフィールド記憶手段と、前記認識対象物の表面の点の3次元座標を示す点群を計測、及び前記認識対象物の画像を取得する3次元センサと、前記3次元センサの位置姿勢を仮定して、前記3次元センサにより計測した点群を前記3次元モデルに設定されるモデル座標系に変換する座標系変換手段と、前記モデル座標系に変換された各計測点を対応する前記ディスタンスフィールドの夫々のボクセルに入れることにより、該夫々のボクセルから前記最近点までの距離又は該最近点までの距離及び前記最近点を示すIDを取得する最近点距離取得手段と、前記3次元センサの位置の3自由度の夫々に対して、その存在し得る範囲に渡って所定間隔でサンプリングした全ての位置及び前記3次元センサの姿勢の3自由度の夫々に対して、その存在し得る範囲に渡って所定間隔でサンプリングした全ての姿勢に対して、前記座標系変換手段によりモデル座標系に変換された各計測点と前記最近点距離取得手段により取得した前記各計測点に対応する夫々のボクセルに記録された最近点との点群間距離を取得し、その結果に基づいて前記3次元センサの位置姿勢に関する点群間類似度評価における極大値を求める位置姿勢評価手段と、前記3次元センサにより前記認識対象物の画像を取得し、該画像に対して前記認識対象物のエッジを抽出するエッジ抽出手段と、前記位置姿勢評価手段により求められた前記3次元センサの位置姿勢の評価における極大値に合致する前記画像上に射影された前記3次元モデルの輪郭点と前記画像上のエッジ点との輪郭間距離の自乗和と、前記3次元センサにより計測された点群が前記座標変換手段により前記モデル座標系に変換された各計測点と前記最近点距離取得手段により取得した前記各計測点に対応する夫々のボクセルに記録された最近点との点群間距離の自乗和とを統合した評価関数に対して、前記位置姿勢評価手段により求められた前記極大値の前記3次元センサの位置姿勢を初期値として用いて前記3次元センサの位置姿勢の最適化を行う第3の最適化手段を備えることを特徴としている。
請求項6記載の3次元物体認識方法は、認識対象物の3次元モデルを中心に置いた3次元空間を複数のボクセルに分割し、該夫々のボクセルに前記3次元モデル表面の最近点までの距離又は該最近点までの距離及び前記最近点を示すIDを記録させたディスタンスフィールドをディスタンスフィールド記憶手段に記憶するステップと、3次元センサにより前記認識対象物の表面の点の3次元座標を示す点群を計測するステップと、前記3次元センサの位置姿勢を仮定して、前記3次元センサにより計測した点群を前記3次元モデルに設定されるモデル座標系に変換するステップと、前記モデル座標系に変換された各計測点を対応する前記ディスタンスフィールドの夫々のボクセルに入れることにより、該夫々のボクセルから前記最近点までの距離又は該最近点までの距離及び前記最近点を示すIDを取得するステップと、前記3次元センサの位置の3自由度の夫々に対して、その存在し得る範囲に渡って所定間隔でサンプリングした全ての位置及び前記3次元センサの姿勢の3自由度の夫々に対して、その存在し得る範囲に渡って所定間隔でサンプリングした全ての姿勢に対して、前記モデル座標系に変換された各計測点と該各計測点に対応する夫々のボクセルに記録された最近点との点群間距離を取得し、その結果に基づいて前記3次元センサの位置姿勢に関する点群間類似度評価における極大値を求めるステップと、前記極大値の前記3次元センサの位置姿勢を初期値として用いて、前記3次元センサにより計測された点群を前記モデル座標系に変換した各計測点と該各計測点に対応する夫々のボクセルに記録された最近点との点群間距離の自乗和が最小となるように前記3次元センサの位置姿勢の最適化を行う第1の最適化ステップと、を備えることを特徴としている。
請求項7記載の3次元物体認識方法は、前記3次元センサにより取得した前記認識対象物の画像に対して前記認識対象物のエッジを抽出するステップと、前記第1の最適化ステップにより得られた前記3次元センサの位置姿勢に合致する前記画像上に射影された前記3次元モデルの輪郭点と前記画像上のエッジ点との輪郭間距離の自乗和を用いた評価関数、又は前記第1の最適化ステップにより得られた前記3次元センサの位置姿勢に合致する前記画像上に射影された前記3次元モデルの輪郭点と前記画像上のエッジ点との輪郭類似度の評価関数に対して、前記第1の最適化ステップにより得られた結果を初期値として用いて前記3次元センサの位置姿勢の最適化を行う第2の最適化ステップを備えることを特徴としている。
請求項8記載の3次元物体認識方法は、前記3次元センサにより取得した前記認識対象物の画像に対して前記認識対象物のエッジを抽出するステップと、前記第1の最適化ステップにより得られた前記3次元センサの位置姿勢に合致する前記画像上に射影された前記3次元モデルの輪郭点と前記画像上のエッジ点との輪郭間距離の自乗和と、前記3次元センサにより計測された点群を前記モデル座標系に変換した各計測点と該各計測点に対応する夫々のボクセルに記録された最近点との点群間距離の自乗和とを統合した評価関数に対して、前記第1の最適化ステップにより得られた結果を初期値として用いて前記3次元センサの位置姿勢の最適化を行う第3の最適化ステップを備えることを特徴としている。
請求項9記載の3次元物体認識方法は、認識対象物の3次元モデルを中心に置いた3次元空間を複数のボクセルに分割し、該夫々のボクセルに前記3次元モデル表面の最近点までの距離又は該最近点までの距離及び前記最近点を示すIDを記録させたディスタンスフィールドをディスタンスフィールド記憶手段に記憶するステップと、3次元センサにより前記認識対象物の表面の点の3次元座標を示す点群を計測、及び前記認識対象物の画像を取得するステップと、前記3次元センサの位置姿勢を仮定して、前記3次元センサにより計測した点群を前記3次元モデルに設定されるモデル座標系に変換するステップと、前記モデル座標系に変換された各計測点を対応する前記ディスタンスフィールドの夫々のボクセルに入れることにより、該夫々のボクセルから前記最近点までの距離又は該最近点までの距離及び前記最近点を示すIDを取得するステップと、前記3次元センサの位置の3自由度の夫々に対して、その存在し得る範囲に渡って所定間隔でサンプリングした全ての位置及び前記3次元センサの姿勢の3自由度の夫々に対して、その存在し得る範囲に渡って所定間隔でサンプリングした全ての姿勢に対して、前記モデル座標系に変換された各計測点と該各計測点に対応する夫々のボクセルに記録された最近点との点群間距離を取得し、その結果に基づいて前記3次元センサの位置姿勢に関する点群間類似度評価における極大値を求めるステップと、前記3次元センサにより取得した前記認識対象物の画像に対して前記認識対象物のエッジを抽出するステップと、前記3次元センサの位置姿勢の評価における極大値に合致する前記画像上に射影された前記3次元モデルの輪郭点と前記画像上のエッジ点との輪郭間距離の自乗和を用いた評価関数、又は前記3次元センサの位置姿勢の評価における極大値に合致する前記画像上に射影された前記3次元モデルの輪郭点と前記画像上のエッジ点の輪郭類似度の評価関数に対して、前記極大値の前記3次元センサの位置姿勢を初期値として用いて前記3次元センサの位置姿勢の最適化を行う第2の最適化ステップとを備えることを特徴としている。
請求項10記載の3次元物体認識方法は、認識対象物の3次元モデルを中心に置いた3次元空間を複数のボクセルに分割し、該夫々のボクセルに前記3次元モデル表面の最近点までの距離又は該最近点までの距離及び前記最近点を示すIDを記録させたディスタンスフィールドをディスタンスフィールド記憶手段に記憶するステップと、3次元センサにより前記認識対象物の表面の点の3次元座標を示す点群を計測、及び前記認識対象物の画像を取得するステップと、前記3次元センサの位置姿勢を仮定して、前記3次元センサにより計測した点群を前記3次元モデルに設定されるモデル座標系に変換するステップと、前記モデル座標系に変換された各計測点を対応する前記ディスタンスフィールドの夫々のボクセルに入れることにより、該夫々のボクセルから前記最近点までの距離又は該最近点までの距離及び前記最近点を示すIDを取得するステップと、前記3次元センサの位置の3自由度の夫々に対して、その存在し得る範囲に渡って所定間隔でサンプリングした全ての位置及び前記3次元センサの姿勢の3自由度の夫々に対して、その存在し得る範囲に渡って所定間隔でサンプリングした全ての姿勢に対して、前記モデル座標系に変換された各計測点と該各計測点に対応する夫々のボクセルに記録された最近点との点群間距離を取得し、その結果に基づいて前記3次元センサの位置姿勢に関する点群間類似度評価における極大値を求めるステップと、前記3次元センサにより取得した前記認識対象物の画像に対して前記認識対象物のエッジを抽出するステップと、前記3次元センサの位置姿勢の評価における極大値に合致する前記画像上に射影された前記3次元モデルの輪郭点と前記画像上のエッジ点との輪郭間距離の自乗和と、前記3次元センサにより計測された点群を前記モデル座標系に変換した各計測点と該各計測点に対応する夫々のボクセルに記録された最近点との点群冠距離の自乗和とを統合した評価関数に対して、前記極大値の前記3次元センサの位置姿勢を初期値として用いて前記3次元センサの位置姿勢の最適化を行う第3の最適化ステップとを備えることを特徴としている。
請求項1及び6記載の発明によれば、認識対象物の3次元モデルを中心に置いた3次元空間を複数のボクセルに分割し、該夫々のボクセルに前記3次元モデル表面の最近点までの距離又は該最近点までの距離及び前記最近点を示すIDを記録させたディスタンスフィールドを予め作成して記憶しておく。そして、3次元センサの位置姿勢を仮定し、この3次元センサにより計測した認識対象物の表面の点の3次元座標を示す点群をモデル座標系に変換して、この変換した各計測点を対応する前記ディスタンスフィールドの夫々のボクセルに入れることにより、該夫々のボクセルから前記最近点までの距離又は該最近点までの距離及び前記最近点を示すIDを取得することにより点群間距離を取得して3次センサの位置姿勢に関する点群間の類似度評価を行う。この評価を3次元センサのあらゆる位置姿勢に対して行うことによりその極大値を求める。このように、3次元センサにより計測した点群を用いて3次元センサの位置姿勢に関する点群間類似度評価における極大値を求めているので、位置姿勢の全探索を大まかに行うことができ、処理速度を向上させることができる。また、ディスタンスフィールドを用いているので、各計測点を対応する夫々のボクセルに入れることにより容易に夫々のボクセルから3次元モデル表面の最近点までの距離を取得することができるので、探索が効率化され処理速度を向上させることができる。
請求項2及び7記載の発明によれば、点群間距離を取得し、その結果に基づいて求めた極大値の前記3次センサの位置姿勢を初期値として用いて、点群間距離の自乗和が最小となるように最適化した後、更に、輪郭間距離の自乗和を用いた評価関数、又は輪郭類似度の評価関数にこの最適化の結果を初期値として用いて3次元センサの位置姿勢の最適化を行うので、より高精度に位置姿勢の認識を行うことができる。
請求項3及び8記載の発明によれば、点群間距離を取得し、その結果に基づいて求めた極大値の前記3次センサの位置姿勢を初期値として用いて、点群間距離の自乗和が最小となるように最適化した後、更に、輪郭間距離の自乗和と、点群間距離の自乗和とを統合した評価関数にこの最適化の結果を初期値として用いて3次元センサの位置姿勢の最適化を行うので、より高精度に位置姿勢の認識を行うことができる。
請求項4及び9記載の発明によれば、点群間距離を取得し、その結果に基づいて求めた極大値の前記3次センサの位置姿勢を初期値として輪郭間距離の自乗和を用いた評価関数、又は輪郭類似度の評価関数に用いて3次元センサの位置姿勢の最適化を行うので、処理速度を向上させることができるとともに、高精度に位置姿勢の認識を行うことができる。
請求項5及び10記載の発明によれば、点群間距離の自乗和を算出し、その算出結果に基づいて求めた極大値の前記3次センサの位置姿勢を初期値として輪郭間距離の自乗和と、点群間距離の自乗和とを統合した評価関数に用いて3次元センサの位置姿勢の最適化を行うので、処理速度を向上させることができるとともに、高精度に位置姿勢の認識を行うことができる。
本発明の第1の実施形態に係る3次元物体認識装置の構成の一例を示す概略模式図である。 第1の実施形態に係る3次元物体認識装置による処理の流れを示すフローチャートである。 ディスタンスフィールドについて説明するための概略説明図である。 ディスタンスマップについて説明するための概略説明図である。 3次元センサの位置姿勢の全探索について説明するための概略説明図である。 本発明の第2の実施形態に係る3次元物体認識装置の構成の一例を示す概略模式図である。 第2の実施形態に係る3次元物体認識装置による処理の流れを示すフローチャートである。 本発明の第3の実施形態に係る3次元物体認識装置の構成の一例を示す概略模式図である。 第3の実施形態に係る3次元物体認識装置による処理の流れを示すフローチャートである。
以下に本発明の第1の実施形態に係る3次元物体認識装置1について、図面を参照しつつ説明する。図1に示すように、3次元物体認識装置1は、作業台2の上に載置された3次元形状を有する認識対象物3を認識するためのものであって、この認識対象物3の表面の点の3次元座標を示す点群の計測及び認識対象物3の画像を取得するための3次元センサ4と、認識対象物3を把持するためのロボットアーム5と、3次元センサ4から入力される点群データや画像に基づいてロボットアーム5の動作を制御するコンピュータ6と備えるものである。
3次元センサ4としては、例えば、認識対象物3に対してパターン光を投光する投光手段(不図示)と、このパターン光が投光された認識対象物3を異なる位置に設けられた基準カメラと参照カメラとからなるステレオカメラ(不図示)とを備えるものであり、該ステレオカメラにより撮像して得られた複数の画像間で対応する画素を特定し、対応付けられた基準画像上の画素と、参照画像上の画素との位置の差(視差)に三角測量の原理を適用することにより、基準カメラから当該画素に対応する計測対象物上の点までの距離を計測して認識対象物3の3次元点群を取得する。また、このような3次元センサ4の代わりに3次元点群を計測する従来公知の技術を適用するようにしても良い。
コンピュータ6は、図1に示すように、3次元センサにより得られた画像データ等を記憶する画像メモリ7と認識対象物3の認識を行うための処理プログラム等を格納するハードディスク8と、該ハードディスク8から読み出された処理プログラムを一時記憶するRAM(Random Access Memory)9と、この処理プログラムに従って3次元認識処理を行うCPU(Central Proceessing Unit)10と、画像メモリ7に記憶された画像データやCPU10による算出結果等を表示するための表示部11と、マウスやキーボード等で構成される操作部12と、これら各部を互いに接続するシステムバス13とを有している。尚、本実施形態では、3次元物体3の認識を行う処理プログラムをハードディスク8に格納している例を示しているが、これに代えて、コンピュータ読み取り可能な記憶媒体(不図示)に格納しておき、この記録媒体から処理プログラムを読み出すように構成することも可能である。
以下、3次元物体認識装置1による処理の流れについて図2のフローチャートを用いながら説明する。本実施形態に係る3次元物体認識装置1では、図2に示すように、まずオフラインで認識対象物3の3次元モデル及びディスタンスフィールドを作成して夫々3次元モデル記憶手段14及びディスタンスフィールド記憶手段15に記憶しておく(S101,S102)。認識対象物3の3次元モデルは、輪郭点データを有しており、3次元CAD等を利用して作成される。ここでは、あらゆる姿勢(3自由度)における3次元モデルを3次元モデル記憶手段14に記憶しておく(S101)。
図3に示すように、ディスタンスフィールド17は、認識対象物3の3次元モデルを中心に置いた3次元空間を複数のボクセル18に分割し、該夫々のボクセル18に3次元モデルの表面の3次元的な最近点(ユークリッド距離が最小)までの距離(自乗)及びこの最近点を示すIDを記録させたものである。図3では、3次元モデルの表面が含まれるボクセル18aは斜線を引いて示している。従って、斜線が引かれているボクセル18aは、そのボクセル18a自身が最近点になるので、距離として零が記録される。このようなディスタンスフィールド17は、ディスタンスフィールド記憶手段15に記憶され(S102)、後述する3次元センサ4の位置姿勢を評価する際に用いられる。このディスタンスフィールド17は、例えば、1995年12月発刊の電子情報通信学会論文誌Vol.J78、No.12の「ユークリッド距離変換アルゴリズムの効率化」、加藤敏洋、平田富夫、斉藤豊文、吉瀬謙二、第1750〜1757頁に記載されている方法に基づいて作成されるものであり、ここではその詳細な作成の仕方の説明については省略する。尚、本実施形態では、ディスタンスフィールド記憶手段15の容量の負担等を考慮して、夫々のボクセル18に最近点までの距離の自乗を記録させているが、最近点までの距離そのものを記録させておいても良い。
次に、3次元センサにより認識対象物の表面の点の3次元座標を示す点群の計測及び認識対象物3の画像を取得する(S103)。この際、3次元センサにより計測した点群は3次元モデルのどこかということはまだ分からない。また、3次元センサ4による計測により点群は得られるが、どのような位置姿勢で点群を計測したかは分からない。そこで、座標系変換手段21では、3次元センサの位置姿勢を仮定して、3次元センサにより計測した点群を3次元モデルに設定されるモデル座標系へと変換する(S104)。
そして、最近点距離取得手段22では、このモデル座標系に変換した計測点を予め作成しておいたディスタンスフィールド17の対応するボクセル18に夫々入れることにより、夫々のボクセル18から最近点を表すID及び最近点までの距離を取得する(S105)。
位置姿勢評価手段23では、下記数式(1)の点群間類似度評価関数に示すように、モデル座標系に変換した各計測点と該各計測点に対応する夫々のボクセルに記録された最近点との点群間距離の自乗和を算出し、3次元センサ4の位置姿勢を評価する。この位置姿勢の評価処理を3次元センサ4の位置の3自由度の夫々に対して、その存在し得る範囲に渡って所定間隔でサンプリングした全ての位置及び前記3次元センサ4の姿勢の3自由度の夫々に対して、その存在し得る範囲に渡って所定間隔でサンプリングした全ての姿勢に対して繰り返して、非極値抑制を行うことにより3次元センサ4の位置姿勢に関する点群間類似度評価における極大値を求める(S106)。図5は、3次元センサ4が認識対象物3を計測する際の位置姿勢を概略的に示すものであり、Xはモデル座標系、Xはセンサ座標系を表している。また、3次元センサ4の姿勢は、緯度α、経度β、Zc軸回りの回転γで表される。この位置姿勢評価手段23では、図5に示すように、3次元センサ4のあらゆる位置姿勢(6自由度)について、数式(1)を用いて評価を行うことになる。
Figure 2012026974
次に、第1の最適化手段24では、S106の処理により求められた極大値の3次元センサ4の位置姿勢を初期値として下記の数式(2)で表される評価関数C1に用いて、この自乗和が最小となるように3次元センサ4の位置姿勢の最適化を行う(S107)。評価関数C1は、座標系変換手段21によりモデル座標系に変換された各計測点と最近点距離取得手段22により取得した各計測点に対応する夫々のボクセル18に記録された最近点との点群間距離の自乗和を用いた評価関数であり、第1の最適化手段24では、最適化の手段として、例えば、従来公知のICP(Iterative Closest Point)法やマーカード法が用いられる。
Figure 2012026974
次に、エッジ抽出手段25では、3次元センサ4により取得した認識対象物3の画像に対して認識対象物のエッジを抽出して(S108)、ディスタンスマップ19を作成する。ディスタンスマップ19は、図4に示すように、3次元センサ4により取得した認識対象物3の画像について認識対象物のエッジ20a(斜線で示す部分)を抽出して、画像を構成する各画素20に抽出したエッジ20aのうち最も近い最近エッジ点までの距離(自乗)及びこの最近エッジ点を示すIDを記録させたものである。このディスタンスマップ19は、2次元的に表現されるものであり、3次元的に表現される点でディスタンスフィールド17とは異なるが、ディスタンスフィールド17と同様に前述の論文誌に記載の方法に基づいて作成することができる。このように作成されたディスタンスマップ19は、ディスタンスマップ記憶手段16へと記憶される。
そして、第2の最適化手段26では、S107の処理により最適化された回転行列R及び並進ベクトルtを初期値として、下記の数式(3)で表される評価関数C2に用いて3次元センサの位置姿勢の最適化を行う(S109)。この評価関数C2は、第1の最適化手段24により得られた3次元センサ4の位置姿勢に合致する画像上に射影された3次元モデルの輪郭点と抽出した画像上のエッジ点との輪郭間距離の自乗和を用いたものである。この輪郭点に対応する画像上のエッジ点は、S108のエッジ抽出処理から作成したディスタンスマップ19から読み出すことができる。この第2の最適化手段26では、評価関数C2に従来公知のマーカード法を用いることにより、最適化を行う。S109の処理では、このように第1の最適化手段24で得られた結果を初期値として、輪郭間距離の自乗和を用いた評価関数C2に用いて最適化を行うので、高精度に位置姿勢の認識を行うことができる。
Figure 2012026974
本実施形態では、第2の最適化手段26として、数式(3)で表される輪郭間距離の自乗和を用いた評価関数C2を用いて3次元センサ4の位置姿勢の最適化を行っているが、輪郭間距離の自乗和を用いた評価関数C2の代わりに、数式(4)のような輪郭類似度を用いた評価関数Sを用いて3次元センサ4の位置姿勢の最適化を行うことも可能である。
Figure 2012026974
評価関数Sは、第1の最適化手段24により得られた3次元センサ4の位置姿勢に合致する画像上に射影された3次元モデルの輪郭点と画像上のエッジ点との輪郭類似度を表すものであり、S(j)では、画像上に射影された3次元モデルの輪郭点とその輪郭点に最も近いエッジ点との差が小さい時には、1に近い数字を出力し、差が大きくなるにつれて0に近づくような結果を出力する。そして、この差の絶対値が予め設定された閾値τより大きくなる場合には、0を出力結果とする。画像上に射影された3次元モデルの輪郭点に最も近いエッジ点はディスタンスマップ19を参照することにより、取得することが可能であるが、他の従来公知の方法を用いて輪郭点に最も近いエッジ点を得るように構成しても良い。また、S(j)は、画像上に射影された3次元モデルの輪郭点における勾配角度と輪郭点に最も近いエッジ点における勾配角度の差が小さい時には、1に近い数字を出力し、差が大きくなるにつれて0に近づくような結果を出力する。そして、この差の絶対値が予め設定された閾値τθより大きくなる場合には、0を出力結果とする。このような、評価関数Sに第1の最適化手段24により得られた結果を初期値として、3次元センサ4の位置姿勢を、S106の処理で用いた間隔よりも細かい間隔でサンプリングして、夫々の位置姿勢における類似度を評価し、その中で類似度Sが最大となる3次元センサ4の位置姿勢を求めることにより、3次元センサ4の位置姿勢の最適化を行う。
また、本実施形態では、ディスタンスフィールド17の夫々のボクセル18には、3次元モデルの表面の3次元的な最近点(ユークリッド距離が最小)までの距離(自乗)及びこの最近点を示すIDを記録させているが、この夫々のボクセル18に更に最近点における3次元モデルの表面に垂直な方向である法線方向の情報も記録させておき、この法線方向の情報も用いて位置姿勢の評価を行うようにしても良い。また、第1の最適化手段24における、最適化の手段としてマーカード法を用いる場合には、夫々のボクセル18に少なくとも最近点までの距離を記録させておれば良く、最近点を示すIDについては省略することも可能である。また、ディスタンスマップ19を画像上の距離を評価する手段として用いているが、これに限定されるものではなく、その他にも従来公知の方法を用いても良い。また、処理速度を向上させるために、S107の第1の最適化による結果を得た時点で処理を終えるようにしても良い。
次に、第2の実施形態に係る3次元物体認識装置1aについて図6及び図7を用いて説明する。図6に示すように、第2の実施形態に係る3次元物体認識装置1aは、第1の実施形態に係る3次元物体認識装置1と略同様の構成を備えるものであり、第2の最適化手段26の代わりに第3の最適化手段27を備えるものである。従って、第1の実施形態に係る3次元物体認識装置1と同様の構成等については、同一の符号を付し、その詳細な説明は省略する。
図7のフローチャートに示すように、第2の実施形態に係る3次元物体認識装置1aでも、第2の最適化手段26による処理(S109)の前までは、第1の実施形態と同様の処理(S201〜S208)が行われる。その後、3次元物体認識装置1aでは、第1の最適化手段24により最適化された回転行列R及び並進ベクトルtを初期値として用いて、第3の最適化手段27により最適化を行う(S209)。この第3の最適化手段27では、第2の最適化手段26で用いた評価関数C2の代わりに、下記の数式(5)で表される評価関数C3を用いて3次元センサ4の位置姿勢の最適化を行う。この評価関数C3は、第1の最適化手段24により得られた3次元センサ4の位置姿勢に合致する画像上に射影された3次元モデルの輪郭点と画像上のエッジ点との輪郭間距離の自乗和と、3次元センサ4により計測された点群が座標変換手段21によりモデル座標系に変換された各計測点と最近点距離取得手段22により取得した各計測点に対応する夫々のボクセル18に記録された最近点との点群間距離の自乗和とを統合したものである。このような輪郭間距離の自乗和と、点群間距離の自乗和とを統合した評価関数C3に第1の最適化手段24により最適化された回転行列R及び並進ベクトルtを初期値として用いて3次元センサ4の位置姿勢の最適化を行うことにより、高精度に位置姿勢の認識を行うことができる。尚、第3の最適化手段27でも評価関数C3に対して、従来公知のマーカード法を用いることにより、最適化を行う。
Figure 2012026974
また、第3の最適化手段27で用いた評価関数C3の代わりに、下記の数式(6)で表される評価関数C4を用いて最適化を行っても良い。この評価関数C4も評価関数C3と同様に、輪郭間距離と、点群間距離の双方を統合した評価関数であって、具体的には、第1の最適化手段24により得られた3次元センサ4の位置姿勢に合致する画像上に射影された3次元モデルの輪郭点と画像上のエッジ点との輪郭間距離の自乗和と、3次元センサ4の位置姿勢に対して、座標変換手段21によりモデル座標系に変換された各計測点と最近点距離取得手段22により取得した各計測点に対応する夫々のボクセル18に記録された最近点とを夫々画像上に射影して得られた画像上の距離の自乗和とを統合したものである。この評価関数C4に第1の最適化手段24により得られた結果を初期値として用いて最適化を行う。尚、この場合も評価関数C4に従来公知のマーカード法を用いることにより、最適化を行う。
Figure 2012026974
次に、第3の実施形態に係る3次元物体認識装置1bについて図8及び図9を用いて説明する。図8に示すように、第3の実施形態に係る3次元物体認識装置1bは、第1の実施形態に係る3次元物体認識装置1と略同様の構成を備えるものであり、第1の最適化手段24が省略されている点で3次元物体認識装置1と構成が異なるものである。従って、第1の実施形態に係る3次元物体認識装置1と同様の構成等については、同一の符号を付し、その詳細な説明は省略する。
図9に示すように、第3の実施形態に係る3次元物体認識装置1bでも、位置姿勢評価手段23による処理までは、第1の実施形態と同様の処理(S301〜S306)が行われる。その後、3次元物体認識装置1bでは、図4に示すように、3次元センサ4により取得した認識対象物3の画像について認識対象物のエッジ20a(斜線で示す部分)を抽出して、画像を構成する各画素20に抽出したエッジ20aのうち最も近い最近エッジ点までの距離(自乗)及びこの最近エッジ点を示すIDを記録させたディスタンスマップ19が作成されディスタンスマップ記憶手段16に記憶される(S307)。
そして、第2の最適化手段26では、位置姿勢評価手段23により求められた3次元センサ4の位置姿勢に関する点群間類似度評価における極大値に合致する画像上に射影された3次元モデルの輪郭点と前記画像上のエッジ点との輪郭間距離の自乗和を用いた数式(3)で表される評価関数C2に対して、位置姿勢評価手段23により求められた極大値の3次元センサ4の位置姿勢を初期値として用いて3次元センサ4の位置姿勢の最適化を行う(S309)。このように第3の実施形態に係る3次元物体認識装置1bでは、位置姿勢評価手段23により極大値が求められた後に、第1の最適化手段24による最適化を行うことなく、求められた極大値の3次元センサ4の位置姿勢を初期値として第2の最適化手段26で用いて最適化を行うので、処理速度を向上させることができるとともに、高精度な認識を行うことができる。
尚、本実施形態では、位置姿勢評価手段23により極大値が求められた後に、第2の最適化手段26により評価関数C2を用いて最適化を行っているが、評価関数C2の代わりに数式(4)で表される輪郭類似度を用いた評価関数Sを用いて3次元センサ4の位置姿勢の最適化を行うようにしても良い。また、位置姿勢評価手段23により極大値が求められた後に、第2の最適化手段26の代わりに第3の最適化手段27により評価関数C3又はC4を用いて最適化を行うように構成することも当然可能である。
また、以上の説明では、作業台2に載置された認識対象物3のまわりに3次元センサ4を設定する場合を例に説明してきたが、例えば、部屋のような3次元物体の内部を認識する場合にも、3次元センサ4を部屋の内部に設定して、部屋の壁を見るようにして同様の処理を行うことにより、3次元センサ4の位置姿勢を特定することができる。
また、本発明の実施の形態は上述の形態に限るものではなく、本発明の思想の範囲を逸脱しない範囲で適宜変更することができることは云うまでもない。
本発明に係る3次元物体認識装置及び3次元物体認識方法は、生産ライン等における部品等の認識を行うための技術として有効に利用することができる。また、サービスロボットが部屋の中等で自分の位置姿勢を特定する技術としても有効に利用することができる。
1、1a 3次元物体認識装置
3 認識対象物
4 3次元センサ
14 3次元モデル記憶手段
15 ディスタンスフィールド記憶手段
16 ディスタンスマップ記憶手段
17 ディスタンスフィールド
18 ボクセル
19 ディスタンスマップ
20 画素
21 座標系変換手段
22 最近点距離取得手段
23 位置姿勢評価手段
24 第1の最適化手段
25 エッジ抽出手段
26 第2の最適化手段
27 第3の最適化手段

Claims (10)

  1. 認識対象物の3次元モデルを中心に置いた3次元空間を複数のボクセルに分割し、該夫々のボクセルに前記3次元モデル表面の最近点までの距離又は該最近点までの距離及び前記最近点を示すIDを記録させたディスタンスフィールドを記憶するディスタンスフィールド記憶手段と、
    前記認識対象物の表面の点の3次元座標を示す点群を計測する3次元センサと、
    前記3次元センサの位置姿勢を仮定して、前記3次元センサにより計測した点群を前記3次元モデルに設定されるモデル座標系に変換する座標系変換手段と、
    前記モデル座標系に変換された各計測点を対応する前記ディスタンスフィールドの夫々のボクセルに入れることにより、該夫々のボクセルから前記最近点までの距離又は該最近点までの距離及び前記最近点を示すIDを取得する最近点距離取得手段と、
    前記3次元センサの位置の3自由度の夫々に対して、その存在し得る範囲に渡って所定間隔でサンプリングした全ての位置及び前記3次元センサの姿勢の3自由度の夫々に対して、その存在し得る範囲に渡って所定間隔でサンプリングした全ての姿勢に対して、前記座標系変換手段によりモデル座標系に変換された各計測点と前記最近点距離取得手段により取得した前記各計測点に対応する夫々のボクセルに記録された最近点との点群間距離を取得し、その結果に基づいて前記3次元センサの位置姿勢に関する点群間類似度評価における極大値を求める位置姿勢評価手段と、
    前記位置姿勢評価手段により求められた前記極大値の前記3次元センサの位置姿勢を初期値として用いて、前記座標系変換手段によりモデル座標系に変換された各計測点と前記最近点距離取得手段により取得した前記各計測点に対応する夫々のボクセルに記録された最近点との点群間距離の自乗和が最小となるように前記3次元センサの位置姿勢の最適化を行う第1の最適化手段と、を備えることを特徴とする3次元物体認識装置。
  2. 前記3次元センサにより前記認識対象物の画像を取得し、該画像に対して前記認識対象物のエッジを抽出するエッジ抽出手段と、
    前記第1の最適化手段により得られた前記3次元センサの位置姿勢に合致する前記画像上に射影された前記3次元モデルの輪郭点と前記画像上のエッジ点との輪郭間距離の自乗和を用いた評価関数、又は前記第1の最適化手段により得られた前記3次元センサの位置姿勢に合致する前記画像上に射影された前記3次元モデルの輪郭点と前記画像上のエッジ点との輪郭類似度の評価関数に対して、前記第1の最適化手段により得られた結果を初期値として用いて前記3次元センサの位置姿勢の最適化を行う第2の最適化手段を備えることを特徴とする請求項1記載の3次元物体認識装置。
  3. 前記3次元センサにより前記認識対象物の画像を取得し、該画像に対して前記認識対象物のエッジを抽出するエッジ抽出手段と、
    前記第1の最適化手段により得られた前記3次元センサの位置姿勢に合致する前記画像上に射影された前記3次元モデルの輪郭点と前記画像上のエッジ点との輪郭間距離の自乗和と、前記3次元センサにより計測された点群が前記座標変換手段により前記モデル座標系に変換された各計測点と前記最近点距離取得手段により取得した前記各計測点に対応する夫々のボクセルに記録された最近点との点群間距離の自乗和とを統合した評価関数に対して、前記第1の最適化手段により得られた結果を初期値として用いて前記3次元センサの位置姿勢の最適化を行う第3の最適化手段を備えることを特徴とする請求項1記載の3次元物体認識装置。
  4. 認識対象物の3次元モデルを中心に置いた3次元空間を複数のボクセルに分割し、該夫々のボクセルに前記3次元モデル表面の最近点までの距離又は該最近点までの距離及び前記最近点を示すIDを記録させたディスタンスフィールドを記憶するディスタンスフィールド記憶手段と、
    前記認識対象物の表面の点の3次元座標を示す点群を計測、及び前記認識対象物の画像を取得する3次元センサと、
    前記3次元センサの位置姿勢を仮定して、前記3次元センサにより計測した点群を前記3次元モデルに設定されるモデル座標系に変換する座標系変換手段と、
    前記モデル座標系に変換された各計測点を対応する前記ディスタンスフィールドの夫々のボクセルに入れることにより、該夫々のボクセルから前記最近点までの距離又は該最近点までの距離及び前記最近点を示すIDを取得する最近点距離取得手段と、
    前記3次元センサの位置の3自由度の夫々に対して、その存在し得る範囲に渡って所定間隔でサンプリングした全ての位置及び前記3次元センサの姿勢の3自由度の夫々に対して、その存在し得る範囲に渡って所定間隔でサンプリングした全ての姿勢に対して、前記座標系変換手段によりモデル座標系に変換された各計測点と前記最近点距離取得手段により取得した前記各計測点に対応する夫々のボクセルに記録された最近点との点群間距離を取得し、その結果に基づいて前記3次元センサの位置姿勢に関する点群間類似度評価における極大値を求める位置姿勢評価手段と、
    前記3次元センサにより取得した前記画像に対して前記認識対象物のエッジを抽出するエッジ抽出手段と、
    前記位置姿勢評価手段により求められた前記3次元センサの位置姿勢の評価における極大値に合致する前記画像上に射影された前記3次元モデルの輪郭点と前記画像上のエッジ点との輪郭間距離の自乗和を用いた評価関数、又は位置姿勢評価手段により求められた前記3次元センサの位置姿勢の評価における極大値に合致する前記画像上に射影された前記3次元モデルの輪郭点と前記画像上のエッジ点との輪郭類似度の評価関数に対して、前記位置姿勢評価手段により求められた前記極大値の前記3次元センサの位置姿勢を初期値として用いて前記3次元センサの位置姿勢の最適化を行う第2の最適化手段を備えることを特徴とする3次元物体認識装置。
  5. 認識対象物の3次元モデルを中心に置いた3次元空間を複数のボクセルに分割し、該夫々のボクセルに前記3次元モデル表面の最近点までの距離又は該最近点までの距離及び前記最近点を示すIDを記録させたディスタンスフィールドを記憶するディスタンスフィールド記憶手段と、
    前記認識対象物の表面の点の3次元座標を示す点群を計測、及び前記認識対象物の画像を取得する3次元センサと、
    前記3次元センサの位置姿勢を仮定して、前記3次元センサにより計測した点群を前記3次元モデルに設定されるモデル座標系に変換する座標系変換手段と、
    前記モデル座標系に変換された各計測点を対応する前記ディスタンスフィールドの夫々のボクセルに入れることにより、該夫々のボクセルから前記最近点までの距離又は該最近点までの距離及び前記最近点を示すIDを取得する最近点距離取得手段と、
    前記3次元センサの位置の3自由度の夫々に対して、その存在し得る範囲に渡って所定間隔でサンプリングした全ての位置及び前記3次元センサの姿勢の3自由度の夫々に対して、その存在し得る範囲に渡って所定間隔でサンプリングした全ての姿勢に対して、前記座標系変換手段によりモデル座標系に変換された各計測点と前記最近点距離取得手段により取得した前記各計測点に対応する夫々のボクセルに記録された最近点との点群間距離を取得し、その結果に基づいて前記3次元センサの位置姿勢に関する点群間類似度評価における極大値を求める位置姿勢評価手段と、
    前記3次元センサにより前記認識対象物の画像を取得し、該画像に対して前記認識対象物のエッジを抽出するエッジ抽出手段と、
    前記位置姿勢評価手段により求められた前記3次元センサの位置姿勢の評価における極大値に合致する前記画像上に射影された前記3次元モデルの輪郭点と前記画像上のエッジ点との輪郭間距離の自乗和と、前記3次元センサにより計測された点群が前記座標変換手段により前記モデル座標系に変換された各計測点と前記最近点距離取得手段により取得した前記各計測点に対応する夫々のボクセルに記録された最近点との点群間距離の自乗和とを統合した評価関数に対して、前記位置姿勢評価手段により求められた前記極大値の前記3次元センサの位置姿勢を初期値として用いて前記3次元センサの位置姿勢の最適化を行う第3の最適化手段を備えることを特徴とする3次元物体認識装置。
  6. 認識対象物の3次元モデルを中心に置いた3次元空間を複数のボクセルに分割し、該夫々のボクセルに前記3次元モデル表面の最近点までの距離又は該最近点までの距離及び前記最近点を示すIDを記録させたディスタンスフィールドをディスタンスフィールド記憶手段に記憶するステップと、
    3次元センサにより前記認識対象物の表面の点の3次元座標を示す点群を計測するステップと、
    前記3次元センサの位置姿勢を仮定して、前記3次元センサにより計測した点群を前記3次元モデルに設定されるモデル座標系に変換するステップと、
    前記モデル座標系に変換された各計測点を対応する前記ディスタンスフィールドの夫々のボクセルに入れることにより、該夫々のボクセルから前記最近点までの距離又は該最近点までの距離及び前記最近点を示すIDを取得するステップと、
    前記3次元センサの位置の3自由度の夫々に対して、その存在し得る範囲に渡って所定間隔でサンプリングした全ての位置及び前記3次元センサの姿勢の3自由度の夫々に対して、その存在し得る範囲に渡って所定間隔でサンプリングした全ての姿勢に対して、前記モデル座標系に変換された各計測点と該各計測点に対応する夫々のボクセルに記録された最近点との点群間距離を取得し、その結果に基づいて前記3次元センサの位置姿勢に関する点群間類似度評価における極大値を求めるステップと、
    前記極大値の前記3次元センサの位置姿勢を初期値として用いて、前記3次元センサにより計測された点群を前記モデル座標系に変換した各計測点と該各計測点に対応する夫々のボクセルに記録された最近点との点群間距離の自乗和が最小となるように前記3次元センサの位置姿勢の最適化を行う第1の最適化ステップと、を備えることを特徴とする3次元物体認識方法。
  7. 前記3次元センサにより取得した前記認識対象物の画像に対して前記認識対象物のエッジを抽出するステップと、
    前記第1の最適化ステップにより得られた前記3次元センサの位置姿勢に合致する前記画像上に射影された前記3次元モデルの輪郭点と前記画像上のエッジ点との輪郭間距離の自乗和を用いた評価関数、又は前記第1の最適化ステップにより得られた前記3次元センサの位置姿勢に合致する前記画像上に射影された前記3次元モデルの輪郭点と前記画像上のエッジ点との輪郭類似度の評価関数に対して、前記第1の最適化ステップにより得られた結果を初期値として用いて前記3次元センサの位置姿勢の最適化を行う第2の最適化ステップを備えることを特徴とする請求項6記載の3次元物体認識方法。
  8. 前記3次元センサにより取得した前記認識対象物の画像に対して前記認識対象物のエッジを抽出するステップと、
    前記第1の最適化ステップにより得られた前記3次元センサの位置姿勢に合致する前記画像上に射影された前記3次元モデルの輪郭点と前記画像上のエッジ点との輪郭間距離の自乗和と、前記3次元センサにより計測された点群を前記モデル座標系に変換した各計測点と該各計測点に対応する夫々のボクセルに記録された最近点との点群間距離の自乗和とを統合した評価関数に対して、前記第1の最適化ステップにより得られた結果を初期値として用いて前記3次元センサの位置姿勢の最適化を行う第3の最適化ステップを備えることを特徴とする請求項6記載の3次元物体認識方法。
  9. 認識対象物の3次元モデルを中心に置いた3次元空間を複数のボクセルに分割し、該夫々のボクセルに前記3次元モデル表面の最近点までの距離又は該最近点までの距離及び前記最近点を示すIDを記録させたディスタンスフィールドをディスタンスフィールド記憶手段に記憶するステップと、
    3次元センサにより前記認識対象物の表面の点の3次元座標を示す点群を計測、及び前記認識対象物の画像を取得するステップと、
    前記3次元センサの位置姿勢を仮定して、前記3次元センサにより計測した点群を前記3次元モデルに設定されるモデル座標系に変換するステップと、
    前記モデル座標系に変換された各計測点を対応する前記ディスタンスフィールドの夫々のボクセルに入れることにより、該夫々のボクセルから前記最近点までの距離又は該最近点までの距離及び前記最近点を示すIDを取得するステップと、
    前記3次元センサの位置の3自由度の夫々に対して、その存在し得る範囲に渡って所定間隔でサンプリングした全ての位置及び前記3次元センサの姿勢の3自由度の夫々に対して、その存在し得る範囲に渡って所定間隔でサンプリングした全ての姿勢に対して、前記モデル座標系に変換された各計測点と該各計測点に対応する夫々のボクセルに記録された最近点との点群間距離を取得し、その結果に基づいて前記3次元センサの位置姿勢に関する点群間類似度評価における極大値を求めるステップと、
    前記3次元センサにより取得した前記認識対象物の画像に対して前記認識対象物のエッジを抽出するステップと、
    前記3次元センサの位置姿勢の評価における極大値に合致する前記画像上に射影された前記3次元モデルの輪郭点と前記画像上のエッジ点との輪郭間距離の自乗和を用いた評価関数、又は前記3次元センサの位置姿勢の評価における極大値に合致する前記画像上に射影された前記3次元モデルの輪郭点と前記画像上のエッジ点の輪郭類似度の評価関数に対して、前記極大値の前記3次元センサの位置姿勢を初期値として用いて前記3次元センサの位置姿勢の最適化を行う第2の最適化ステップとを備えることを特徴とする3次元物体認識方法。
  10. 認識対象物の3次元モデルを中心に置いた3次元空間を複数のボクセルに分割し、該夫々のボクセルに前記3次元モデル表面の最近点までの距離又は該最近点までの距離及び前記最近点を示すIDを記録させたディスタンスフィールドをディスタンスフィールド記憶手段に記憶するステップと、
    3次元センサにより前記認識対象物の表面の点の3次元座標を示す点群を計測、及び前記認識対象物の画像を取得するステップと、
    前記3次元センサの位置姿勢を仮定して、前記3次元センサにより計測した点群を前記3次元モデルに設定されるモデル座標系に変換するステップと、
    前記モデル座標系に変換された各計測点を対応する前記ディスタンスフィールドの夫々のボクセルに入れることにより、該夫々のボクセルから前記最近点までの距離又は該最近点までの距離及び前記最近点を示すIDを取得するステップと、
    前記3次元センサの位置の3自由度の夫々に対して、その存在し得る範囲に渡って所定間隔でサンプリングした全ての位置及び前記3次元センサの姿勢の3自由度の夫々に対して、その存在し得る範囲に渡って所定間隔でサンプリングした全ての姿勢に対して、前記モデル座標系に変換された各計測点と該各計測点に対応する夫々のボクセルに記録された最近点との点群間距離を取得し、その結果に基づいて前記3次元センサの位置姿勢に関する点群間類似度評価における極大値を求めるステップと、
    前記3次元センサにより取得した前記認識対象物の画像に対して前記認識対象物のエッジを抽出するステップと、
    前記3次元センサの位置姿勢の評価における極大値に合致する前記画像上に射影された前記3次元モデルの輪郭点と前記画像上のエッジ点との輪郭間距離の自乗和と、前記3次元センサにより計測された点群を前記モデル座標系に変換した各計測点と該各計測点に対応する夫々のボクセルに記録された最近点との点群冠距離の自乗和とを統合した評価関数に対して、前記極大値の前記3次元センサの位置姿勢を初期値として用いて前記3次元センサの位置姿勢の最適化を行う第3の最適化ステップとを備えることを特徴とする3次元物体認識方法。
JP2010168493A 2010-07-27 2010-07-27 3次元物体認識装置及び3次元物体認識方法 Active JP4940461B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2010168493A JP4940461B2 (ja) 2010-07-27 2010-07-27 3次元物体認識装置及び3次元物体認識方法
PCT/JP2011/060867 WO2012014545A1 (ja) 2010-07-27 2011-05-11 3次元物体認識装置及び3次元物体認識方法
CN2011800026665A CN102472612A (zh) 2010-07-27 2011-05-11 三维物体识别装置以及三维物体识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010168493A JP4940461B2 (ja) 2010-07-27 2010-07-27 3次元物体認識装置及び3次元物体認識方法

Publications (2)

Publication Number Publication Date
JP2012026974A true JP2012026974A (ja) 2012-02-09
JP4940461B2 JP4940461B2 (ja) 2012-05-30

Family

ID=45529768

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010168493A Active JP4940461B2 (ja) 2010-07-27 2010-07-27 3次元物体認識装置及び3次元物体認識方法

Country Status (3)

Country Link
JP (1) JP4940461B2 (ja)
CN (1) CN102472612A (ja)
WO (1) WO2012014545A1 (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014000982A1 (de) 2013-02-07 2014-08-07 Canon Kabushiki Kaisha Positions- und Orientierungsmessvorrichtung, Informationsverarbeitungsvorrichtung und Informationsverarbeitungsverfahren
CN104006740A (zh) * 2013-02-20 2014-08-27 国立大学法人九州工业大学 物体检测方法和物体检测装置
JP2014178967A (ja) * 2013-03-15 2014-09-25 3D Media Co Ltd 3次元物体認識装置及び3次元物体認識方法
JP2015147256A (ja) * 2014-02-04 2015-08-20 セイコーエプソン株式会社 ロボット、ロボットシステム、制御装置、及び制御方法
JP2015524560A (ja) * 2012-07-18 2015-08-24 クレアフォーム・インコーポレイテッドCreaform Inc. 3d走査および位置決めのインターフェース
US9495750B2 (en) 2013-11-05 2016-11-15 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium for position and orientation measurement of a measurement target object
US9816809B2 (en) 2012-07-04 2017-11-14 Creaform Inc. 3-D scanning and positioning system
DE112017006839T5 (de) 2017-01-16 2019-09-26 Fujitsu Limited Informationsverarbeitungsvorrichtung, Datenbankerzeugungsvorrichtung, Verfahren, Programm und Speichermedium
US11185697B2 (en) 2016-08-08 2021-11-30 Deep Brain Stimulation Technologies Pty. Ltd. Systems and methods for monitoring neural activity
US11298070B2 (en) 2017-05-22 2022-04-12 Deep Brain Stimulation Technologies Pty Ltd Systems and methods for monitoring neural activity

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9208609B2 (en) * 2013-07-01 2015-12-08 Mitsubishi Electric Research Laboratories, Inc. Method for fitting primitive shapes to 3D point clouds using distance fields
JP5788461B2 (ja) * 2013-11-05 2015-09-30 ファナック株式会社 バラ積みされた物品をロボットで取出す装置及び方法
KR101526115B1 (ko) * 2014-04-07 2015-06-04 재단법인대구경북과학기술원 3차원 조사 장치
JP6451843B2 (ja) * 2015-06-01 2019-01-16 新日鐵住金株式会社 クランクシャフトの検査方法及び装置
JP6117901B1 (ja) * 2015-11-30 2017-04-19 ファナック株式会社 複数の物品の位置姿勢計測装置及び該位置姿勢計測装置を含むロボットシステム
CN109814492B (zh) * 2017-11-22 2024-05-14 发那科株式会社 工具姿势控制装置
CN107907593B (zh) * 2017-11-22 2020-09-22 中南大学 一种超声检测中机械手防碰撞方法
US10814558B2 (en) 2018-04-26 2020-10-27 Markforged, Inc. System and method for minimizing deviations in 3D printed and sintered parts
JP7058753B2 (ja) * 2018-10-04 2022-04-22 日立Astemo株式会社 カメラ装置
CN110316558A (zh) * 2019-06-28 2019-10-11 武汉闻道复兴智能科技有限责任公司 一种搬运机器人夹具位置控制方法和系统
WO2021038267A1 (ja) * 2019-08-28 2021-03-04 日産自動車株式会社 物体認識方法、及び、物体認識装置
CN110682271B (zh) * 2019-09-03 2023-04-04 贵州航天电器股份有限公司 一种用于圆形连接器生产线载具更换销钉的设备及方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009032122A (ja) * 2007-07-27 2009-02-12 Hiroshima Industrial Promotion Organization 画像処理装置、画像処理方法およびプログラム
JP2009093611A (ja) * 2007-10-11 2009-04-30 Mwtec Software Gmbh 三次元オブジェクト認識のためのシステムおよび方法
JP2009218075A (ja) * 2008-03-10 2009-09-24 Hoshizaki Electric Co Ltd 電磁調理器
JP2009273597A (ja) * 2008-05-13 2009-11-26 Canon Inc 位置合わせ処理装置、位置合わせ方法、プログラム、及び記憶媒体
JP2010079453A (ja) * 2008-09-24 2010-04-08 Canon Inc 位置姿勢推定用モデル生成装置、位置姿勢算出装置、画像処理装置及びそれらの方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3525896B2 (ja) * 1999-03-19 2004-05-10 松下電工株式会社 3次元物体認識方法および同方法を使用したビンピッキングシステム
JP2007072620A (ja) * 2005-09-05 2007-03-22 Toshiba Corp 画像認識装置及びその方法
JP5251080B2 (ja) * 2007-11-20 2013-07-31 株式会社Ihi 物体認識方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009032122A (ja) * 2007-07-27 2009-02-12 Hiroshima Industrial Promotion Organization 画像処理装置、画像処理方法およびプログラム
JP2009093611A (ja) * 2007-10-11 2009-04-30 Mwtec Software Gmbh 三次元オブジェクト認識のためのシステムおよび方法
JP2009218075A (ja) * 2008-03-10 2009-09-24 Hoshizaki Electric Co Ltd 電磁調理器
JP2009273597A (ja) * 2008-05-13 2009-11-26 Canon Inc 位置合わせ処理装置、位置合わせ方法、プログラム、及び記憶媒体
JP2010079453A (ja) * 2008-09-24 2010-04-08 Canon Inc 位置姿勢推定用モデル生成装置、位置姿勢算出装置、画像処理装置及びそれらの方法

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9816809B2 (en) 2012-07-04 2017-11-14 Creaform Inc. 3-D scanning and positioning system
JP2015524560A (ja) * 2012-07-18 2015-08-24 クレアフォーム・インコーポレイテッドCreaform Inc. 3d走査および位置決めのインターフェース
US10928183B2 (en) 2012-07-18 2021-02-23 Creaform Inc. 3-D scanning and positioning interface
US10401142B2 (en) 2012-07-18 2019-09-03 Creaform Inc. 3-D scanning and positioning interface
US9704248B2 (en) 2013-02-07 2017-07-11 Canon Kabushiki Kaisha Position and orientation measuring apparatus, information processing apparatus and information processing method
DE102014000982A1 (de) 2013-02-07 2014-08-07 Canon Kabushiki Kaisha Positions- und Orientierungsmessvorrichtung, Informationsverarbeitungsvorrichtung und Informationsverarbeitungsverfahren
CN104006740A (zh) * 2013-02-20 2014-08-27 国立大学法人九州工业大学 物体检测方法和物体检测装置
CN104006740B (zh) * 2013-02-20 2016-10-19 国立大学法人九州工业大学 物体检测方法和物体检测装置
JP2014178967A (ja) * 2013-03-15 2014-09-25 3D Media Co Ltd 3次元物体認識装置及び3次元物体認識方法
US9495750B2 (en) 2013-11-05 2016-11-15 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium for position and orientation measurement of a measurement target object
JP2015147256A (ja) * 2014-02-04 2015-08-20 セイコーエプソン株式会社 ロボット、ロボットシステム、制御装置、及び制御方法
US11278726B2 (en) 2016-08-08 2022-03-22 Deep Brain Stimulation Technologies Pty Ltd Systems and methods for monitoring neural activity
US11185697B2 (en) 2016-08-08 2021-11-30 Deep Brain Stimulation Technologies Pty. Ltd. Systems and methods for monitoring neural activity
US11890478B2 (en) 2016-08-08 2024-02-06 Deep Brain Stimulation Technologies Pty Ltd Systems and methods for monitoring neural activity
DE112017006839T5 (de) 2017-01-16 2019-09-26 Fujitsu Limited Informationsverarbeitungsvorrichtung, Datenbankerzeugungsvorrichtung, Verfahren, Programm und Speichermedium
US11506755B2 (en) 2017-01-16 2022-11-22 Fujitsu Limited Recording medium recording information processing program, information processing apparatus, and information processing method
US11298070B2 (en) 2017-05-22 2022-04-12 Deep Brain Stimulation Technologies Pty Ltd Systems and methods for monitoring neural activity

Also Published As

Publication number Publication date
CN102472612A (zh) 2012-05-23
JP4940461B2 (ja) 2012-05-30
WO2012014545A1 (ja) 2012-02-02

Similar Documents

Publication Publication Date Title
JP4940461B2 (ja) 3次元物体認識装置及び3次元物体認識方法
JP5430456B2 (ja) 幾何特徴抽出装置、幾何特徴抽出方法、及びプログラム、三次元計測装置、物体認識装置
JP4677536B1 (ja) 3次元物体認識装置及び3次元物体認識方法
JP5624394B2 (ja) 位置姿勢計測装置、その計測処理方法及びプログラム
US8654193B2 (en) Method for registering model data for optical recognition processing and optical sensor
CN110866969B (zh) 基于神经网络与点云配准的发动机叶片重构方法
CN110634161B (zh) 一种基于点云数据的工件位姿快速高精度估算方法及装置
CN110189399B (zh) 一种室内三维布局重建的方法及系统
CN111079565B (zh) 视图二维姿态模板的构建方法及识别方法、定位抓取系统
JP5627325B2 (ja) 位置姿勢計測装置、位置姿勢計測方法、およびプログラム
JP5480667B2 (ja) 位置姿勢計測装置、位置姿勢計測方法、プログラム
JP6483832B2 (ja) Rgb−dセンサを使用して物体を走査する方法とシステム
JP2013217893A (ja) モデル生成装置、位置姿勢推定装置、情報処理装置、モデル生成方法、位置姿勢推定方法、情報処理方法
JP5439277B2 (ja) 位置姿勢計測装置及び位置姿勢計測プログラム
JP2008014691A (ja) ステレオ画像計測方法とそれを実施する装置
JP2016170050A (ja) 位置姿勢計測装置、位置姿勢計測方法及びコンピュータプログラム
JP6922348B2 (ja) 情報処理装置、方法、及びプログラム
JP5030183B2 (ja) 3次元物体位置姿勢計測方法
JP6198104B2 (ja) 3次元物体認識装置及び3次元物体認識方法
JP2016527574A (ja) プリミティブの組を用いてデータをレジストレーションする方法
JP2015132544A (ja) 画像処理装置および3次元空間情報取得方法
JP2005069757A (ja) 中心窩広視野画像を利用したカメラ位置姿勢推定方法及びシステム
JP6603993B2 (ja) 画像処理装置、画像処理方法、画像処理システム、及びプログラム
JP6281938B2 (ja) データ処理装置、データ処理方法、及びデータ処理プログラム
JP5620741B2 (ja) 情報処理装置、情報処理方法、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111101

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20111130

TRDD Decision of grant or rejection written
A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20120105

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120110

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120208

R150 Certificate of patent or registration of utility model

Ref document number: 4940461

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150309

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250