JP4900204B2 - 物体認識方法 - Google Patents

物体認識方法 Download PDF

Info

Publication number
JP4900204B2
JP4900204B2 JP2007303503A JP2007303503A JP4900204B2 JP 4900204 B2 JP4900204 B2 JP 4900204B2 JP 2007303503 A JP2007303503 A JP 2007303503A JP 2007303503 A JP2007303503 A JP 2007303503A JP 4900204 B2 JP4900204 B2 JP 4900204B2
Authority
JP
Japan
Prior art keywords
model
scene
data
orientation
candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007303503A
Other languages
English (en)
Other versions
JP2009129189A (ja
Inventor
輝行 島
俊寛 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IHI Corp
Original Assignee
IHI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IHI Corp filed Critical IHI Corp
Priority to JP2007303503A priority Critical patent/JP4900204B2/ja
Publication of JP2009129189A publication Critical patent/JP2009129189A/ja
Application granted granted Critical
Publication of JP4900204B2 publication Critical patent/JP4900204B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、認識すべき対象物体の三次元表面形状データと、距離センサ等を用いて得られる実際の環境をサンプリングした三次元表面形状データを照合することによって、物体の位置姿勢を認識する方法に関する。
従来は、複数のビジョンセンサを用いて物体を撮影し、第1〜第nの画像(例えば、第1〜第3の画像)から物体の二次元特徴を抽出し、ステレオ計測原理に基づいて各画像間(例えば、第1画像と第2画像との間、第1画像と第3画像との間)で二次元特徴を対応付けし、対応付けによって得られる二次元特徴の三次元情報に基づいて、物体の三次元位置・姿勢を推定する。三次元位置姿勢の検証(信頼性評価)には、直線間の距離や平面間の距離、平面法線の一致度などを用いる(例えば、特許文献1参照)。
特許第3525896号公報
前記従来方法においては、位置姿勢の信頼度評価値は、二次元画像処理のエッジ抽出精度に依存するため、高い精度は得られない、などの問題がある。
本発明は上述した問題点を解決するために創案されたものである。すなわち、位置姿勢の信頼度評価値が、二次元画像処理のエッジ抽出精度に依存しない物体認識の方法を提供する。
本発明の第1の特徴は、距離を計測できるセンサによって計測したシーンデータと、目的物体の三次元形状を表すモデルデータとを、物体の局所的な表面形状を表す特徴量について照合することにより物体の三次元位置姿勢を検出する三次元物体認識方法において、
モデルを、候補となる視点からの位置姿勢に配置したとき、モデルによって遮蔽され、本来計測不可能な範囲にシーンデータが存在するか否かを算出し、この幾何学的な矛盾の有無に基づいて、モデルの位置姿勢候補の成否を検証することにある。
「モデル」とは、認識すべき対象物体の三次元形状データを言う。三次元位置を持った点群と、点を結び物体の表面を表す三角メッシュから構成される。
「シーン」とは、実際の環境をサンプリングした三次元形状データを言う。距離センサによる計測データから生成される。モデルと同様に点群と三角メッシュから構成される。
本発明の第2の特徴は、第1の特徴を有し、さらに(1)前記候補となる視点としての、三次元計測におけるセンサの視点及び視線方向が明らかな場合に、前記センサの視線方向に垂直な平面上に前記センサの視線方向に垂直な平面上に視点からの距離データを保持したままシーンデータのシーン計測点及びモデルデータのモデル表面を投影するステップと、(2)前記平面に平行なX座標とY座標に基づいて、前記平面上に投影されたシーン計測点とモデル表面との重なりを評価するステップと、(3)前記平面上においてモデル表面と重なるという第1の条件、及び前記センサの視点から見てモデル表面の奥側に存在するという第2の条件を満たすシーン計測点を抽出するステップと、(4)前記第1及び第2の条件を満たすシーン計測点に基づいて、候補となる位置姿勢に存在するモデルによるシーンの遮蔽状態を判断し、モデルの位置姿勢候補の成否を評価するステップと、を含むことにある。
本発明の第3の特徴は、第2の特徴を有し、さらに前記モデルの位置姿勢候補の成否を評価するステップにおいて、モデルの奥側に存在すると判定されるシーン計測点の個数、又はそのようなシーン計測点がシーン計測点全体に占める割合に基づいて、位置姿勢候補の成否を評価する、ことにある。
本発明の第4の特徴は、第1の特徴を有し、さらに(1)前記モデルデータが物体の表裏に関する情報をさらに有し、(2)前記候補となる視点としての、三次元計測におけるセンサの視点が明らかでない場合に、仮の視点を設定し、かつ設定した仮の視点からの候補となる位置姿勢にモデルを配置するステップと、(3)前記仮の視点と第1のシーン計測点とを結ぶ直線を引くステップと、(4−1)前記モデルデータから読み取り可能な物体の裏表情報を有するモデル表面であって、(4−1−1)前記直線上に存在し、(4−1−2)前記仮の視点と前記第1のシーン計測点との間に存在し、かつ(4−1−3)前記仮の視点側に表を向けている第1のモデル表面が存在し、かつ(4−2)前記モデルデータから読み取り可能な物体の裏表情報を有するモデル表面であって、(4−2−1)前記直線上に存在し、(4−2−2)前記第1のシーン計測点よりも前記仮の視点から遠くに存在し、かつ(4−2−3)前記仮の視点側に裏を向けている第2の物体表面が存在する、シーン計測点の個数を抽出するステップと、(5)前記第1及び第2の条件を満たすシーン計測点に基づいて、候補となる位置姿勢に存在するモデルによるシーンの遮蔽状態を判断し、モデルの位置姿勢候補の成否を評価するステップと、を含むことにある。
本発明の第5の特徴は、前記モデルの位置姿勢候補の成否を評価するステップにおいて、モデルの内部に存在すると判定されるシーン計測点の個数、又はそのようなシーン計測点がシーン計測点全体に占める割合に基づいて、位置姿勢候補の成否を評価する、ことにある。
本発明の第6の特徴は、特徴量がスピンイメージであることにある。
「スピンイメージ」とは、三次元形状データの表面の任意の点で生成可能な、その点の周辺の三次元形状特徴を表す特徴量である。
本発明の物体認識装置によれば、スピンイメージなどの特徴量ベースの高速な位置決めを行うことで、対象物体の三次元形状データ(モデル)と、距離センサから得られる距離データ(シーン)を照合して、対象物体の三次元的な位置姿勢を迅速に認識することができる。
また、モデルをある位置姿勢に配置した場合のモデルデータと計測データ(シーンデータ)との幾何学的な矛盾に基づいて、モデルの位置姿勢候補の成否を高精度に検証することができる。
特徴量としてスピンイメージを用いた場合、スピンイメージは物体の局所的な三次元形状特徴を捉えた、回転不変な特徴量であるため、物体の一部隠れが発生している状況や、複数の物体が混在している状況においても物体を認識することができる。
以下本発明の好ましい実施形態について、図面を参照して説明する。なお、各図において、共通する部分には同一の符号を付し、重複した説明を省略する。
図1は、本発明の物体認識装置の全体構成図である。図1に示すように、本発明の物体認識装置40は、物体(ワーク)までの距離を計測する3Dセンサ41、物体認識処理を実行する物体認識処理部42、物体の三次元形状を表すデータ(例えば、CADデータ)を記憶するモデルデータベース部43を具備する。物体認識処理部42において認識された物体の位置や姿勢を、ロボット制御部45へ出力し、ロボット制御部45からロボット46へ制御信号を出力し、ハンド47を動かして物体を把持したりすることができる。
本発明において、自己位置とは、計測位置を意味し、例えば、3Dセンサ41の外界における6自由度の位置と姿勢を意味する。
図示しないが、本発明において、距離センサ(3Dセンサ)以外のオドメータ、カメラ、GPS、姿勢センサを、必要に応じてオプションとして用いても良い。以下、距離センサを用いた例を説明する。
図2は、物体認識処理部の構成の一例を示す。この図に示すように、物体認識処理部42は、内部記憶装置34、中央処理装置35を備える。物体認識処理部42は、データ入力装置32および外部記憶装置33からデータを受け取り、ロボット制御部45へデータを送る。
データ入力装置32は、上述した距離センサを有し、三次元形状上の座標値を物体認識処理部42に入力する。また、例えばゴニオメータ、オドメータ等を併用して、距離センサの位置姿勢や移動距離も入力するのがよい。なお、データ入力装置32は、キーボード等の通常の入力手段も有するのがよい。
外部記憶装置33は、ハードディスク、フロッピー(登録商標)ディスク、磁気テープ、コンパクトディスク等である。外部記憶装置33は、環境モデルのサイズが大きく後述する内部記憶装置34に入力された三次元形状上の座標値、ボクセル位置、及び代表点とその誤差分布の全体を保持できない場合には、環境モデルの一部範囲または全体範囲に対する、入力された三次元形状上の座標値、ボクセル位置、及び代表点とその誤差分布の一部または全体を記憶し、かつ本発明の方法を実行するためのプログラムを記憶する。また、外部記憶装置33は、後述するCADモデルデータを記憶する。
内部記憶装置34は、例えばRAM,ROM等であり、環境モデルの一部範囲または全体範囲に対する、入力された三次元形状上の座標値、ボクセル位置、及び代表点とその誤差分布の一部または全体を保管し、かつ演算情報を保管する。
中央処理装置35(CPU)は、モデル入力手段、シーン計測手段、対応点ペア作成手段、グループ化手段、一致度検証手段、高精度化手段として機能し、演算や入出力等を集中的に処理し、内部記憶装置34と共に、プログラムを実行する。
ロボット制御部45は、物体認識処理部42から受け取る物体の位置や姿勢に基づいてロボットのアームやハンドの動きを制御する。
上述した本発明の装置は、上述した距離センサと通常のPC(コンピュータ)を組み合わせたものでもよく、或いは、全体を一体にした装置であってもよい。また、自走可能な装置内に一体的に組み込んでもよい。
[1]スピンイメージ
まず、スピンイメージについて説明する。
[1.1]スピンイメージの定義
スピンイメージとは、三次元形状データの表面の任意の点で生成可能な、その点の周辺の三次元形状特徴を表す、回転不変な特徴量である。
図3に、CADデータとスピンイメージの例を示す。三角メッシュで構成されるデータのスピンイメージを生成する際は、三角メッシュの頂点ごとに生成する。
モデルの頂点Aのスピンイメージと、シーンの頂点Bのスピンイメージが似ているということは、その周辺の表面形状が似ていることを意味している。これは、モデルとシーンを照合する際、点Aと点Bが対応する可能性があることを示している。
三角メッシュで構成されるデータの頂点Pのスピンイメージを作成する場合、まず、頂点Pの法線を中心軸とした円筒座標系を考える。円筒座標系では、法線までの距離をα、法線方向の変移をβとする。
図4に円筒座標系のイメージを示す。頂点Pの周辺の頂点をα、βの二次元平面(スピンマップと呼ぶ)にプロットすることでスピンイメージを作成する。その際、α、βをある分解能で量子化し、枠内に存在する頂点数を輝度に変換する。
[1.2]類似度算出
スピンイメージは回転不変なデジタル二次元画像として表されるので、正規化相関などの画像比較手段により、類似性を評価できる。
ただし、シーンのスピンイメージを作成する場合、物体の隠れにより本来値が存在する画素の値がゼロとなることや、乱雑な背景により本来値がゼロとなる画素に値が入力されてしまうことがある。したがって、2つのスピンイメージを比較する際、共通して値がゼロでない画素(以下、「重なりがある画素」と表現する。)を比較するよう制限する。
スピンイメージPとQの類似度C(P,Q)を算出するために、まず、正規化相関係数R(P,Q)を算出する。
数1に正規化相関係数R(P,Q)の算出式を示す。ただし、この正規化相関において対象となるのは、重なりがある画素のみである。
Figure 0004900204
N:スピンイメージP、Qで重なりがある画素の数
pi:スピンイメージPのi番目の画素の値
qi:スピンイメージQのi番目の画素の値

単純にこの正規化相関係数R(P,Q)を類似度としてしまうと、重なりが少ないほど類似度が高くなってしまう。例えば、PとQで重なりがある画素が1画素しかない場合、その画素の値が一致すれば、類似度は最高値となってしまう。そこで、重なりがある画素が多いほど類似度が高くなるよう、重み付けを行うことが妥当である。
図5は、本発明の実施形態に係る三次元物体認識の処理フローである。
(1)モデル入力:ステップS10
認識対象物体のモデルを読み込み、モデルのスピンイメージを作成するなどの事前準備を実施する。本処理は、計測のたびに実施する必要はない。例えば対象物体が決まっている場合は、システム起動時に一回だけモデル入力を行うことになる。
(2)シーン計測:ステップS20
実際の環境をセンサで計測して距離データを取得し、三角メッシュ作成処理や法線算出処理を行い、シーンを作成する。
(3)対応点ペア作成:ステップS30
モデルとシーンのスピンイメージの類似度から、モデル頂点とシーン計測点のペアである対応点ペアを複数作成する。
(4)グループ化:ステップS40
複数ある対応点ペアの中から、同時に成立することが可能な対応点ペアをまとめ、一つのグループとする。全ての可能なグループを作成する。
(5)一致度の検証:ステップS50
グループごとに座標変換を行ったとき、モデルとシーンの表面がどの程度一致するかを評価して、グループの検証を行う。
(6)高精度化:ステップS60
検証の結果得られたモデルの位置姿勢候補の成否を検証する。モデルをある位置姿勢に配置したときの、モデルデータとシーンデータとの幾何学的な矛盾に基づいて、位置姿勢候補の成否を検証する。(1)ある場所に距離センサを配置して、1回計測して得られたデータをシーンデータとする場合、(2)複数視点から計測して得られたデータを統合してシーンデータとする場合に分けて、詳細は後述する。
一連の物体認識処理(オンライン処理)を実施した後、得られた物体の位置姿勢を外部機器に通知する。例えば、ロボットアームを対象物体の把持位置に移動させる、などの処理を行う。
以下、図5の処理フローの各ステップの詳細を説明する。
[モデル入力]
図6に本発明の実施形態に係るモデル入力処理フローを示す。
(1)三次元形状データ読込:ステップS11
対象物体の三次元形状データを入力する。例えば、三次元形状データ表現形式の一つであるPLY形式のファイルを読み込む。PLYファイルは、頂点の三次元位置と、頂点間を結び物体の表面を表す三角メッシュ情報から成る。
なお、高精度化(ステップS60)において、複数視点から計測して得られたデータを統合してシーンデータとする場合は、後述するように、対象物体の三次元形状データは、表面形状及び表裏が分かるデータとする。
図7に本発明の実施形態に係るPLY形式のファイルの例を示す。
図8に本発明の実施形態に係るPLYファイルをCADソフトで表示した例を示す。
(2)法線ベクトル算出:ステップS12
スピンイメージ作成時の円筒座標設定に各頂点の法線情報が必要となるため、ここで作成する。頂点の法線は、その頂点を含む三角メッシュの法線の平均を単位ベクトル化したものである。
図9に本発明の実施形態に係る法線算出手順を示す。
(3)モデルの全頂点のスピンイメージ作成:ステップS13
頂点ごとに円筒座標を設定してその周辺の頂点をスピンマップにプロットすることで、各頂点のスピンイメージを作成する。スピンイメージ生成手順の詳細は後述する。
また、各スピンイメージごとに、値がゼロで無い画素数を記憶する。その中央値の1/2の値がスピンイメージ同士の類似度算出の際に用いられるパラメータλとなる。
なお、一度算出した法線ベクトル、スピンイメージ、およびパラメータλは、ファイルとして記録し、必要に応じて読み込むことができる。よって、一度スピンイメージを作成したモデルを再度読み込む場合は、(2)法線ベクトル作成、(3)モデルの全頂点のスピンイメージ作成処理を省略できる。
[シーン計測]
図10に本発明の実施形態に係るシーン計測処理フローを示す。以下、各ステップについて説明する。
(1)距離データ取得:ステップS21
距離センサを用いて、0個〜n個の対象物体やそれ以外の物体が存在する実際の環境を計測し、三次元点群データを得る。使用する距離センサは、可能な限り密に等間隔で距離データが得られるものが望ましい。
(2)メッシュ生成:ステップS22
計測した点群から、物体の表面を表す三角メッシュを生成する。三角メッシュの作成方法として、(a)正方格子分割し対角線を結ぶ方法や、(b)ドロネー三角形分割法がある。(a)正方格子分割は、点群を平面正方格子に投影し、格子ごとに代表点を決定し、隣り合う代表点を決まった形で結んで三角形を形成する手法である。(b)ドロネー三角形分割は、点群を三角形分割したとき、最小角度が最大になるよう分割する方法である。以下ではより精密な三角メッシュが得られる(b)ドロネー三角形分割法を用いる。
計測データを平面に投影し、平面上の点をドロネー三角形分割し、点群を三次元空間に戻したときに辺の長さがしきい値より大きい三角形を除去する、という手順でメッシュ生成を行う。
(3)法線ベクトル算出:ステップS23
スピンイメージ作成時の円筒座標設定条件として、各頂点の法線情報が必要となるため、ここで作成する。
[対応点ペア作成]
対応点ペア作成処理では、モデルとシーンの対応点ペアを複数作成する。
図11に本発明の実施形態に係る対応点ペア作成処理フローを示す。以下、各ステップについて説明する。
(1)シーン頂点(又はシーン計測点)を一つ選びスピンイメージを作成:ステップS31
シーンの頂点を一つ選択し、その頂点に関するスピンイメージを作成する。シーンの頂点を一つ選択する際、ランダムピックアップを行っているが、他に、これまで選んだ頂点との距離の最小値が最大になる位置の頂点を選ぶ方法や、法線の精度が良い(周辺の頂点が多く、三角メッシュの辺が集中している)頂点を選ぶ方法などが考えられる。
(2)シーン頂点とモデル各頂点の類似度算出:ステップS32
作成したシーンの頂点と、モデルの各頂点のペアで、スピンイメージとの類似度を数1を用いて算出する。
例えば、モデルの頂点数が1000個の場合、1つのシーン頂点と1000個のモデル頂点の各ペアでそれぞれ類似度を算出し、1000個の類似度が算出される。
(3)突出して類似しているペアを対応点ペアに追加:ステップS33
前述した例で言うところの1000個のペアの中に、他と比較して特に類似度が高いペアがあれば、選択したシーン頂点とモデル頂点で対応点ペアCi(Si,Mi)を作成する。Siはシーン頂点を、Miはモデル頂点を示す。
ステップS31〜33の処理により、シーンのある1つの頂点を対応点とする対応点ペアが作成される。この処理を、シーン頂点数のある割合(パラメータαとして設定される)だけ繰り返す。例えば、パラメータαとして20%が設定されているとき、シーン頂点数が1000点あれば、ステップS31〜33の処理が200回繰り返される。
この結果、シーン頂点とモデル頂点を結びつける対応点ペアCi(Si,Mi)が複数生成される。
図12に本発明の実施形態に係るモデルとシーンの対応点ペアのイメージを示す。同図は、シーンとして動物の玩具を並べた環境を計測し、モデルとしてブタを使用して対応点ペアを検出した結果である。
[グループ化]
グループ化処理では、同時に成立することが可能な対応点ペアを一つのグループとする処理を繰り返し、複数のグループを作成する。
図13に本発明の実施形態に係るグループ化処理フローを示す。以下、各ステップについて説明する。
(1)対応点ペアCiのみを含むグループGiを作成:ステップS41
最初に、シーン頂点Siとモデル頂点Miを結びつける対応点ペアCi(Si,Mi)を、グループGiに追加する。この時点では、グループには基準となる一つの対応点ペアしか含まれていない。つまり、Gi={Ci}。
(2)Giに最も追加しやすい対応点ペアCjを決定:ステップS42
Gi内に含まれている対応点ペアと同時に成り立つことができる新たな対応点ペアCjを決定する。同時に成り立つことができるかどうかの基準として、幾何学的一貫性を用いる。幾何学的一貫性の概念について説明する。対応点ペアC1(S1,M1)とC2(S2,M2)が同時に成り立つ場合、S1からS2までの距離と、M1からM2までの距離は同じで、かつS1法線とS2法線とベクトルS1→S2が成す3つの角の角度と、M1法線とM2法線とベクトルM1→M2が成す3つの角の角度は等しくなるはずである。この一致度合いから、対応点ペアC1とC2が幾何学的一貫性を持っているかどうかを判定することができる。
図14に本発明の実施形態に係る幾何学的一貫性の概念図を示す。
例えば、G1={C1,C4,C8}に対してC9を追加できるか評価する際、C1−C9,C4−C9,C8−C9の全てにおいて幾何学的一貫性が成り立てば、G1にC9を追加できると言える。
(3)CjをGiに追加する:ステップS43
CjをGiに追加してもGiが幾何学的一貫性を維持可能な場合、CjをGiに追加する。CjをGiに追加するとGiが幾何学的一貫性を維持不可能な場合、Giに対する追加処理は終了する。
(4)含まれている対応点ペアが多い順にグループを並び替え:ステップS44
全ての対応点ペアを基準にグループを作成した後、グループ内の対応点ペアが多い順にグループを並び替える。
図15(A)及び(B)に本発明の実施形態に係るグループ化された対応点ペアの例を示す。
[一致度の検証]
一致度の検証処理では、モデルとシーンの表面がどの程度一致するかを評価して、各グループが物体の位置姿勢候補として適切かどうかを検証する。
図16に本発明の実施形態に係る一致度の検証処理フローを示す。以下、各ステップについて説明する。
(1)シーン頂点のKDツリー作成:ステップS51
後の対応点ペア拡張処理の高速化のために、ここでシーン頂点のKDツリーを作成しておく。仮に入力データ点数がN点、参照データ点数がM点のときに、近傍点探索処理量が全探索でO(MN)であるのに対して、KDツリーを作成しておくことでO(NlogM)に削減できる。
(2)グループGiの初期位置姿勢算出:ステップS52
グループGiに含まれる対応点ペアに基づき、モデルとシーンの対応点間の距離を最小にするような座標変換式Tiを算出する。Tiは3×3の回転行列Rと3×1の並進ベクトルtを含む、4×4の剛体変換式である。この変換式にしたがってモデルを移動させた結果を、グループGiが示す物体の初期位置姿勢とする。
(3)対応点ペアの拡張:ステップS53
グループGiに含まれるモデル頂点に隣接するモデル頂点に対して、最近傍のシーン頂点をKDツリー探索によって見つけ、そのモデル頂点とシーン頂点の間の6次元距離(法線方向のずれも考慮に入れた距離)がしきい値以下ならば、その対応点ペアをグループGiに追加する。この処理を、対応点ペアが追加できなくなるまで繰り返す。
図17図に本発明の実施形態に係る対応点ペア拡張処理の例を示す。同図(A)は拡張前を示し、同図(B)は拡張後を示す。
(4)Giを位置姿勢候補G’に登録:ステップS54
初期位置姿勢が正しく、モデルとシーンの表面が一致していれば、対応点ペアの拡張処理によりグループ内の対応点ペアの数は大幅に増加するはずである。グループ内の対応点ペアの数がしきい値(モデルの頂点数のβ%)より多ければ、このグループは対象物を捉えている可能性が高いとして、位置姿勢候補に残す。そうでなければ、このグループを除外する。
このパラメータβは、運用条件に応じて設定すべきであるが、一般的な運用であれば、対応点ペア数がモデル頂点の10%以上であればそのグループが対象物体を捉えている可能性が高い。
グループGiの対応点ペアの数がしきい値より多ければ、Giを位置姿勢候補G’に追加する。その際、Giに含まれているシーン頂点は、以後の対応点ペア拡張処理に使えないようにする。これにより、位置姿勢候補が重なり合って出現することを防いでいる。
(5)G’を対応点ペア数が多い順に並び替え:ステップS55
全てのグループで一致度の検証処理を行い、位置姿勢候補G’を作成した後、対応点ペアが多い順にG’を並び替える。
[高精度化]
モデルをある位置姿勢に配置したときの、モデルデータとシーンデータとの幾何学的な矛盾に基づいて、位置姿勢候補の成否を検証する。
[三次元計測の視点が明らかな場合]
ある場所に距離センサを配置して、1回計測して得られたデータをシーンデータとする場合、視点を一意に特定できるので、以下のような処理によってモデルの位置姿勢候補の成否を検証することができる。
図18に、三次元計測の視点及び視線方向が明らかな場合(ある場所に距離センサを配置して、1回計測して得られたデータをシーンデータとする場合)の高精度化処理フローを示す。以下、各ステップについて説明する。
(1)視線方向に垂直な平面を仮定:ステップS61
図19(a)〜(d)に、高精度化処理の具体例を示す。まず、同図(a)に示すように、視線方向に垂直な平面60を仮定する。
(2)計測点を平面に投影:ステップS62
図19(b)に示すように、物体61の各計測点(シーン計測点)62〜74を平面60に投影する。ただし、投影後も各点は視点からの距離データ(奥行きデータ)を保持している。
(3)検証すべき位置姿勢にある三次元モデルを平面に投影:ステップS63
図19(c)に、検証すべき位置姿勢にある三次元モデル91及び視線方向に垂直な平面90を示す。三次元モデル91の各頂点を、平面90に投影する。シーン計測点の場合と同様に、投影後も各点は視点からの距離データ(奥行きデータ)を保持している。
(4)モデル表面とシーン計測点の重なり評価:ステップS64
モデル表面とシーン計測点62〜74との重なりを評価する。
具体的には、平面上ではモデル表面と重なるが、奥行き的にはモデルの奥側に存在するシーン計測点を検出する。
図19(d)の例では、シーン計測点71,72,73はモデル表面92と重なり、シーン計測点74はモデル表面93と重なる。モデル表面93と重なる計測点74は、本来は見えないモデル表面に存在する点である。このような計測点74は、その位置にモデルが本当に存在すれば、見えるはずの無い点である。
なお、モデル表面は、本来はシーンと同程度の粒度の三角メッシュである。しかし、理解が容易になるように、上記の例では直方体の各表面=モデル表面とした。
(5)モデルの位置姿勢の成否判定:ステップS65
モデル頂点と重なるが、本来は見えるはずが無いと評価された計測点の個数をカウントする。そして、そのような計測点の個数が所定の閾値を上回った場合、又はそのような計測点が計測点全体に占める割合が所定の閾値を上回った場合、モデル位置姿勢が間違っていると判定する。
[三次元計測の視点が特定できない場合]
複数視点から計測して得られたデータを統合してシーンデータとする場合、視点を一意に特定できないので、前述の方法は使用できない。
このような場合、ソリッドモデル(中身が詰まった三次元形状モデル)を用いて計測点とモデルとの衝突(幾何学的な矛盾)を判定することができる。
また、計算量軽減のため、サーフェスモデル(表面形状データ。本実施形態においては三角パッチで表現され、表裏が判断可能なデータとする)を用いて計測点とモデルの衝突を判定することができる。
図20に、三次元計測の視点が特定できない場合(複数視点から計測して得られたデータを統合してシーンデータとする場合)の高精度化処理フローを示す。以下、各ステップについて説明する。
(1)視点を仮定:ステップS71
図21に示すように、まず擬似的に視点81を仮定する。
(2)検証すべき位置姿勢にモデルを配置:ステップS72
図21に示すように、検証すべき位置姿勢に三次元モデル82を配置する。
(3)モデルと計測点の重なり評価:ステップS73
ある計測点(例えば、計測点83)に注目し、視点81と計測点83を結ぶ直線84を引く。この直線84上に、計測点83の手前と奥にモデルのサーフェス85,86が存在する。そして、(1)計測点83の手前のサーフェス(計測点83よりも視点81に近いサーフェス)85は、視点81側に表を向け、かつ(2)計測点83の奥のサーフェス(計測点83よりも視点81から遠いサーフェス)86は、視点81側に裏を向けている場合、計測点83はモデル82の内部に存在すると評価する。
(4)モデルの位置姿勢の成否判定:ステップS74
モデルの内部に存在すると評価された計測点の個数をカウントする。そして、そのような計測点の個数が所定の閾値を上回ったら、又はそのような計測点が計測点全体に占める割合が所定の閾値を上回ったら、モデル位置姿勢が間違っていると判定する。
全ての位置姿勢候補に対して前述のような成否判定を行い、物体の最終的な位置姿勢を得る。対象物体がシーン上に存在しない場合や、複数存在することがあるため、最終的に1つも位置姿勢が得られないことや、2つ以上の位置姿勢が得られることがある。
前記の如く、スピンイメージを用いた特徴量ベースの高速な位置決めを行った後、高精度化(位置姿勢候補の成否判定)を行うことで、対象物体の三次元形状データ(モデル)と、距離センサから得られる距離データ(シーン)を照合して、対象物体の三次元的な位置姿勢を認識することができる。
スピンイメージは、物体の局所的な三次元形状特徴を捉えた、回転不変な特徴量であるため、物体の一部隠れが発生している状況や、複数の物体が混在している状況における物体認識に適用できる。
ただし、特徴量ベースの位置決めは高速だが、モデルとシーンの対応箇所が比較的少ない状態で位置決めを行うため、精度が粗い可能性がある。そこで、特徴量ベースの位置決め結果を初期位置として、高精度化による精密な位置決めを行うことにより、高速・高精度な位置姿勢検出が可能となる。
3D−CADデータをモデルデータとして導入するメリットは、以下のとおりである。(1)実物による教示の手間を削減できる、(2)工業部品の設計では3D−CADの導入が進んでおり、認識したい物体については既に3D−CADデータが存在することが多いので、既存データを活用することで作業量を削減できる。
前記の物体認識手法の大まかな性能として、モデル頂点数1000点程度、シーン頂点数5000点程度のとき、モデルがある程度(モデルの全表面の15%程度以上)出現していれば、3秒程度(CPU Celeron(登録商標)2.8GHz、メモリ512MB)で物体の位置姿勢を認識できた。
実施形態として、三次元形状の計測について説明したが、二次元形状を三次元形状の特別な場合として見ることにより、二次元形状も同様に計測できる。
なお、本発明は、上述した実施形態に限定されず、本発明の要旨を逸脱しない範囲で種々に変更することができることは勿論である。
本発明の実施形態に係る物体認識装置の全体構成図である。 本発明の実施形態に係る物体認識処理部の構成の一例を示す図である。 本発明の実施形態に係るCADデータとスピンイメージの例を示す図である。 本発明の実施形態に係る円筒座標系のイメージを示す図である。 本発明の実施形態に係る三次元物体認識の処理フローを示す図である。 本発明の実施形態に係るモデル入力処理フローを示す図である。 本発明の実施形態に係るPLY形式のファイルの例を示す図である。 本発明の実施形態に係るPLYファイルをCADソフトで表示した例を示す図である。 本発明の実施形態に係る法線算出手順を示す図である。 本発明の実施形態に係るシーン計測処理フローを示す図である。 本発明の実施形態に係る対応点ペア作成処理フローを示す図である。 本発明の実施形態に係るモデルとシーンの対応点ペアのイメージを示す図である。 本発明の実施形態に係るグループ化処理フローを示す図である。 本発明の実施形態に係る幾何学的一貫性の概念図である。 (A)及び(B)は本発明の実施形態に係るグループ化された対応点ペアの例を示す図である。 本発明の実施形態に係る一致度の検証処理フローを示す図である。 本発明の実施形態に係る対応点ペア拡張処理の例を示す図であって、(A)は拡張前を示し、(B)は拡張後を示す。 本発明の実施形態に係る三次元計測の視点及び視線方向が明らかな場合の三次元計測の視点が明らかな場合の高精度化処理フローを示す図である。 図18に示す高精度化処理の具体的内容を説明するための図である。 本発明の実施形態に係る三次元計測の視点が特定できない場合の高精度化処理フローを示す図である。 図20に示す高精度化処理の具体的内容を説明するための図である。
符号の説明
32 データ入力装置
33 外部記憶装置
34 内部記憶装置
35 中央処理装置
40 物体認識装置
41 3Dセンサ
42 物体認識処理部
43 モデルデータベース部
45 ロボット制御部
46 ロボット

Claims (6)

  1. 距離を計測できるセンサによって計測したシーンデータと、目的物体の三次元形状を表すモデルデータとを、物体の局所的な表面形状を表す特徴量について照合することにより物体の三次元位置姿勢を検出する三次元物体認識方法において、
    モデルを、候補となる視点からの位置姿勢に配置したとき、モデルによって遮蔽され、本来計測不可能な範囲にシーンデータが存在するか否かを算出し、この幾何学的な矛盾の有無に基づいて、モデルの位置姿勢候補の成否を検証することを特徴とする三次元物体認識方法。
  2. 前記候補となる視点としての、三次元計測におけるセンサの視点及び視線方向が明らかな場合に、前記センサの視線方向に垂直な平面上に前記センサの視点からの距離データを保持したままシーンデータのシーン計測点及びモデルデータのモデル表面を投影するステップと、
    前記平面に平行なX座標とY座標に基づいて、前記平面上に投影されたシーン計測点とモデル表面との重なりを評価するステップと、
    前記平面上においてモデル表面と重なるという第1の条件、及び前記センサの視点から見てモデル表面の奥側に存在するという第2の条件を満たすシーン計測点を抽出するステップと、
    前記第1及び第2の条件を満たすシーン計測点に基づいて、候補となる位置姿勢に存在するモデルによるシーンの遮蔽状態を判断し、モデルの位置姿勢候補の成否を評価するステップと、を含む請求項1に記載の三次元物体認識方法。
  3. 前記モデルの位置姿勢候補の成否を評価するステップにおいて、モデルの奥側に存在すると判定されるシーン計測点の個数、又はそのようなシーン計測点がシーン計測点全体に占める割合に基づいて、位置姿勢候補の成否を評価する、請求項2に記載の三次元物体認識方法。
  4. 前記モデルデータが物体の表裏に関する情報をさらに有し、
    前記候補となる視点としての、三次元計測におけるセンサの視点が明らかでない場合に、仮の視点を設定し、かつ設定した仮の視点からの候補となる位置姿勢にモデルを配置するステップと、
    記仮の視点と第1のシーン計測点とを結ぶ直線を引くステップと、
    (1)前記モデルデータから読み取り可能な物体の裏表情報を有するモデル表面であって、(1−1)前記直線上に存在し、(1−2)前記仮の視点と前記第1のシーン計測点との間に存在し、かつ(1−3)前記仮の視点側に表を向けている第1のモデル表面が存在し、かつ
    (2)前記モデルデータから読み取り可能な物体の裏表情報を有するモデル表面であって、(2−1)前記直線上に存在し、(2−2)前記第1のシーン計測点よりも前記仮の視点から遠くに存在し、かつ(2−3)前記仮の視点側に裏を向けている第2の物体表面が存在する、シーン計測点の個数を抽出するステップと、
    前記第1及び第2の条件を満たすシーン計測点に基づいて、候補となる位置姿勢に存在するモデルによるシーンの遮蔽状態を判断し、モデルの位置姿勢候補の成否を評価するステップと、を含む請求項1に記載の三次元物体認識方法。
  5. 前記モデルの位置姿勢候補の成否を評価するステップにおいて、モデルの内部に存在すると判定されるシーン計測点の個数、又はそのようなシーン計測点がシーン計測点全体に占める割合に基づいて、位置姿勢候補の成否を評価する、請求項4に記載の三次元物体認識方法。
  6. 前記特徴量がスピンイメージであることを特徴とする請求項1に記載の物体認識方法。
JP2007303503A 2007-11-22 2007-11-22 物体認識方法 Expired - Fee Related JP4900204B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007303503A JP4900204B2 (ja) 2007-11-22 2007-11-22 物体認識方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007303503A JP4900204B2 (ja) 2007-11-22 2007-11-22 物体認識方法

Publications (2)

Publication Number Publication Date
JP2009129189A JP2009129189A (ja) 2009-06-11
JP4900204B2 true JP4900204B2 (ja) 2012-03-21

Family

ID=40820037

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007303503A Expired - Fee Related JP4900204B2 (ja) 2007-11-22 2007-11-22 物体認識方法

Country Status (1)

Country Link
JP (1) JP4900204B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009128191A (ja) * 2007-11-22 2009-06-11 Ihi Corp 物体認識装置およびロボット装置

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5380792B2 (ja) * 2007-06-15 2014-01-08 株式会社Ihi 物体認識方法および装置
JP5027741B2 (ja) * 2008-06-18 2012-09-19 セコム株式会社 画像監視装置
JP5027758B2 (ja) * 2008-08-19 2012-09-19 セコム株式会社 画像監視装置
JP5567908B2 (ja) * 2009-06-24 2014-08-06 キヤノン株式会社 3次元計測装置、その計測方法及びプログラム
JP2011159042A (ja) * 2010-01-29 2011-08-18 Ihi Corp 物体認識方法及び物体認識装置
JP5548482B2 (ja) * 2010-02-26 2014-07-16 キヤノン株式会社 位置姿勢計測装置、位置姿勢計測方法、プログラム及び記憶媒体
JP6101134B2 (ja) * 2013-04-01 2017-03-22 キヤノン株式会社 情報処理装置及び情報処理方法
JP6216211B2 (ja) 2013-10-25 2017-10-18 株式会社日立製作所 3次元モデル生成装置、3次元モデル生成方法及びプログラム
JP6441032B2 (ja) * 2014-11-07 2018-12-19 国立研究開発法人産業技術総合研究所 対応点探索装置と対応点探索プログラム並びに対応点探索方法
JP6117901B1 (ja) * 2015-11-30 2017-04-19 ファナック株式会社 複数の物品の位置姿勢計測装置及び該位置姿勢計測装置を含むロボットシステム
DK3184958T3 (da) * 2015-12-23 2020-06-02 Liebherr Verzahntech Gmbh Indretning til tømning af en transportbærer med en indretning til emneidentifikation og/eller registrering af position for emner af en flerhed af vilkårligt anbragte emner inden i transportbæreren og med en gribeindretning til tømning af transportbæreren
JP2018091656A (ja) * 2016-11-30 2018-06-14 キヤノン株式会社 情報処理装置、計測装置、システム、算出方法、プログラムおよび物品の製造方法
JP7064664B2 (ja) * 2018-03-28 2022-05-11 太平洋セメント株式会社 対象認識装置、方法およびプログラムならびに対象除去システム
JP6937995B2 (ja) * 2018-04-05 2021-09-22 オムロン株式会社 物体認識処理装置及び方法、並びに、物体ピッキング装置及び方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09212643A (ja) * 1996-02-05 1997-08-15 Meidensha Corp 三次元物体認識方法及びその装置
JP2920513B2 (ja) * 1997-01-21 1999-07-19 工業技術院長 3次元物体位置姿勢決定方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009128191A (ja) * 2007-11-22 2009-06-11 Ihi Corp 物体認識装置およびロボット装置

Also Published As

Publication number Publication date
JP2009129189A (ja) 2009-06-11

Similar Documents

Publication Publication Date Title
JP4900204B2 (ja) 物体認識方法
JP5092711B2 (ja) 物体認識装置およびロボット装置
JP5251080B2 (ja) 物体認識方法
Walsh et al. Data processing of point clouds for object detection for structural engineering applications
JP5677798B2 (ja) 3次元シーンにおける3次元物体の認識及び位置姿勢決定方法
EP3314570B1 (en) Real-time, model-based object detection and pose estimation
TWI607412B (zh) 多維度尺寸量測系統及其方法
JP4785880B2 (ja) 三次元オブジェクト認識のためのシステムおよび方法
US8792726B2 (en) Geometric feature extracting device, geometric feature extracting method, storage medium, three-dimensional measurement apparatus, and object recognition apparatus
JP5671281B2 (ja) 位置姿勢計測装置、位置姿勢計測装置の制御方法及びプログラム
CN103984362B (zh) 位置和姿势测量装置、信息处理装置以及信息处理方法
JP6573419B1 (ja) 位置決め方法、ロボット及びコンピューター記憶媒体
JP6632208B2 (ja) 情報処理装置、情報処理方法、プログラム
Lei et al. A CNN-based 3D patch registration approach for integrating sequential models in support of progress monitoring
CN110992427B (zh) 一种形变物体的三维位姿估计方法及定位抓取系统
JP2011174880A (ja) 位置姿勢推定方法及びその装置
JP5104248B2 (ja) 物体認識装置およびロボット装置
Cheng et al. An automatic and robust point cloud registration framework based on view-invariant local feature descriptors and transformation consistency verification
JP6673504B2 (ja) 情報処理装置、データベース生成装置、方法、プログラム、及び記憶媒体
JP5083715B2 (ja) 三次元位置姿勢計測方法および装置
JP5462662B2 (ja) 位置姿勢計測装置、物体識別装置、位置姿勢計測方法及びプログラム
US7379599B1 (en) Model based object recognition method using a texture engine
JP5030183B2 (ja) 3次元物体位置姿勢計測方法
CN112146647B (zh) 一种地面纹理的双目视觉定位方法及芯片
Canelhas Truncated signed distance fields applied to robotics

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100927

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110908

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110913

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111111

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111206

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111219

R151 Written notification of patent or utility model registration

Ref document number: 4900204

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150113

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees