JP5092711B2 - 物体認識装置およびロボット装置 - Google Patents

物体認識装置およびロボット装置 Download PDF

Info

Publication number
JP5092711B2
JP5092711B2 JP2007303501A JP2007303501A JP5092711B2 JP 5092711 B2 JP5092711 B2 JP 5092711B2 JP 2007303501 A JP2007303501 A JP 2007303501A JP 2007303501 A JP2007303501 A JP 2007303501A JP 5092711 B2 JP5092711 B2 JP 5092711B2
Authority
JP
Japan
Prior art keywords
vertex
model
corresponding point
group
scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2007303501A
Other languages
English (en)
Other versions
JP2009128191A (ja
Inventor
輝行 島
俊寛 林
英雄 寺田
幸弘 河野
正明 富沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IHI Corp
Original Assignee
IHI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IHI Corp filed Critical IHI Corp
Priority to JP2007303501A priority Critical patent/JP5092711B2/ja
Publication of JP2009128191A publication Critical patent/JP2009128191A/ja
Application granted granted Critical
Publication of JP5092711B2 publication Critical patent/JP5092711B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices With Unspecified Measuring Means (AREA)
  • Manipulator (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、認識すべき対象物体の三次元表面形状データと、距離センサ等を用いて得られる実際の環境をサンプリングした三次元表面形状データを照合することによって、物体の位置姿勢を認識する物体認識装置およびロボット装置に関する。
従来は、単眼ビジョンセンサを用いて事前に物体の見え方を十分に教示しておくことで、現在の見え方から物体の位置姿勢を推定している(例えば、特許文献1参照)。
また、複数ビジョンセンサで撮影し、第1〜n画像から物体の二次元特徴を抽出し、その対応付けで物体の二次元特徴の三次元情報を加え、物体の三次元位置姿勢を推定している(例えば、特許文献2参照)。
特許第3300682号公報 特許第3525896号公報
単眼ビジョンセンサを用いて物体の位置姿勢を認識する場合、(1)大量の画像データを予め教示しておくことが必要である、(2)物体の一部が隠れているような場合に対応することが困難である、(3)認識結果が照明条件に依存してしまう、などの問題がある。
複数ビジョンセンサを用いて物体の位置姿勢を認識する場合、(1)物体の二次元特徴の教示が必要で、多品種対応が困難である、(2)認識結果が照明条件に依存してしまう、(3)ビジョンセンサで正確に捉えることができかつ他の部位と識別可能な形状的な特徴が必要であるため、検出できる物体の形状的な制約が大きい、などの問題がある。
本発明は上述した問題点を解決するために創案されたものである。すなわち、(1)大量の画像データを予め教示する必要が無く、(2)距離データが計測できる環境であれば、物体のテクスチャ条件や照明条件に依存せず、(3)多品種対応が容易で、(4)物体の一部が隠れていても認識し易い物体認識装置およびロボット装置を提供する。
本発明の第1の特徴は、物体の位置及び姿勢を認識する物体認識装置であって、
(1)頂点の三次元位置と頂点間を結び物体の表面を表す情報からなる三次元形状データを読み込み、モデルの頂点に対して物体の局所的な表面形状を表す特徴量を作成するモデル入力手段と、
(2)実際の環境をセンサで計測して距離データを取得し、物体の表面情報を作成するシーン計測手段と、
(3)シーン頂点に対して物体の局所的な表面形状を表す特徴量を作成し、シーン頂点の特徴量とモデル頂点の特徴量の類似度を算出し、類似度がしいき値よりも高いペアが存在したら、それらシーン頂点とモデル頂点を対応点ペアCi(iは、初期値1、最大値nの自然数)とする対応点ペア作成手段と、
(4)対応点ペアCiを含むグループGi(iは、初期値1、最大値nの自然数)を作成し、グループGiに含まれている全ての対応点ペアとの関係で幾何学的一貫性を有する他の対応点ペアをグループGiに追加する処理を繰り返し、全ての対応点ペアを基準にグループを作成するグループ化手段と、
(5)グループGiに含まれる対応点ペアに基づき、モデルとシーンの対応点間の距離を最小にする座標変換式Tiを算出し、座標変換式Tiにしたがってモデルを移動させた結果をグループGiが示す物体の初期位置姿勢とし、グループGiに含まれるモデル頂点に隣接するモデル頂点に対して、最近傍のシーン頂点を見つけ、そのモデル頂点とシーン頂点の間の距離がしきい値以下ならば、その対応点ペアをグループGiに追加する処理を繰り返し、繰り返した後にグループ内の対応点ペアの数がしきい値よりも多ければグループGiから得られる位置姿勢に物体が存在すると判定し、この処理を全てのグループGiに対して実行して計測データ内に存在する0個以上の物体の位置姿勢を決定する一致度検証手段、を備えることにある。
「モデル」とは、認識すべき対象物体の三次元形状データを言う。三次元位置を持った点群と、点を結び物体の表面を表す三角メッシュから構成される。
「シーン」とは、実際の環境をサンプリングした三次元形状データを言う。距離センサによる計測データから生成される。モデルと同様に点群と三角メッシュから構成される。
本発明の第2の特徴は、特徴量がスピンイメージであることにある。
「スピンイメージ」とは、三次元形状データの表面の任意の点で生成可能な、その点の周辺の三次元形状特徴を表す特徴量である。
本発明の第3の特徴は、三次元形状データが3D−CADデータであることにある。
本発明の第4の特徴は、ロボット装置であって、第1の特徴を有する物体認識装置と、物体認識装置から出力される位置姿勢情報に基づいてロボットの作業位置を制御する制御手段を具備することにある。
本発明の物体認識装置によれば、スピンイメージなどの特徴量ベースの高速な位置決めを行うことで、対象物体の三次元形状データ(モデル)と、距離センサから得られる距離データ(シーン)を照合して、対象物体の三次元的な位置姿勢を迅速に認識することができる。
特徴量としてスピンイメージを用いた場合、スピンイメージは物体の局所的な三次元形状特徴を捉えた、回転不変な特徴量であるため、物体の一部隠れが発生している状況や、複数の物体が混在している状況においても物体を認識することができる。
モデルデータとして3D−CADデータを用いた場合、(1)実物による教示の手間を削減できる、(2)工業部品の設計では3D−CADの導入が進んでおり、認識したい物体については既に3D−CADデータが存在することが多いので、既存データを活用することで作業量を削減できる。
前記のような物体認識装置から出力される位置姿勢情報を利用することによって、実際の物体の位置姿勢に沿ってロボットを迅速に動作させることができる。
以下本発明の好ましい実施形態について、図面を参照して説明する。なお、各図において、共通する部分には同一の符号を付し、重複した説明を省略する。
図1は、本発明の物体認識装置の全体構成図である。図1に示すように、本発明の物体認識装置40は、物体(ワーク)までの距離を計測する3Dセンサ41、物体認識処理を実行する物体認識処理部42、物体の三次元形状を表すデータ(例えば、CADデータ)を記憶するモデルデータベース部43を具備する。物体認識処理部42において認識された物体の位置や姿勢を、ロボット制御部45へ出力し、ロボット制御部45からロボット46へ制御信号を出力し、ハンド47を動かして物体を把持したりすることができる。
本発明において、自己位置とは、計測位置を意味し、例えば、3Dセンサ41の外界における6自由度の位置と姿勢を意味する。
図示しないが、本発明において、距離センサ(3Dセンサ)以外のオドメータ、カメラ、GPS、姿勢センサを、必要に応じてオプションとして用いても良い。以下、距離センサを用いた例を説明する。
図2は、物体認識処理部の構成の一例を示す。この図に示すように、物体認識処理部42は、内部記憶装置34、中央処理装置35を備える。物体認識処理部42は、データ入力装置32および外部記憶装置33からデータを受け取り、ロボット制御部45へデータを送る。
データ入力装置32は、上述した距離センサを有し、三次元形状上の座標値を物体認識処理部42に入力する。また、例えばゴニオメータ、オドメータ等を併用して、距離センサの位置姿勢や移動距離も入力するのがよい。なお、データ入力装置32は、キーボード等の通常の入力手段も有するのがよい。
外部記憶装置33は、ハードディスク、フロッピー(登録商標)ディスク、磁気テープ、コンパクトディスク等である。外部記憶装置33は、環境モデルのサイズが大きく後述する内部記憶装置34に入力された三次元形状上の座標値、ボクセル位置、及び代表点とその誤差分布の全体を保持できない場合には、環境モデルの一部範囲または全体範囲に対する、入力された三次元形状上の座標値、ボクセル位置、及び代表点とその誤差分布の一部または全体を記憶し、かつ本発明の方法を実行するためのプログラムを記憶する。また、外部記憶装置33は、後述するCADモデルデータを記憶する。
内部記憶装置34は、例えばRAM,ROM等であり、環境モデルの一部範囲または全体範囲に対する、入力された三次元形状上の座標値、ボクセル位置、及び代表点とその誤差分布の一部または全体を保管し、かつ演算情報を保管する。
中央処理装置35(CPU)は、モデル入力手段、シーン計測手段、対応点ペア作成手段、グループ化手段、一致度検証手段として機能し、演算や入出力等を集中的に処理し、内部記憶装置34と共に、プログラムを実行する。
ロボット制御部45は、物体認識処理部42から受け取る物体の位置や姿勢に基づいてロボットのアームやハンドの動きを制御する。
上述した本発明の装置は、上述した距離センサと通常のPC(コンピュータ)を組み合わせたものでもよく、或いは、全体を一体にした装置であってもよい。また、自走可能な装置内に一体的に組み込んでもよい。
[1]スピンイメージ
まず、スピンイメージについて説明する。
[1.1]スピンイメージの定義
スピンイメージとは、三次元形状データの表面の任意の点で生成可能な、その点の周辺の三次元形状特徴を表す、回転不変な特徴量である。
図3に、CADデータとスピンイメージの例を示す。三角メッシュで構成されるデータのスピンイメージを生成する際は、三角メッシュの頂点ごとに生成する。
モデルの頂点Aのスピンイメージと、シーンの頂点Bのスピンイメージが似ているということは、その周辺の表面形状が似ていることを意味している。これは、モデルとシーンを照合する際、点Aと点Bが対応する可能性があることを示している。
三角メッシュで構成されるデータの頂点Pのスピンイメージを作成する場合、まず、頂点Pの法線を中心軸とした円筒座標系を考える。円筒座標系では、法線までの距離をα、法線方向の変移をβとする。
図4に円筒座標系のイメージを示す。頂点Pの周辺の頂点をα、βの二次元平面(スピンマップと呼ぶ)にプロットすることでスピンイメージを作成する。その際、α、βをある分解能で量子化し、枠内に存在する頂点数を輝度に変換する。
[1.2]類似度算出
スピンイメージは回転不変なデジタル二次元画像として表されるので、正規化相関などの画像比較手段により、類似性を評価できる。
ただし、シーンのスピンイメージを作成する場合、物体の隠れにより本来値が存在する画素の値がゼロとなることや、乱雑な背景により本来値がゼロとなる画素に値が入力されてしまうことがある。したがって、2つのスピンイメージを比較する際、共通して値がゼロでない画素(以下、「重なりがある画素」と表現する。)を比較するよう制限する。
スピンイメージPとQの類似度C(P,Q)を算出するために、まず、正規化相関係数R(P,Q)を算出する。
数1に正規化相関係数R(P,Q)の算出式を示す。ただし、この正規化相関において対象となるのは、重なりがある画素のみである。
Figure 0005092711
N:スピンイメージP、Qで重なりがある画素の数
pi:スピンイメージPのi番目の画素の値
qi:スピンイメージQのi番目の画素の値

単純にこの正規化相関係数R(P,Q)を類似度としてしまうと、重なりが少ないほど類似度が高くなってしまう。例えば、PとQで重なりがある画素が1画素しかない場合、その画素の値が一致すれば、類似度は最高値となってしまう。そこで、重なりがある画素が多いほど類似度が高くなるよう、重み付けを行うことが妥当である。
図5は、本発明の実施形態に係る三次元物体認識の処理フローである。
(1)モデル入力:ステップS10
認識対象物体のモデルを読み込み、モデルのスピンイメージを作成するなどの事前準備を実施する。本処理は、計測のたびに実施する必要はない。例えば対象物体が決まっている場合は、システム起動時に一回だけモデル入力を行うことになる。
(2)シーン計測:ステップS20
実際の環境をセンサで計測して距離データを取得し、三角メッシュ作成処理や法線算出処理を行い、シーンを作成する。
(3)対応点ペア作成:ステップS30
モデルとシーンのスピンイメージの類似度から、モデル頂点とシーン頂点のペアである対応点ペアを複数作成する。
(4)グループ化:ステップS40
複数ある対応点ペアの中から、同時に成立することが可能な対応点ペアをまとめ、一つのグループとする。全ての可能なグループを作成する。
(5)一致度の検証:ステップS50
グループごとに座標変換を行ったとき、モデルとシーンの表面がどの程度一致するかを評価して、グループの検証を行う。
一連の物体認識処理(オンライン処理)を実施した後、得られた物体の位置姿勢を外部機器に通知する。例えば、ロボットアームを対象物体の把持位置に移動させる、などの処理を行う。
以下、図5の処理フローの各ステップの詳細を説明する。
[モデル入力]
図6に本発明の実施形態に係るモデル入力処理フローを示す。
(1)三次元形状データ読込:ステップS11
対象物体の三次元形状データを入力する。例えば、三次元形状データ表現形式の一つであるPLY形式のファイルを読み込む。PLYファイルは、頂点の三次元位置と、頂点間を結び物体の表面を表す三角メッシュ情報から成る。
図7に本発明の実施形態に係るPLY形式のファイルの例を示す。
図8に本発明の実施形態に係るPLYファイルをCADソフトで表示した例を示す。
(2)法線ベクトル算出:ステップS12
スピンイメージ作成時の円筒座標設定に各頂点の法線情報が必要となるため、ここで作成する。頂点の法線は、その頂点を含む三角メッシュの法線の平均を単位ベクトル化したものである。
図9に本発明の実施形態に係る法線算出手順を示す。
(3)モデルの頂点のスピンイメージ作成:ステップS13
頂点ごとに円筒座標を設定してその周辺の頂点をスピンマップにプロットすることで、各頂点のスピンイメージを作成する。スピンイメージ生成手順の詳細は後述する。
なお、一度算出した法線ベクトル、スピンイメージは、ファイルとして記録し、必要に応じて読み込むことができる。よって、一度スピンイメージを作成したモデルを再度読み込む場合は、(2)法線ベクトル作成、(3)モデルの頂点のスピンイメージ作成処理を省略できる。
[シーン計測]
図10に本発明の実施形態に係るシーン計測処理フローを示す。以下、各ステップについて説明する。
(1)距離データ取得:ステップS21
距離センサを用いて、0個〜n個の対象物体やそれ以外の物体が存在する実際の環境を計測し、三次元点群データを得る。使用する距離センサは、可能な限り密に等間隔で距離データが得られるものが望ましい。
(2)メッシュ生成:ステップS22
計測した点群から、物体の表面を表す三角メッシュを生成する。三角メッシュの作成方法として、(a)正方格子分割し対角線を結ぶ方法や、(b)ドロネー三角形分割法がある。(a)正方格子分割は、点群を平面正方格子に投影し、格子ごとに代表点を決定し、隣り合う代表点を決まった形で結んで三角形を形成する手法である。(b)ドロネー三角形分割は、点群を三角形分割したとき、最小角度が最大になるよう分割する方法である。以下ではより精密な三角メッシュが得られる(b)ドロネー三角形分割法を用いる。
計測データを平面に投影し、平面上の点をドロネー三角形分割し、点群を三次元空間に戻したときに辺の長さがしきい値より大きい三角形を除去する、という手順でメッシュ生成を行う。
(3)法線ベクトル算出:ステップS23
スピンイメージ作成時の円筒座標設定条件として、各頂点の法線情報が必要となるため、ここで作成する。
[対応点ペア作成]
対応点ペア作成処理では、モデルとシーンの対応点ペアを複数作成する。
図11に本発明の実施形態に係る対応点ペア作成処理フローを示す。以下、各ステップについて説明する。
(1)シーン頂点を一つ選びスピンイメージを作成:ステップS31
シーンの頂点を一つ選択し、その頂点に関するスピンイメージを作成する。シーンの頂点を一つ選択する際、ランダムピックアップを行っているが、他に、これまで選んだ頂点との距離の最小値が最大になる位置の頂点を選ぶ方法や、法線の精度が良い(周辺の頂点が多く、三角メッシュの辺が集中している)頂点を選ぶ方法などが考えられる。
(2)シーン頂点とモデル各頂点の類似度算出:ステップS32
作成したシーンの頂点と、モデルの各頂点のペアで、スピンイメージとの類似度を数1を用いて算出する。
例えば、モデルの頂点数が1000個の場合、1つのシーン頂点と1000個のモデル頂点の各ペアでそれぞれ類似度を算出し、1000個の類似度が算出される。
(3)突出して類似しているペアを対応点ペアに追加:ステップS33
前述した例で言うところの1000個のペアの中に、他と比較して特に類似度が高いペアがあれば、選択したシーン頂点とモデル頂点で対応点ペアCi(Si,Mi)を作成する。Siはシーン頂点を、Miはモデル頂点を示す。
ステップS31〜33の処理により、シーンのある1つの頂点を対応点とする対応点ペアが作成される。この処理を、シーン頂点数のある割合(パラメータαとして設定される)だけ繰り返す。例えば、パラメータαとして20%が設定されているとき、シーン頂点数が1000点あれば、ステップS31〜33の処理が200回繰り返される。
この結果、シーン頂点とモデル頂点を結びつける対応点ペアCi(Si,Mi)が複数生成される。
図12に本発明の実施形態に係るモデルとシーンの対応点ペアのイメージを示す。同図は、シーンとして動物の玩具を並べた環境を計測し、モデルとしてブタを使用して対応点ペアを検出した結果である。
[グループ化]
グループ化処理では、同時に成立することが可能な対応点ペアを一つのグループとする処理を繰り返し、複数のグループを作成する。
図13に本発明の実施形態に係るグループ化処理フローを示す。以下、各ステップについて説明する。
(1)対応点ペアCiのみを含むグループGiを作成:ステップS41
最初に、シーン頂点Siとモデル頂点Miを結びつける対応点ペアCi(Si,Mi)を、グループGiに追加する。この時点では、グループには基準となる一つの対応点ペアしか含まれていない。つまり、Gi={Ci}。
(2)Giに最も追加しやすい対応点ペアCjを決定:ステップS42
Gi内に含まれている対応点ペアと同時に成り立つことができる新たな対応点ペアCjを決定する。同時に成り立つことができるかどうかの基準として、幾何学的一貫性を用いる。幾何学的一貫性の概念について説明する。対応点ペアC1(S1,M1)とC2(S2,M2)が同時に成り立つ場合、S1からS2までの距離と、M1からM2までの距離は同じで、かつS1法線とS2法線とベクトルS1→S2が成す3つの角の角度と、M1法線とM2法線とベクトルM1→M2が成す3つの角の角度は等しくなるはずである。この一致度合いから、対応点ペアC1とC2が幾何学的一貫性を持っているかどうかを判定することができる。
図14に本発明の実施形態に係る幾何学的一貫性の概念図を示す。
例えば、G1={C1,C4,C8}に対してC9を追加できるか評価する際、C1−C9,C4−C9,C8−C9の全てにおいて幾何学的一貫性が成り立てば、G1にC9を追加できると言える。
(3)CjをGiに追加する:ステップS43
CjをGiに追加してもGiが幾何学的一貫性を維持可能な場合、CjをGiに追加する。CjをGiに追加するとGiが幾何学的一貫性を維持不可能な場合、Giに対する追加処理は終了する。
(4)含まれている対応点ペアが多い順にグループを並び替え:ステップS44
全ての対応点ペアを基準にグループを作成した後、グループ内の対応点ペアが多い順にグループを並び替える。
図15(A)及び(B)に本発明の実施形態に係るグループ化された対応点ペアの例を示す。
[一致度の検証]
一致度の検証処理では、モデルとシーンの表面がどの程度一致するかを評価して、各グループが物体の位置姿勢候補として適切かどうかを検証する。
図16に本発明の実施形態に係る一致度の検証処理フローを示す。以下、各ステップについて説明する。
(1)シーン頂点のKDツリー作成:ステップS51
後の対応点ペア拡張処理の高速化のために、ここでシーン頂点のKDツリーを作成しておく。仮に入力データ点数がN点、参照データ点数がM点のときに、近傍点探索処理量が全探索でO(MN)であるのに対して、KDツリーを作成しておくことでO(NlogM)に削減できる。
(2)グループGiの初期位置姿勢算出:ステップS52
グループGiに含まれる対応点ペアに基づき、モデルとシーンの対応点間の距離を最小にするような座標変換式Tiを算出する。Tiは3×3の回転行列Rと3×1の並進ベクトルtを含む、4×4の剛体変換式である。この変換式にしたがってモデルを移動させた結果を、グループGiが示す物体の初期位置姿勢とする。
(3)対応点ペアの拡張:ステップS53
グループGiに含まれるモデル頂点に隣接するモデル頂点に対して、最近傍のシーン頂点をKDツリー探索によって見つけ、そのモデル頂点とシーン頂点の間の6次元距離(法線方向のずれも考慮に入れた距離)がしきい値以下ならば、その対応点ペアをグループGiに追加する。この処理を、対応点ペアが追加できなくなるまで繰り返す。
図17図に本発明の実施形態に係る対応点ペア拡張処理の例を示す。同図(A)は拡張前を示し、同図(B)は拡張後を示す。
(4)Giを位置姿勢候補G’に登録:ステップS54
初期位置姿勢が正しく、モデルとシーンの表面が一致していれば、対応点ペアの拡張処理によりグループ内の対応点ペアの数は大幅に増加するはずである。グループ内の対応点ペアの数がしきい値(モデルの頂点数のβ%)より多ければ、このグループは対象物を捉えている可能性が高いとして、位置姿勢候補に残す。そうでなければ、このグループを除外する。
このパラメータβは、運用条件に応じて設定すべきであるが、一般的な運用であれば、対応点ペア数がモデル頂点の10%以上であればそのグループが対象物体を捉えている可能性が高い。
グループGiの対応点ペアの数がしきい値より多ければ、Giを位置姿勢候補G’に追加する。その際、Giに含まれているシーン頂点は、以後の対応点ペア拡張処理に使えないようにする。これにより、位置姿勢候補が重なり合って出現することを防いでいる。
(5)G’を対応点ペア数が多い順に並び替え:ステップS55
全てのグループで一致度の検証処理を行い、位置姿勢候補G’を作成した後、対応点ペアが多い順にG’を並び替える。
前記の如く、スピンイメージを用いた特徴量ベースの高速な位置決めを行うことで、対象物体の三次元形状データ(モデル)と、距離センサから得られる距離データ(シーン)を照合して、対象物体の三次元的な位置姿勢を認識することができる。
スピンイメージは、物体の局所的な三次元形状特徴を捉えた、回転不変な特徴量であるため、物体の一部隠れが発生している状況や、複数の物体が混在している状況における物体認識に適用できる。
3D−CADデータをモデルデータとして導入するメリットは、以下のとおりである。(1)実物による教示の手間を削減できる、(2)工業部品の設計では3D−CADの導入が進んでおり、認識したい物体については既に3D−CADデータが存在することが多いので、既存データを活用することで作業量を削減できる。
前記の物体認識手法の大まかな性能として、モデル頂点数1000点程度、シーン頂点数5000点程度のとき、モデルがある程度(モデルの全表面の15%程度以上)出現していれば、3秒程度(CPU Celeron(登録商標)2.8GHz、メモリ512MB)で物体の位置姿勢を認識できた。
実施形態として、三次元形状の計測について説明したが、二次元形状を三次元形状の特別な場合として見ることにより、二次元形状も同様に計測できる。
なお、本発明は、上述した実施形態に限定されず、本発明の要旨を逸脱しない範囲で種々に変更することができることは勿論である。
本発明の実施形態に係る物体認識装置の全体構成図である。 本発明の実施形態に係る物体認識処理部の構成の一例を示す図である。 本発明の実施形態に係るCADデータとスピンイメージの例を示す図である。 本発明の実施形態に係る円筒座標系のイメージを示す図である。 本発明の実施形態に係る三次元物体認識の処理フローを示す図である。 本発明の実施形態に係るモデル入力処理フローを示す図である。 本発明の実施形態に係るPLY形式のファイルの例を示す図である。 本発明の実施形態に係るPLYファイルをCADソフトで表示した例を示す図である。 本発明の実施形態に係る法線算出手順を示す図である。 本発明の実施形態に係るシーン計測処理フローを示す図である。 本発明の実施形態に係る対応点ペア作成処理フローを示す図である。 本発明の実施形態に係るモデルとシーンの対応点ペアのイメージを示す図である。 本発明の実施形態に係るグループ化処理フローを示す図である。 本発明の実施形態に係る幾何学的一貫性の概念図である。 (A)及び(B)は本発明の実施形態に係るグループ化された対応点ペアの例を示す図である。 本発明の実施形態に係る一致度の検証処理フローを示す図である。 本発明の実施形態に係る対応点ペア拡張処理の例を示す図であって、(A)は拡張前を示し、(B)は拡張後を示す。
符号の説明
32 データ入力装置
33 外部記憶装置
34 内部記憶装置
35 中央処理装置
40 物体認識装置
41 3Dセンサ
42 物体認識処理部
43 モデルデータベース部
45 ロボット制御部
46 ロボット

Claims (4)

  1. 物体の位置姿勢を認識する物体認識装置であって、
    頂点の三次元位置と頂点間を結び物体の表面を表す情報からなる三次元形状データを読み込み、モデルの頂点に対して物体の局所的な表面形状を表す特徴量を作成するモデル入力手段と、
    実際の環境をセンサで計測して距離データを取得し、物体の表面情報を作成するシーン計測手段と、
    シーン頂点に対して物体の局所的な表面形状を表す特徴量を作成し、シーン頂点の特徴量とモデル頂点の特徴量の類似度を算出し、類似度がしいき値よりも高いペアが存在したら、前記シーン頂点と前記モデル頂点を対応点ペアCiとする対応点ペア作成手段と、
    前記対応点ペアCiを含むグループGiを作成し、前記グループGiに含まれている全ての対応点ペアとの関係で幾何学的一貫性を有する他の対応点ペアを前記グループGiに追加する処理を繰り返し、全ての対応点ペアを基準にグループを作成するグループ化手段と、
    前記グループGiに含まれる対応点ペアに基づき、モデルとシーンの対応点間の距離を最小にする座標変換式Tiを算出し、座標変換式Tiにしたがってモデルを移動させた結果を前記グループGiが示す物体の初期位置姿勢とし、前記グループGiに含まれるモデル頂点に隣接するモデル頂点に対して、最近傍のシーン頂点を見つけ、そのモデル頂点とシーン頂点の間の距離がしきい値以下ならば、その対応点ペアを前記グループGiに追加する処理を繰り返し、繰り返した後にグループ内の対応点ペアの数がしきい値よりも多ければ前記グループGiから得られる位置姿勢に物体が存在すると判定し、この処理を全てのグループGiに対して実行して計測データ内に存在する0個以上の物体の位置姿勢を決定する一致度検証手段、を備えることを特徴とする物体認識装置。
  2. 前記特徴量がスピンイメージであることを特徴とする請求項1に記載の物体認識装置。
  3. 前記三次元形状データが3D−CADデータであることを特徴とする請求項1又は2に記載の物体認識装置。
  4. 請求項1記載の物体認識装置と、
    前記物体認識装置から出力される前記位置姿勢情報に基づいてロボットの作業位置を制御する制御手段を備えることを特徴とするロボット装置。
JP2007303501A 2007-11-22 2007-11-22 物体認識装置およびロボット装置 Active JP5092711B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007303501A JP5092711B2 (ja) 2007-11-22 2007-11-22 物体認識装置およびロボット装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007303501A JP5092711B2 (ja) 2007-11-22 2007-11-22 物体認識装置およびロボット装置

Publications (2)

Publication Number Publication Date
JP2009128191A JP2009128191A (ja) 2009-06-11
JP5092711B2 true JP5092711B2 (ja) 2012-12-05

Family

ID=40819270

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007303501A Active JP5092711B2 (ja) 2007-11-22 2007-11-22 物体認識装置およびロボット装置

Country Status (1)

Country Link
JP (1) JP5092711B2 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5104248B2 (ja) * 2007-11-22 2012-12-19 株式会社Ihi 物体認識装置およびロボット装置
JP5046133B2 (ja) * 2009-07-09 2012-10-10 独立行政法人産業技術総合研究所 3次元曲面認識方法及びマニピュレーションシステム
JP4855547B1 (ja) * 2011-06-30 2012-01-18 日本ジタン株式会社 定形体群の立体配置状況解析方法
JP2013101045A (ja) 2011-11-08 2013-05-23 Fanuc Ltd 物品の3次元位置姿勢の認識装置及び認識方法
JP5642738B2 (ja) 2012-07-26 2014-12-17 ファナック株式会社 バラ積みされた物品をロボットで取出す装置及び方法
JP5897624B2 (ja) 2014-03-12 2016-03-30 ファナック株式会社 ワークの取出工程をシミュレーションするロボットシミュレーション装置
JP6117901B1 (ja) * 2015-11-30 2017-04-19 ファナック株式会社 複数の物品の位置姿勢計測装置及び該位置姿勢計測装置を含むロボットシステム
CN106269548A (zh) * 2016-09-27 2017-01-04 深圳市创科智能技术有限公司 一种物体自动分拣方法及其装置
CN106552772B (zh) * 2016-10-25 2019-01-22 北京京东尚科信息技术有限公司 视觉识别系统和使用所述视觉识别系统的分类分拣系统
CN112183429B (zh) * 2020-10-12 2024-01-19 苏州晴森模具有限公司 3d手势识别系统及方法
JP2023041200A (ja) 2021-09-13 2023-03-24 トヨタ自動車株式会社 ワーク保持装置、ワーク保持方法、プログラム、及び制御装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11134518A (ja) * 1997-11-04 1999-05-21 Minolta Co Ltd 3次元形状データ処理装置
SE529377C2 (sv) * 2005-10-18 2007-07-24 Morphic Technologies Ab Publ Metod och arrangemang för att lokalisera och plocka upp föremål från en bärare
WO2008056777A1 (fr) * 2006-11-10 2008-05-15 Konica Minolta Holdings, Inc. Système d'authentification et procédé d'authentification
JP4900204B2 (ja) * 2007-11-22 2012-03-21 株式会社Ihi 物体認識方法

Also Published As

Publication number Publication date
JP2009128191A (ja) 2009-06-11

Similar Documents

Publication Publication Date Title
JP5092711B2 (ja) 物体認識装置およびロボット装置
JP5251080B2 (ja) 物体認識方法
JP4900204B2 (ja) 物体認識方法
US11565407B2 (en) Learning device, learning method, learning model, detection device and grasping system
CN110648361B (zh) 一种三维目标物体的实时位姿估计方法及定位抓取系统
US10684116B2 (en) Position and orientation measuring apparatus, information processing apparatus and information processing method
US8792726B2 (en) Geometric feature extracting device, geometric feature extracting method, storage medium, three-dimensional measurement apparatus, and object recognition apparatus
JP5671281B2 (ja) 位置姿勢計測装置、位置姿勢計測装置の制御方法及びプログラム
JP5677798B2 (ja) 3次元シーンにおける3次元物体の認識及び位置姿勢決定方法
JP6004809B2 (ja) 位置姿勢推定装置、情報処理装置、情報処理方法
JP4785880B2 (ja) 三次元オブジェクト認識のためのシステムおよび方法
US9467682B2 (en) Information processing apparatus and method
US9118823B2 (en) Image generation apparatus, image generation method and storage medium for generating a target image based on a difference between a grip-state image and a non-grip-state image
JP5627325B2 (ja) 位置姿勢計測装置、位置姿勢計測方法、およびプログラム
JP5104248B2 (ja) 物体認識装置およびロボット装置
CN110992427B (zh) 一种形变物体的三维位姿估计方法及定位抓取系统
JP4766269B2 (ja) 物体検出方法、物体検出装置、及びそれを備えたロボット
CN111079565A (zh) 视图二维姿态模板的构建方法及识别方法、定位抓取系统
Hu et al. Pipe pose estimation based on machine vision
WO2008032375A1 (fr) Dispositif et procédé de correction d'image, et programme informatique
JP2021086432A (ja) 情報処理装置、情報処理方法、コンピュータプログラム、計測装置、システムおよび物品の製造方法
JP5083715B2 (ja) 三次元位置姿勢計測方法および装置
JP5462662B2 (ja) 位置姿勢計測装置、物体識別装置、位置姿勢計測方法及びプログラム
Gemme et al. 3D reconstruction of environments for planetary exploration
Li et al. Pose estimation of metal workpieces based on RPM-Net for robot grasping from point cloud

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100927

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120815

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120821

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120903

R151 Written notification of patent or utility model registration

Ref document number: 5092711

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150928

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250