JP2009128192A - Object recognition device and robot device - Google Patents

Object recognition device and robot device Download PDF

Info

Publication number
JP2009128192A
JP2009128192A JP2007303502A JP2007303502A JP2009128192A JP 2009128192 A JP2009128192 A JP 2009128192A JP 2007303502 A JP2007303502 A JP 2007303502A JP 2007303502 A JP2007303502 A JP 2007303502A JP 2009128192 A JP2009128192 A JP 2009128192A
Authority
JP
Japan
Prior art keywords
vertex
model
orientation
scene
corresponding point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007303502A
Other languages
Japanese (ja)
Other versions
JP5104248B2 (en
Inventor
Teruyuki Shima
輝行 島
Toshihiro Hayashi
俊寛 林
Hideo Terada
英雄 寺田
Yukihiro Kono
幸弘 河野
Masaaki Tomizawa
正明 富沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IHI Corp
Original Assignee
IHI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IHI Corp filed Critical IHI Corp
Priority to JP2007303502A priority Critical patent/JP5104248B2/en
Publication of JP2009128192A publication Critical patent/JP2009128192A/en
Application granted granted Critical
Publication of JP5104248B2 publication Critical patent/JP5104248B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Manipulator (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To recognize a three-dimensional position attitude of a target object by distance data obtained from a distance sensor. <P>SOLUTION: The object recognition device for recognizing the position and attitude of an object comprises a model input means (1); a scene measurement means (2); a means for creating a pair of corresponding points (3); a grouping means for creating a group in reference to all pairs of corresponding points by repeating processing for adding other pairs of corresponding points having geometrical consistency to a group Gi (4); an agreement verification means for determining the position attitude of an object (5); and a means for improving the accuracy for calculating a final position attitude by improving the accuracy by repeating processing for correcting the position attitude (6). <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、認識すべき対象物体の三次元表面形状データと、距離センサ等を用いて得られる実際の環境をサンプリングした三次元表面形状データを照合することによって、物体の位置姿勢を認識する物体認識装置およびロボット装置に関する。   The present invention relates to an object for recognizing the position and orientation of an object by collating the three-dimensional surface shape data of the target object to be recognized with the three-dimensional surface shape data obtained by sampling the actual environment obtained by using a distance sensor or the like. The present invention relates to a recognition device and a robot device.

従来は、単眼ビジョンセンサを用いて事前に物体の見え方を十分に教示しておくことで、現在の見え方から物体の位置姿勢を推定している(例えば、特許文献1参照)。   Conventionally, the position and orientation of an object are estimated from the current appearance by sufficiently teaching the appearance of the object in advance using a monocular vision sensor (see, for example, Patent Document 1).

また、複数ビジョンセンサで撮影し、第1〜n画像から物体の二次元特徴を抽出し、その対応付けで物体の二次元特徴の三次元情報を加え、物体の三次元位置姿勢を推定している(例えば、特許文献2参照)。
特許第3300682号公報 特許第3525896号公報
In addition, the two-dimensional features of the object are extracted from the first to n images, and the three-dimensional information of the two-dimensional features of the object is added by the correspondence, and the three-dimensional position and orientation of the object is estimated. (For example, refer to Patent Document 2).
Japanese Patent No. 3300682 Japanese Patent No. 3525896

単眼ビジョンセンサを用いて物体の位置姿勢を認識する場合、(1)大量の画像データを予め教示しておくことが必要である、(2)物体の一部が隠れているような場合に対応することが困難である、(3)認識結果が照明条件に依存してしまう、などの問題がある。   When recognizing the position and orientation of an object using a monocular vision sensor, (1) It is necessary to teach a large amount of image data in advance, (2) Corresponding to the case where a part of the object is hidden It is difficult to do this, and (3) the recognition result depends on the illumination conditions.

複数ビジョンセンサを用いて物体の位置姿勢を認識する場合、(1)物体の二次元特徴の教示が必要で、多品種対応が困難である、(2)認識結果が照明条件に依存してしまう、(3)ビジョンセンサで正確に捉えることができかつ他の部位と識別可能な形状的な特徴が必要であるため、検出できる物体の形状的な制約が大きい、などの問題がある。   When recognizing the position and orientation of an object using multiple vision sensors, (1) it is necessary to teach the two-dimensional features of the object and it is difficult to deal with multiple products. (2) the recognition result depends on the illumination conditions. (3) Since a shape feature that can be accurately captured by a vision sensor and can be distinguished from other parts is necessary, there are problems such as large restrictions on the shape of an object that can be detected.

本発明は上述した問題点を解決するために創案されたものである。すなわち、(1)大量の画像データを予め教示する必要が無く、(2)距離データが計測できる環境であれば、物体のテクスチャ条件や照明条件に依存せず、(3)多品種対応が容易で、(4)物体の一部が隠れていても認識し易い物体認識装置およびロボット装置を提供する。   The present invention has been developed to solve the above-described problems. That is, (1) it is not necessary to teach a large amount of image data in advance, and (2) in an environment where distance data can be measured, it does not depend on the texture conditions or illumination conditions of the object, and (3) it can easily handle a variety of products. (4) An object recognition device and a robot device that are easy to recognize even when a part of an object is hidden are provided.

本発明の第1の特徴は、物体の位置及び姿勢を認識する物体認識装置であって、
(1)頂点の三次元位置と頂点間を結び物体の表面を表す三角メッシュ情報からなる三次元形状データを読み込み、モデルの頂点に対して物体の局所的な表面形状を表す特徴量を作成するモデル入力手段と、
(2)実際の環境をセンサで計測して距離データを取得し、物体の表面情報を作成するシーン計測手段と、
(3)シーン頂点に対して物体の局所的な表面形状を表す特徴量を作成し、シーン頂点の特徴量とモデル頂点の特徴量の類似度を算出し、類似度がしいき値よりも高いペアが存在したら、それらシーン頂点とモデル頂点を対応点ペアCi(iは、初期値1、最大値nの自然数)とする対応点ペア作成手段と、
(4)対応点ペアCiを含むグループGi(iは、初期値1、最大値nの自然数)を作成し、グループGiに含まれている全ての対応点ペアとの関係で幾何学的一貫性を有する他の対応点ペアをグループGiに追加する処理を繰り返し、全ての対応点ペアを基準にグループを作成するグループ化手段と、
(5)グループGiに含まれる対応点ペアに基づき、モデルとシーンの対応点間の距離を最小にする座標変換式Tiを算出し、座標変換式Tiにしたがってモデルを移動させた結果をグループGiが示す物体の初期位置姿勢とし、グループGiに含まれるモデル頂点に隣接するモデル頂点に対して、最近傍のシーン頂点を見つけ、そのモデル頂点とシーン頂点の間の距離が第1しきい値以下ならば、その対応点ペアをグループGiに追加する処理を繰り返し、繰り返した後にグループ内の対応点ペアの数が第2しきい値よりも多ければグループGiから得られる位置姿勢に物体が存在すると判定し、この処理を全てのグループGiに対して実行して計測データ内に存在する0個以上の物体の位置姿勢を決定する一致度検証手段と、
(6)前記一致度検証手段により検出したモデルの位置姿勢を初期値として、モデル頂点とシーン頂点のうち距離が最小の頂点同士を対応付け、この頂点ペア間の評価値が最小となるようにモデルの位置姿勢を補正する処理を繰り返すことで高精度化し、最終的な位置姿勢を算出する高精度化手段を備えることにある。
「モデル」とは、認識すべき対象物体の三次元形状データを言う。三次元位置を持った点群と、点を結び物体の表面を表す三角メッシュから構成される。
「シーン」とは、実際の環境をサンプリングした三次元形状データを言う。距離センサによる計測データから生成される。モデルと同様に点群と三角メッシュから構成される。
A first feature of the present invention is an object recognition apparatus that recognizes the position and orientation of an object,
(1) Read three-dimensional shape data consisting of triangular mesh information that represents the surface of an object that connects the three-dimensional positions of the vertices and vertices, and creates a feature value that represents the local surface shape of the object with respect to the vertex of the model Model input means;
(2) Scene measurement means for measuring the actual environment with a sensor to obtain distance data and creating surface information of the object;
(3) Create a feature value representing the local surface shape of the object with respect to the scene vertex, calculate the similarity between the feature value of the scene vertex and the feature value of the model vertex, and the similarity is higher than the threshold value If there is a pair, corresponding point pair creating means for setting the scene vertex and the model vertex as a corresponding point pair Ci (i is a natural number of initial value 1 and maximum value n);
(4) A group Gi including the corresponding point pair Ci (i is a natural number having an initial value of 1 and a maximum value n) is created, and geometric consistency is established in relation to all the corresponding point pairs included in the group Gi. A grouping unit that repeats the process of adding another corresponding point pair having a group Gi to the group Gi, and creates a group based on all the corresponding point pairs;
(5) Based on the corresponding point pair included in the group Gi, a coordinate conversion expression Ti that minimizes the distance between the corresponding points of the model and the scene is calculated, and the result of moving the model according to the coordinate conversion expression Ti is the group Gi Is the initial position and orientation of the object indicated by and finds the nearest scene vertex to the model vertex adjacent to the model vertex included in the group Gi, and the distance between the model vertex and the scene vertex is below the first threshold value If the number of corresponding point pairs in the group is greater than the second threshold after repeating the process of adding the corresponding point pair to the group Gi, the object is present at the position and orientation obtained from the group Gi. Determination and execution of this process for all groups Gi to determine the position and orientation of zero or more objects present in the measurement data;
(6) Using the position and orientation of the model detected by the matching degree verification means as initial values, the model vertex and the vertex having the smallest distance are associated with each other so that the evaluation value between the vertex pair is minimized. The object of the present invention is to provide high precision means for calculating the final position and orientation by increasing the precision by repeating the process of correcting the position and orientation of the model.
“Model” refers to three-dimensional shape data of a target object to be recognized. It consists of a point cloud with a three-dimensional position and a triangular mesh that connects the points and represents the surface of the object.
“Scene” refers to three-dimensional shape data obtained by sampling an actual environment. It is generated from the measurement data by the distance sensor. Like the model, it consists of a point cloud and a triangular mesh.

本発明の第2の特徴は、特徴量がスピンイメージであることにある。
「スピンイメージ」とは、三次元形状データの表面の任意の点で生成可能な、その点の周辺の三次元形状特徴を表す特徴量である。
The second feature of the present invention is that the feature quantity is a spin image.
The “spin image” is a feature amount that can be generated at an arbitrary point on the surface of the three-dimensional shape data and represents a three-dimensional shape feature around the point.

本発明の第3の特徴は、三次元形状データが3D−CADデータであることにある。   The third feature of the present invention is that the three-dimensional shape data is 3D-CAD data.

本発明の第4の特徴は、高精度化手段が、データの表面を表す三角メッシュにおいて、表面の輪郭部分を成す頂点は最小化処理の対象としないことにある。   The fourth feature of the present invention resides in that, in the triangular mesh representing the surface of the data, the high accuracy means does not subject the vertex forming the contour portion of the surface to the object of the minimization process.

本発明の第5の特徴は、高精度化手段が、モデルの各頂点から最小距離にあるシーン頂点を見つけ、対応点ペアとするだけでなく、シーンの各頂点から最小距離にあるモデル頂点を見つけて対応点ペアとすることにある。   The fifth feature of the present invention is that not only the high-precision means finds a scene vertex at a minimum distance from each vertex of the model and makes a corresponding point pair, but also the model vertex at the minimum distance from each vertex of the scene. It is to find a corresponding point pair.

本発明の第6の特徴は、高精度化手段が、モデルの初期位置姿勢と、高精度化された位置姿勢を比較して、重心の移動距離を算出し、当該重心の移動距離が第3しきい値以内である場合は、当該位置姿勢を最終的な位置姿勢の一つとして登録し、当該重心の移動距離が第3しきい値よりも大きい場合は、当該位置姿勢を最終的な位置姿勢の一つとして登録しないことにある。   According to a sixth feature of the present invention, the high-accuracy means compares the initial position and orientation of the model with the highly accurate position and orientation, calculates the movement distance of the center of gravity, and the movement distance of the center of gravity is the third distance. If it is within the threshold value, the position / posture is registered as one of the final position / postures. If the moving distance of the center of gravity is larger than the third threshold value, the position / posture is set as the final position / posture. There is no registration as one of the postures.

本発明の第7の特徴は、ロボット装置であって、第1の特徴を有する物体認識装置と、物体認識装置から出力される位置姿勢情報に基づいてロボットの作業位置を制御する制御手段を具備することにある。   According to a seventh aspect of the present invention, there is provided a robot apparatus comprising: an object recognition apparatus having the first characteristic; and a control unit that controls a work position of the robot based on position and orientation information output from the object recognition apparatus. There is to do.

本発明の物体認識装置によれば、スピンイメージなどの特徴量ベースの高速な位置決めを行うことで、対象物体の三次元形状データ(モデル)と、距離センサから得られる距離データ(シーン)を照合して、対象物体の三次元的な位置姿勢を迅速に認識することができる。   According to the object recognition apparatus of the present invention, the 3D shape data (model) of the target object and the distance data (scene) obtained from the distance sensor are collated by performing high-speed positioning based on a feature amount such as a spin image. Thus, the three-dimensional position and orientation of the target object can be quickly recognized.

特徴量としてスピンイメージを用いた場合、スピンイメージは物体の局所的な三次元形状特徴を捉えた、回転不変な特徴量であるため、物体の一部隠れが発生している状況や、複数の物体が混在している状況においても物体を認識することができる。   When a spin image is used as a feature value, the spin image is a rotation-invariant feature value that captures the local three-dimensional shape feature of the object. An object can be recognized even in a situation where objects are mixed.

モデルデータとして3D−CADデータを用いた場合、(1)実物による教示の手間を削減できる、(2)工業部品の設計では3D−CADの導入が進んでおり、認識したい物体については既に3D−CADデータが存在することが多いので、既存データを活用することで作業量を削減できる。   When 3D-CAD data is used as model data, (1) it is possible to reduce the trouble of teaching with the actual product, (2) 3D-CAD has been introduced in the design of industrial parts, and the object to be recognized is already 3D- Since CAD data often exists, the amount of work can be reduced by utilizing existing data.

ドロネー三角形分割法を用いることによって、迅速に三角メッシュを作成することができる。   By using the Delaunay triangulation method, a triangular mesh can be created quickly.

fourth spread法を用いることによって、迅速に類似度が高い対応点ペアを検出することできる。   By using the fourth spread method, it is possible to quickly detect corresponding point pairs with high similarity.

データの表面を表す三角メッシュにおいて、表面の輪郭部分を成す頂点は最小化処理の対象としないことによって、誤対応を減らし、精度を向上させることができる。   In the triangular mesh representing the surface of the data, the vertices forming the contour portion of the surface are not subjected to the minimization process, thereby reducing the miscorrespondence and improving the accuracy.

モデルの各頂点から最小距離にあるシーン頂点を見つけ、対応点ペアとするだけでなく、シーンの各頂点から最小距離にあるモデル頂点を見つけて対応点ペアとすることによって、双方向から対応点ペアを見つけることになる。これによって、収束演算回数を減らし、最終的な精度を向上させることができる。   Not only find the scene vertex at the minimum distance from each vertex of the model and make it the corresponding point pair, but also find the model vertex at the minimum distance from each vertex of the scene and make it the corresponding point pair, so that the corresponding point from both directions You will find a pair. As a result, the number of convergence calculations can be reduced and the final accuracy can be improved.

モデルの初期位置姿勢と、高精度化された位置姿勢を比較して、重心の移動距離を算出し、当該重心の移動距離が第3しきい値以内である場合は、当該位置姿勢を最終的な位置姿勢の一つとして登録し、当該重心の移動距離が第3しきい値よりも大きい場合は、当該位置姿勢を最終的な位置姿勢の一つとして登録しないことによって、信頼できない対応点ペアのグループを除去することができる。   The initial position and orientation of the model is compared with the highly accurate position and orientation to calculate the movement distance of the center of gravity. If the movement distance of the center of gravity is within the third threshold value, the position and orientation are finalized. If the movement distance of the center of gravity is larger than the third threshold value, the corresponding pair of unreliable points can be obtained by not registering the position and orientation as one of the final positions and orientations. Groups can be removed.

前記のような物体認識装置から出力される位置姿勢情報を利用することによって、実際の物体の位置姿勢に沿ってロボットを迅速に動作させることができる。   By using the position and orientation information output from the object recognition apparatus as described above, the robot can be quickly operated along the actual position and orientation of the object.

以下本発明の好ましい実施形態について、図面を参照して説明する。なお、各図において、共通する部分には同一の符号を付し、重複した説明を省略する。   Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings. In each figure, common portions are denoted by the same reference numerals, and redundant description is omitted.

図1は、本発明の物体認識装置の全体構成図である。図1に示すように、本発明の物体認識装置40は、物体(ワーク)までの距離を計測する3Dセンサ41、物体認識処理を実行する物体認識処理部42、物体の三次元形状を表すデータ(例えば、CADデータ)を記憶するモデルデータベース部43を具備する。物体認識処理部42において認識された物体の位置や姿勢を、ロボット制御部45へ出力し、ロボット制御部45からロボット46へ制御信号を出力し、ハンド47を動かして物体を把持したりすることができる。
本発明において、自己位置とは、計測位置を意味し、例えば、3Dセンサ41の外界における6自由度の位置と姿勢を意味する。
図示しないが、本発明において、距離センサ(3Dセンサ)以外のオドメータ、カメラ、GPS、姿勢センサを、必要に応じてオプションとして用いても良い。以下、距離センサを用いた例を説明する。
FIG. 1 is an overall configuration diagram of an object recognition apparatus according to the present invention. As shown in FIG. 1, an object recognition apparatus 40 according to the present invention includes a 3D sensor 41 that measures a distance to an object (work), an object recognition processing unit 42 that executes object recognition processing, and data that represents the three-dimensional shape of the object. A model database unit 43 for storing (for example, CAD data) is provided. The position and orientation of the object recognized by the object recognition processing unit 42 are output to the robot control unit 45, a control signal is output from the robot control unit 45 to the robot 46, and the hand 47 is moved to hold the object. Can do.
In the present invention, the self-position means a measurement position, for example, a position and orientation of 6 degrees of freedom in the outside world of the 3D sensor 41.
Although not shown, in the present invention, an odometer, a camera, a GPS, and an attitude sensor other than the distance sensor (3D sensor) may be optionally used as necessary. Hereinafter, an example using a distance sensor will be described.

図2は、物体認識処理部の構成の一例を示す。この図に示すように、物体認識処理部42は、内部記憶装置34、中央処理装置35を備える。物体認識処理部42は、データ入力装置32および外部記憶装置33からデータを受け取り、ロボット制御部45へデータを送る。   FIG. 2 shows an example of the configuration of the object recognition processing unit. As shown in this figure, the object recognition processing unit 42 includes an internal storage device 34 and a central processing unit 35. The object recognition processing unit 42 receives data from the data input device 32 and the external storage device 33 and sends the data to the robot control unit 45.

データ入力装置32は、上述した距離センサを有し、三次元形状上の座標値を物体認識処理部42に入力する。また、例えばゴニオメータ、オドメータ等を併用して、距離センサの位置姿勢や移動距離も入力するのがよい。なお、データ入力装置32は、キーボード等の通常の入力手段も有するのがよい。
外部記憶装置33は、ハードディスク、フロッピー(登録商標)ディスク、磁気テープ、コンパクトディスク等である。外部記憶装置33は、環境モデルのサイズが大きく後述する内部記憶装置34に入力された三次元形状上の座標値、ボクセル位置、及び代表点とその誤差分布の全体を保持できない場合には、環境モデルの一部範囲または全体範囲に対する、入力された三次元形状上の座標値、ボクセル位置、及び代表点とその誤差分布の一部または全体を記憶し、かつ本発明の方法を実行するためのプログラムを記憶する。また、外部記憶装置33は、後述するCADモデルデータを記憶する。
内部記憶装置34は、例えばRAM,ROM等であり、環境モデルの一部範囲または全体範囲に対する、入力された三次元形状上の座標値、ボクセル位置、及び代表点とその誤差分布の一部または全体を保管し、かつ演算情報を保管する。
中央処理装置35(CPU)は、モデル入力手段、シーン計測手段、対応点ペア作成手段、グループ化手段、一致度検証手段、高精度化手段として機能し、演算や入出力等を集中的に処理し、内部記憶装置34と共に、プログラムを実行する。
ロボット制御部45は、物体認識処理部42から受け取る物体の位置や姿勢に基づいてロボットのアームやハンドの動きを制御する。
The data input device 32 includes the above-described distance sensor, and inputs a coordinate value on a three-dimensional shape to the object recognition processing unit 42. In addition, for example, a goniometer, an odometer or the like may be used together to input the position and orientation of the distance sensor and the movement distance. The data input device 32 may also have normal input means such as a keyboard.
The external storage device 33 is a hard disk, a floppy (registered trademark) disk, a magnetic tape, a compact disk, or the like. When the size of the environment model is large and the external storage device 33 cannot hold the coordinate values on the three-dimensional shape, the voxel position, the representative point, and the entire error distribution inputted to the internal storage device 34, which will be described later, For storing a coordinate value, a voxel position, and a representative point and a part or all of an error distribution of an input three-dimensional shape with respect to a partial range or the entire range of a model, and for executing the method of the present invention Memorize the program. The external storage device 33 stores CAD model data described later.
The internal storage device 34 is, for example, a RAM, a ROM, or the like, and the input coordinate value on the three-dimensional shape, the voxel position, and the representative point and a part of its error distribution or the partial range or the entire range of the environmental model Store the whole and store the calculation information.
The central processing unit 35 (CPU) functions as a model input unit, a scene measurement unit, a corresponding point pair creation unit, a grouping unit, a coincidence verification unit, and a high accuracy unit, and processes arithmetic and input / output intensively. Then, the program is executed together with the internal storage device 34.
The robot control unit 45 controls the movement of the robot arm and hand based on the position and orientation of the object received from the object recognition processing unit 42.

上述した本発明の装置は、上述した距離センサと通常のPC(コンピュータ)を組み合わせたものでもよく、或いは、全体を一体にした装置であってもよい。また、自走可能な装置内に一体的に組み込んでもよい。   The above-described apparatus of the present invention may be a combination of the above-described distance sensor and a normal PC (computer), or may be an apparatus in which the entirety is integrated. Moreover, you may integrate in the apparatus which can be self-propelled.

[1]スピンイメージ
まず、スピンイメージについて説明する。
[1] Spin Image First, the spin image will be described.

[1.1]スピンイメージの定義
スピンイメージとは、三次元形状データの表面の任意の点で生成可能な、その点の周辺の三次元形状特徴を表す、回転不変な特徴量である。
[1.1] Definition of Spin Image A spin image is a rotation-invariant feature quantity that can be generated at an arbitrary point on the surface of three-dimensional shape data and represents a three-dimensional shape feature around that point.

図3に、CADデータとスピンイメージの例を示す。三角メッシュで構成されるデータのスピンイメージを生成する際は、三角メッシュの頂点ごとに生成する。
モデルの頂点Aのスピンイメージと、シーンの頂点Bのスピンイメージが似ているということは、その周辺の表面形状が似ていることを意味している。これは、モデルとシーンを照合する際、点Aと点Bが対応する可能性があることを示している。
三角メッシュで構成されるデータの頂点Pのスピンイメージを作成する場合、まず、頂点Pの法線を中心軸とした円筒座標系を考える。円筒座標系では、法線までの距離をα、法線方向の変移をβとする。
FIG. 3 shows an example of CAD data and a spin image. When generating a spin image of data composed of a triangular mesh, it is generated for each vertex of the triangular mesh.
The similarity between the spin image of the vertex A of the model and the spin image of the vertex B of the scene means that the surface shape of the periphery is similar. This indicates that the points A and B may correspond when the model and the scene are collated.
When creating a spin image of the vertex P of data composed of a triangular mesh, first consider a cylindrical coordinate system with the normal of the vertex P as the central axis. In the cylindrical coordinate system, the distance to the normal is α, and the change in the normal direction is β.

図4に円筒座標系のイメージを示す。頂点Pの周辺の頂点をα、βの二次元平面(スピンマップと呼ぶ)にプロットすることでスピンイメージを作成する。その際、α、βをある分解能で量子化し、枠内に存在する頂点数を輝度に変換する。   FIG. 4 shows an image of the cylindrical coordinate system. A spin image is created by plotting the vertices around the vertex P on a two-dimensional plane (referred to as a spin map) of α and β. At that time, α and β are quantized with a certain resolution, and the number of vertices existing in the frame is converted into luminance.

[1.3]類似度算出
スピンイメージは回転不変なデジタル二次元画像として表されるので、正規化相関などの画像比較手段により、類似性を評価できる。
ただし、シーンのスピンイメージを作成する場合、物体の隠れにより本来値が存在する画素の値がゼロとなることや、乱雑な背景により本来値がゼロとなる画素に値が入力されてしまうことがある。したがって、2つのスピンイメージを比較する際、共通して値がゼロでない画素(以下、「重なりがある画素」と表現する。)を比較するよう制限する。
スピンイメージPとQの類似度C(P,Q)を算出するために、まず、正規化相関係数R(P,Q)を算出する。
[1.3] Calculation of similarity Since a spin image is represented as a rotation-invariant digital two-dimensional image, similarity can be evaluated by image comparison means such as normalized correlation.
However, when creating a spin image of a scene, the value of a pixel that originally has a value may become zero due to hiding of an object, or a value may be input to a pixel that originally has a value of zero due to a messy background. is there. Therefore, when two spin images are compared, it is limited to compare pixels whose values are not zero in common (hereinafter, referred to as “pixels with overlap”).
In order to calculate the similarity C (P, Q) between the spin images P and Q, first, a normalized correlation coefficient R (P, Q) is calculated.

数1に正規化相関係数R(P,Q)の算出式を示す。ただし、この正規化相関において対象となるのは、重なりがある画素のみである。

Figure 2009128192
N:スピンイメージP、Qで重なりがある画素の数
pi:スピンイメージPのi番目の画素の値
qi:スピンイメージQのi番目の画素の値

単純にこの正規化相関係数R(P,Q)を類似度としてしまうと、重なりが少ないほど類似度が高くなってしまう。例えば、PとQで重なりがある画素が1画素しかない場合、その画素の値が一致すれば、類似度は最高値となってしまう。そこで、重なりがある画素が多いほど類似度が高くなるよう、重み付けを行うことが妥当である。 Formula 1 shows a calculation formula for the normalized correlation coefficient R (P, Q). However, in this normalized correlation, only pixels with overlap are targeted.
Figure 2009128192
N: Number of pixels overlapping in the spin images P and Qpi: i-th pixel value of the spin image P qi: i-th pixel value of the spin image Q

If the normalized correlation coefficient R (P, Q) is simply used as the similarity, the similarity increases as the overlap decreases. For example, if there is only one pixel that overlaps P and Q, the similarity will be the highest value if the values of the pixels match. Therefore, it is appropriate to perform weighting so that the degree of similarity increases as the number of overlapping pixels increases.

図5は、本発明の実施形態に係る三次元物体認識の処理フローである。
(1)モデル入力:ステップS10
認識対象物体のモデルを読み込み、モデルのスピンイメージを作成するなどの事前準備を実施する。本処理は、計測のたびに実施する必要はない。例えば対象物体が決まっている場合は、システム起動時に一回だけモデル入力を行うことになる。
FIG. 5 is a processing flow of 3D object recognition according to the embodiment of the present invention.
(1) Model input: Step S10
Read in the model of the object to be recognized and make preparations such as creating a spin image of the model. This process does not need to be performed every measurement. For example, when the target object is determined, the model input is performed only once when the system is activated.

(2)シーン計測:ステップS20
実際の環境をセンサで計測して距離データを取得し、三角メッシュ作成処理や法線算出処理を行い、シーンを作成する。
(2) Scene measurement: Step S20
The actual environment is measured by a sensor, distance data is acquired, triangular mesh creation processing and normal calculation processing are performed, and a scene is created.

(3)対応点ペア作成:ステップS30
モデルとシーンのスピンイメージの類似度から、モデル頂点とシーン頂点のペアである対応点ペアを複数作成する。
(3) Corresponding point pair creation: Step S30
A plurality of corresponding point pairs, which are pairs of model vertices and scene vertices, are created based on the similarity between the model and the scene spin image.

(4)グループ化:ステップS40
複数ある対応点ペアの中から、同時に成立することが可能な対応点ペアをまとめ、一つのグループとする。全ての可能なグループを作成する。
(4) Grouping: Step S40
From a plurality of corresponding point pairs, corresponding point pairs that can be established simultaneously are collected into one group. Create all possible groups.

(5)一致度の検証:ステップS50
グループごとに座標変換を行ったとき、モデルとシーンの表面がどの程度一致するかを評価して、グループの検証を行う。
(5) Verification of coincidence: Step S50
When coordinate transformation is performed for each group, the degree of matching between the model and the surface of the scene is evaluated to verify the group.

(6)高精度化:ステップS60
検証の結果得られた変換式をモデルの初期位置姿勢として、モデル頂点とシーン頂点のうち距離が最小の頂点同士を対応付け、この頂点ペア間の評価値が最小となるようにモデルの位置姿勢を補正する処理を繰り返すことで高精度化し、最終的な位置姿勢を算出する。
(6) Higher accuracy: Step S60
Using the transformation formula obtained as a result of verification as the initial position and orientation of the model, the model vertex and the vertex of the scene are associated with the vertex with the smallest distance, and the position and orientation of the model so that the evaluation value between this vertex pair is minimized The accuracy is improved by repeating the process of correcting the above, and the final position and orientation are calculated.

一連の物体認識処理(オンライン処理)を実施した後、得られた物体の位置姿勢を外部機器に通知する。例えば、ロボットアームを対象物体の把持位置に移動させる、などの処理を行う。   After performing a series of object recognition processing (online processing), the external device is notified of the position and orientation of the obtained object. For example, processing such as moving the robot arm to the gripping position of the target object is performed.

以下、図5の処理フローの各ステップの詳細を説明する。
[モデル入力]
図6に本発明の実施形態に係るモデル入力処理フローを示す。
Hereinafter, details of each step of the processing flow of FIG. 5 will be described.
[Model input]
FIG. 6 shows a model input processing flow according to the embodiment of the present invention.

(1)三次元形状データ読込:ステップS11
対象物体の三次元形状データを入力する。例えば、三次元形状データ表現形式の一つであるPLY形式のファイルを読み込む。PLYファイルは、頂点の三次元位置と、頂点間を結び物体の表面を表す三角メッシュ情報から成る。
図7に本発明の実施形態に係るPLY形式のファイルの例を示す。
図8に本発明の実施形態に係るPLYファイルをCADソフトで表示した例を示す。
(1) Reading three-dimensional shape data: Step S11
Input the 3D shape data of the target object. For example, a PLY file that is one of three-dimensional shape data expression formats is read. The PLY file includes three-dimensional positions of vertices and triangular mesh information that connects the vertices and represents the surface of the object.
FIG. 7 shows an example of a PLY format file according to the embodiment of the present invention.
FIG. 8 shows an example in which the PLY file according to the embodiment of the present invention is displayed by CAD software.

(2)法線ベクトル算出:ステップS12
スピンイメージ作成時の円筒座標設定に各頂点の法線情報が必要となるため、ここで作成する。頂点の法線は、その頂点を含む三角メッシュの法線の平均を単位ベクトル化したものである。
図9に本発明の実施形態に係る法線算出手順を示す。
(2) Normal vector calculation: Step S12
Since the normal information of each vertex is required to set the cylindrical coordinates when creating the spin image, it is created here. The vertex normal is obtained by converting the average of the normals of the triangular mesh including the vertex into a unit vector.
FIG. 9 shows a normal calculation procedure according to the embodiment of the present invention.

(3)モデルの頂点のスピンイメージ作成:ステップS13
頂点ごとに円筒座標を設定してその周辺の頂点をスピンマップにプロットすることで、各頂点のスピンイメージを作成する。スピンイメージ生成手順の詳細は後述する。
また、各スピンイメージごとに、値がゼロで無い画素数を記憶する。その中央値の1/2の値がスピンイメージ同士の類似度算出の際に用いられるパラメータλとなる。
(3) Creation of spin image of model vertex: Step S13
By setting cylindrical coordinates for each vertex and plotting the surrounding vertices on a spin map, a spin image of each vertex is created. Details of the spin image generation procedure will be described later.
In addition, the number of pixels whose value is not zero is stored for each spin image. A value ½ of the median becomes a parameter λ used when calculating the similarity between the spin images.

なお、一度算出した法線ベクトル、スピンイメージ、およびパラメータλは、ファイルとして記録し、必要に応じて読み込むことができる。よって、一度スピンイメージを作成したモデルを再度読み込む場合は、(2)法線ベクトル作成、(3)モデルの頂点のスピンイメージ作成処理を省略できる。   The normal vector, spin image, and parameter λ that have been calculated once can be recorded as a file and read as required. Therefore, when the model for which the spin image has been created once is read again, (2) normal vector creation and (3) spin image creation processing for the vertex of the model can be omitted.

[シーン計測]
図10に本発明の実施形態に係るシーン計測処理フローを示す。以下、各ステップについて説明する。
[Scene measurement]
FIG. 10 shows a scene measurement processing flow according to the embodiment of the present invention. Hereinafter, each step will be described.

(1)距離データ取得:ステップS21
距離センサを用いて、0個〜n個の対象物体やそれ以外の物体が存在する実際の環境を計測し、三次元点群データを得る。使用する距離センサは、可能な限り密に等間隔で距離データが得られるものが望ましい。
(1) Distance data acquisition: Step S21
Using a distance sensor, an actual environment where 0 to n target objects and other objects are present is measured, and three-dimensional point cloud data is obtained. It is desirable that the distance sensor to be used is one that can obtain distance data as closely as possible at equal intervals.

(2)メッシュ生成:ステップS22
計測した点群から、物体の表面を表す三角メッシュを生成する。三角メッシュの作成方法として、(a)正方格子分割し対角線を結ぶ方法や、(b)ドロネー三角形分割法がある。(a)正方格子分割は、点群を平面正方格子に投影し、格子ごとに代表点を決定し、隣り合う代表点を決まった形で結んで三角形を形成する手法である。(b)ドロネー三角形分割は、点群を三角形分割したとき、最小角度が最大になるよう分割する方法である。以下ではより精密な三角メッシュが得られる(b)ドロネー三角形分割法を用いる。
計測データを平面に投影し、平面上の点をドロネー三角形分割し、点群を三次元空間に戻したときに辺の長さがしきい値より大きい三角形を除去する、という手順でメッシュ生成を行う。
(2) Mesh generation: Step S22
A triangular mesh representing the surface of the object is generated from the measured point cloud. As a method of creating a triangular mesh, there are (a) a method of dividing a square lattice and connecting diagonal lines, and (b) a Delaunay triangulation method. (A) Square lattice division is a method in which a point group is projected onto a planar square lattice, representative points are determined for each lattice, and adjacent representative points are connected in a fixed manner to form a triangle. (B) Delaunay triangulation is a method of dividing the point group so that the minimum angle is maximized when the point group is triangulated. In the following, (b) Delaunay triangulation method is used to obtain a more precise triangular mesh.
The measurement data is projected onto a plane, the points on the plane are divided into Delaunay triangles, and the mesh generation is performed by removing triangles whose side length is larger than the threshold when the point group is returned to the three-dimensional space.

(3)法線ベクトル算出:ステップS23
スピンイメージ作成時の円筒座標設定条件として、各頂点の法線情報が必要となるため、ここで作成する。
(3) Normal vector calculation: Step S23
Since the normal information of each vertex is necessary as the cylindrical coordinate setting condition when creating the spin image, it is created here.

[対応点ペア作成]
対応点ペア作成処理では、モデルとシーンの対応点ペアを複数作成する。
図11に本発明の実施形態に係る対応点ペア作成処理フローを示す。以下、各ステップについて説明する。
[Corresponding point pair creation]
In the corresponding point pair creation process, a plurality of corresponding point pairs of a model and a scene are created.
FIG. 11 shows a corresponding point pair creation processing flow according to the embodiment of the present invention. Hereinafter, each step will be described.

(1)シーン頂点を一つ選びスピンイメージを作成:ステップS31
シーンの頂点を一つ選択し、その頂点に関するスピンイメージを作成する。シーンの頂点を一つ選択する際、ランダムピックアップを行っているが、他に、これまで選んだ頂点との距離の最小値が最大になる位置の頂点を選ぶ方法や、法線の精度が良い(周辺の頂点が多く、三角メッシュの辺が集中している)頂点を選ぶ方法などが考えられる。
(1) Select one scene vertex and create a spin image: Step S31
Select a vertex in the scene and create a spin image for that vertex. Random pickup is performed when selecting one vertex of the scene, but there are other methods such as selecting the vertex at the position where the minimum distance from the selected vertex is the maximum, and the accuracy of the normal is good There is a method of selecting vertices (the number of vertices in the periphery is large and the sides of the triangular mesh are concentrated).

(2)シーン頂点とモデル各頂点の類似度算出:ステップS32
作成したシーンの頂点と、モデルの各頂点のペアで、スピンイメージとの類似度を数1を用いて算出する。
例えば、モデルの頂点数が1000個の場合、1つのシーン頂点と1000個のモデル頂点の各ペアでそれぞれ類似度を算出し、1000個の類似度が算出される。
(2) Calculation of similarity between scene vertex and model vertex: Step S32
A similarity between the created vertex of the scene and each vertex of the model and the spin image is calculated using Equation (1).
For example, when the number of model vertices is 1000, the similarity is calculated for each pair of one scene vertex and 1000 model vertices, and 1000 similarities are calculated.

(3)突出して類似しているペアを対応点ペアに追加:ステップS33
前述した例で言うところの1000個のペアの中に、他と比較して特に類似度が高いペアがあれば、選択したシーン頂点とモデル頂点で対応点ペアCi(Si,Mi)を作成する。Siはシーン頂点を、Miはモデル頂点を示す。
(3) Add a protruding and similar pair to the corresponding point pair: Step S33
If there is a pair having a particularly high degree of similarity among the 1000 pairs in the above-described example, the corresponding point pair Ci (Si, Mi) is created with the selected scene vertex and model vertex. . Si represents a scene vertex, and Mi represents a model vertex.

ステップS31〜33の処理により、シーンのある1つの頂点を対応点とする対応点ペアが作成される。この処理を、シーン頂点数のある割合(パラメータαとして設定される)だけ繰り返す。例えば、パラメータαとして20%が設定されているとき、シーン頂点数が1000点あれば、ステップS31〜33の処理が200回繰り返される。
この結果、シーン頂点とモデル頂点を結びつける対応点ペアCi(Si,Mi)が複数生成される。
図12に本発明の実施形態に係るモデルとシーンの対応点ペアのイメージを示す。同図は、シーンとして動物の玩具を並べた環境を計測し、モデルとしてブタを使用して対応点ペアを検出した結果である。
By the processing in steps S31 to S33, a corresponding point pair having one corresponding vertex of the scene as a corresponding point is created. This process is repeated for a certain ratio of the number of scene vertices (set as parameter α). For example, when 20% is set as the parameter α, if the number of scene vertices is 1000, the processes in steps S31 to S33 are repeated 200 times.
As a result, a plurality of corresponding point pairs Ci (Si, Mi) that connect the scene vertex and the model vertex are generated.
FIG. 12 shows an image of a corresponding point pair of a model and a scene according to the embodiment of the present invention. This figure shows the result of measuring an environment in which animal toys are arranged as a scene, and detecting corresponding point pairs using a pig as a model.

[グループ化]
グループ化処理では、同時に成立することが可能な対応点ペアを一つのグループとする処理を繰り返し、複数のグループを作成する。
図13に本発明の実施形態に係るグループ化処理フローを示す。以下、各ステップについて説明する。
[Group]
In the grouping process, a process of making corresponding point pairs that can be established simultaneously as one group is repeated to create a plurality of groups.
FIG. 13 shows a grouping process flow according to the embodiment of the present invention. Hereinafter, each step will be described.

(1)対応点ペアCiのみを含むグループGiを作成:ステップS41
最初に、シーン頂点Siとモデル頂点Miを結びつける対応点ペアCi(Si,Mi)を、グループGiに追加する。この時点では、グループには基準となる一つの対応点ペアしか含まれていない。つまり、Gi={Ci}。
(1) Create a group Gi including only the corresponding point pair Ci: Step S41
First, the corresponding point pair Ci (Si, Mi) that connects the scene vertex Si and the model vertex Mi is added to the group Gi. At this point, the group includes only one reference point pair as a reference. That is, Gi = {Ci}.

(2)Giに最も追加しやすい対応点ペアCjを決定:ステップS42
Gi内に含まれている対応点ペアと同時に成り立つことができる新たな対応点ペアCjを決定する。同時に成り立つことができるかどうかの基準として、幾何学的一貫性を用いる。幾何学的一貫性の概念について説明する。対応点ペアC1(S1,M1)とC2(S2,M2)が同時に成り立つ場合、S1からS2までの距離と、M1からM2までの距離は同じで、かつS1法線とS2法線とベクトルS1→S2が成す3つの角の角度と、M1法線とM2法線とベクトルM1→M2が成す3つの角の角度は等しくなるはずである。この一致度合いから、対応点ペアC1とC2が幾何学的一貫性を持っているかどうかを判定することができる。
図14に本発明の実施形態に係る幾何学的一貫性の概念図を示す。
例えば、G1={C1,C4,C8}に対してC9を追加できるか評価する際、C1−C9,C4−C9,C8−C9の全てにおいて幾何学的一貫性が成り立てば、G1にC9を追加できると言える。
(2) Determine corresponding point pair Cj that is most easily added to Gi: Step S42
A new corresponding point pair Cj that can be established simultaneously with the corresponding point pair included in Gi is determined. Geometric consistency is used as a criterion for whether it can hold simultaneously. Explain the concept of geometric consistency. When the corresponding point pair C1 (S1, M1) and C2 (S2, M2) are simultaneously established, the distance from S1 to S2 is the same as the distance from M1 to M2, and the S1 normal, the S2 normal, and the vector S1 The angles of the three corners formed by S2 and the angles of the three corners formed by the M1 normal, the M2 normal, and the vector M1 → M2 should be equal. From the degree of coincidence, it can be determined whether or not the corresponding point pairs C1 and C2 have geometric consistency.
FIG. 14 shows a conceptual diagram of geometric consistency according to the embodiment of the present invention.
For example, when evaluating whether C9 can be added to G1 = {C1, C4, C8}, if geometric consistency is established in all of C1-C9, C4-C9, and C8-C9, C9 is set in G1. It can be said that it can be added.

(3)CjをGiに追加する:ステップS43
CjをGiに追加してもGiが幾何学的一貫性を維持可能な場合、CjをGiに追加する。CjをGiに追加するとGiが幾何学的一貫性を維持不可能な場合、Giに対する追加処理は終了する。
(3) Add Cj to Gi: Step S43
If Gi can maintain geometric consistency even if Cj is added to Gi, Cj is added to Gi. If Gi cannot maintain geometric consistency when Cj is added to Gi, the addition process for Gi ends.

(4)含まれている対応点ペアが多い順にグループを並び替え:ステップS44
全ての対応点ペアを基準にグループを作成した後、グループ内の対応点ペアが多い順にグループを並び替える。
図15(A)及び(B)に本発明の実施形態に係るグループ化された対応点ペアの例を示す。
(4) Sort the groups in descending order of the corresponding pair of included points: Step S44
After creating a group based on all the corresponding point pairs, the groups are rearranged in the descending order of the corresponding point pairs in the group.
15A and 15B show examples of grouped corresponding point pairs according to the embodiment of the present invention.

[一致度の検証]
一致度の検証処理では、モデルとシーンの表面がどの程度一致するかを評価して、各グループが物体の位置姿勢候補として適切かどうかを検証する。
図16に本発明の実施形態に係る一致度の検証処理フローを示す。以下、各ステップについて説明する。
[Verify match]
In the matching degree verification process, the degree of matching between the model and the surface of the scene is evaluated to verify whether each group is appropriate as an object position / posture candidate.
FIG. 16 shows a verification processing flow of the degree of coincidence according to the embodiment of the present invention. Hereinafter, each step will be described.

(1)シーン頂点のKDツリー作成:ステップS51
後の対応点ペア拡張処理の高速化のために、ここでシーン頂点のKDツリーを作成しておく。仮に入力データ点数がN点、参照データ点数がM点のときに、近傍点探索処理量が全探索でO(MN)であるのに対して、KDツリーを作成しておくことでO(NlogM)に削減できる。
(1) Creation of KD tree of scene vertex: Step S51
In order to speed up the later corresponding point pair expansion processing, a KD tree of scene vertices is created here. If the number of input data points is N and the number of reference data points is M points, the neighborhood point search processing amount is O (MN) for all searches, whereas O (NlogM) is created by creating a KD tree. ).

(2)グループGiの初期位置姿勢算出:ステップS52
グループGiに含まれる対応点ペアに基づき、モデルとシーンの対応点間の距離を最小にするような座標変換式Tiを算出する。Tiは3×3の回転行列Rと3×1の並進ベクトルtを含む、4×4の剛体変換式である。この変換式にしたがってモデルを移動させた結果を、グループGiが示す物体の初期位置姿勢とする。
(2) Initial position and orientation calculation of group Gi: Step S52
Based on the corresponding point pairs included in the group Gi, a coordinate conversion formula Ti that minimizes the distance between the corresponding points of the model and the scene is calculated. Ti is a 4 × 4 rigid body transformation formula including a 3 × 3 rotation matrix R and a 3 × 1 translation vector t. The result of moving the model according to this conversion formula is set as the initial position and orientation of the object indicated by the group Gi.

(3)対応点ペアの拡張:ステップS53
グループGiに含まれるモデル頂点に隣接するモデル頂点に対して、最近傍のシーン頂点をKDツリー探索によって見つけ、そのモデル頂点とシーン頂点の間の6次元距離(法線方向のずれも考慮に入れた距離)がしきい値以下ならば、その対応点ペアをグループGiに追加する。この処理を、対応点ペアが追加できなくなるまで繰り返す。
図17図に本発明の実施形態に係る対応点ペア拡張処理の例を示す。同図(A)は拡張前を示し、同図(B)は拡張後を示す。
(3) Extension of corresponding point pair: Step S53
For the model vertices adjacent to the model vertices included in group Gi, find the nearest scene vertices by KD tree search, and consider the 6-dimensional distance between the model vertices and the scene vertices (taking into account the deviation in the normal direction) If the distance is less than or equal to the threshold value, the corresponding point pair is added to the group Gi. This process is repeated until no corresponding point pair can be added.
FIG. 17 shows an example of corresponding point pair expansion processing according to the embodiment of the present invention. FIG. 4A shows before expansion, and FIG. 4B shows after expansion.

(4)Giを位置姿勢候補G’に登録:ステップS54
初期位置姿勢が正しく、モデルとシーンの表面が一致していれば、対応点ペアの拡張処理によりグループ内の対応点ペアの数は大幅に増加するはずである。グループ内の対応点ペアの数がしきい値(モデルの頂点数のβ%)より多ければ、このグループは対象物を捉えている可能性が高いとして、位置姿勢候補に残す。そうでなければ、このグループを除外する。
(4) Register Gi to position and orientation candidate G ′: Step S54
If the initial position and orientation are correct and the surface of the model and the scene match, the number of corresponding point pairs in the group should increase significantly due to the corresponding point pair expansion process. If the number of corresponding point pairs in the group is greater than a threshold value (β% of the number of model vertices), it is determined that this group is likely to capture an object, and the position / posture candidate is left. Otherwise, exclude this group.

このパラメータβは、運用条件に応じて設定すべきであるが、一般的な運用であれば、対応点ペア数がモデル頂点の10%以上であればそのグループが対象物体を捉えている可能性が高い。
グループGiの対応点ペアの数がしきい値より多ければ、Giを位置姿勢候補G’に追加する。その際、Giに含まれているシーン頂点は、以後の対応点ペア拡張処理に使えないようにする。これにより、位置姿勢候補が重なり合って出現することを防いでいる。
This parameter β should be set according to the operating conditions. In general operation, if the number of corresponding point pairs is 10% or more of the model vertices, the group may capture the target object. Is expensive.
If the number of corresponding point pairs of the group Gi is larger than the threshold value, Gi is added to the position / posture candidate G ′. At that time, the scene vertices included in Gi are made unusable for the subsequent corresponding point pair expansion processing. This prevents position and orientation candidates from appearing in an overlapping manner.

(5)G’を対応点ペア数が多い順に並び替え:ステップS55
全てのグループで一致度の検証処理を行い、位置姿勢候補G’を作成した後、対応点ペアが多い順にG’を並び替える。
(5) Rearrange G ′ in descending order of the number of corresponding point pairs: Step S55
After the matching degree verification processing is performed for all the groups and the position / orientation candidate G ′ is created, G ′ is rearranged in the descending order of corresponding point pairs.

[高精度化]
一致度の検証の結果得られた対応点ペアのグループから算出される座標変換式によってモデルの位置姿勢を決定し、これを初期位置姿勢として、高精度化により最終的な位置姿勢を算出する。
図18に高精度化処理フローを示す。以下、各ステップについて説明する。
[High precision]
The position and orientation of the model is determined by a coordinate transformation formula calculated from the corresponding point pair group obtained as a result of the matching degree verification, and this is used as the initial position and orientation to calculate the final position and orientation with high accuracy.
FIG. 18 shows a flow of high accuracy processing. Hereinafter, each step will be described.

(1)グループG’iから初期位置姿勢を算出:ステップS61
グループG’i内の対応点ペアから、モデルとシーンの頂点間距離を最小にする座標変換式T’iを算出する。T’iは、3x3の回転行列Rと、3x1の並進ベクトルtを含む、4x4の剛体変換式である。このT’iによって得られるモデルの位置姿勢を、高精度化開始時の初期位置姿勢とする。
(1) Calculate initial position and orientation from group G′i: Step S61
A coordinate conversion formula T′i that minimizes the distance between the vertexes of the model and the scene is calculated from the pair of corresponding points in the group G′i. T′i is a 4 × 4 rigid body transformation formula including a 3 × 3 rotation matrix R and a 3 × 1 translation vector t. The position and orientation of the model obtained by this T′i is set as the initial position and orientation at the start of high accuracy.

(2)位置姿勢の高精度化:ステップS62
高精度化の詳細は後述する。
(2) Higher accuracy of position and orientation: Step S62
Details of the high accuracy will be described later.

(3)モデルの重心移動距離算出:ステップS63
モデルの初期位置姿勢と、高精度化の結果得られた位置姿勢を比較し、重心の移動距離を算出する。重心の移動距離がしきい値(パラメータδ)より大きければ、初期位置姿勢が確実でなく、高精度化の結果にも信頼が置けないものと判断して、このグループを除去する。
(3) Model center-of-gravity movement distance calculation: Step S63
The initial position and orientation of the model is compared with the position and orientation obtained as a result of higher accuracy, and the center of gravity movement distance is calculated. If the moving distance of the center of gravity is larger than the threshold value (parameter δ), it is determined that the initial position and orientation are not reliable and the reliability is not reliable, and this group is removed.

(4)最終的な物体の三次元位置姿勢の登録:ステップS64
重心の移動距離がしきい値以内であれば、この高精度化の結果を最終的な物体の位置姿勢の一つとして登録する。
(4) Registration of final three-dimensional position and orientation of object: Step S64
If the movement distance of the center of gravity is within a threshold value, the result of this high accuracy is registered as one of the final object positions and orientations.

全ての位置姿勢候補に対して高精度化を行い、物体の最終的な位置姿勢を得る。対象物体がシーン上に存在しない場合や、複数存在することがあるため、最終的に1つも位置姿勢が得られないことや、2つ以上の位置姿勢が得られることがある。   All the position / orientation candidates are improved in accuracy to obtain the final position / orientation of the object. When the target object does not exist on the scene or there may be a plurality of target objects, one position or orientation may not be finally obtained, or two or more positions and orientation may be obtained.

[高精度化の定義]
図19に、高精度化の基本概念を示す。同図に示すように、高精度化の基本は、モデルを初期位置姿勢に配置し(同図(a))、モデルとシーンとで対応する頂点を決め(同図(b))、対応する頂点間距離の総和が最小となるようなモデルの座標変換式を算出し、モデルに座標変換を加え(同図(c))、その後、モデルとシーンの対応を新たに作成する(同図(d))、という処理を、終了条件を満たすまで繰り返し実施するものである。
[Definition of high precision]
FIG. 19 shows the basic concept of high accuracy. As shown in the figure, the basics of high accuracy are that the model is placed in the initial position and orientation ((a) in the figure), and corresponding vertices are determined between the model and the scene ((b) in the figure). A model coordinate transformation formula that minimizes the sum of the distances between vertices is calculated, coordinate transformation is added to the model (FIG. (C)), and then a new correspondence between the model and the scene is created (FIG. ( The process d)) is repeated until the end condition is satisfied.

[主要なパラメータ]
高精度化における主要なパラメータを以下に述べる。
(1)対応点間距離のしきい値:モデルとシーンの対応点ペアを作成する際、極端に大きくはなれた頂点同士を対応点ペアとして結び付けてしまうと、正しい変換式が得られない。よって、しきい値以上離れた頂点同士は対応しないものとする。
[Main parameters]
The main parameters for high accuracy are described below.
(1) Threshold value of distance between corresponding points: When a corresponding point pair of a model and a scene is created, if vertices that are extremely large are connected as corresponding point pairs, a correct conversion formula cannot be obtained. Therefore, vertices that are more than the threshold value do not correspond to each other.

(2)対応点間法線角度のしきい値:モデルとシーンの対応点ペアを作成する際、法線方向が大きく異なる頂点同士を対応点ペアとして結び付けてしまうと、例えば直方体の異なる面同士を結び付けているような状態となり、正しい変換式が得られない。よって、法線の角度差がしきい値以上の場合、対応しないようにする。 (2) Normal angle threshold between corresponding points: When creating a corresponding point pair of a model and a scene, if vertices whose normal directions are greatly different are connected as corresponding point pairs, for example, different faces of a rectangular parallelepiped , And the correct conversion formula cannot be obtained. Therefore, when the angle difference between the normals is greater than or equal to the threshold value, it is not handled.

(3)終了条件を表すパラメータ:高精度化の終了条件として、対応点間距離が縮まらなくなった場合に終了する方法や、ある回数以上繰り返した場合に終了する方法などがある。その際、距離しきい値や、繰り返し回数上限値がパラメータとなる。 (3) Parameter indicating end condition: As an end condition for high accuracy, there are a method of ending when the distance between corresponding points is not reduced, a method of ending when the distance between the corresponding points is not reduced, and the like. At that time, the distance threshold and the upper limit of the number of repetitions are parameters.

[高精度化の改良点]
通常の高精度化に対して、以下の改良を行った。
(1)データの表面を表す三角メッシュにおいて、表面の輪郭部分を成す頂点に関する対応は、最小化処理の対象としない。これにより、誤対応を減らし、精度を向上させる。
図20に、輪郭部分を使用しない処理のイメージを示す。
[Improved accuracy]
The following improvements were made to normal high accuracy.
(1) In the triangular mesh representing the surface of the data, the correspondence regarding the vertices forming the contour portion of the surface is not subject to the minimization process. This reduces false correspondence and improves accuracy.
FIG. 20 shows an image of processing that does not use the contour portion.

(2)モデルの各頂点から最小距離にあるシーン頂点を見つけ、対応点ペアとするだけでなく、シーンの各頂点から最小距離にあるモデル頂点を見つけて対応点ペアとする処理を加え、双方向から対応点ペアを見つける。これにより、収束演算回数を減らし、最終的な精度を向上させる。
図21に、双方向対応点ペア決定のイメージを示す。
(2) In addition to finding a scene vertex at the minimum distance from each vertex of the model and making it a corresponding point pair, add processing to find a model vertex at the minimum distance from each vertex of the scene and making it a corresponding point pair, Find the corresponding point pair from the direction. This reduces the number of convergence operations and improves the final accuracy.
FIG. 21 shows an image of determining a bidirectional correspondence point pair.

(3)対応点間距離の最小化演算処理の際、対応点間の単純なユークリッド距離を最小にするのではなく、対応方向を表すベクトルと対応先の頂点の法線ベクトルの内積をユークリッド距離に掛けた値を最小化する。これにより、点と点の距離を最小にするのではなく、点と面の距離を最小にするような効果が得られるので、精度を向上させることができる。図22に、内積を考慮した距離の最小化のイメージを示す。 (3) In the process of minimizing the distance between corresponding points, instead of minimizing the simple Euclidean distance between corresponding points, the inner product of the vector representing the corresponding direction and the normal vector of the corresponding vertex is the Euclidean distance. Minimize the value multiplied by. As a result, an effect of minimizing the distance between the points and the surface is obtained instead of minimizing the distance between the points, and the accuracy can be improved. FIG. 22 shows an image of distance minimization considering the inner product.

(4)全ての対応点間距離を算出した後、対応点間距離が極端に大きい対応点ペアは、最小化処理の対象としない。これにより、誤対応を減らし、精度を向上させる。具体的には、対応点間距離が平均値のx倍(パラメータ。例えば10倍など。)を超える対応点ペアは対象から外す、という処理を行う。 (4) After calculating the distance between all corresponding points, a corresponding point pair having an extremely large distance between corresponding points is not subjected to the minimization process. This reduces false correspondence and improves accuracy. Specifically, a process is performed in which corresponding point pairs whose distance between corresponding points exceeds x times the average value (parameter, for example, 10 times) are excluded from the target.

前記の如く、スピンイメージを用いた特徴量ベースの高速な位置決めを行った後、高精度化による精密な位置決めを行うことで、対象物体の三次元形状データ(モデル)と、距離センサから得られる距離データ(シーン)を照合して、対象物体の三次元的な位置姿勢を認識することができる。   As described above, after performing high-speed feature-based positioning using a spin image, precise positioning is performed with high accuracy, and it is obtained from the three-dimensional shape data (model) of the target object and the distance sensor. The three-dimensional position and orientation of the target object can be recognized by collating the distance data (scene).

スピンイメージは、物体の局所的な三次元形状特徴を捉えた、回転不変な特徴量であるため、物体の一部隠れが発生している状況や、複数の物体が混在している状況における物体認識に適用できる。   A spin image is a rotation-invariant feature that captures the local three-dimensional shape of an object. Therefore, an object in a situation where part of the object is partially hidden or in which multiple objects are mixed Applicable to recognition.

ただし、特徴量ベースの位置決めは高速だが、モデルとシーンの対応箇所が比較的少ない状態で位置決めを行うため、精度が粗い可能性がある。そこで、特徴量ベースの位置決め結果を初期位置として、高精度化による精密な位置決めを行うことにより、高速・高精度な位置姿勢検出が可能となる。   However, although feature-based positioning is fast, positioning is performed in a state where there are relatively few locations corresponding to the model and the scene, so the accuracy may be rough. Therefore, high-precision and high-precision position and orientation detection can be performed by using the feature-based positioning result as an initial position and performing precise positioning with high accuracy.

3D−CADデータをモデルデータとして導入するメリットは、以下のとおりである。(1)実物による教示の手間を削減できる、(2)工業部品の設計では3D−CADの導入が進んでおり、認識したい物体については既に3D−CADデータが存在することが多いので、既存データを活用することで作業量を削減できる。   The merit of introducing 3D-CAD data as model data is as follows. (1) It is possible to reduce the time and effort of teaching with the actual product. (2) In the design of industrial parts, 3D-CAD has been introduced, and 3D-CAD data already exists for objects to be recognized. The amount of work can be reduced by using.

前記の物体認識手法の大まかな性能として、モデル頂点数1000点程度、シーン頂点数5000点程度のとき、モデルがある程度(モデルの全表面の15%程度以上)出現していれば、3秒程度(CPU Celeron(登録商標)2.8GHz、メモリ512MB)で物体の位置姿勢を認識できた。   As a rough performance of the above object recognition method, when the number of model vertices is about 1000 points and the number of scene vertices is about 5000 points, if the model appears to some extent (about 15% or more of the entire surface of the model), about 3 seconds (CPU Celeron (registered trademark) 2.8 GHz, memory 512 MB) was able to recognize the position and orientation of the object.

実施形態として、三次元形状の計測について説明したが、二次元形状を三次元形状の特別な場合として見ることにより、二次元形状も同様に計測できる。   Although the measurement of the three-dimensional shape has been described as an embodiment, the two-dimensional shape can be similarly measured by looking at the two-dimensional shape as a special case of the three-dimensional shape.

なお、本発明は、上述した実施形態に限定されず、本発明の要旨を逸脱しない範囲で種々に変更することができることは勿論である。   In addition, this invention is not limited to embodiment mentioned above, Of course, it can change variously in the range which does not deviate from the summary of this invention.

本発明の実施形態に係る物体認識装置の全体構成図である。1 is an overall configuration diagram of an object recognition device according to an embodiment of the present invention. 本発明の実施形態に係る物体認識処理部の構成の一例を示す図である。It is a figure which shows an example of a structure of the object recognition process part which concerns on embodiment of this invention. 本発明の実施形態に係るCADデータとスピンイメージの例を示す図である。It is a figure which shows the example of CAD data and a spin image which concern on embodiment of this invention. 本発明の実施形態に係る円筒座標系のイメージを示す図である。It is a figure which shows the image of the cylindrical coordinate system which concerns on embodiment of this invention. 本発明の実施形態に係る三次元物体認識の処理フローを示す図である。It is a figure which shows the processing flow of the three-dimensional object recognition which concerns on embodiment of this invention. 本発明の実施形態に係るモデル入力処理フローを示す図である。It is a figure which shows the model input processing flow which concerns on embodiment of this invention. 本発明の実施形態に係るPLY形式のファイルの例を示す図である。It is a figure which shows the example of the file of the PLY format which concerns on embodiment of this invention. 本発明の実施形態に係るPLYファイルをCADソフトで表示した例を示す図である。It is a figure which shows the example which displayed the PLY file which concerns on embodiment of this invention with CAD software. 本発明の実施形態に係る法線算出手順を示す図である。It is a figure which shows the normal calculation procedure which concerns on embodiment of this invention. 本発明の実施形態に係るシーン計測処理フローを示す図である。It is a figure which shows the scene measurement process flow which concerns on embodiment of this invention. 本発明の実施形態に係る対応点ペア作成処理フローを示す図である。It is a figure which shows the corresponding point pair creation process flow which concerns on embodiment of this invention. 本発明の実施形態に係るモデルとシーンの対応点ペアのイメージを示す図である。It is a figure which shows the image of the corresponding point pair of the model and scene which concerns on embodiment of this invention. 本発明の実施形態に係るグループ化処理フローを示す図である。It is a figure which shows the grouping process flow which concerns on embodiment of this invention. 本発明の実施形態に係る幾何学的一貫性の概念図である。It is a conceptual diagram of the geometric consistency which concerns on embodiment of this invention. (A)及び(B)は本発明の実施形態に係るグループ化された対応点ペアの例を示す図である。(A) And (B) is a figure which shows the example of the grouped corresponding point pair which concerns on embodiment of this invention. 本発明の実施形態に係る一致度の検証処理フローを示す図である。It is a figure which shows the verification processing flow of a matching degree which concerns on embodiment of this invention. 本発明の実施形態に係る対応点ペア拡張処理の例を示す図であって、(A)は拡張前を示し、(B)は拡張後を示す。It is a figure which shows the example of the corresponding point pair expansion process which concerns on embodiment of this invention, Comprising: (A) shows before expansion and (B) shows after expansion. 本発明の実施形態に係る高精度化処理フローを示す図である。It is a figure which shows the high precision processing flow which concerns on embodiment of this invention. 高精度化の基本概念を示す図である。It is a figure which shows the basic concept of high precision. 本発明の実施形態において高精度化改良のために行う「輪郭部分を使用しない処理」のイメージを示す図である。It is a figure which shows the image of the "process which does not use a contour part" performed for the improvement in precision in embodiment of this invention. 本発明の実施形態において高精度化改良のために行う「双方向対応点ペア決定」のイメージを示す図である。It is a figure which shows the image of "bidirectional corresponding point pair determination" performed for improvement in precision improvement in embodiment of this invention. 本発明の実施形態において高精度化改良のために行う「内積を考慮した距離の最小化」のイメージを示す図である。It is a figure which shows the image of the "minimization of the distance which considered the inner product" performed for the improvement in precision in embodiment of this invention.

符号の説明Explanation of symbols

32 データ入力装置
33 外部記憶装置
34 内部記憶装置
35 中央処理装置
40 物体認識装置
41 3Dセンサ
42 物体認識処理部
43 モデルデータベース部
45 ロボット制御部
46 ロボット
32 Data input device 33 External storage device 34 Internal storage device 35 Central processing unit 40 Object recognition device 41 3D sensor 42 Object recognition processing unit 43 Model database unit 45 Robot control unit 46 Robot

Claims (7)

物体の位置姿勢を認識する物体認識装置であって、
頂点の三次元位置と頂点間を結び物体の表面を表す情報からなる三次元形状データを読み込み、モデルの頂点に対して物体の局所的な表面形状を表す特徴量を作成するモデル入力手段と、
実際の環境をセンサで計測して距離データを取得し、物体の表面情報を作成するシーン計測手段と、
シーン頂点に対して物体の局所的な表面形状を表す特徴量を作成し、シーン頂点の特徴量とモデル頂点の特徴量の類似度を算出し、類似度がしきい値よりも高いペアが存在したら、前記シーン頂点と前記モデル頂点を対応点ペアCiとする対応点ペア作成手段と、
前記対応点ペアCiを含むグループGiを作成し、前記グループGiに含まれている全ての対応点ペアとの関係で幾何学的一貫性を有する他の対応点ペアを前記グループGiに追加する処理を繰り返し、全ての対応点ペアを基準にグループを作成するグループ化手段と、
前記グループGiに含まれる対応点ペアに基づき、モデルとシーンの対応点間の距離を最小にする座標変換式Tiを算出し、座標変換式Tiにしたがってモデルを移動させた結果を前記グループGiが示す物体の初期位置姿勢とし、前記グループGiに含まれるモデル頂点に隣接するモデル頂点に対して、最近傍のシーン頂点を見つけ、そのモデル頂点とシーン頂点の間の距離が第1しきい値以下ならば、その対応点ペアを前記グループGiに追加する処理を繰り返し、繰り返した後にグループ内の対応点ペアの数が第2しきい値よりも多ければ前記グループGiから得られる位置姿勢に物体が存在すると判定し、この処理を全てのグループGiに対して実行して計測データ内に存在する0個以上の物体の位置姿勢を決定する一致度検証手段と、
前記一致度検証手段により検出したモデルの位置姿勢を初期値として、モデル頂点とシーン頂点のうち距離が最小の頂点同士を対応付け、この頂点ペア間の評価値が最小となるようにモデルの位置姿勢を補正する処理を繰り返すことで高精度化し、最終的な位置姿勢を算出する高精度化手段を備えることを特徴とする物体認識装置。
An object recognition device that recognizes the position and orientation of an object,
Model input means for reading the 3D shape data consisting of information representing the surface of the object connecting the 3D positions of the vertices and the vertices, and creating a feature quantity representing the local surface shape of the object with respect to the vertex of the model;
A scene measurement means for measuring the actual environment with a sensor to obtain distance data and creating surface information of the object;
Creates a feature value that represents the local surface shape of the object with respect to the scene vertex, calculates the similarity between the feature value of the scene vertex and the feature value of the model vertex, and there is a pair whose similarity is higher than the threshold value Then, a corresponding point pair creating unit having the scene vertex and the model vertex as a corresponding point pair Ci;
Processing for creating a group Gi including the corresponding point pair Ci and adding another corresponding point pair having geometric consistency in relation to all the corresponding point pairs included in the group Gi to the group Gi And grouping means for creating a group based on all corresponding point pairs,
Based on the corresponding point pair included in the group Gi, the coordinate conversion formula Ti that minimizes the distance between the corresponding points of the model and the scene is calculated, and the result of moving the model according to the coordinate conversion formula Ti is the group Gi. Find the nearest scene vertex for the model vertex adjacent to the model vertex included in the group Gi, and the distance between the model vertex and the scene vertex is below the first threshold If the number of corresponding point pairs in the group is greater than the second threshold after repeating the process of adding the corresponding point pair to the group Gi, the object is in the position and orientation obtained from the group Gi. Consistency verification means that determines that the object exists and executes this process for all groups Gi to determine the position and orientation of zero or more objects present in the measurement data ,
Using the position and orientation of the model detected by the matching level verification means as an initial value, the model vertex and the vertex of the scene are associated with each other with the smallest distance, and the model position is such that the evaluation value between the vertex pair is minimized. An object recognizing device comprising high accuracy means for calculating a final position and orientation by increasing accuracy by repeating processing for correcting the orientation.
前記特徴量がスピンイメージであることを特徴とする請求項1に記載の物体認識装置。   The object recognition apparatus according to claim 1, wherein the feature amount is a spin image. 前記三次元形状データが3D−CADデータであることを特徴とする請求項1又は2に記載の物体認識装置。   The object recognition apparatus according to claim 1, wherein the three-dimensional shape data is 3D-CAD data. 前記高精度化手段が、データの表面の輪郭部分を成す頂点は最小化処理の対象としないことを特徴とする請求項1乃至3のいずれか一項に記載の物体認識装置。   The object recognition apparatus according to any one of claims 1 to 3, wherein the high-accuracy means does not set a vertex that forms a contour portion of a surface of data as a target of the minimization process. 前記高精度化手段が、モデルの各頂点から最小距離にあるシーン頂点を見つけ、対応点ペアとするだけでなく、シーンの各頂点から最小距離にあるモデル頂点を見つけて対応点ペアとすることを特徴とする請求項1乃至4のいずれか一項に記載の物体認識装置。   The high-accuracy means not only finds a scene vertex at the minimum distance from each vertex of the model and makes it a corresponding point pair, but also finds a model vertex at the minimum distance from each vertex of the scene and makes it a corresponding point pair The object recognition device according to any one of claims 1 to 4, wherein 前記高精度化手段が、モデルの初期位置姿勢と、高精度化された位置姿勢を比較して、重心の移動距離を算出し、当該重心の移動距離が第3しきい値以内である場合は、当該位置姿勢を最終的な位置姿勢の一つとして登録し、当該重心の移動距離が第3しきい値よりも大きい場合は、当該位置姿勢を最終的な位置姿勢の一つとして登録しないことを特徴とする請求項1乃至5のいずれか一項に記載の物体認識装置。   When the high accuracy means compares the initial position and orientation of the model with the highly accurate position and orientation to calculate the movement distance of the center of gravity, and the movement distance of the center of gravity is within the third threshold value , Register the position and orientation as one of the final position and orientation, and if the movement distance of the center of gravity is greater than the third threshold, do not register the position and orientation as one of the final position and orientation The object recognition device according to any one of claims 1 to 5, wherein 請求項1記載の物体認識装置と、
前記物体認識装置から出力される前記位置姿勢情報に基づいてロボットの作業位置を制御する制御手段を備えることを特徴とするロボット装置。
The object recognition device according to claim 1;
A robot apparatus comprising: control means for controlling a work position of the robot based on the position and orientation information output from the object recognition apparatus.
JP2007303502A 2007-11-22 2007-11-22 Object recognition apparatus and robot apparatus Expired - Fee Related JP5104248B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007303502A JP5104248B2 (en) 2007-11-22 2007-11-22 Object recognition apparatus and robot apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007303502A JP5104248B2 (en) 2007-11-22 2007-11-22 Object recognition apparatus and robot apparatus

Publications (2)

Publication Number Publication Date
JP2009128192A true JP2009128192A (en) 2009-06-11
JP5104248B2 JP5104248B2 (en) 2012-12-19

Family

ID=40819271

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007303502A Expired - Fee Related JP5104248B2 (en) 2007-11-22 2007-11-22 Object recognition apparatus and robot apparatus

Country Status (1)

Country Link
JP (1) JP5104248B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008309671A (en) * 2007-06-15 2008-12-25 Ihi Corp Object recognition method and device
JP2011179910A (en) * 2010-02-26 2011-09-15 Canon Inc Device and method for measuring position and attitude, and program
JP2013010155A (en) * 2011-06-28 2013-01-17 Canon Inc Target object gripping apparatus, method of controlling the same, and program
JP2013124923A (en) * 2011-12-14 2013-06-24 Ihi Corp Weld bead position detection method and weld bead position detection device
JP2018051652A (en) * 2016-09-27 2018-04-05 株式会社日立製作所 Robot system
US10350752B2 (en) 2017-03-13 2019-07-16 Fanuc Corporation Robot system, measurement data processing device and measurement data processing method for picking out workpiece using measurement data corrected by means of machine learning
DE112017006839T5 (en) 2017-01-16 2019-09-26 Fujitsu Limited Information processing apparatus, database creation apparatus, method, program and storage medium

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0644361A (en) * 1992-03-02 1994-02-18 General Motors Corp <Gm> Surface identification device
JPH09277184A (en) * 1996-04-15 1997-10-28 Ricoh Co Ltd Image processing
JPH11134518A (en) * 1997-11-04 1999-05-21 Minolta Co Ltd Three-dimensional shape data processor
JP2000337831A (en) * 1999-05-28 2000-12-08 Minolta Co Ltd Method for aligning three-dimensional data
WO2007046763A1 (en) * 2005-10-18 2007-04-26 Morphic Technologies Aktiebolag (Publ.) A method and an arrangement for locating and picking up objects from a carrier
WO2008056777A1 (en) * 2006-11-10 2008-05-15 Konica Minolta Holdings, Inc. Authentication system and authentication method
JP2009128191A (en) * 2007-11-22 2009-06-11 Ihi Corp Object recognition device and robot device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0644361A (en) * 1992-03-02 1994-02-18 General Motors Corp <Gm> Surface identification device
JPH09277184A (en) * 1996-04-15 1997-10-28 Ricoh Co Ltd Image processing
JPH11134518A (en) * 1997-11-04 1999-05-21 Minolta Co Ltd Three-dimensional shape data processor
JP2000337831A (en) * 1999-05-28 2000-12-08 Minolta Co Ltd Method for aligning three-dimensional data
WO2007046763A1 (en) * 2005-10-18 2007-04-26 Morphic Technologies Aktiebolag (Publ.) A method and an arrangement for locating and picking up objects from a carrier
WO2008056777A1 (en) * 2006-11-10 2008-05-15 Konica Minolta Holdings, Inc. Authentication system and authentication method
JP2009128191A (en) * 2007-11-22 2009-06-11 Ihi Corp Object recognition device and robot device

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008309671A (en) * 2007-06-15 2008-12-25 Ihi Corp Object recognition method and device
JP2011179910A (en) * 2010-02-26 2011-09-15 Canon Inc Device and method for measuring position and attitude, and program
JP2013010155A (en) * 2011-06-28 2013-01-17 Canon Inc Target object gripping apparatus, method of controlling the same, and program
US9044858B2 (en) 2011-06-28 2015-06-02 Canon Kabushiki Kaisha Target object gripping apparatus, method for controlling the same and storage medium
JP2013124923A (en) * 2011-12-14 2013-06-24 Ihi Corp Weld bead position detection method and weld bead position detection device
JP2018051652A (en) * 2016-09-27 2018-04-05 株式会社日立製作所 Robot system
DE112017006839T5 (en) 2017-01-16 2019-09-26 Fujitsu Limited Information processing apparatus, database creation apparatus, method, program and storage medium
US11506755B2 (en) 2017-01-16 2022-11-22 Fujitsu Limited Recording medium recording information processing program, information processing apparatus, and information processing method
US10350752B2 (en) 2017-03-13 2019-07-16 Fanuc Corporation Robot system, measurement data processing device and measurement data processing method for picking out workpiece using measurement data corrected by means of machine learning
DE102018001781B4 (en) 2017-03-13 2019-07-18 Fanuc Corporation A robot system, measurement data processing apparatus, and measurement data processing method for picking up a workpiece using measurement data corrected by machine learning

Also Published As

Publication number Publication date
JP5104248B2 (en) 2012-12-19

Similar Documents

Publication Publication Date Title
JP5251080B2 (en) Object recognition method
JP5092711B2 (en) Object recognition apparatus and robot apparatus
JP4900204B2 (en) Object recognition method
JP5671281B2 (en) Position / orientation measuring apparatus, control method and program for position / orientation measuring apparatus
US10684116B2 (en) Position and orientation measuring apparatus, information processing apparatus and information processing method
US8792726B2 (en) Geometric feature extracting device, geometric feature extracting method, storage medium, three-dimensional measurement apparatus, and object recognition apparatus
JP5104248B2 (en) Object recognition apparatus and robot apparatus
US9467682B2 (en) Information processing apparatus and method
JP6323993B2 (en) Information processing apparatus, information processing method, and computer program
JP5677798B2 (en) 3D object recognition and position and orientation determination method in 3D scene
JP5627325B2 (en) Position / orientation measuring apparatus, position / orientation measuring method, and program
JP5380792B2 (en) Object recognition method and apparatus
JP4766269B2 (en) Object detection method, object detection apparatus, and robot equipped with the same
JP2016170050A (en) Position attitude measurement device, position attitude measurement method and computer program
JP5976089B2 (en) Position / orientation measuring apparatus, position / orientation measuring method, and program
JP2021086432A (en) Information processing apparatus, information processing method, computer program, measurement apparatus, system, and method of manufacturing article
WO2008032375A1 (en) Image correcting device and method, and computer program
JP5083715B2 (en) 3D position and orientation measurement method and apparatus
JP5462662B2 (en) Position / orientation measurement apparatus, object identification apparatus, position / orientation measurement method, and program
JP3516668B2 (en) Three-dimensional shape recognition method, apparatus and program
CN113267122B (en) Industrial part size measurement method based on 3D vision sensor
JPH10124677A (en) Method for estimating attitude of object and device therefor
Viswanath et al. A simplified error model for height estimation using a single camera
CN116524011B (en) Refinement method of robot to target pose in home environment
JP5938201B2 (en) Position / orientation measuring apparatus, processing method thereof, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100927

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120829

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120904

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120917

R151 Written notification of patent or utility model registration

Ref document number: 5104248

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151012

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees