JP2009216480A - Three-dimensional position and attitude measuring method and system - Google Patents

Three-dimensional position and attitude measuring method and system Download PDF

Info

Publication number
JP2009216480A
JP2009216480A JP2008059017A JP2008059017A JP2009216480A JP 2009216480 A JP2009216480 A JP 2009216480A JP 2008059017 A JP2008059017 A JP 2008059017A JP 2008059017 A JP2008059017 A JP 2008059017A JP 2009216480 A JP2009216480 A JP 2009216480A
Authority
JP
Japan
Prior art keywords
image
data
feature
model data
degree
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008059017A
Other languages
Japanese (ja)
Other versions
JP5083715B2 (en
Inventor
Teruyuki Shima
輝行 島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IHI Corp
Original Assignee
IHI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IHI Corp filed Critical IHI Corp
Priority to JP2008059017A priority Critical patent/JP5083715B2/en
Publication of JP2009216480A publication Critical patent/JP2009216480A/en
Application granted granted Critical
Publication of JP5083715B2 publication Critical patent/JP5083715B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a three-dimensional position and attitude measuring method and an apparatus capable of accurately detecting the position and attitude of an object by one camera without having to use teaching images of the object. <P>SOLUTION: The three-dimensional position and attitude measuring method includes: a model input step S1 for previously storing model data 5 of the object 1; an image taking step S2 for photographing the object to be detected and acquiring images 2; a characteristics extraction step S3 for extracting characteristic data 6 in the images corresponding to the model data from the images 2; a matching degree evaluation step S5 for evaluating the degree of geometric matching between the model data and the characteristic data in the images; a coordinate transformation step S7 for computing a coordinate transformation formula such that the model data may move to the position of characteristic data in images having a high degree of geometric matching; and a position and attitude determination step S8 for determining the three-dimensional position and attitude of the object 1 by the coordinate transformation formula. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、特徴の配置に基づく物体(対象物)の三次元位置姿勢計測方法および装置に関する。   The present invention relates to a method and apparatus for measuring a three-dimensional position and orientation of an object (target object) based on feature arrangement.

ハンドリングロボット、自走ロボット、ヒューマノイドロボット等において、ロボットの目として、物体を三次元計測し、その位置及び姿勢を計測することが必要となる。
この目的を達成するために、例えば特許文献1〜3が既に提案されている。
In handling robots, self-running robots, humanoid robots, etc., it is necessary to measure an object three-dimensionally and measure its position and orientation as the eyes of the robot.
In order to achieve this object, for example, Patent Documents 1 to 3 have already been proposed.

特許文献1の「画像処理機能を持つロボット装置」は、1台のカメラで様々な方向から物体を撮影することで、事前に物体の見え方を十分教示しておき、この教示画像群と現在の見え方とのパターンマッチングにより、物体の位置姿勢を推定するものである。   The “robot device having an image processing function” in Patent Document 1 teaches in advance how to see an object by photographing an object from various directions with a single camera. The position and orientation of the object are estimated by pattern matching with the appearance of the object.

特許文献2の「物品の位置検出方法およびその装置」は、ステレオ計測によって物体の3次元位置を検出するものである。まず、左右の画像それぞれに対して2次元見え方モデルとの照合を行い、各画像上の物体の特徴部の位置を決定する。この左右の特徴部を対応付けたステレオ視を行うことで、物体の3次元位置を決定する。
2次元見え方モデルと画像の照合は、例えば、画像上で特徴部(例えば画像上の円中心)を抽出し、複数の特徴部を結んだ多角形の各頂点の角度差の総和が最小になる特徴部の組合せを決定する。
Patent Document 2 “Article Position Detection Method and Device” detects a three-dimensional position of an object by stereo measurement. First, the left and right images are collated with the two-dimensional appearance model, and the position of the feature portion of the object on each image is determined. The three-dimensional position of the object is determined by performing stereo viewing in which the left and right feature parts are associated.
The collation between the two-dimensional appearance model and the image is performed by, for example, extracting a feature portion (for example, the center of a circle on the image) on the image and minimizing the sum of the angular differences of the vertices of the polygon connecting the plurality of feature portions. The combination of features is determined.

特許文献3の「三次元物体認識方法及びその装置」は、入力画像から得られる輪郭などを直線、円弧に近似したデータであるとともにスレテオ計測で得た3次元位置データを有する特徴データと、モデルデータのマッチングにより物体の三次元位置姿勢を得る。ここで、三次元位置姿勢を得るために必要な3点を形成できる特徴のグループである特徴グループを用いるものである。   Patent Document 3 discloses a “three-dimensional object recognition method and apparatus”, which is data that approximates a contour or the like obtained from an input image to a straight line or an arc, and has three-dimensional position data obtained by a stereo measurement, and a model. The three-dimensional position and orientation of the object is obtained by data matching. Here, a feature group that is a group of features that can form three points necessary for obtaining a three-dimensional position and orientation is used.

特許第3300682号明細書、「画像処理機能を持つロボット装置」Japanese Patent No. 3300682 “Robot Device with Image Processing Function” 特許第3738456号明細書、「物品の位置検出方法およびその装置」Japanese Patent No. 3738456, “Article Position Detection Method and Apparatus” 特開平9−212643号公報、「三次元物体認識方法及びその装置」Japanese Patent Laid-Open No. 9-212463, “Three-dimensional object recognition method and apparatus”

上述した特許文献1の装置は、物体ごとに、大量の画像教示が必要となる。そのため、マッチング処理時間が長くなる。また、姿勢の分解能は教示画像の枚数に依存し、精度が悪い問題点がある。   The above-described apparatus of Patent Document 1 requires a large amount of image teaching for each object. Therefore, the matching processing time becomes long. Further, the resolution of the posture depends on the number of teaching images, and there is a problem that the accuracy is poor.

特許文献2の手段は、物品の見え方が予め特定されている必要がある。画面上に複数の物体がある場合や、背景が複雑な場合には対応できない。また最終的な位置姿勢検出には2台のカメラによるステレオ視が必要である。   The means of Patent Document 2 requires that the appearance of an article be specified in advance. It cannot be used when there are multiple objects on the screen or when the background is complicated. In addition, the final position / orientation detection requires stereo viewing by two cameras.

特許文献3の手段は、単純なグループ(2つの線分など)ごとに照合するため、大量の誤検出が発生する。そのため、2台のカメラによるステレオ視による距離データで検証しながらグループを絞り込むことで誤検出を減らす必要がある。また、複雑な形状の物体や、画面上に複数の物体がある場合や、乱雑な背景には対応できない。   Since the means of Patent Document 3 collates for each simple group (such as two line segments), a large amount of erroneous detection occurs. Therefore, it is necessary to reduce false detections by narrowing down the group while verifying with distance data obtained by stereo viewing by two cameras. In addition, it cannot deal with complicated objects, multiple objects on the screen, or messy backgrounds.

本発明は、上述した問題点を解決するために創案されたものである。すなわち、本発明の目的は、物体(対象物)の画像教示なしに、1台のカメラで物体の位置と姿勢を正確に検出することができる三次元位置姿勢計測方法および装置を提供することにある。   The present invention has been developed to solve the above-described problems. That is, an object of the present invention is to provide a three-dimensional position / orientation measurement method and apparatus that can accurately detect the position and orientation of an object with one camera without teaching an object (object). is there.

本発明によれば、検出する対象物のモデルデータを予め記憶するモデル入力ステップと、
対象物を撮影して画像を取得する画像撮影ステップと、
前記画像から、前記モデルデータに対応する画像上の特徴データを抽出する特徴抽出ステップと、
前記モデルデータと画像上の特徴データとの幾何学的一致度を評価する一致度評価ステップと、
前記モデルデータが幾何学的一致度の高い画像上の特徴データの位置に移動するように座標変換式を算出する座標変換ステップと、
前記座標変換式により対象物の三次元位置姿勢を決定する位置姿勢決定ステップとを有する、ことを特徴とする三次元位置姿勢計測方法が提供される。
According to the present invention, a model input step for storing in advance model data of an object to be detected;
An image capturing step of capturing an image by capturing an object;
A feature extraction step of extracting feature data on the image corresponding to the model data from the image;
A degree of matching evaluation step for evaluating the degree of geometric matching between the model data and feature data on the image;
A coordinate conversion step of calculating a coordinate conversion formula so that the model data moves to the position of the feature data on the image having a high degree of geometric matching;
There is provided a three-dimensional position / orientation measurement method comprising: a position / orientation determination step for determining a three-dimensional position / orientation of an object by the coordinate conversion formula.

本発明の好ましい実施形態によれば、前記モデルデータは、少なくとも1つの円を含む3つ以上の特徴データから構成され、これらは同一平面上に位置する。   According to a preferred embodiment of the present invention, the model data is composed of three or more feature data including at least one circle, which are located on the same plane.

また、同一の画像上に複数の特徴データが存在する場合において、
前記特徴抽出ステップの後に、モデルデータと画像上の複数の特徴データとの組み合わせを作成する特徴対応作成ステップを有し、
前記一致度評価ステップにおいて、前記組み合わせについて幾何学的一致度を評価し、
次いで、前記組み合わせのうち幾何学的一致度が高いものをグループ化するグループ化ステップを有し、
前記座標変換ステップにおいて、前記グループごとに、座標変換式を算出する。
また、前記グループ化ステップにおいて、グループを幾何学的一致度が高い順に並び替え、複数のグループに画像上同一の特徴データが含まれる場合、幾何学的一致度が低いグループの当該特徴を除去して、グループの再評価を行う、ことが好ましい。
In addition, when there are multiple feature data on the same image,
After the feature extraction step, there is a feature correspondence creation step for creating a combination of model data and a plurality of feature data on the image,
In the matching degree evaluation step, a geometric matching degree is evaluated for the combination,
A grouping step for grouping the combinations having a high degree of geometric matching;
In the coordinate conversion step, a coordinate conversion formula is calculated for each group.
Further, in the grouping step, the groups are rearranged in descending order of geometric matching degree, and when the same feature data on the image is included in a plurality of groups, the feature of the group having the low geometric matching degree is removed. It is preferable to re-evaluate the group.

また本発明によれば、検出する対象物を撮影して画像を取得する撮像装置と、
前記画像から対象物の三次元位置姿勢を決定する演算装置とを備え、
該演算装置は、前記画像から、前記モデルデータに対応する画像上の特徴データを抽出する特徴抽出ステップと、
前記モデルデータと画像上の特徴データとの幾何学的一致度を評価する一致度評価ステップと、
前記モデルデータが幾何学的一致度の高い画像上の特徴データの位置に移動するように座標変換式を算出する座標変換ステップと、
前記座標変換式により対象物の三次元位置姿勢を決定する位置姿勢決定ステップとを実行する、ことを特徴とする三次元位置姿勢計測装置が提供される。
According to the present invention, an imaging device that captures an image of an object to be detected and acquires an image;
An arithmetic device for determining a three-dimensional position and orientation of the object from the image,
The arithmetic device extracts a feature data on an image corresponding to the model data from the image, a feature extraction step;
A degree of matching evaluation step for evaluating the degree of geometric matching between the model data and feature data on the image;
A coordinate conversion step of calculating a coordinate conversion formula so that the model data moves to the position of the feature data on the image having a high degree of geometric matching;
A three-dimensional position / orientation measurement apparatus is provided that executes a position / orientation determination step of determining a three-dimensional position / orientation of an object using the coordinate conversion formula.

本発明によれば、モデルデータに対応する画像上の特徴データを抽出し、モデルデータが画像上の特徴データの位置に移動するように座標変換式を算出するので、物体(対象物)の画像教示なしに、1台のカメラで物体の位置と姿勢を正確に検出することができる。   According to the present invention, the feature data on the image corresponding to the model data is extracted, and the coordinate conversion formula is calculated so that the model data moves to the position of the feature data on the image. Without teaching, the position and orientation of an object can be accurately detected with a single camera.

また、モデルデータは、円、線分、コーナーといった形状特徴から構成されるので、モデルデータはシンプルであり、大量の画像データの教示は不要である。よって多品種に容易に対応可能である。   Further, since the model data is composed of shape features such as a circle, a line segment, and a corner, the model data is simple and teaching of a large amount of image data is unnecessary. Therefore, it can easily cope with a wide variety.

また、モデルデータと画像上の特徴データとの幾何学的一致度を評価し、該幾何学的一致度が最も高い画像上の特徴データを抽出するので、物体の回転、拡大縮小に加え、カメラの視線方向に対する傾きにも対応できる。従って、物品の見え方が予め特定されている必要はない。   Further, the degree of geometric coincidence between the model data and the feature data on the image is evaluated, and the feature data on the image having the highest degree of geometric coincidence is extracted. It is possible to cope with the inclination with respect to the gaze direction. Therefore, it is not necessary that the appearance of the article is specified in advance.

また、同一の画像上に複数の特徴データが存在する場合において、モデルデータと画像上の複数の特徴データとの幾何学的一致度を算出し、次いで、幾何学的一致度が高い順に複数のグループを検出するので、幾何学的一致度に基づくグループ化により誤った対応を除去できるため、画面上に複数の物体がある場合や、乱雑な背景にも対応可能である。   In addition, when there are a plurality of feature data on the same image, the geometric coincidence between the model data and the plurality of feature data on the image is calculated. Since the group is detected, erroneous correspondence can be removed by grouping based on the geometric matching degree, so that it is possible to deal with a case where there are a plurality of objects on the screen and a messy background.

また、幾何学的一致度により画像上の特徴データを抽出するので、モデルデータに対応する全ての特徴データが検出できなくても、一部の特徴データに基づき位置姿勢を検出することが可能であり、物体の一部隠れに対応可能である。   In addition, since feature data on the image is extracted based on the degree of geometric matching, it is possible to detect the position and orientation based on some feature data even if not all feature data corresponding to the model data can be detected. Yes, it can cope with partial hiding of objects.

以下、本発明の好ましい実施例を図面を参照して説明する。なお、各図において共通する部分には同一の符号を付し、重複した説明を省略する。   Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings. In addition, the same code | symbol is attached | subjected to the common part in each figure, and the overlapping description is abbreviate | omitted.

図1は、本発明による三次元位置姿勢計測装置の全体構成図である。
この図において、本発明の三次元位置姿勢計測装置10は、検出する対象物1を撮影して画像2を取得する撮像装置12と、画像2から対象物1の三次元位置姿勢を決定する演算装置14とを備える。
FIG. 1 is an overall configuration diagram of a three-dimensional position / orientation measurement apparatus according to the present invention.
In this figure, a three-dimensional position / orientation measuring apparatus 10 of the present invention captures an object 1 to be detected and acquires an image 2 and an operation for determining the three-dimensional position / orientation of the object 1 from the image 2. Device 14.

撮像装置12(この例でカメラ)は、ロボット3のハンド4に搭載されており、検出する対象物1を撮影して画像2を取得する。なお、これ以外に、カメラは天井などに固定してもよい。また、カメラの位置はロボットのハンドとは別に制御可能に構成してもよい。   The imaging device 12 (camera in this example) is mounted on the hand 4 of the robot 3 and acquires the image 2 by photographing the object 1 to be detected. In addition, the camera may be fixed to the ceiling or the like. Further, the position of the camera may be configured to be controllable separately from the robot hand.

演算装置14は例えばコンピュータであり、この例ではロボット制御部15、物体計測処理部16、及びモデルデータベース部17からなる。モデルデータベース部17には、対象物1のモデルデータ5を予め記憶する。   The computing device 14 is, for example, a computer, and in this example, includes a robot control unit 15, an object measurement processing unit 16, and a model database unit 17. The model database unit 17 stores model data 5 of the object 1 in advance.

演算装置14は、後述する特徴抽出ステップS3、一致度評価ステップS5、座標変換ステップS7、および位置姿勢決定ステップS8を実行するようになっている。
特徴抽出ステップS3では、画像2から、物体計測処理部16により、モデルデータ5に対応する画像上の特徴データ6を抽出する。
一致度評価ステップS5では、モデルデータ5と画像上の特徴データ6との幾何学的一致度を評価する。
座標変換ステップS7では、モデルデータ5が幾何学的一致度の高い画像上の特徴データ6の位置に移動するように座標変換式を算出する。
位置姿勢決定ステップS8では、座標変換式により対象物1の三次元位置姿勢を決定する。
The computing device 14 is configured to execute a feature extraction step S3, a coincidence degree evaluation step S5, a coordinate conversion step S7, and a position and orientation determination step S8, which will be described later.
In the feature extraction step S <b> 3, the feature data 6 on the image corresponding to the model data 5 is extracted from the image 2 by the object measurement processing unit 16.
In the coincidence evaluation step S5, the geometric coincidence between the model data 5 and the feature data 6 on the image is evaluated.
In the coordinate conversion step S7, a coordinate conversion formula is calculated so that the model data 5 moves to the position of the feature data 6 on the image having a high degree of geometric matching.
In the position / orientation determination step S8, the three-dimensional position / orientation of the object 1 is determined by a coordinate conversion formula.

上述した本発明の三次元位置姿勢計測装置10を備えたロボット3は、以下のように作動する。
1.カメラキャリブレーション(カメラ内部パラメータ算出)を行う。
2.カメラ座標系とハンド座標系のキャリブレーションを行う
3.対象物1のモデルデータ5をモデルデータベース部17から読み込む。モデルデータ5がない場合は別途新規に作成する。
4.ある位置にロボット3のハンド4を移動させ、画像2を撮影する。このときのロボット座標におけるハンド位置姿勢は記録しておく。
5.対象物1の三次元位置姿勢計測を演算装置14により行い、カメラ座標における対象物1の位置姿勢を得る。
6.ロボット座標におけるハンド位置姿勢と、カメラ座標における対象物1の位置姿勢から、ロボット座標における対象物1の位置姿勢を算出する。
7.ロボット3は、上記の結果に基づき、対象物1の把持といったアクションを起こす。
The robot 3 provided with the above-described three-dimensional position / orientation measuring apparatus 10 of the present invention operates as follows.
1. Perform camera calibration (camera internal parameter calculation).
2. 2. Calibrate the camera coordinate system and hand coordinate system. The model data 5 of the object 1 is read from the model database unit 17. If there is no model data 5, it is newly created separately.
4). The hand 4 of the robot 3 is moved to a certain position, and the image 2 is taken. The hand position / posture in the robot coordinates at this time is recorded.
5. The three-dimensional position / orientation measurement of the object 1 is performed by the arithmetic unit 14 to obtain the position / orientation of the object 1 in the camera coordinates.
6). The position and orientation of the object 1 in the robot coordinates are calculated from the hand position and orientation in the robot coordinates and the position and orientation of the object 1 in the camera coordinates.
7). Based on the above result, the robot 3 takes an action such as gripping the object 1.

図2は、本発明による三次元位置姿勢計測方法の全体フロー図である。
この図を用いて、最初に、同一の画像上に単一の特徴データが存在する場合を説明する。
FIG. 2 is an overall flowchart of the three-dimensional position and orientation measurement method according to the present invention.
First, a case where a single feature data exists on the same image will be described with reference to FIG.

図2に示すように本発明の三次元位置姿勢計測方法は、モデル入力ステップS1、画像撮影ステップS2、特徴抽出ステップS3、一致度評価ステップS5、座標変換ステップS7、位置姿勢決定ステップS8を有する。   As shown in FIG. 2, the three-dimensional position / orientation measuring method of the present invention includes a model input step S1, an image photographing step S2, a feature extraction step S3, a matching degree evaluation step S5, a coordinate conversion step S7, and a position / orientation determination step S8. .

モデル入力ステップS1では、対象物1のモデルデータ5を予めモデルデータベース部17に記憶する。
このモデルデータ5は、少なくとも1つの円を含む3つ以上の特徴データから構成される。また、これらは同一平面上に位置するものとする。
In the model input step S1, the model data 5 of the object 1 is stored in the model database unit 17 in advance.
The model data 5 is composed of three or more feature data including at least one circle. In addition, these shall be located on the same plane.

画像撮影ステップS2では、撮像装置12(カメラ)により、検出する対象物1を撮影して画像2を取得する。   In the image capturing step S2, the object 1 to be detected is captured by the imaging device 12 (camera) to acquire the image 2.

特徴抽出ステップS3では、画像2から、モデルデータ5に対応する画像上の特徴データ6を抽出する。
一致度評価ステップS5では、モデルデータ5と画像上の特徴データ6との幾何学的一致度を評価する。
In the feature extraction step S3, feature data 6 on the image corresponding to the model data 5 is extracted from the image 2.
In the coincidence evaluation step S5, the geometric coincidence between the model data 5 and the feature data 6 on the image is evaluated.

図3は、モデルデータ5の2つの特徴と画像上の特徴データ6の2つの特徴がいずれも円の場合の、幾何学的一致度の評価方法を示している。
幾何学的一致度評価値xは数1の式(1)で定義する。
FIG. 3 shows a method for evaluating the degree of geometric matching when the two features of the model data 5 and the two features of the feature data 6 on the image are both circles.
The geometric coincidence evaluation value x is defined by Equation (1).

図4は、モデルデータ5の2つの特徴と画像上の特徴データ6の2つの特徴が、1つの円と1つのコーナー、または、1つの円と1つの線分の場合の、幾何学的一致度の評価方法を示している。この図において(A)は特徴点がコーナーである場合、(B)は特徴点が線分である場合である。
この場合、(A)(B)とも、幾何学的一致度評価値xは数1の式(2)で定義する。

Figure 2009216480
FIG. 4 shows a geometric coincidence when two features of the model data 5 and two features of the feature data 6 on the image are one circle and one corner, or one circle and one line segment. The evaluation method of degree is shown. In this figure, (A) is when the feature point is a corner, and (B) is when the feature point is a line segment.
In this case, in both (A) and (B), the geometric coincidence evaluation value x is defined by Equation (2) of Equation 1.
Figure 2009216480

式(1)(2)による幾何学的一致度評価値xは、対象物1の位置姿勢の影響を受けにくい。また、幾何学的一致度評価値xが小さい値であるほど、モデルデータ5と特徴データ6が正確に対応し、「幾何学的一致度が高い」ことになる。   The geometric coincidence evaluation value x according to the expressions (1) and (2) is not easily affected by the position and orientation of the object 1. Further, the smaller the geometric matching score evaluation value x, the more accurately the model data 5 and the feature data 6 correspond to each other, and “the geometric matching score is higher”.

座標変換ステップS7では、モデルデータ5が幾何学的一致度の高い画像上の特徴データ6の位置に移動するように座標変換式を算出する。すなわち、モデルデータ5と画像上の特徴データ6が一致するように、モデルデータ5を3次元的に回転、移動させ、その回転量と移動量の6自由度データを取得する。   In the coordinate conversion step S7, a coordinate conversion formula is calculated so that the model data 5 moves to the position of the feature data 6 on the image having a high degree of geometric matching. That is, the model data 5 is rotated and moved three-dimensionally so that the model data 5 and the feature data 6 on the image coincide with each other, and the 6 degrees of freedom data of the rotation amount and the movement amount is acquired.

位置姿勢決定ステップS8では、算出した座標変換式、すなわち取得した6自由度データにより、対象物1の三次元位置姿勢を決定する。   In the position / orientation determination step S8, the three-dimensional position / orientation of the object 1 is determined based on the calculated coordinate conversion formula, that is, the acquired 6-degree-of-freedom data.

次に、同一の画像2上に複数の特徴データ6が存在する場合を説明する。
図5は、この場合のモデルデータ5の例であり、3つの円m1,m2,m3からなる。
図6は、この場合の画像上の特徴データ6の例であり、s1〜s9の9つの楕円からなる。
Next, a case where a plurality of feature data 6 exists on the same image 2 will be described.
FIG. 5 is an example of the model data 5 in this case, and includes three circles m1, m2, and m3.
FIG. 6 is an example of the feature data 6 on the image in this case, and is composed of nine ellipses s1 to s9.

同一の画像2上に複数の特徴データ6が存在する場合には、図2に示すように、本発明の方法は、さらに、特徴対応作成ステップS4と、グループ化ステップS6を有する。   When a plurality of feature data 6 exists on the same image 2, as shown in FIG. 2, the method of the present invention further includes a feature correspondence creation step S4 and a grouping step S6.

特徴対応作成ステップS4は、特徴抽出ステップS3の後に、モデルデータ5と画像上の複数の特徴データ6との組み合わせを作成する。
図7は、この組み合わせの例であり、モデルデータ5が3つの円m1,m2,m3、特徴データ6がs1〜s9の9つの楕円である場合に、その組み合わせは、c1(m1,s1),c2(m1,s2),c3(m1,s3),…,c27(m3,s9)の27通りとなる。
In the feature correspondence creating step S4, a combination of the model data 5 and the plurality of feature data 6 on the image is created after the feature extracting step S3.
FIG. 7 shows an example of this combination. When the model data 5 is three circles m1, m2, and m3 and the feature data 6 is nine ellipses s1 to s9, the combination is c1 (m1, s1). , C2 (m1, s2), c3 (m1, s3),..., C27 (m3, s9).

次に、一致度評価ステップS5において、前記組み合わせ(27通り)について幾何学的一致度評価値xを評価する。
図8は、前記組み合わせ(27通り)について、幾何学的一致度の一覧を示す図である。xijで示す幾何学的一致度評価値xは、それぞれ式(1)(2)により正の値となる。
Next, in the coincidence evaluation step S5, the geometric coincidence evaluation value x is evaluated for the combinations (27 types).
FIG. 8 is a diagram showing a list of geometric matching degrees for the combinations (27 types). The geometric coincidence evaluation value x indicated by xij is a positive value according to the equations (1) and (2).

次いで、グループ化ステップS6において、モデルデータと画像上の特徴データの組み合わせのうち、幾何学的一致度が高いものをグループ化し、さらに、幾何学的一致度が高い順にグループを並び替える。
図9(A)は、グループ化ステップS6により、図6の複数の特徴データ6から3つのグループを検出した状態を示している。3つのグループの幾何学的一致度xは、a,b,cの順で高いものとする。
図9(B)に示すように、異なるグループに画像上同一の特徴データ6が含まれる場合には、幾何学的一致度xが低いグループの当該特徴を除去して、グループの再評価を行う。
Next, in the grouping step S6, among the combinations of the model data and the feature data on the image, those having a high degree of geometric matching are grouped, and the groups are rearranged in the descending order of the degree of geometric matching.
FIG. 9A shows a state in which three groups are detected from the plurality of feature data 6 of FIG. 6 in the grouping step S6. The geometrical matching degree x of the three groups is assumed to be high in the order of a, b, and c.
As shown in FIG. 9B, when the same feature data 6 on the image is included in different groups, the feature of the group having a low geometric matching degree x is removed, and the group is re-evaluated. .

次いで、座標変換ステップS7において、グループごとに、座標変換式を算出する。   Next, in coordinate conversion step S7, a coordinate conversion formula is calculated for each group.

図10は、一致度評価ステップS5の具体的フロー図である。
この図において、一致度評価ステップS5は、S51〜S58の各ステップからなる。
この一致度評価ステップS5では、モデルデータ5と画像上の複数の特徴データ6に対して、モデルデータ5の特徴データ群のうち2つの特徴データCiと、画像上の特徴データ群のうち2つの特徴データCjの組み合わせの幾何学的一致度評価値xijを算出する。
幾何学的一致度評価値xijは、物体検出に必要な全ての組み合わせで算出する。
FIG. 10 is a specific flowchart of the matching degree evaluation step S5.
In this figure, the coincidence degree evaluation step S5 includes steps S51 to S58.
In this coincidence evaluation step S5, two feature data Ci of the feature data group of the model data 5 and two of the feature data groups of the image are obtained for the model data 5 and the plurality of feature data 6 on the image. A geometric matching score evaluation value xij of the combination of the feature data Cj is calculated.
The geometric matching score evaluation value xij is calculated by all combinations necessary for object detection.

図11は、グループ化ステップS6の具体的フロー図である。
この図において、グループ化ステップS6は、S61〜S69の各ステップからなる。
このグループ化ステップS6では、モデルデータ5と、画像上の特徴データ6の対応Ciを抽出し、グループに最初の1個目として追加する。この対応Ciに対して幾何学的一致度が高い別の対応Cjをグループに追加する。その後、グループに含まれるいずれの対応に対しても幾何学的一致度が高い新たな対応があれば、その対応を順にグループに追加していくことで、全体的に幾何学的一致度が高いグループを得る。画面上に物体が複数あれば複数のグループが生成される。
FIG. 11 is a specific flowchart of the grouping step S6.
In this figure, the grouping step S6 includes steps S61 to S69.
In this grouping step S6, the corresponding Ci of the model data 5 and the feature data 6 on the image is extracted and added to the group as the first one. Another correspondence Cj having a high degree of geometric matching with this correspondence Ci is added to the group. After that, if there is a new correspondence with a high degree of geometric matching for any of the correspondences included in the group, the correspondence is added to the group in order, resulting in a high degree of geometric matching overall. Get a group. If there are a plurality of objects on the screen, a plurality of groups are generated.

上述した本発明によれば、モデルデータ5に対応する画像上の特徴データ6を抽出し、モデルデータ5が画像上の特徴データ6の位置に移動するように座標変換式を算出するので、物体(対象物1)の画像教示なしに、1台のカメラ(撮像装置12)で物体の位置と姿勢を正確に検出することができる。   According to the present invention described above, the feature data 6 on the image corresponding to the model data 5 is extracted, and the coordinate conversion formula is calculated so that the model data 5 moves to the position of the feature data 6 on the image. Without the image teaching of (target 1), the position and orientation of the object can be accurately detected with one camera (imaging device 12).

また、モデルデータ5は、円、線分、コーナーといった形状特徴から構成されるので、モデルデータはシンプルであり、大量の画像データの教示は不要である。よって多品種に容易に対応可能である。   Since the model data 5 is composed of shape features such as a circle, a line segment, and a corner, the model data is simple, and teaching of a large amount of image data is unnecessary. Therefore, it can easily cope with a wide variety.

また、モデルデータ5と画像上の特徴データ6との幾何学的一致度を評価し、該幾何学的一致度が最も高い画像上の特徴データ6を抽出するので、物体の回転、拡大縮小に加え、カメラの視線方向に対する傾きにも対応できる。従って、物品の見え方が予め特定されている必要はない。   Further, the degree of geometric coincidence between the model data 5 and the feature data 6 on the image is evaluated, and the feature data 6 on the image having the highest degree of geometric coincidence is extracted. In addition, it can cope with the tilt of the camera with respect to the line-of-sight direction. Therefore, it is not necessary that the appearance of the article is specified in advance.

また、同一の画像上に複数の特徴データ6が存在する場合において、モデルデータと画像上の複数の特徴データとの幾何学的一致度評価値xを算出し、次いで、幾何学的一致度が高い順に複数のグループを検出するので、幾何学的一致度に基づくグループ化により誤った対応を除去できるため、画面上に複数の物体がある場合や、乱雑な背景にも対応可能である。   In addition, when there are a plurality of feature data 6 on the same image, a geometric coincidence evaluation value x between the model data and the plurality of feature data on the image is calculated. Since a plurality of groups are detected in descending order, erroneous correspondence can be removed by grouping based on the geometric coincidence, so that it is possible to deal with a case where there are a plurality of objects on the screen and a messy background.

また、幾何学的一致度により画像上の特徴データを抽出するので、モデルデータに対応する全ての特徴データが検出できなくても、一部の特徴データに基づき位置姿勢を検出することが可能であり、物体の一部隠れに対応可能である。   In addition, since feature data on the image is extracted based on geometric matching, it is possible to detect the position and orientation based on some feature data even if not all feature data corresponding to the model data can be detected. Yes, it can cope with partial hiding of objects.

なお、本発明は、上述した実施形態に限定されず、本発明の要旨を逸脱しない範囲で種々に変更することができることは勿論である。   In addition, this invention is not limited to embodiment mentioned above, Of course, it can change variously in the range which does not deviate from the summary of this invention.

本発明による三次元位置姿勢計測装置の全体構成図である。1 is an overall configuration diagram of a three-dimensional position / orientation measurement apparatus according to the present invention. 本発明による三次元位置姿勢計測方法の全体フロー図である。It is a whole flow figure of the three-dimensional position and orientation measuring method by the present invention. モデルデータ5と特徴データ6が2つの円の場合を示す図である。It is a figure which shows the case where the model data 5 and the feature data 6 are two circles. モデルデータ5と特徴データ6が1つの円と2以上の特徴点の場合を示図である。It is a figure which shows the case where the model data 5 and the feature data 6 are one circle and two or more feature points. 同一の画像2上に複数の特徴データ6が存在する場合のモデルデータ5の例である。This is an example of the model data 5 when a plurality of feature data 6 exists on the same image 2. 同一の画像2上に複数の特徴データ6が存在する場合の画像上の特徴データ6の例である。This is an example of feature data 6 on an image when a plurality of feature data 6 exists on the same image 2. モデルデータ5と画像上の複数の特徴データ6との全ての組み合わせの例である。This is an example of all combinations of model data 5 and a plurality of feature data 6 on an image. 全ての組み合わせ(27通り)について、幾何学的一致度の一覧を示す図である。It is a figure which shows the list | wrist of a geometric coincidence about all the combinations (27 types). グループ化ステップS6において、幾何学的一致度が高い順に複数のグループを検出する例である。In the grouping step S6, a plurality of groups are detected in descending order of geometric matching. 一致度評価ステップS5の具体的フロー図である。It is a specific flowchart of coincidence degree evaluation step S5. グループ化ステップS6の具体的フロー図である。It is a specific flowchart of grouping step S6.

符号の説明Explanation of symbols

1 対象物、2 画像、3 ロボット、4 ハンド、
5 モデルデータ、6 画像上の特徴データ、
10 三次元位置姿勢計測装置、14 演算装置(コンピュータ)、
15 ロボット制御部、16 物体計測処理部、
17 モデルデータベース部
1 object, 2 images, 3 robots, 4 hands,
5 model data, 6 image feature data,
10 three-dimensional position and orientation measurement device, 14 arithmetic device (computer),
15 robot control unit, 16 object measurement processing unit,
17 Model database section

Claims (5)

検出する対象物のモデルデータを予め記憶するモデル入力ステップと、
対象物を撮影して画像を取得する画像撮影ステップと、
前記画像から、前記モデルデータに対応する画像上の特徴データを抽出する特徴抽出ステップと、
前記モデルデータと画像上の特徴データとの幾何学的一致度を評価する一致度評価ステップと、
前記モデルデータが幾何学的一致度の高い画像上の特徴データの位置に移動するように座標変換式を算出する座標変換ステップと、
前記座標変換式により対象物の三次元位置姿勢を決定する位置姿勢決定ステップとを有する、ことを特徴とする三次元位置姿勢計測方法。
A model input step for preliminarily storing model data of an object to be detected;
An image capturing step of capturing an image by capturing an object;
A feature extraction step of extracting feature data on the image corresponding to the model data from the image;
A degree of matching evaluation step for evaluating the degree of geometric matching between the model data and feature data on the image;
A coordinate conversion step of calculating a coordinate conversion formula so that the model data moves to the position of the feature data on the image having a high degree of geometric matching;
A three-dimensional position / orientation measurement method comprising: a position / orientation determination step for determining a three-dimensional position / orientation of an object by the coordinate conversion formula.
前記モデルデータは、少なくとも1つの円を含む3つ以上の特徴データから構成され、これらは同一平面上に位置する、ことを特徴とする請求項1に記載の三次元位置姿勢計測方法。   The three-dimensional position / orientation measurement method according to claim 1, wherein the model data includes three or more feature data including at least one circle, which are located on the same plane. 同一の画像上に複数の特徴データが存在する場合において、
前記特徴抽出ステップの後に、モデルデータと画像上の複数の特徴データとの組み合わせを作成する特徴対応作成ステップを有し、
前記一致度評価ステップにおいて、前記組み合わせについて幾何学的一致度を評価し、
次いで、前記組み合わせのうち幾何学的一致度が高いものをグループ化するグループ化ステップを有し、
前記座標変換ステップにおいて、前記グループごとに、座標変換式を算出する、ことを特徴とする請求項1に記載の三次元位置姿勢計測方法。
When there are multiple feature data on the same image,
After the feature extraction step, there is a feature correspondence creation step for creating a combination of model data and a plurality of feature data on the image,
In the matching degree evaluation step, a geometric matching degree is evaluated for the combination,
A grouping step for grouping the combinations having a high degree of geometric matching;
The three-dimensional position and orientation measurement method according to claim 1, wherein, in the coordinate conversion step, a coordinate conversion formula is calculated for each group.
前記グループ化ステップにおいて、グループを幾何学的一致度が高い順に並び替え、複数のグループに画像上同一の特徴データが含まれる場合、幾何学的一致度が低いグループの当該特徴を除去して、グループの再評価を行う、ことを特徴とする請求項3に記載の三次元位置姿勢計測方法。   In the grouping step, the groups are rearranged in descending order of the geometric matching degree, and when the same feature data is included in the plurality of groups on the image, the feature of the group having the low geometric matching degree is removed, The three-dimensional position and orientation measurement method according to claim 3, wherein group re-evaluation is performed. 検出する対象物を撮影して画像を取得する撮像装置と、
前記画像から対象物の三次元位置姿勢を決定する演算装置とを備え、
該演算装置は、前記画像から、前記モデルデータに対応する画像上の特徴データを抽出する特徴抽出ステップと、
前記モデルデータと画像上の特徴データとの幾何学的一致度を評価する一致度評価ステップと、
前記モデルデータが幾何学的一致度の高い画像上の特徴データの位置に移動するように座標変換式を算出する座標変換ステップと、
前記座標変換式により対象物の三次元位置姿勢を決定する位置姿勢決定ステップとを実行する、ことを特徴とする三次元位置姿勢計測装置。
An imaging device that captures an image of an object to be detected and acquires an image;
An arithmetic device for determining a three-dimensional position and orientation of the object from the image,
The arithmetic device extracts a feature data on an image corresponding to the model data from the image, a feature extraction step;
A degree of matching evaluation step for evaluating the degree of geometric matching between the model data and feature data on the image;
A coordinate conversion step of calculating a coordinate conversion formula so that the model data moves to the position of the feature data on the image having a high degree of geometric matching;
A three-dimensional position / orientation measurement apparatus that performs a position / orientation determination step of determining a three-dimensional position / orientation of an object using the coordinate conversion formula.
JP2008059017A 2008-03-10 2008-03-10 3D position and orientation measurement method and apparatus Active JP5083715B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008059017A JP5083715B2 (en) 2008-03-10 2008-03-10 3D position and orientation measurement method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008059017A JP5083715B2 (en) 2008-03-10 2008-03-10 3D position and orientation measurement method and apparatus

Publications (2)

Publication Number Publication Date
JP2009216480A true JP2009216480A (en) 2009-09-24
JP5083715B2 JP5083715B2 (en) 2012-11-28

Family

ID=41188496

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008059017A Active JP5083715B2 (en) 2008-03-10 2008-03-10 3D position and orientation measurement method and apparatus

Country Status (1)

Country Link
JP (1) JP5083715B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011179908A (en) * 2010-02-26 2011-09-15 Canon Inc Three-dimensional measurement apparatus, method for processing the same, and program
JP2013217893A (en) * 2012-03-13 2013-10-24 Canon Inc Model generation device, position posture estimation device, information processor, model generation method, position posture estimation method, information processing method
JP2016517084A (en) * 2013-03-15 2016-06-09 トヨタ モーター エンジニアリング アンド マニュファクチャリング ノース アメリカ,インコーポレイティド Computer-based method of dynamic category object recognition Computer-based method and system
CN110751040A (en) * 2019-09-18 2020-02-04 杭州飞步科技有限公司 Three-dimensional object detection method and device, electronic equipment and storage medium

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103033132B (en) * 2012-12-20 2016-05-18 中国科学院自动化研究所 Plane survey method and device based on monocular vision

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0644361A (en) * 1992-03-02 1994-02-18 General Motors Corp <Gm> Surface identification device
JPH08136235A (en) * 1994-11-08 1996-05-31 Matsushita Electric Ind Co Ltd Method for detecting pattern
JPH09277184A (en) * 1996-04-15 1997-10-28 Ricoh Co Ltd Image processing
JP2001209792A (en) * 2000-01-25 2001-08-03 Juki Corp Method and device for detecting part position and method and device for storing part data
JP2002071313A (en) * 2000-08-31 2002-03-08 Toshiba Corp Target marker, method for measuring location of object for using the same, and robot system
JP2004295223A (en) * 2003-03-25 2004-10-21 Fanuc Ltd Image processing apparatus and robot system
JP2007294521A (en) * 2006-04-21 2007-11-08 Toshiba Corp Pattern alignment deviation measurement method and program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0644361A (en) * 1992-03-02 1994-02-18 General Motors Corp <Gm> Surface identification device
JPH08136235A (en) * 1994-11-08 1996-05-31 Matsushita Electric Ind Co Ltd Method for detecting pattern
JPH09277184A (en) * 1996-04-15 1997-10-28 Ricoh Co Ltd Image processing
JP2001209792A (en) * 2000-01-25 2001-08-03 Juki Corp Method and device for detecting part position and method and device for storing part data
JP2002071313A (en) * 2000-08-31 2002-03-08 Toshiba Corp Target marker, method for measuring location of object for using the same, and robot system
JP2004295223A (en) * 2003-03-25 2004-10-21 Fanuc Ltd Image processing apparatus and robot system
JP2007294521A (en) * 2006-04-21 2007-11-08 Toshiba Corp Pattern alignment deviation measurement method and program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011179908A (en) * 2010-02-26 2011-09-15 Canon Inc Three-dimensional measurement apparatus, method for processing the same, and program
JP2013217893A (en) * 2012-03-13 2013-10-24 Canon Inc Model generation device, position posture estimation device, information processor, model generation method, position posture estimation method, information processing method
JP2016517084A (en) * 2013-03-15 2016-06-09 トヨタ モーター エンジニアリング アンド マニュファクチャリング ノース アメリカ,インコーポレイティド Computer-based method of dynamic category object recognition Computer-based method and system
CN110751040A (en) * 2019-09-18 2020-02-04 杭州飞步科技有限公司 Three-dimensional object detection method and device, electronic equipment and storage medium

Also Published As

Publication number Publication date
JP5083715B2 (en) 2012-11-28

Similar Documents

Publication Publication Date Title
JP5671281B2 (en) Position / orientation measuring apparatus, control method and program for position / orientation measuring apparatus
JP6573354B2 (en) Image processing apparatus, image processing method, and program
JP6261016B2 (en) Marker image processing system
JP4004899B2 (en) Article position / orientation detection apparatus and article removal apparatus
CN103984362B (en) Position and orientation measurement apparatus, information processor and information processing method
JP6892286B2 (en) Image processing equipment, image processing methods, and computer programs
JP4900204B2 (en) Object recognition method
CN106104198A (en) Messaging device, information processing method and program
US11654571B2 (en) Three-dimensional data generation device and robot control system
JP5092711B2 (en) Object recognition apparatus and robot apparatus
JP2011198349A (en) Method and apparatus for processing information
JP2008506953A5 (en)
CN110926330B (en) Image processing apparatus, image processing method, and program
JP6054831B2 (en) Image processing apparatus, image processing method, and image processing program
JP5093591B2 (en) 3D position and orientation measurement method and apparatus
JP5083715B2 (en) 3D position and orientation measurement method and apparatus
CN105426901A (en) Method For Classifying A Known Object In A Field Of View Of A Camera
CN111582204A (en) Attitude detection method and apparatus, computer device and storage medium
CN113284192A (en) Motion capture method and device, electronic equipment and mechanical arm control system
JP5104248B2 (en) Object recognition apparatus and robot apparatus
JP4379459B2 (en) Object collation method, object collation apparatus, and recording medium recording the program
JP4694624B2 (en) Image correction apparatus and method, and computer program
JP2021086432A (en) Information processing apparatus, information processing method, computer program, measurement apparatus, system, and method of manufacturing article
JP5976089B2 (en) Position / orientation measuring apparatus, position / orientation measuring method, and program
JP2021000694A (en) Device for teaching robot and robot system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120529

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120604

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120726

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120813

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120826

R151 Written notification of patent or utility model registration

Ref document number: 5083715

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150914

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250