JP2010112729A - Method of creating three-dimensional model, and object recognition device - Google Patents

Method of creating three-dimensional model, and object recognition device Download PDF

Info

Publication number
JP2010112729A
JP2010112729A JP2008283150A JP2008283150A JP2010112729A JP 2010112729 A JP2010112729 A JP 2010112729A JP 2008283150 A JP2008283150 A JP 2008283150A JP 2008283150 A JP2008283150 A JP 2008283150A JP 2010112729 A JP2010112729 A JP 2010112729A
Authority
JP
Japan
Prior art keywords
dimensional
mark
model
dimensional information
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008283150A
Other languages
Japanese (ja)
Other versions
JP5287152B2 (en
Inventor
Toyoo Iida
豊男 飯田
Kengo Ichimura
研吾 市村
Junichiro Ueki
淳一郎 植木
Kazuhiro Shono
和博 醤野
Yoshizo Tokawa
吉造 東川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2008283150A priority Critical patent/JP5287152B2/en
Priority to US12/611,568 priority patent/US8433128B2/en
Publication of JP2010112729A publication Critical patent/JP2010112729A/en
Application granted granted Critical
Publication of JP5287152B2 publication Critical patent/JP5287152B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Generation (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To create a precise three-dimensional model even by a method for performing a three-dimensional measurement by optionally changing a position relationship between an actual model and a camera and aligning three-dimensional information restored by each measurement for integration. <P>SOLUTION: A polygonal mark M having a shape in which a direction can be uniquely specified is attached to a predetermined area of an actual model WM of a work to be three-dimensionally recognized. A process of changing the orientation of the actual model WM such that a state in which the mark M is contained in the view of respective cameras 11, 12, 13 is maintained, and then performing the three-dimensional measurement is executed over a plurality of times. The predetermined number of, or two or more pieces of three-dimensional information is selected from the three-dimensional information restored by each measurement, these pieces of three-dimensional information are aligned and integrated, the information corresponding to the mark M is deleted or invalidated from the integrated three-dimensional information, and the three-dimensional information after such a process is set as a three-dimensional model. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

この発明は、所定の形状を具備する物体を対象として、複数のカメラを用いたステレオ計測により復元された3次元情報を用いて物体の位置および姿勢を認識する処理を行うために、当該物体の3次元モデルを作成する方法に関する。さらにこの発明は、上記の3次元モデルを作成して登録した後に、そのモデルを用いて物体の認識処理を行う装置に関する。   In order to perform processing for recognizing the position and orientation of an object using three-dimensional information restored by stereo measurement using a plurality of cameras for an object having a predetermined shape, The present invention relates to a method for creating a three-dimensional model. Furthermore, the present invention relates to an apparatus for performing object recognition processing using the model after creating and registering the three-dimensional model.

ステレオカメラを用いた3次元認識処理により物体の位置や姿勢を認識するには、認識対象の物体の種々の面の3次元情報を含む3次元モデルを作成する必要がある。
上記の点を課題とした発明を開示したものとして、下記の特許文献1がある。この特許文献1には、認識対象物の実物モデルに対し、複数の方向からのステレオ計測を行って、各計測により復元した3次元情報を位置合わせして統合することにより、物体全体の幾何モデルを作成することが、記載されている。
In order to recognize the position and orientation of an object by three-dimensional recognition processing using a stereo camera, it is necessary to create a three-dimensional model including three-dimensional information of various surfaces of the object to be recognized.
The following Patent Document 1 discloses an invention that addresses the above-described problems. In Patent Document 1, stereo measurement from a plurality of directions is performed on a real model of a recognition target object, and the three-dimensional information restored by each measurement is aligned and integrated to obtain a geometric model of the entire object. Is described.

また、特許文献1には、「セグメントベーストステレオ」と呼ばれる手法により、ステレオ画像に表されたエッジから実物モデルの輪郭線の3次元情報を復元することが記載されている。特許文献1によれば、「セグメントベーストステレオ」とは、ステレオ画像中のエッジを「セグメント」と呼ばれる単位に分割し、セグメント単位でステレオ対応検索を行って、輪郭線の3次元情報を復元する処理をいう。   Patent Document 1 describes that three-dimensional information of a contour line of a real model is restored from an edge represented in a stereo image by a technique called “segment-based stereo”. According to Patent Document 1, “segment-based stereo” is a method of dividing edges in a stereo image into units called “segments” and performing stereo correspondence search on a segment basis to restore the three-dimensional information of the contour line. Refers to processing.

さらに特許文献1には、3次元情報の位置合わせに関して、回転テーブルを用いて実物モデルを定められた角度まで回転させて、その回転角度に基づく座標変換を行う方法が記載されている。また、未知の観測方向からの3次元情報を位置合わせする方法として、作成中のモデルと新たに復元された3次元輪郭線とを照合して複数とおりの位置合わせの候補を求め、これらの中で一致度が最も高くなる場合の位置合わせを特定することも記載されている。   Furthermore, Patent Document 1 describes a method of performing coordinate conversion based on a rotation angle by rotating a real model to a predetermined angle using a rotation table with respect to alignment of three-dimensional information. In addition, as a method of aligning 3D information from unknown observation directions, a plurality of alignment candidates are obtained by collating the model being created with the newly restored 3D contour, It also describes specifying the alignment when the degree of coincidence is the highest.

さらに、下記の非特許文献1には、2次元のセグメントを画像間で対応づけし、3次元情報を復元する手法が詳しく記載されている。また、非特許文献2には、復元された3次元情報をあらかじめ登録された3次元モデルと照合して、物体の位置や姿勢を認識する手法が開示されている。   Further, the following Non-Patent Document 1 describes in detail a technique for associating a two-dimensional segment between images and restoring three-dimensional information. Non-Patent Document 2 discloses a method for recognizing the position and orientation of an object by collating restored three-dimensional information with a pre-registered three-dimensional model.

特許2961264号公報(段落0013,0017,0028〜0036参照。)Japanese Patent No. 2961264 (see paragraphs 0013, 0017, 0028 to 0036) 「セグメントベーストステレオにおける連結性に基づく対応評価」 情報処理学会論文誌 Vol.40,No.8,3219−3229ページ,1999年8月発行"Correspondence evaluation based on connectivity in segment-based stereo" IPSJ Journal Vol. 40, no. 8, pages 3219-3229, issued in August 1999 「ステレオビジョンによる3次元物体の認識」 電子情報通信学会論文誌 D−II,vol.J80−D−II,No.5,1105−1112ページ、1997年5月発行"Recognition of three-dimensional objects by stereo vision" IEICE Transactions D-II, vol. J80-D-II, no. 5, 1105-1112 pages, published in May 1997

特許文献1に記載された発明は、種々の方向から見た物体の3次元的特徴を統合した3次元モデルを作成するので、バラ積みされた部品など、位置や姿勢が定まらない物体を認識するのに適した3次元モデルを作成することができる。しかし、特許文献1の「未知の観測方向からの3次元情報を位置合わせする方法」を用いて3次元モデルを作成した場合には、下記の理由により、3次元モデルの精度を確保するのが困難であると思われる。   The invention described in Patent Document 1 creates a three-dimensional model that integrates the three-dimensional features of an object viewed from various directions, and thus recognizes an object whose position and orientation are not fixed, such as a part that is piled up. A three-dimensional model suitable for the above can be created. However, when a three-dimensional model is created using the “method for aligning three-dimensional information from an unknown observation direction” in Patent Document 1, the accuracy of the three-dimensional model is ensured for the following reason. It seems difficult.

特許文献1の「未知の観測方向からの3次元情報を位置合わせする方法」は、具体的には、実物モデルとステレオカメラとの位置関係を任意に変更して実行された2つのステレオ計測間でそれぞれの計測により復元した3次元情報を複数とおりに対応づけて一致度を算出し、一致度が最も高くなったときの対応関係を採用して位置合わせを行うものである。したがって、3次元情報間の対応づけを精度良く行うことができなければ、位置合わせの精度を確保できず、最終的な3次元モデルも精度が悪いものとなる。   Specifically, the “method for aligning three-dimensional information from an unknown observation direction” in Patent Document 1 is a method between two stereo measurements performed by arbitrarily changing the positional relationship between a real model and a stereo camera. Then, the degree of coincidence is calculated by associating the three-dimensional information restored by each measurement in a plurality of ways, and alignment is performed using the correspondence when the degree of coincidence becomes the highest. Therefore, if the correspondence between the three-dimensional information cannot be performed with high accuracy, the alignment accuracy cannot be ensured, and the final three-dimensional model also has poor accuracy.

まず面取り部分や曲面が計測対象となる場合には、図17に示すような原因で対応づけの誤りが生じる場合がある。
図17は、認識対象物Sbのコーナー部に対してf1,f2の2方向からそれぞれステレオ計測を行う例を示すものである。この図は、認識対象物Sbの一断面であって、図中のR1,R2は、平坦面と曲率が大きな面との境界位置に相当する。
この例の場合、f1の方向からの計測では、図中のR1の位置に3次元のエッジが復元されるのに対し、f2の方向からの計測では、R2の位置に3次元のエッジが復元される。したがって、それぞれの方向からの計測により復元された3次元情報を対応づける際に、R1に対応するエッジとR2に対応するエッジとが誤って対応づけされ、その分、位置合わせの精度が劣化するおそれがある。
First, when a chamfered portion or a curved surface is a measurement target, there may be an error in correspondence due to the cause as shown in FIG.
FIG. 17 shows an example in which stereo measurement is performed on the corner portion of the recognition object Sb from two directions, f1 and f2. This figure is a cross section of the recognition object Sb, and R1 and R2 in the figure correspond to the boundary position between the flat surface and the surface having a large curvature.
In this example, the measurement from the direction f1 restores the three-dimensional edge at the position R1 in the figure, while the measurement from the direction f2 restores the three-dimensional edge at the position R2. Is done. Accordingly, when associating the three-dimensional information restored by measurement from each direction, the edge corresponding to R1 and the edge corresponding to R2 are erroneously associated with each other, and the alignment accuracy is deteriorated accordingly. There is a fear.

図18は、繰り返し構造を含む部位の対応づけに誤りが生じた例を示す。繰り返し構造のエッジが不鮮明で、3次元情報の復元精度が悪くなった場合などには、このような誤った対応づけが生じるおそれがある。
また、対称形の部位を具備する物体を認識対象とする場合にも、対称形の部位の表と裏とが誤って対応づけられた状態が、正しいものとして認識される可能性がある。
FIG. 18 shows an example in which an error has occurred in associating a part including a repetitive structure. Such an incorrect association may occur when the edge of the repetitive structure is unclear and the restoration accuracy of the three-dimensional information deteriorates.
Also, when an object having a symmetric part is used as a recognition target, a state in which the front and back of the symmetric part are associated with each other may be recognized as correct.

工業製品や成型品には面取り部分や曲面を含むものが多く、また繰り返し構造や対称形の部位も多く認められる。したがって、これらの物体に関する3次元モデルを作成する際には、上記のような原因により誤った位置合わせが行われる可能性が高くなり、3次元モデルの精度を確保するのが困難になる。   Many industrial products and molded products include chamfered parts and curved surfaces, and many repetitive structures and symmetrical parts are also recognized. Therefore, when creating a three-dimensional model related to these objects, there is a high possibility that incorrect positioning will be performed due to the above-described causes, and it becomes difficult to ensure the accuracy of the three-dimensional model.

したがって、特許文献1に記載された発明において3次元モデルの精度を確保するには、この文献の段落0028に記載された方法、すなわち回転テーブルを用いて、毎回、定めた角度で実物モデルを回転させて撮像を行って、この既知の回転角度に基づく座標変換を行う方法を採用せざるを得ない。しかし、この方法では、回転テーブルなどの設備が必要となるため、コストがかかる。また、毎回の回転角度を正確に定めなければならないため、ユーザの負担が大きくなる。   Therefore, in order to ensure the accuracy of the three-dimensional model in the invention described in Patent Document 1, the actual model is rotated at a predetermined angle each time using the method described in paragraph 0028 of this document, that is, a rotating table. Therefore, it is necessary to adopt a method of performing image conversion and performing coordinate conversion based on this known rotation angle. However, this method requires equipment such as a rotary table, which is expensive. Further, since the rotation angle for each time must be accurately determined, the burden on the user increases.

この発明は、この問題点に着目し、実物モデルとカメラとの位置関係を任意に変更して3次元計測を行って、各計測により復元された3次元情報を位置合わせして統合する方法を採用する場合でも、精度の良い3次元モデルを作成できるようにすることを課題とする。   This invention pays attention to this problem, performs a three-dimensional measurement by arbitrarily changing the positional relationship between the real model and the camera, and aligns and integrates the three-dimensional information restored by each measurement. It is an object to make it possible to create a highly accurate three-dimensional model even when it is adopted.

この発明による3次元モデルの作成方法では、回転対称性を持たない多角形のマークを、認識対象物の実物モデルの表面の所定位置に取り付け、このマークがステレオカメラを構成するすべてのカメラの視野に含まれる状態が維持されることを条件として、各カメラと実物モデルとの位置関係を毎回変更して複数回の撮像を実行する。また、毎回の撮像により生成されたステレオ画像からエッジの特徴を検出し、検出された特徴の3次元座標を求めることによって、実物モデルおよびマークの輪郭線の特徴を表す3次元情報を復元する。そして、毎回の撮像に伴い復元された複数の3次元情報の全てまたはその一部に相当する2以上の3次元情報を統合の対象として、これら統合対象の3次元情報間の対応関係に基づき各統合対象の3次元情報を位置合わせした後に統合する。さらに、統合された3次元情報からマークに対応する情報を消去または無効化し、この処理後の3次元情報を3次元モデルとして確定する。   In the method of creating a three-dimensional model according to the present invention, a polygonal mark having no rotational symmetry is attached to a predetermined position on the surface of the real model of the recognition target object, and this mark is the field of view of all cameras constituting the stereo camera. If the state included in is maintained, the positional relationship between each camera and the real model is changed each time, and a plurality of times of imaging is executed. Further, edge features are detected from a stereo image generated by imaging each time, and the three-dimensional information representing the features of the real model and the outline of the mark is restored by obtaining the three-dimensional coordinates of the detected features. Then, two or more three-dimensional information corresponding to all or a part of a plurality of three-dimensional information restored with each imaging is set as an integration target, and each of the three-dimensional information based on the correspondence relationship between the integration target three-dimensional information. The three-dimensional information to be integrated is aligned and then integrated. Further, the information corresponding to the mark is deleted or invalidated from the integrated three-dimensional information, and the three-dimensional information after this processing is determined as a three-dimensional model.

上記において、3次元計測により復元される3次元情報は、実物モデルおよびマークの個々の輪郭線に対応する複数の3次元特徴データの集合体である。また3次元情報の「位置合わせ」とは、それぞれ異なる方向からのステレオ計測により復元された複数の3次元情報を、それぞれの間のずれがなくなるように座標変換する処理をいう。   In the above description, the three-dimensional information restored by the three-dimensional measurement is an aggregate of a plurality of three-dimensional feature data corresponding to individual contour lines of the real model and the mark. “Alignment” of the three-dimensional information refers to a process of converting the coordinates of a plurality of three-dimensional information restored by stereo measurement from different directions so that there is no deviation between them.

「回転対称性を持たない多角形」は、3つ以上の頂点を具備する平面図形であり、360度の範囲で回転させた場合に、どの回転角度においても回転前の図形に重なり合わない形状のものをいう。また、同じ形状の図形に対して回転ずれがない状態で対応づけた場合の一致度と、その他の対応づけによる一致度との間に有意な差が生じるような形状の多角形であるのが望ましい。   “Polygon without rotational symmetry” is a planar figure having three or more vertices, and when it is rotated in the range of 360 degrees, it does not overlap with the figure before rotation at any rotation angle. Means things. In addition, polygons having a shape in which there is a significant difference between the degree of coincidence when the same shape figure is associated with no rotational deviation and the degree of coincidence due to other associations. desirable.

実物モデルに取り付けられるマークは、たとえば、紙、布、樹脂などによりシート状に形成され、実物モデルの表面に貼着される。この場合、マークを構成するシートの裏面に接着層を形成すれば、いわゆる「シール」としてマークを手軽に貼付することができる。また実物モデルが金属製であれば、磁性シートによるマークを作成して、磁力により実物モデルの表面に装着することも可能である。   The mark attached to the real model is formed in a sheet shape by, for example, paper, cloth, resin, etc., and is attached to the surface of the real model. In this case, if an adhesive layer is formed on the back surface of the sheet constituting the mark, the mark can be easily attached as a so-called “seal”. If the real model is made of metal, it is possible to create a mark by a magnetic sheet and attach it to the surface of the real model by magnetic force.

また、明色の実物モデルには暗色のマークを取り付け、暗色の実物モデルには明色のマークを取り付けるのが望ましい。このようにすれば、マークと背景とのコントラストが強い画像を生成することができるから、マークのエッジを精度良く検出することができる。   In addition, it is desirable to attach a dark color mark to the light-colored real model and attach a light-colored mark to the dark-colored real model. In this way, since an image with a strong contrast between the mark and the background can be generated, the edge of the mark can be detected with high accuracy.

上記の方法で実施される撮像処理は、常にすべてのカメラの視野に同一のマークが含まれる状態で行われるから、実物モデルの輪郭線とともに、マークのエッジの3次元情報を復元することができる。さらに、3次元情報を統合する際の位置合わせ処理でも、マークのエッジを位置合わせの対象にすることができる。   Since the imaging process performed by the above method is always performed in a state where the same mark is included in the field of view of all the cameras, the three-dimensional information of the edge of the mark can be restored together with the contour line of the real model. . Further, even in the alignment process when integrating the three-dimensional information, the edge of the mark can be the target of alignment.

3次元情報の位置合わせでは、3次元情報間の一致度が最も高くなる場合の対応関係を特定し、その対応関係に基づく座標変換により、各3次元情報間の位置ずれや角度ずれを解消する。ここでマークの形状は回転対称性を持たない多角形であるから、復元される3次元情報が表すマークの姿勢は計測方向毎に一意のものとなる。したがって、マークの3次元情報を対応づける場合には、正しく位置合わせされたときでなければ、必ずいずれかの辺または頂点にずれが生じる。
よって、正しく位置合わせされていない場合にはマークの辺や頂点に大きなずれが生じるようにマークの形状を定めておけば、3次元情報の位置合わせにおいても、位置合わせが正しくない場合のマーク部分の一致度を大幅に低下させることができる。
In the alignment of the three-dimensional information, the correspondence relationship when the degree of coincidence between the three-dimensional information is the highest is specified, and the positional deviation and the angular deviation between the three-dimensional information are eliminated by coordinate conversion based on the correspondence relationship. . Here, since the shape of the mark is a polygon having no rotational symmetry, the posture of the mark represented by the restored three-dimensional information is unique for each measurement direction. Therefore, when associating the three-dimensional information of the mark, any side or vertex is always shifted unless correctly aligned.
Therefore, if the shape of the mark is determined so that there is a large shift in the side or vertex of the mark when it is not correctly aligned, the mark portion when the alignment is not correct even in the alignment of 3D information The degree of coincidence can be greatly reduced.

上記によれば、マークの3次元情報が正しく位置合わせされたか否かによって、3次元情報全体の一致度が大きく変動するようになる。すなわち、マークを含む各部が正しく対応づけられた場合の一致度は十分な大きさになるのに対し、正しい対応づけがされていない場合には、マーク部分の一致度の大幅な低下によって全体の一致度が引き下げられる。したがって、実物モデルの3次元情報中に誤った対応づけが行われる可能性のある特徴が含まれている場合でも、その対応づけによる位置合わせが確定されるのを防止することができ、精度の良い3次元モデルを作成することが可能になる。   According to the above, the degree of coincidence of the entire three-dimensional information greatly varies depending on whether or not the three-dimensional information of the mark is correctly aligned. In other words, the degree of coincidence when each part including the mark is correctly associated is sufficiently large, whereas when the part is not correctly associated, the overall degree of coincidence of the mark portion is greatly reduced. The degree of match is lowered. Therefore, even if the three-dimensional information of the real model includes features that may be erroneously associated with each other, it is possible to prevent the alignment based on the correspondence from being fixed, A good three-dimensional model can be created.

上記の方法では、実物モデルの表面の平坦な箇所にマークを取り付けるのが望ましい。
マークを曲面に取り付けると、その面の曲率の大きさによっては、マークにつき本来のものとは大きく異なる3次元情報が復元されるが、以下に述べるマークの幾何学的特徴に基づく照合を行うには、マークの本来の3次元情報を精度良く復元する必要があるからである。
In the above method, it is desirable to attach a mark to a flat portion on the surface of the real model.
When a mark is attached to a curved surface, depending on the curvature of the surface, three-dimensional information that is significantly different from the original one is restored. However, for the collation based on the geometric features of the mark described below, This is because the original three-dimensional information of the mark needs to be accurately restored.

つぎに、上記のマークを当該マークとは色彩が異なる背景部と一体に形成し、この一体物を実物モデルの表面に取り付けてもよい。このようにすれば、繰り返し構造など、位置合わせ時の対応づけに誤りが生じやすい特徴が現れている箇所を一体物により覆って、対応づけの誤りを防止することが可能になる。   Next, the mark may be formed integrally with a background portion having a color different from that of the mark, and the integrated object may be attached to the surface of the real model. In this way, it is possible to prevent an error in correspondence by covering a portion where a feature that is likely to cause an error in matching at the time of alignment, such as a repetitive structure, is covered with an integrated object.

好ましい態様による方法では、あらかじめ上記のマークの幾何学的特徴を表す3次元特徴データを登録しておく。そして、3次元情報を統合する処理に先立ち、毎回の撮像により生成されたステレオ画像により復元された3次元情報をマークの3次元特徴データと照合して、当該マークの幾何学的特徴が良好に復元されているか否かを判定し、この幾何学的特徴が良好に復元されていないと判定した3次元情報を、統合処理の対象から除外する。   In the method according to a preferred embodiment, three-dimensional feature data representing the geometric feature of the mark is registered in advance. Prior to the process of integrating the three-dimensional information, the three-dimensional information restored by the stereo image generated by each imaging is collated with the three-dimensional feature data of the mark, so that the geometric feature of the mark is improved. It is determined whether or not it has been restored, and the three-dimensional information determined that this geometric feature has not been satisfactorily restored is excluded from the targets of integration processing.

実物モデルとカメラとの位置関係を毎回任意に設定して3次元計測を行う場合には、実物モデルの3次元的形状が判明していない限り、復元された3次元情報からその情報の精度を確認するのは困難である。しかし、この発明の場合には、マークの設計や作成を行う過程でその寸法や形状を知ることができ、また計測された3次元情報の中にマークを表す情報が含まれているから、このマークの既知の幾何学的特徴を利用して3次元情報の精度を判定することができる。よって、判定結果に基づいて精度の悪い3次元情報を統合対象から除外することができ、3次元モデルの精度をより一層向上することができる。   When 3D measurement is performed by arbitrarily setting the positional relationship between the real model and the camera each time, unless the 3D shape of the real model is known, the accuracy of the information is determined from the restored 3D information. It is difficult to confirm. However, in the case of the present invention, the dimension and shape can be known in the process of designing and creating the mark, and the information representing the mark is included in the measured three-dimensional information. The accuracy of the three-dimensional information can be determined using the known geometric features of the mark. Therefore, three-dimensional information with poor accuracy can be excluded from integration targets based on the determination result, and the accuracy of the three-dimensional model can be further improved.

他の好ましい態様では、3次元計測において、各カメラにより生成された画像からエッジを検出して、検出されたエッジを複数の2次元セグメントに分割するステップと、各2次元セグメントを画像間で対応づけて、対応するセグメントの組毎に複数の3次元座標を算出し、算出された3次元座標の分布状態に基づき直線または曲線の3次元セグメントを設定するステップと、各3次元セグメントの交点を特徴点に設定するステップとを、実行する。また特徴点を設定するステップでは、他のセグメントに交わっていない端縁を具備する直線の3次元セグメントの当該端縁を所定の長さまで延長し、この延長部分が他の3次元セグメントまたはその延長部分に交わるとき、または所定値以内の距離をもって交差するときに、その交点または交差するセグメント間に特徴点を設定する。さらに、3次元情報の統合前の位置合わせ処理では、統合対象の3次元情報の1つを基準として、その他の3次元情報を、それぞれの特徴点および3次元セグメントが基準の3次元情報に最も一致した状態になるように座標変換する。   In another preferable aspect, in the three-dimensional measurement, an edge is detected from an image generated by each camera, the detected edge is divided into a plurality of two-dimensional segments, and each two-dimensional segment is associated between the images. Then, a plurality of three-dimensional coordinates are calculated for each pair of corresponding segments, a step of setting a three-dimensional segment of a straight line or a curve based on the distribution state of the calculated three-dimensional coordinates, and an intersection of each three-dimensional segment Executing the step of setting the feature point. Further, in the step of setting the feature point, the edge of the straight three-dimensional segment having an edge that does not intersect with the other segment is extended to a predetermined length, and this extended portion is the other three-dimensional segment or its extension. When intersecting parts or intersecting at a distance within a predetermined value, feature points are set between the intersecting points or intersecting segments. Further, in the alignment process before the integration of the three-dimensional information, one of the three-dimensional information to be integrated is used as a reference, and the other three-dimensional information is compared with the reference three-dimensional information with each feature point and three-dimensional segment as the reference. Transform coordinates so that they match.

上記の態様では、各エッジをセグメントの単位に分割して、対応づけや3次元座標の算出を行う。そして、最終的に構成された3次元セグメントの各交点を特徴点に設定し、位置合わせの際には、特徴点および3次元セグメントが基準の3次元情報に最も一致した状態を、適切な位置合わせ状態とする。しかし、マークとカメラの位置関係によっては、シェーディングなどによってマークの一部が不鮮明になり、その結果、マークの一部の頂点の3次元情報を復元できなくなり、位置合わせの精度が低下する可能性がある。この点に鑑み、上記の態様では、直線の3次元セグメントの他と交わっていない端縁を所定長さまで延長して、その延長部分が他の3次元セグメントまたはその延長部分と交わるか、所定値以内の距離をもって交差する場合には、その交点または交差するセグメントの間に特徴点を設定するので、マーク内の復元できなかった頂点も、この手法により復元することが可能になる。よって、マークの3次元セグメントにより位置合わせの精度を確保して、精度の良い3次元モデルを作成することが可能になる。   In the above aspect, each edge is divided into segment units, and correspondence and three-dimensional coordinate calculation are performed. Then, each intersection of the finally formed three-dimensional segment is set as a feature point, and when the alignment is performed, the state where the feature point and the three-dimensional segment most closely match the reference three-dimensional information is set to an appropriate position. Set to the combined state. However, depending on the positional relationship between the mark and the camera, part of the mark may become unclear due to shading, etc., and as a result, it may not be possible to restore the three-dimensional information of some vertices of the mark and the accuracy of alignment may be reduced. There is. In view of this point, in the above aspect, the edge that does not intersect with the other of the straight three-dimensional segment is extended to a predetermined length, and the extension portion intersects with another three-dimensional segment or the extension portion, or a predetermined value. In the case of intersecting within a distance, feature points are set between the intersecting points or intersecting segments, so that vertices that could not be restored in the mark can be restored by this method. Therefore, it is possible to secure the alignment accuracy by the three-dimensional segment of the mark and create a highly accurate three-dimensional model.

さらに他の好ましい態様では、回転対称性を持たない多角形による第1および第2のマークを、実物モデルの表面のそれぞれ異なる場所に取り付けて、各マークにつきそれぞれ当該マークがすべてのカメラの視野に含まれる状態が複数とおり成立し、かつ第1および第2のマークが共に各カメラの視野に含まれる状態が少なくとも1回成立するように、前記複数回の撮像における各カメラと実物モデルとの位置関係を調整する。さらに、第1のマークのみを各カメラの視野に含めて撮像したときのステレオ画像から復元した3次元情報と、第2のマークのみを各カメラの視野に含めて撮像したときのステレオ画像から復元した3次元情報とを、それぞれ第1および第2のマークを各カメラの視野に含めて撮像したときのステレオ画像から復元した3次元情報に位置合わせし、これらの3次元情報を統合する。   In yet another preferred embodiment, the first and second marks by polygons having no rotational symmetry are attached to different locations on the surface of the real model, and for each mark, the mark is in the field of view of all cameras. Positions of each camera and the real model in the plurality of times of imaging so that a plurality of states are established and a state where both the first and second marks are included in the field of view of each camera is established at least once. Adjust the relationship. Further, the three-dimensional information restored from the stereo image when only the first mark is included in the field of view of each camera, and the stereo image when only the second mark is captured while included in the field of view of each camera. The three-dimensional information is aligned with the three-dimensional information restored from the stereo image when the first and second marks are included in the field of view of each camera and the three-dimensional information is integrated.

認識対象物の全体の構成を示す3次元モデルを作成するには、実物モデルの各面が撮像対象となるように実物モデルとカメラとの位置関係の態様を多く設定する必要があるが、この場合にマークが常に全てのカメラの視野に含まれる状態を設定するには、1つのマークを付すだけでは困難である。   In order to create a three-dimensional model showing the entire configuration of the recognition target object, it is necessary to set many aspects of the positional relationship between the real model and the camera so that each surface of the real model becomes an imaging target. In this case, it is difficult to set a state in which a mark is always included in the field of view of all cameras by attaching only one mark.

この点につき、上記の態様では、実物モデルに第1および第2のマークを取り付けて、これらのマークの少なくとも一方を計測できれば良いようにしたので、実物モデルとカメラとの位置関係を変更できる範囲が限定されるのを防ぐことができる。また、第1のマークのみを計測対象とした場合の3次元情報と、第2のマークのみを計測対象とした場合の3次元情報とを、各マークを共に計測対象とした場合の3次元情報を基準に位置合わせすることができるから、位置合わせの精度を確保することができる。なお、第2のマークは1つに限らず、複数の第2のマークをそれぞれ異なる面に取り付けてもよい。   In this regard, in the above aspect, the first and second marks are attached to the real model, and it is only necessary to measure at least one of these marks, so that the positional relationship between the real model and the camera can be changed. Can be prevented from being limited. In addition, three-dimensional information when only the first mark is the measurement target and three-dimensional information when only the second mark is the measurement target, and the three-dimensional information when each mark is the measurement target. Therefore, the alignment accuracy can be ensured. Note that the number of second marks is not limited to one, and a plurality of second marks may be attached to different surfaces.

上記の方法が適用された物体認識装置は、ステレオカメラにより生成された認識対象物のステレオ画像を入力する画像入力手段と、入力されたステレオ画像からエッジの特徴を検出し、検出された特徴に対する3次元計測を行うことによって3次元情報を復元する3次元計測手段と、復元された3次元情報をあらかじめ登録した3次元モデルと照合することにより認識対象物の位置および姿勢を認識する認識処理手段と、認識処理手段により使用される3次元モデルを作成して登録する3次元モデル登録手段とを具備する。さらに、3次元モデル登録手段は、以下のマーク登録手段、計測制御手段、判定手段、3次元情報統合手段、モデル確定手段、の各手段を具備する。   An object recognition apparatus to which the above method is applied includes an image input unit that inputs a stereo image of a recognition target generated by a stereo camera, detects edge features from the input stereo image, and detects the detected features. 3D measurement means for restoring 3D information by performing 3D measurement, and recognition processing means for recognizing the position and orientation of the recognition object by comparing the restored 3D information with a previously registered 3D model And 3D model registration means for creating and registering a 3D model used by the recognition processing means. Further, the three-dimensional model registration means includes the following means: mark registration means, measurement control means, determination means, three-dimensional information integration means, and model confirmation means.

マーク登録手段は、回転対称性を持たない多角形のマークについて、その幾何学的特徴を表す3次元特徴データを登録するためのものである。計測制御手段は、上記のマークが表面に取り付けられた実物モデルが、各カメラに対する位置関係が毎回変更されて複数回撮像されることを前提として、毎回の撮像により生成されるステレオ画像を画像入力部より受け付けて、3次元計測手段に処理させる。判定手段は、計測制御手段の処理によりステレオ画像から復元された3次元情報を、マーク登録手段に登録された3次元特徴データと照合して、当該マークの幾何学的特徴が良好に復元されているか否かを判定する。   The mark registration means is for registering three-dimensional feature data representing a geometric feature of a polygonal mark having no rotational symmetry. The measurement control means inputs a stereo image generated by each imaging on the premise that the actual model with the above mark attached to the surface is imaged a plurality of times with the positional relationship with each camera being changed each time. Is received from the unit and processed by the three-dimensional measuring means. The determination unit compares the three-dimensional information restored from the stereo image by the process of the measurement control unit with the three-dimensional feature data registered in the mark registration unit, so that the geometric feature of the mark is well restored. It is determined whether or not.

3次元情報統合手段は、複数回の撮像に伴い復元された複数の3次元情報のうち、マークの幾何学的特徴が良好に復元されていると判定された2以上の3次元情報を対象にして、これらの3次元情報をそれぞれの対応関係に基づき位置合わせした後に統合する。モデル確定手段は、統合後の3次元情報中のマークに対応する情報を消去または無効化し、この処理後の3次元情報を登録対象の3次元モデルとして確定する。   The three-dimensional information integration means targets two or more three-dimensional information determined that the geometric feature of the mark is well restored among a plurality of pieces of three-dimensional information restored in response to a plurality of times of imaging. Then, these three-dimensional information is integrated after being aligned based on the corresponding relationship. The model determining unit deletes or invalidates information corresponding to the mark in the integrated three-dimensional information, and determines the three-dimensional information after the processing as a registration target three-dimensional model.

なお、上記構成において、判定手段の処理のうち、マークの3次元情報が良好に復元されているか否かを判定する処理には、装置で自動的に実行する態様のほか、3次元情報とマークの3次元特徴データとの照合結果を表示して、ユーザによる判定結果の入力を受け付ける態様を含めることができる。   In the above configuration, in the processing of the determination means, the processing for determining whether or not the three-dimensional information of the mark has been successfully restored includes the three-dimensional information and the mark in addition to the mode automatically executed by the apparatus. It is possible to include a mode in which the result of collation with the three-dimensional feature data is displayed and the input of the determination result by the user is received.

上記の装置によれば、ユーザが回転対称性を持たない多角形のマークを実物モデルの適所に取り付けて、同一のマークが各カメラの視野に共通に含まれる状態が維持されるように、毎回の実物モデルとカメラとの位置関係を調整して複数回の撮像を行うことにより、各撮像によるステレオ画像から復元された3次元情報のうち精度が良いものを選択して、3次元モデルを作成することが可能になる。よって、精度の良い3次元モデルを作成して登録した後に、これをもって物体の位置および姿勢を正確に認識することが可能になる。   According to the above apparatus, every time a user attaches a polygonal mark having no rotational symmetry to an appropriate position of the real model, and the state in which the same mark is commonly included in the field of view of each camera is maintained. By adjusting the positional relationship between the real model and the camera, and taking multiple shots, the three-dimensional information restored from the stereo image obtained by each imaging is selected to create a three-dimensional model with high accuracy. It becomes possible to do. Therefore, after creating and registering a highly accurate three-dimensional model, it is possible to accurately recognize the position and orientation of the object.

この発明によれば、対象物の実物モデルの表面に、回転対称性を持たない多角形のマークを取り付けて、このマークが各カメラの視野に共通に含まれる状態を維持して複数回の撮像を行うことにより、3次元情報の位置合わせの精度を高めることが可能になる。よって、実物モデルとカメラとの位置関係を任意に変更しても、3次元情報の位置合わせの精度を確保して、精度の良い3次元モデルを作成することが可能になる。また位置関係を厳密に調整する必要がないので、3次元モデルの作成に要するユーザの手間を削減でき、利便性を高めることができる。   According to the present invention, a polygonal mark having no rotational symmetry is attached to the surface of the real model of the object, and imaging is performed a plurality of times while maintaining the state that the mark is included in the field of view of each camera. By performing the above, it becomes possible to improve the accuracy of the alignment of the three-dimensional information. Therefore, even if the positional relationship between the real model and the camera is arbitrarily changed, it is possible to ensure the accuracy of alignment of the three-dimensional information and create a highly accurate three-dimensional model. In addition, since it is not necessary to strictly adjust the positional relationship, it is possible to reduce the user's effort required to create the three-dimensional model, and to improve convenience.

(1)装置構成
図1は、3次元認識処理を適用したピッキングシステムの例を示す。
このピッキングシステムは、工場内で収容ボックス6内に収容されたワークWを1つずつ取り出して所定の位置に搬送する作業を行うためのもので、実際の作業を行う多関節ロボット4や、このロボット4の動作を制御するロボット制御装置3が含まれる。さらに、このピッキングシステムには、処理対象のワークWの位置および姿勢を認識するために、ステレオカメラ1および物体認識装置2が設けられる。
(1) Device Configuration FIG. 1 shows an example of a picking system to which a three-dimensional recognition process is applied.
This picking system is for performing the work of taking out the workpieces W housed in the housing box 6 one by one and transporting them to a predetermined position in the factory. A robot control device 3 that controls the operation of the robot 4 is included. Further, this picking system is provided with a stereo camera 1 and an object recognition device 2 in order to recognize the position and orientation of the workpiece W to be processed.

ステレオカメラ1は、位置関係が固定された3台のカメラ11,12,13により構成される。物体認識装置2には、カメラ11,12,13の位置関係や光軸の向きなどを表す情報や、認識対象のワークWの3次元モデルが登録されており、各カメラ11,12,13から入力したステレオ画像を処理して、ワークWの輪郭線の3次元情報を復元した後に、復元した3次元情報を3次元モデルと照合してワークWの位置や姿勢を認識する。この認識結果を示す情報は、物体認識装置2からロボット制御装置3に出力され、ロボット制御装置3において、ロボット4のアーム40の動作を制御する処理に使用される。   The stereo camera 1 is composed of three cameras 11, 12, and 13 whose positional relationship is fixed. In the object recognition device 2, information representing the positional relationship of the cameras 11, 12, 13, the direction of the optical axis, and the three-dimensional model of the workpiece W to be recognized are registered. After the input stereo image is processed to restore the three-dimensional information of the contour line of the workpiece W, the restored three-dimensional information is collated with the three-dimensional model to recognize the position and orientation of the workpiece W. Information indicating the recognition result is output from the object recognition device 2 to the robot control device 3, and is used for processing for controlling the operation of the arm 40 of the robot 4 in the robot control device 3.

図2は、物体認識装置2のハードウェア構成を示す。
この装置には、各カメラ11,12,13に対応する画像入力部21,22,23のほか、CPU24、メモリ25、入力部26、表示部27、通信インターフェース28などが設けられる。入力部26はキーボードやマウスであり、表示部27は液晶モニタである。入力部26および表示部27は、以下に述べる3次元モデルの作成の際に、ユーザが実物モデルの撮像状態を確認したり、選択操作や設定操作を行う用途に用いられる。通信インターフェース28は、ロボット制御装置4との通信に用いられる。
FIG. 2 shows a hardware configuration of the object recognition apparatus 2.
In this apparatus, in addition to the image input units 21, 22, and 23 corresponding to the cameras 11, 12, and 13, a CPU 24, a memory 25, an input unit 26, a display unit 27, a communication interface 28, and the like are provided. The input unit 26 is a keyboard and a mouse, and the display unit 27 is a liquid crystal monitor. The input unit 26 and the display unit 27 are used for applications in which a user confirms an imaging state of a real model, or performs a selection operation or a setting operation when creating a three-dimensional model described below. The communication interface 28 is used for communication with the robot control device 4.

メモリ25は、ROM,RAM,およびハードディスクなどの大容量メモリを含む。
CPU24は、メモリ25に格納されたプログラムに基づき、3次元計測およびワークWの認識に関する一連の処理を実行し、認識結果(具体的には、ワークWの位置を表す3次元座標、および3次元モデルに対する回転角度)を通信インターフェース28より出力する。
The memory 25 includes a large-capacity memory such as a ROM, a RAM, and a hard disk.
Based on the program stored in the memory 25, the CPU 24 executes a series of processes related to the three-dimensional measurement and the recognition of the workpiece W, and the recognition result (specifically, the three-dimensional coordinates representing the position of the workpiece W, and the three-dimensional The rotation angle with respect to the model is output from the communication interface 28.

また、メモリ25には3次元モデルを作成するためのプログラムも格納される。CPU24は、認識処理に先立ち、このプログラムに基づき、各カメラ11〜13から入力された実物モデルの画像を用いてワークWの3次元モデルを作成し、これをメモリ25内に登録する。   The memory 25 also stores a program for creating a three-dimensional model. Prior to the recognition process, the CPU 24 creates a three-dimensional model of the work W using the images of the real models input from the cameras 11 to 13 based on this program, and registers the three-dimensional model in the memory 25.

さらに図2には示していないが、この実施例の物体認識装置2には、各カメラ11,12,13に駆動信号を出力する回路が設けられ、CPU24には、この回路を介して各カメラ11〜13の撮像動作を制御する機能が設定される。   Further, although not shown in FIG. 2, the object recognition apparatus 2 of this embodiment is provided with a circuit for outputting a drive signal to each of the cameras 11, 12, and 13, and the CPU 24 receives each camera via this circuit. A function for controlling the imaging operations 11 to 13 is set.

(2)3次元計測処理について
上記の物体認識装置2では、ステレオ画像からエッジを検出した後に、特許文献1に記載された発明と同様に、「セグメント」と呼ばれる単位毎に3次元情報を復元し、さらにセグメント単位で3次元モデルとの照合を行うようにしている。図3は、この方法により1つのワークを認識するために実行される処理の概略手順を示すものである。以下、この図3のステップ符号を参照しつつ、この実施例における3次元認識処理を説明する。
(2) Three-dimensional measurement processing In the object recognition device 2 described above, after detecting an edge from a stereo image, the three-dimensional information is restored for each unit called “segment” in the same manner as the invention described in Patent Document 1. Furthermore, collation with the three-dimensional model is performed on a segment basis. FIG. 3 shows a schematic procedure of processing executed for recognizing one workpiece by this method. Hereinafter, the three-dimensional recognition process in this embodiment will be described with reference to the step codes in FIG.

まず、各カメラ11〜13によるステレオ撮像を行い、生成された各画像にエッジ抽出用のフィルタを適用して、画像中のエッジを検出する(ST1,2)。つぎに、検出されたエッジを細線化し(1画素幅のデータにする。)、細線化後のエッジを連結点や分岐点を基準に直線や曲線のセグメントに分割する(ST3,4)。この2次元画像上のエッジから抽出されたセグメントを、以下では「2次元セグメント」と呼ぶ。   First, stereo imaging is performed by each of the cameras 11 to 13, and an edge extraction filter is applied to each generated image to detect an edge in the image (ST1, 2). Next, the detected edge is thinned (set to 1 pixel width data), and the thinned edge is divided into straight or curved segments based on the connection points and branch points (ST3, 4). The segment extracted from the edge on the two-dimensional image is hereinafter referred to as “two-dimensional segment”.

つぎに、画像間で対応関係にある2次元セグメントを対応づける処理を実行する(ST5)。この対応づけでは、3つの画像のうちの1つを基準に、この基準画像の各2次元セグメントに順に着目し、着目した2次元セグメント毎に、他の2つの画像の中から対応する2次元セグメントを特定する。すなわち、着目した2次元セグメントに対し、エピポーラ条件を満たし、近傍のセグメントとの連結関係が整合する2次元セグメントを、各画像から検出することになる(詳細については非特許文献1等を参照されたい。)。   Next, a process of associating two-dimensional segments that have a correspondence relationship between images is executed (ST5). In this association, one two of the three images is used as a reference, and each two-dimensional segment of the reference image is focused in turn, and the two-dimensional corresponding to each of the two-dimensional segments focused on from the other two images. Identify the segment. That is, a two-dimensional segment satisfying the epipolar condition and matching with a neighboring segment is detected from each image with respect to the focused two-dimensional segment (refer to Non-Patent Document 1 or the like for details). I want.)

つぎに、上記の処理により対応づけられた各2次元セグメントの組み合わせ毎に、その対応関係から3次元情報を復元する処理を実行する(ST6)。
簡単に説明すると、対応づけられた2次元セグメントの組み合わせ毎に、そのセグメント間で対応関係にある画素の3次元座標を算出する。また、算出された3次元座標の分布状態を直線および円弧のモデルと照合して、これらの3次元座標の集合が直線/曲線のいずれに相当するかを判別する。この処理により、2次元セグメントの組み合わせ毎に、その組み合わせに対応する直線または曲線の3次元セグメントが特定される。
Next, for each combination of the two-dimensional segments associated by the above-described process, a process for restoring the three-dimensional information from the correspondence is executed (ST6).
Briefly, for each combination of two-dimensional segments associated with each other, the three-dimensional coordinates of the pixels having a correspondence relationship between the segments are calculated. Further, the calculated distribution state of the three-dimensional coordinates is collated with a model of a straight line and an arc to determine whether the set of these three-dimensional coordinates corresponds to a straight line / curve. With this process, for each combination of two-dimensional segments, a three-dimensional segment of a straight line or a curve corresponding to the combination is specified.

さらに、ST6では、各3次元セグメントについて、それぞれそのセグメントをあらかじめ設定された間隔毎にサンプリングし、セグメントの種別(直線または曲線)と各サンプリング点の3次元座標とを対応づけた情報を作成する。これにより、2次元セグメントから算出された3次元座標の数が少なかった3次元セグメントについても、サンプリング間隔を細かくすれば、当初より多くの3次元座標を得ることが可能になる。   Further, in ST6, for each three-dimensional segment, the segment is sampled at a predetermined interval, and information in which the segment type (straight line or curve) is associated with the three-dimensional coordinates of each sampling point is created. . As a result, even for a three-dimensional segment in which the number of three-dimensional coordinates calculated from the two-dimensional segment is small, it is possible to obtain more three-dimensional coordinates from the beginning if the sampling interval is made fine.

上記の処理により復元された3次元セグメントの集合が、認識対象のワークの3次元情報に相当する。つぎの段階では、3次元座標系のあらかじめ定めた基準位置に3次元モデルを設定し、この3次元モデルと復元された3次元情報とを照合することによって、3次元モデルに対するワークの位置ずれ量および回転角度を認識する(ST7)。   The set of three-dimensional segments restored by the above processing corresponds to the three-dimensional information of the workpiece to be recognized. In the next stage, a three-dimensional model is set at a predetermined reference position in the three-dimensional coordinate system, and the positional deviation amount of the workpiece with respect to the three-dimensional model is verified by comparing this three-dimensional model with the restored three-dimensional information. Then, the rotation angle is recognized (ST7).

ST7における照合処理では、各3次元セグメントの交点を特徴点として、各特徴点を総当たり式に対応づけながら、その対応づけをした場合の各3次元セグメントの一致度を算出し、一致度が最大になったときの対応づけを正しい対応関係として特定する。   In the matching process in ST7, the intersection of each three-dimensional segment is used as a feature point, and each feature point is associated with the brute force formula, and the degree of coincidence of each three-dimensional segment when the association is performed is calculated. The correspondence when the maximum is reached is specified as the correct correspondence.

ST7について、もう少し詳しく説明する。この実施例では、照合対象の3次元情報の各特徴点に順に対応づけて、対応づけ毎に、3次元モデル側の特徴点を対応点に移動させるのに必要なシフト量および回転角度を算出する。これらはいずれも、X,Y,Zの軸毎に算出される。つぎに、算出したシフト量および回転角度に基づいて、3次元モデルに含まれる全ての座標を変換し、変換後の3次元モデルと照合対象の3次元情報との一致度を算出する。   ST7 will be described in a little more detail. In this embodiment, each of the feature points of the three-dimensional information to be collated is sequentially associated, and for each association, the shift amount and the rotation angle necessary to move the feature point on the 3D model side to the corresponding point are calculated. To do. All of these are calculated for each of the X, Y, and Z axes. Next, all the coordinates included in the three-dimensional model are converted based on the calculated shift amount and rotation angle, and the degree of coincidence between the converted three-dimensional model and the three-dimensional information to be collated is calculated.

上記の処理を、3次元モデル側のすべての特徴点につき実行することにより、特徴点が総当たり式に対応づけられ、対応付け毎に一致度を求めることができる。この後、最終的に最も高い一致度が得られたときの座標変換に用いたシフト量および回転角度を、認識対象のワークの3次元モデルに対する位置ずれ量および回転角度として認識する。   By executing the above processing for all feature points on the three-dimensional model side, the feature points are associated with the brute force formula, and the degree of coincidence can be obtained for each association. Thereafter, the shift amount and the rotation angle used for the coordinate conversion when the highest degree of coincidence is finally obtained are recognized as the positional deviation amount and the rotation angle of the recognition target workpiece with respect to the three-dimensional model.

この後は、認識した位置ずれ量および回転角度をロボット制御装置3に出力し(ST8)、処理を終了する。   Thereafter, the recognized positional deviation amount and rotation angle are output to the robot controller 3 (ST8), and the process is terminated.

(3)3次元モデルの作成処理
3−1)原理説明
上記した3次元認識処理を実行するには、あらかじめ、ワークWの3次元モデルをメモリ25に登録する必要がある。この実施例の物体認識装置では、ワークWの実物モデルを種々の方向からステレオ計測し、各計測結果から復元した3次元情報を統合する方法により、3次元モデルを作成するようにしている。以下、この処理について詳細に説明する。
なお、以下の図面では、ワークWの実物モデルをWMの符号で示すとともに、明細書中では、この実物モデルWMを「ワークモデルWM」という。
(3) Three-dimensional model creation process 3-1) Principle description In order to execute the above-described three-dimensional recognition process, it is necessary to register a three-dimensional model of the workpiece W in the memory 25 in advance. In the object recognition apparatus of this embodiment, a three-dimensional model is created by a method in which a real model of a workpiece W is measured in stereo from various directions and three-dimensional information restored from each measurement result is integrated. Hereinafter, this process will be described in detail.
In the following drawings, an actual model of the workpiece W is indicated by a symbol WM, and in the specification, the actual model WM is referred to as a “work model WM”.

この実施例では、図4(1)に示すように、ステレオカメラ1の位置および光軸方向を固定して、ステレオカメラ1に対するワークモデルWMの姿勢を変更しながら複数回のステレオ計測を実行する。   In this embodiment, as shown in FIG. 4A, the position and the optical axis direction of the stereo camera 1 are fixed, and the stereo measurement is performed a plurality of times while changing the posture of the work model WM with respect to the stereo camera 1. .

図中、X,Y,Zの各軸による3次元座標系は、3次元座標の算出用の座標系(以下、「計測座標系」という。)であり、ステレオカメラ1に対して一意に定められる。一方、X1,Y1,Z1の各軸による3次元座標系は、ワークモデルWMに対して一意に定められた座標系(以下、「ワーク座標系」という。)である。図4(1)では、X1,Y1,Z1の各軸がそれぞれX,Y,Z軸に平行な状態を示すが、ワークモデルWMの姿勢が変わると、ワーク座標系の各軸の方向もこれに応じて変化する。   In the figure, a three-dimensional coordinate system based on the X, Y, and Z axes is a coordinate system for calculating three-dimensional coordinates (hereinafter referred to as “measurement coordinate system”), and is uniquely determined for the stereo camera 1. It is done. On the other hand, the three-dimensional coordinate system based on the X1, Y1, and Z1 axes is a coordinate system uniquely defined for the work model WM (hereinafter referred to as “work coordinate system”). In FIG. 4A, the X1, Y1, and Z1 axes are parallel to the X, Y, and Z axes, respectively. However, when the posture of the work model WM changes, the direction of each axis in the work coordinate system also changes. It changes according to.

ワークモデルWMの姿勢はユーザが自由に定めることができるが、この実施例では、常にX1Z1平面に沿う特定の面がワーク支持面(この例ではXZ平面)に接するものとして、XZ平面に直交するY1軸に対してワークモデルWMを1回転させ、その間に、複数回の撮像を行うものとする。なお、このワークモデルWMの回転は、回転テーブルを用いずに、ユーザの手でワークモデルWMの向きを変更する方法により行うので、回転角度のみならず、計測座標系に対するワークモデルWMの位置も、毎回位置ずれする。   Although the posture of the work model WM can be freely determined by the user, in this embodiment, a specific surface along the X1Z1 plane is always in contact with the work support surface (XZ plane in this example), and is orthogonal to the XZ plane. It is assumed that the work model WM is rotated once with respect to the Y1 axis, and imaging is performed a plurality of times during that time. Since the work model WM is rotated by a method of changing the orientation of the work model WM with the user's hand without using the rotation table, not only the rotation angle but also the position of the work model WM with respect to the measurement coordinate system is determined. Every time, the position is shifted.

図4(2)は、ワーク座標系を基準にして、ワークモデルWMに対するステレオカメラ1の位置関係の変化を表したものである。図中、1〜12の数字入りの矩形は、それぞれ、撮像時のステレオカメラ1の場所を示し、また矩形内の数字は撮像の順序を示す。
これらの位置での撮像により生成されたステレオ画像は、いずれも3次元計測の対象となる。よって以下では、各矩形が表すステレオカメラの位置を「計測ポイント」と呼ぶ。また各計測ポイントに個別に言及する場合には、「計測ポイント[1]」「計測ポイント[2]」のように、計測の順序を表す数字を引用する。
FIG. 4B shows a change in the positional relationship of the stereo camera 1 with respect to the work model WM with reference to the work coordinate system. In the figure, rectangles with numbers 1 to 12 indicate the location of the stereo camera 1 at the time of imaging, and the numbers in the rectangles indicate the order of imaging.
Any stereo image generated by imaging at these positions is subject to three-dimensional measurement. Therefore, hereinafter, the position of the stereo camera represented by each rectangle is referred to as a “measurement point”. When individually referring to each measurement point, a number representing the order of measurement is quoted, such as “measurement point [1]” and “measurement point [2]”.

この実施例では、上記12個の計測ポイント毎に、図3のST1〜6と同様の処理を実行して3次元情報を復元する。また、計測ポイント[1]を除く各計測ポイントでは、それぞれその計測ポイントで復元した3次元情報を1つ前の計測ポイントの3次元情報と照合することにより、一段階前の3次元情報に対する位置ずれ量および回転角度を認識する。これらの認識処理は、いずれも図3のST7で実施されるのと同様の方法により行われる。   In this embodiment, the same processing as ST1 to ST6 in FIG. 3 is executed for each of the 12 measurement points to restore the three-dimensional information. Further, at each measurement point excluding the measurement point [1], the three-dimensional information restored at the measurement point is collated with the three-dimensional information of the previous measurement point, so that the position relative to the previous three-dimensional information is obtained. Recognize deviation and rotation angle. These recognition processes are all performed by the same method as that performed in ST7 of FIG.

なお、最後の計測ポイント[12]については、計測ポイント[11]の3次元情報に対する位置ずれ量および回転角度に加えて、計測ポイント[1]の3次元情報に対する位置ずれ量および回転角度も求める。または、計測ポイント[12]から再度計測ポイント[1]に移行して、計測を再実行し、復元された3次元情報の計測ポイント[12]の3次元情報に対する位置ずれ量および回転角度を求めてもよい。   For the last measurement point [12], in addition to the displacement amount and rotation angle for the three-dimensional information of the measurement point [11], the displacement amount and rotation angle for the three-dimensional information of the measurement point [1] are also obtained. . Alternatively, the measurement point [12] is transferred to the measurement point [1] again, the measurement is re-executed, and the positional deviation amount and the rotation angle with respect to the three-dimensional information of the measurement point [12] of the restored three-dimensional information are obtained. May be.

さらにこの実施例では、計測ポイント毎に復元された3次元情報の精度を確認し、良好であることを確認した2以上の3次元情報を選択して、選択された情報を位置合わせした後に統合するようにしている。これらの処理の詳細については、後に説明する。   Furthermore, in this embodiment, the accuracy of the three-dimensional information restored for each measurement point is confirmed, two or more three-dimensional information confirmed to be good is selected, and the selected information is aligned and integrated. Like to do. Details of these processes will be described later.

つぎに、この実施例では、ワークモデルWMの表面の適所に三角形のマークMを付けて、ステレオ計測を行っている。このマークMはシールとして構成され、ワークモデルWMの平坦な面(この実施例では上面の中央部)に貼付される。各計測ポイントは、すべてのカメラ11〜13の視野にマークMが含まれる状態にすることを条件に定められる。したがって、いずれの計測ポイントでも、マークMの各辺を表す3次元セグメントを含む3次元情報が復元される。   Next, in this embodiment, stereo measurement is performed by attaching a triangular mark M to an appropriate position on the surface of the work model WM. This mark M is configured as a seal and is affixed to a flat surface of the work model WM (in this embodiment, the center of the upper surface). Each measurement point is determined on condition that the mark M is included in the visual field of all the cameras 11 to 13. Therefore, the three-dimensional information including the three-dimensional segment representing each side of the mark M is restored at any measurement point.

図5は、上記のマークMを付したワークモデルWMにつき、上記12の計測ポイントで復元された3次元情報のうちの3つ(図中、a,b,cで示す。)を用いて3次元モデルを作成する場合の処理手順を、模式的に示す。なお、図中の3次元情報aは、図4(2)の計測ポイント[12]で復元されたものである。また、3次元情報bは計測ポイント[3]で復元されたものであり、3次元情報cは計測ポイント[6]で復元されたものである。また、いずれの3次元情報にも、マークMの情報mが含まれている(ただし、情報mの実質的な内容は計測ポイントによって異なる。後記する情報m1,m2も同様である。)。   FIG. 5 shows three of the three-dimensional information (indicated by a, b, and c in the figure) among the three-dimensional information restored at the 12 measurement points for the work model WM with the mark M. A processing procedure for creating a dimensional model is schematically shown. Note that the three-dimensional information a in the figure is restored at the measurement point [12] in FIG. The three-dimensional information b is restored at the measurement point [3], and the three-dimensional information c is restored at the measurement point [6]. In addition, the information m of the mark M is included in any three-dimensional information (however, the substantial content of the information m differs depending on the measurement point. The same applies to information m1 and m2 described later).

この例では、3次元情報aを基準に、この基準の3次元情報aに対する位置ずれおよび角度ずれが解消するように、他の3次元情報b,cを座標変換する。そして、変換後の3次元情報b´,c´を基準の3次元情報aと統合することによって、それぞれの情報の特徴を含む3次元情報dを作成する。さらに、この統合された3次元情報dから三角形のマークMに対応する情報mを消去することにより、ワークモデルWMの3次元形状のみを表す3次元情報eを作成し、この情報eを3次元モデルに設定する。   In this example, on the basis of the three-dimensional information a, the other three-dimensional information b and c are coordinate-transformed so as to eliminate the positional deviation and the angular deviation with respect to the reference three-dimensional information a. Then, by integrating the converted three-dimensional information b ′ and c ′ with the reference three-dimensional information a, three-dimensional information d including the characteristics of each information is created. Further, by deleting the information m corresponding to the triangular mark M from the integrated three-dimensional information d, three-dimensional information e representing only the three-dimensional shape of the work model WM is created. Set to model.

上記の3次元情報の座標変換処理は、先に計測ポイント毎に求めた位置ずれ量および回転角度を用いて行われる。たとえば、計測ポイント[3]で復元した3次元情報bを計測ポイント[12]で復元した3次元情報aに位置合わせするには、計測ポイント[3]と[2]、計測ポイント[2]と[1]、計測ポイント[1]と[12]の各組み合わせにつき求めた位置ずれ量および回転角度を用いて、座標変換を行う。計測ポイント[6]で復元した3次元情報cについても同様に、計測ポイント[6]から計測ポイント[12]までの範囲(この場合は時計回り・半時計回りのいずれでもよい。)で算出された位置ずれ量および回転角度を用いて、座標変換を実行することにより、3次元情報aへの位置合わせを行う。   The coordinate conversion process of the above three-dimensional information is performed using the positional deviation amount and the rotation angle previously obtained for each measurement point. For example, in order to align the 3D information b restored at the measurement point [3] with the 3D information a restored at the measurement point [12], the measurement points [3] and [2], the measurement point [2], [1] Coordinate conversion is performed using the positional deviation amount and the rotation angle obtained for each combination of the measurement points [1] and [12]. Similarly, the three-dimensional information c restored at the measurement point [6] is calculated in the range from the measurement point [6] to the measurement point [12] (in this case, either clockwise or counterclockwise may be used). By performing coordinate conversion using the amount of misalignment and the rotation angle, alignment with the three-dimensional information a is performed.

上記のように、距離を隔てた計測ポイント間の位置ずれ量および回転角度を求める際に、これらの間にある各計測ポイントを隣り合うもの毎に組み合わせて、計測ポイントの組毎に3次元情報の位置ずれ量および回転角度を算出する理由は、共通する特徴をできるだけ多く含む情報同士を照合する方が、照合の精度を確保できるからである。ただし、以下に述べるマークMの機能によって照合処理の精度を十分に確保できるのであれば、3次元情報b,cを3次元情報aと直接照合して、座標変換処理に必要なパラメータを算出してもよい。   As described above, when obtaining the positional deviation amount and the rotation angle between the measurement points separated by a distance, the measurement points between them are combined for each adjacent one, and the three-dimensional information for each set of measurement points. The reason why the amount of misalignment and the rotation angle are calculated is that collation between pieces of information including as many common features as possible can ensure the accuracy of collation. However, if the accuracy of the collation process can be sufficiently secured by the function of the mark M described below, the three-dimensional information b and c are directly collated with the three-dimensional information a to calculate parameters necessary for the coordinate conversion process. May be.

つぎに、三角形のマークMをワークモデルWMに貼付する理由について説明する。
この実施例で使用するマークMが表す三角形は、図6に示すように、各辺の比が6:7:8になるように設定されている。この比率によれば、マークMの各頂点A,B,Cを容易に特定することができるから、たとえば頂点Aから辺BCへの垂線の方向によって、マークMの向きを一意に特定することができる。また図7に示すように、同じ形状の三角形A´B´C´と位置合わせする場合にも、位置合わせの精度を確保することができる。
Next, the reason for attaching the triangular mark M to the work model WM will be described.
The triangle represented by the mark M used in this embodiment is set so that the ratio of each side becomes 6: 7: 8 as shown in FIG. According to this ratio, the vertices A, B, and C of the mark M can be easily specified. For example, the direction of the mark M can be uniquely specified by the direction of the perpendicular from the vertex A to the side BC. it can. In addition, as shown in FIG. 7, the alignment accuracy can be ensured even when aligning with the triangle A′B′C ′ having the same shape.

図7(1)では、上記の比率による三角形ABCとこれに合同な三角形A´B´C´から、それぞれ頂点を1個ずつ選択し、選択された頂点を基準に各三角形を位置合わせした結果を示す。この図に示すように、各三角形は、正しい対応関係にある頂点が組み合わせられたときでなければ、完全に重なり合うことはない。   In FIG. 7 (1), a result of selecting one vertex from each of the triangle ABC and the congruent triangle A′B′C ′ and aligning the triangles based on the selected vertex. Indicates. As shown in this figure, triangles do not completely overlap unless vertices in the correct correspondence are combined.

上記の三角形の対応づけについて、発明者らは、実際に頂点の組み合わせ毎に、三角形全体の一致度を求めてみた。図7(2)は、その結果を示すグラフである。このグラフに示すとおり、各頂点が正しく対応づけられた場合の一致度を1とすると、他の対応関係による一致度は最大でも0.4程度となる。これにより、三角形の対応関係の正否を正しく判定できることが判明した。   Regarding the correspondence of the above triangles, the inventors actually calculated the degree of coincidence of the entire triangle for each vertex combination. FIG. 7 (2) is a graph showing the results. As shown in this graph, when the degree of coincidence when the vertices are correctly associated with each other is 1, the degree of coincidence due to other correspondences is about 0.4 at the maximum. As a result, it was found that the correctness of the correspondence between triangles can be correctly determined.

上記のとおり、図6に示した形状の三角形によれば、三角形の各頂点が正しく対応づけされた場合と対応づけに誤りがある場合とで、一致度に大きな差異が生じる。この三角形の各辺を3次元セグメントとして対応づけを行っても、同様の効果を得られるはずであるから、マークMの3次元セグメントを含む3次元情報全体を照合した場合には、三角形の各辺の3次元セグメントに関する一致度が全体の一致度に大きく影響を及ぼすようになる。   As described above, according to the triangle having the shape shown in FIG. 6, there is a large difference in the degree of coincidence between the case where the vertices of the triangle are correctly associated and the case where the correspondence is incorrect. Even if each side of the triangle is associated as a three-dimensional segment, the same effect should be obtained. Therefore, when the entire three-dimensional information including the three-dimensional segment of the mark M is collated, each triangle The degree of coincidence regarding the three-dimensional segment of the side greatly affects the degree of coincidence of the whole.

すなわち、ワークモデルWMの本来の3次元セグメントの中に誤った位置合わせを生じさせるような要素があっても、誤った対応づけが行われた場合には、三角形の3次元セグメントの一致度が大きく低下することによって3次元情報全体の一致度が引き下げられる。一方、三角形の3次元セグメントを含む各3次元セグメントが正しく位置合わせされた場合には、いずれの3次元セグメントでも一致度が高くなるから、3次元情報全体の一致度も高い値になる。よって、正しく対応づけられている場合の一致度を他の場合より大きくすることができ、位置合わせの精度を確保することができる。   That is, even if there is an element in the original three-dimensional segment of the work model WM that causes erroneous alignment, if the correspondence is performed incorrectly, the matching degree of the triangular three-dimensional segment is By greatly decreasing, the degree of coincidence of the entire three-dimensional information is lowered. On the other hand, when each three-dimensional segment including a triangular three-dimensional segment is correctly aligned, the degree of coincidence increases in any three-dimensional segment, and the degree of coincidence of the entire three-dimensional information also becomes a high value. Therefore, the degree of coincidence when correctly associated can be made larger than in other cases, and the alignment accuracy can be ensured.

なお、マークMが示す三角形の形状は図6の例に限定されるものではなく、上記した効果を得ることができるものであれば、辺の比率は問わない。また三角形に限らず、頂点が4点以上で向きを一意に特定できる多角形によるマークを作成してもよい。   Note that the shape of the triangle indicated by the mark M is not limited to the example of FIG. 6, and the ratio of the sides is not limited as long as the above-described effect can be obtained. Further, the mark is not limited to a triangle, and a polygonal mark that has four or more vertices and whose direction can be uniquely specified may be created.

またワークモデルWMが不透明で、マークMの貼付面に対向する面の側からマークMを透視することができない場合には、二等辺三角形などの線対称形状の図形によりマークMを構成してもよい。すなわち、回転対称性を持たない図形であって、同一の図形に位置ずれおよび角度ずれなく対応づけたときの一致度と、その他の対応付けにおける一致度との間に有意な差が生じるように設計された図形であれば、3次元情報全体の位置合わせの精度を確保する目的に使用できると考えられる。   Further, when the work model WM is opaque and the mark M cannot be seen through from the side of the surface facing the sticking surface of the mark M, the mark M may be constituted by a line symmetrical figure such as an isosceles triangle. Good. In other words, it is a figure that does not have rotational symmetry, so that there is a significant difference between the degree of coincidence when matching the same figure without positional deviation and angular deviation and the degree of coincidence in other associations. It can be considered that the designed figure can be used for the purpose of ensuring the alignment accuracy of the entire three-dimensional information.

つぎに、上記のマークMを平坦面に貼付する理由について説明する。
マークMを曲面に貼付すると、三角形の各辺も曲線の3次元セグメントとして認識される可能性が高くなる上、曲面の曲率によってマークMの復元される形状が変動する。したがって、マークMが曲面に取り付けられた場合には、その3次元情報を正しく復元できたとしても、復元された3次元情報は、本来の三角形の形状とは異なる形状を表す可能性が高いから、以下に述べるモデル三角形との照合による3次元情報の検証処理を安定して行うのが困難になる。
Next, the reason for applying the mark M to the flat surface will be described.
When the mark M is pasted on the curved surface, each side of the triangle is more likely to be recognized as a three-dimensional segment of the curve, and the shape of the mark M to be restored varies depending on the curvature of the curved surface. Therefore, when the mark M is attached to the curved surface, even if the three-dimensional information can be correctly restored, the restored three-dimensional information is likely to represent a shape different from the original triangular shape. Therefore, it is difficult to stably perform the verification process of the three-dimensional information by collation with the model triangle described below.

つぎに、マークMの3次元情報を精度良く復元するには、マークMの各辺のエッジが確実に検出されるようにする必要がある。この観点から、この実施例では、マークMの面に模様などを描かずに、ほぼ一様な色彩で着色するとともに、図8に示すように、ワークの色彩の明暗に応じた2種類のマークMを用意している。このように、背景となるワークの色彩に応じてマークMの色彩を変更すれば、マークMと背景部分とのコントラストを強めてエッジの検出精度を高めることができる。   Next, in order to restore the three-dimensional information of the mark M with high accuracy, it is necessary to ensure that the edge of each side of the mark M is detected. From this point of view, in this embodiment, the surface of the mark M is colored in a substantially uniform color without drawing a pattern or the like, and as shown in FIG. M is prepared. In this way, if the color of the mark M is changed in accordance with the color of the workpiece that is the background, the contrast between the mark M and the background portion can be increased and the edge detection accuracy can be increased.

さらに、図9に示すように、ワークモデルWMの表面に対応づけの誤りを生じさせるようなパターンpnがある場合には、一様な色彩による背景BKとマークMとを一体化したシールSを作成し、このシールSを、パターンpnが隠れるように貼付するとよい。   Furthermore, as shown in FIG. 9, when there is a pattern pn that causes an error in correspondence on the surface of the work model WM, a seal S in which the background BK and the mark M with uniform colors are integrated is provided. It is good to make and stick this sticker S so that pattern pn may be hidden.

3−2)3次元モデルの精度の確保に関する処理
さらに、この実施例では、3次元モデルの精度を確保するために、以下の処理を実行する。
3-2) Processing for ensuring accuracy of three-dimensional model Furthermore, in this embodiment, the following processing is executed to ensure the accuracy of the three-dimensional model.

[特徴点の補完処理]
図8,9に示したように、ワークモデルWMの色彩やパターンを考慮したマークMを貼付しても、撮像方向によっては、シェーディングなどの影響でマークMの一部が不鮮明になり、その影響でマークMの3次元セグメントを十分に復元できない場合がある。特に3次元情報の照合の基準となる頂点の座標が欠けてしまうと、三角形によって位置合わせの精度を向上するのが困難になる可能性がある。
[Feature point completion processing]
As shown in FIGS. 8 and 9, even if the mark M taking into account the color and pattern of the work model WM is attached, a part of the mark M becomes unclear due to the influence of shading or the like depending on the imaging direction. In some cases, the three-dimensional segment of the mark M cannot be sufficiently restored. In particular, if the coordinates of vertices serving as a reference for collation of three-dimensional information are missing, it may be difficult to improve the alignment accuracy by the triangle.

上記の問題に鑑み、この実施例では、復元された3次元セグメントのうちの直線のセグメントを対象に、図10(1)に示すような処理を行うことにより、消失した頂点に対応する3次元座標を補完するようにしている。なお、図10では、処理内容を明確にするために、各3次元セグメントを拡大して示す。   In view of the above problem, in this embodiment, a three-dimensional image corresponding to a lost vertex is obtained by performing processing as shown in FIG. 10 (1) on a straight line segment among the restored three-dimensional segments. The coordinates are complemented. In FIG. 10, each three-dimensional segment is shown in an enlarged manner in order to clarify the processing content.

図10(1)の例では、直線セグメントのうち他のセグメントと連結していない端縁を有するものを対象に、その連結のない端縁を所定の上限値までの範囲で延長する。ここで延長された部分(たとえば、図中のセグメントL1の延長部分)が、他の3次元セグメントL2またはそのセグメントL2を同様に延長した部分と交わった場合には、その交点Pを特徴点として、その3次元座標を算出する。   In the example of FIG. 10 (1), an end edge that is not connected is extended in a range up to a predetermined upper limit value for a straight line segment that has an end edge that is not connected to another segment. When the extended portion (for example, the extended portion of the segment L1 in the figure) intersects with another three-dimensional segment L2 or a portion obtained by similarly extending the segment L2, the intersection P is used as a feature point. The three-dimensional coordinates are calculated.

また、計測用のパラメータの誤差などにより、連結すべきセグメントが交わらずに交差する可能性があることも考慮して、図10(2)に示すような方法による特徴点の特定も行っている。この例では、2つの直線のセグメントL1,L2(いずれも延長部分を含む。)が交差する場合に、その交差箇所でのセグメントL1,L2の間の距離Dを算出する。そしてこの距離Dが所定のしきい値以内であれば、該当するセグメント間の中点Qを特徴点として、その3次元座標を算出する。なお、直線のセグメントの延長幅の上限値やセグメント間の距離Dと比較するしきい値は、マークMのサイズや想定される計測誤差に基づいてあらかじめ定められる。   Further, considering that there is a possibility that segments to be connected do not intersect due to errors in measurement parameters, etc., feature points are identified by a method as shown in FIG. . In this example, when two straight line segments L1 and L2 (both including an extended portion) intersect, the distance D between the segments L1 and L2 at the intersection is calculated. If the distance D is within a predetermined threshold, the three-dimensional coordinates are calculated using the midpoint Q between the corresponding segments as a feature point. The upper limit value of the extension width of the straight segment and the threshold value to be compared with the distance D between the segments are determined in advance based on the size of the mark M and an assumed measurement error.

上記の図10(1)(2)の処理によれば、マークMに対応する三角形の一部の辺や頂点が画像から消失しても、三角形の消失した頂点の座標を補完することができるから、三角形の一致度が3次元情報全体の一致度に及ぼす影響が保証される。また三角形の頂点に限らず、ノイズや計測誤差などによって主要な特徴点が復元されなかった場合にも、これらの座標を補完することができるから、3次元情報の照合の際の精度を確保することができる。   10 (1) and 10 (2), even if a part of the triangle corresponding to the mark M disappears from the image, the coordinates of the disappeared vertex of the triangle can be complemented. Thus, the effect of the degree of matching of the triangles on the degree of matching of the entire three-dimensional information is guaranteed. In addition to the vertices of a triangle, these coordinates can be complemented even when the main feature points are not restored due to noise, measurement errors, etc., so that accuracy is ensured when matching three-dimensional information. be able to.

[3次元情報の検証]
先に述べたように、この実施例では、種々の方向からワークモデルWMを計測するが、いずれの計測ポイントでも、精度良く3次元情報を復元できるとは限らない。ワークモデルWMの向きによっては、計測用のパラメータの誤差が大きく反映されたり、誤認識されやすい特徴を多く含む画像が生成されるなどして、3次元情報の精度が劣化することがある。
[Verification of 3D information]
As described above, in this embodiment, the work model WM is measured from various directions, but the three-dimensional information cannot be accurately restored at any measurement point. Depending on the orientation of the work model WM, the accuracy of the three-dimensional information may deteriorate due to a large reflection of measurement parameter errors or the generation of an image that includes many misrecognized features.

また、この実施例では、毎回のステレオ計測におけるワークモデルWMの位置をユーザが定めているため、ユーザのミスにより各カメラの視野にマークMが含まれない状態で計測が行われる場合がある。マークMの情報を含まない3次元情報では、位置合わせの精度が悪くなる可能性があるから、事前に統合対象から除外する必要がある。   In this embodiment, since the user determines the position of the work model WM in each stereo measurement, measurement may be performed in a state where the mark M is not included in the field of view of each camera due to a user's mistake. In the three-dimensional information that does not include the information of the mark M, there is a possibility that the alignment accuracy may deteriorate, so it is necessary to exclude it from the integration target in advance.

上記の点から、この実施例では、計測ポイント毎にマークMの3次元情報が良好に復元されているかどうかを判定し、良好であると判定した3次元情報を統合処理に使用するようにしている。   From this point, in this embodiment, it is determined whether or not the three-dimensional information of the mark M has been successfully restored for each measurement point, and the three-dimensional information determined to be good is used for the integration process. Yes.

具体的に判定処理では、図11の(a)に示すように、実際の三角形に近い情報が復元されている場合に、この情報を含む3次元情報全体を良好であるとして統合の対象にする。他方、図11(b)のように辺が曲線化された場合や、図11(c)のように頂点が正しく復元できなかった場合など、三角形の再現性が悪い場合には、3次元情報全体も良好でないと判断して、統合の対象から除外する。   Specifically, in the determination process, as shown in FIG. 11A, when information close to an actual triangle is restored, the entire three-dimensional information including this information is considered to be a good integration target. . On the other hand, when the reproducibility of the triangle is poor, such as when the side is curved as shown in FIG. 11B or when the vertex cannot be correctly restored as shown in FIG. It is judged that the whole is not good and is excluded from integration.

さらに、この実施例では、3次元情報が良好でないと判定した場合には、その3次元情報を破棄して、再度の計測を行ったり、計測ポイントを変更するなどの対応をとる。また、計測を所定回数やり直しても、良好な3次元情報を得られない場合には、ステレオカメラ1の位置調整や3次元キャリブレーションの再実行など、最初の設定処理からやり直す。このような処理により、統合に用いられる3次元情報の精度を確保するとともに、統合の際の座標変換に必要な位置ずれ量や回転角度が精度の悪い3次元情報により算出されるのを防止して、3次元モデルの精度を確保することができる。   Furthermore, in this embodiment, when it is determined that the three-dimensional information is not good, the three-dimensional information is discarded, and measures such as performing another measurement or changing a measurement point are taken. Further, if good 3D information cannot be obtained even if measurement is repeated a predetermined number of times, the initial setting processing such as position adjustment of the stereo camera 1 and re-execution of 3D calibration is performed again. Such processing ensures the accuracy of the three-dimensional information used for the integration, and prevents the positional deviation amount and the rotation angle necessary for the coordinate conversion during the integration from being calculated by the inaccurate three-dimensional information. Thus, the accuracy of the three-dimensional model can be ensured.

上記の判定処理は、具体的には、マークMの幾何学的情報を表す3次元モデルデータ、具体的には、三角形の三辺の好ましい3次元セグメントを表すデータの組み合わせを用いて行われる(以下、このモデルデータを「モデル三角形」という。)。すなわち、各計測ポイントの3次元情報をモデル三角形により照合して、モデル三角形に対する一致度を求める。この照合も、3次元モデルによる照合の場合と同様の方法、すなわちモデル三角形の各特徴点を3次元情報中の各特徴点に総当たり式に対応づけて、モデル三角形に対する一致度が最も高いときの対応づけを確定する方法により行われる。   Specifically, the above determination process is performed using a combination of three-dimensional model data representing the geometric information of the mark M, specifically, data representing a preferred three-dimensional segment of three sides of the triangle ( This model data is hereinafter referred to as “model triangle”). That is, the three-dimensional information of each measurement point is collated with the model triangle to obtain the degree of coincidence with the model triangle. This matching is also performed in the same manner as in the case of matching with the three-dimensional model, that is, when each feature point of the model triangle is associated with each feature point in the three-dimensional information with a brute force formula and the degree of coincidence with the model triangle is the highest. This is done by a method of determining the correspondence of.

上記の照合を行った後は、算出された一致度を所定のしきい値と比較し、一致度がしきい値を上回る場合には3次元情報を良好と判定し、一致度がしきい値以下であれば、該当する3次元情報を削除する。   After the above collation, the calculated degree of coincidence is compared with a predetermined threshold, and if the degree of coincidence exceeds the threshold, it is determined that the three-dimensional information is good, and the degree of coincidence is the threshold. If the following, the corresponding three-dimensional information is deleted.

つぎにこの実施例では、良好と判定された3次元情報をすべて統合するのではなく、その中から、さらに統合対象の3次元情報を選択する。この選択は、全ての計測処理が完了した時点で、ユーザの判断に基づいて行われる。   Next, in this embodiment, not all the three-dimensional information determined to be good are integrated, but the three-dimensional information to be integrated is further selected from among them. This selection is made based on the user's judgment when all the measurement processes are completed.

図12は、統合に使用する3次元情報を選択するための画面の例を示す。
この画面には、3次元情報を画像化して表示するためのウィンドウ30や、「モデルに追加」「追加しない」の2つの選択ボタン31,32などが設けられる。ウィンドウ30内には、選択候補の3次元情報に基づく輪郭線が表示されるとともに、先の照合結果に基づき、モデル三角形に対応すると判定された場所に、そのモデル三角形の輪郭線M0が表示されている。さらに、このウィンドウ30内には、上記のモデル三角形に対する3次元情報の一致度も表示されている。
FIG. 12 shows an example of a screen for selecting three-dimensional information used for integration.
On this screen, a window 30 for imaging and displaying three-dimensional information, two selection buttons 31 and 32 of “add to model” and “not add” are provided. In the window 30, an outline based on the three-dimensional information of the selection candidate is displayed, and an outline M0 of the model triangle is displayed at a location determined to correspond to the model triangle based on the previous matching result. ing. Further, in this window 30, the degree of coincidence of the three-dimensional information with respect to the model triangle is also displayed.

ユーザは上記の表示を確認して、表示中の3次元情報を3次元モデルに加えるべきであると判断すると、「モデルに追加」のボタン31を操作する。これにより、表示中の3次元情報が統合対象として選択される。一方、「追加しない」のボタン32が操作された場合には、表示中の3次元情報は統合対象から除外される。ただし、後記するように、この3次元情報は統合後の3次元情報の精度を向上する目的で3次元モデルに追加登録される場合もある。   When the user confirms the above display and determines that the three-dimensional information being displayed should be added to the three-dimensional model, the user operates the “add to model” button 31. Thereby, the three-dimensional information being displayed is selected as an integration target. On the other hand, when the “do not add” button 32 is operated, the three-dimensional information being displayed is excluded from integration targets. However, as will be described later, this three-dimensional information may be additionally registered in the three-dimensional model for the purpose of improving the accuracy of the integrated three-dimensional information.

なお、先の説明では、モデル三角形に対する一致度をしきい値と比較することにより、マークの3次元情報の復元精度を自動判定するとしたが、これに代えて、図12と同様の画面を提示して、マークの3次元情報が良好であるか否かについてユーザの判定入力を受け付けてもよい。また、この判定入力とモデルに追加するか否かの選択とを、同じ画面上で受け付けるようにしてもよい。   In the above description, the accuracy of restoration of the three-dimensional information of the mark is automatically determined by comparing the degree of coincidence with the model triangle with a threshold value. Instead, a screen similar to FIG. 12 is presented. Then, a determination input by the user may be accepted as to whether or not the three-dimensional information of the mark is good. Further, this determination input and selection as to whether or not to add to the model may be received on the same screen.

3−3)3次元モデルの作成・登録処理の手順
図13は、ステレオ計測を行ってから3次元モデルを登録するまでの処理の手順をフローチャートにまとめたものである。以下、このフローチャートの流れに沿って、この実施例の3次元モデルの作成手順を説明する。
3-3) Procedure for Creation / Registration of 3D Model FIG. 13 is a flowchart summarizing a procedure for processing from stereo measurement to registration of a 3D model. The procedure for creating the three-dimensional model of this embodiment will be described below along the flow of this flowchart.

この実施例では、計測時のワークモデルWMの位置決めをユーザの裁量にゆだねることから、計測処理の間は、各カメラ11〜13からのプレビュー画像を表示部27に表示するようにしている。ユーザが、この表示画面で各カメラ11〜13によりワークモデルWMやマークMが正しく撮像されているかどうかを確認して、計測指示の操作を行うと、図13中の「ステレオ計測」のステップ(ST101)が実行される。このステップST101では、具体的にはステレオ撮像から3次元情報の復元までの処理(図3のST1〜6と同様のもの)が実行される。   In this embodiment, since the positioning of the work model WM at the time of measurement is left to the discretion of the user, preview images from the respective cameras 11 to 13 are displayed on the display unit 27 during the measurement process. When the user confirms whether or not the work model WM and the mark M are correctly captured by the cameras 11 to 13 on this display screen and performs a measurement instruction operation, the step of “stereo measurement” in FIG. ST101) is executed. In step ST101, specifically, processing from stereo imaging to restoration of three-dimensional information (similar to ST1 to ST6 in FIG. 3) is executed.

つぎに、復元された3次元情報をモデル三角形により照合し、3次元情報の精度を判定する(ST102)。ここでの判定は、先に述べたように、一致度に基づく自動判定または照合結果の表示画面でユーザの判定を受け付ける方法を用いて行うことができる。   Next, the restored three-dimensional information is collated with a model triangle to determine the accuracy of the three-dimensional information (ST102). As described above, the determination here can be performed using an automatic determination based on the degree of coincidence or a method of accepting a user's determination on the display screen of the matching result.

ここで、3次元情報が良好でないと判定された場合(ST103が「NO」)には、復元された3次元情報を消去し、表示部27に、エラーメッセージなどを表示する。これに応じて、ユーザは、ワークモデルWMの位置を変更するなどして、計測指示をやり直すことになる。   If it is determined that the three-dimensional information is not good (ST103 is “NO”), the restored three-dimensional information is deleted, and an error message or the like is displayed on the display unit 27. In response to this, the user repeats the measurement instruction, for example, by changing the position of the work model WM.

復元された3次元情報が良好であると判定された場合(ST103が「YES」)には、さらにこの3次元情報の一段階前の3次元情報に対する位置ずれおよび回転角度を認識する(ST105)。さらに、回転角度については、認識した値を毎回加算する方法によって、最初に復元された3次元情報に対する回転角度を算出する(ST106)。ただし、一番最初に3次元情報を復元した場合(ST104が「YES」)には、上記ST105,106の各ステップはスキップされる。   When it is determined that the restored three-dimensional information is good (“YES” in ST103), the positional deviation and the rotation angle with respect to the three-dimensional information one stage before this three-dimensional information are further recognized (ST105). . Further, for the rotation angle, the rotation angle for the three-dimensional information restored first is calculated by a method of adding the recognized value every time (ST106). However, when the three-dimensional information is restored first (ST104 is “YES”), the above steps of ST105 and ST106 are skipped.

つぎに、この実施例では、最初の3次元情報に対する回転角度が360度を超えたことをもって、ステレオカメラに対してワークモデルWMが1回転したと判断する(ST107)。またワークモデルWMが1回転したと判断するまでは、ST101〜107の処理を繰り返す。   Next, in this embodiment, when the rotation angle with respect to the first three-dimensional information exceeds 360 degrees, it is determined that the work model WM has made one rotation with respect to the stereo camera (ST107). Further, the processes of ST101 to ST107 are repeated until it is determined that the work model WM has made one rotation.

最初の3次元情報に対してワークモデルWMが1回転したと判定すると、ST101〜107のループを終了し、図12に示した画面を表示して、統合対象の3次元情報の選択を受け付ける(ST108)。そして、選択された3次元情報の1つを基準として、この基準の3次元情報に他の3次元情報を位置合わせし(ST109)、位置合わせ後の各3次元情報を統合する(ST110)。   If it is determined that the work model WM has made one rotation with respect to the first three-dimensional information, the loop of ST101 to ST107 is terminated, and the screen shown in FIG. 12 is displayed to accept selection of the integration target three-dimensional information ( ST108). Then, using one of the selected three-dimensional information as a reference, the other three-dimensional information is aligned with the reference three-dimensional information (ST109), and each three-dimensional information after the alignment is integrated (ST110).

なお、統合対象の3次元情報を選択する処理は、ユーザによらずに自動的に行うようにしてもよい。たとえば、毎回の計測に伴うST106で認識された回転角度に基づき、ワークモデルWMが一定角度以上回転したときの計測で復元された3次元情報を、統合対象として選択することができる。   Note that the process of selecting the integration target three-dimensional information may be automatically performed without depending on the user. For example, based on the rotation angle recognized in ST106 accompanying each measurement, the three-dimensional information restored by the measurement when the work model WM is rotated by a predetermined angle or more can be selected as the integration target.

図14は、先に示した12の計測ポイントの中から、計測ポイント3,6,9,12の4つを選択して統合を行う例を模式的に示す。この例のように、ワークモデルWMを囲む全範囲の中から特定の範囲に偏らないように配慮して統合対象の計測方向を選択することによって、バランスの良い3次元モデルを作成することができる。   FIG. 14 schematically illustrates an example in which four measurement points 3, 6, 9, and 12 are selected from the above-described twelve measurement points and integrated. As in this example, a well-balanced three-dimensional model can be created by selecting the measurement direction to be integrated in consideration of not biasing to a specific range from the entire range surrounding the work model WM. .

統合処理が終了すると、統合された3次元情報からマークMに対応する情報を削除する(ST111)。これは、実際の認識対象のワークWにはマークMが付されていないため、3次元モデルにマークMの情報を含めたままにすると、照合精度がかえって低下する可能性があるためである。ただし、ここでは、マークMの情報を削除せずに、照合対象とならないように無効化するにとどめてもよい。   When the integration process ends, information corresponding to the mark M is deleted from the integrated three-dimensional information (ST111). This is because the mark M is not attached to the workpiece W to be actually recognized, and if the information of the mark M is included in the three-dimensional model, the collation accuracy may be lowered. However, here, the information of the mark M may be invalidated so as not to be a collation target without being deleted.

つぎに、図14に示したように、特定の範囲の計測によるものに偏らないように配慮して統合対象の3次元情報を選択しても、ワークモデルWMの形状によっては、ワークモデルWMの姿勢がわずかに変化しただけで、統合された3次元情報による認識が不可能になる場合がある。この点に鑑み、この実施例では、マークMの情報が削除された3次元情報を3次元モデルとして仮登録した後に(ST112)、以下の処理により、3次元モデルの精度をさらに高めるようにしている。   Next, as illustrated in FIG. 14, even if the three-dimensional information to be integrated is selected so as not to be biased toward measurement by a specific range, depending on the shape of the work model WM, There are cases where recognition by integrated three-dimensional information becomes impossible even if the posture is slightly changed. In view of this point, in this embodiment, after temporarily registering the three-dimensional information from which the information of the mark M has been deleted as a three-dimensional model (ST112), the accuracy of the three-dimensional model is further improved by the following processing. Yes.

具体的には、仮登録された3次元モデルにより統合対象として選択されなかった3次元情報を順に照合して、3次元モデルに対する位置ずれ量および回転角度を算出し、これらの算出値を、先に計測ポイント毎に求めた位置ずれ量および回転角度から導出した値と比較することにより、正しい認識が行われた否かを判定する(ST113,114)。ここで、照合対象の3次元情報を正しく認識できなかったと判定した場合(ST114が「NO」)には、照合に用いられた3次元情報を3次元モデルに位置合わせして、3次元モデルに追加する(ST115)。一方、照合対象の3次元情報を正しく認識できた場合(ST114が「YES」)には、この3次元情報を3次元モデルに追加せずに、つぎに進む。なお、上記の位置合わせは、計測ポイント毎に求めた位置ずれ量および回転角度に基づく座標変換により行われる。   Specifically, three-dimensional information that has not been selected as an integration target by the temporarily registered three-dimensional model is collated in order to calculate a positional deviation amount and a rotation angle with respect to the three-dimensional model. Then, it is determined whether or not correct recognition has been performed by comparing with a value derived from the positional deviation amount and the rotation angle obtained for each measurement point (ST113, 114). Here, when it is determined that the three-dimensional information to be collated has not been correctly recognized (ST114 is “NO”), the three-dimensional information used for the collation is aligned with the three-dimensional model to obtain a three-dimensional model. Add (ST115). On the other hand, when the three-dimensional information to be collated can be correctly recognized (“YES” in ST114), the process proceeds to the next without adding the three-dimensional information to the three-dimensional model. Note that the above alignment is performed by coordinate conversion based on the amount of displacement and the rotation angle obtained for each measurement point.

このように、統合から除外された3次元情報を順に対象として、その3次元情報が統合された情報により正しく認識できるかどうかを判定し、認識に誤りが生じたと判定された3次元情報を3次元モデルに追加する。このような処理により、仮登録された3次元モデルにそのモデルでは認識できなかった3次元情報が追加されるので、以後の3次元モデルで同様の誤認識が生じることはなくなり、3次元モデルの精度を向上することができる。一方で、正しく認識できた3次元情報が3次元モデルに追加されることはないので、3次元モデルのデータ量が増えるのを防止できる。   In this way, the three-dimensional information excluded from the integration is sequentially targeted, it is determined whether the three-dimensional information can be correctly recognized by the integrated information, and the three-dimensional information that has been determined to have an error in recognition is determined as 3 Add to a dimensional model. As a result of such processing, 3D information that could not be recognized by the model is added to the temporarily registered 3D model, so that the same erroneous recognition does not occur in the subsequent 3D model. Accuracy can be improved. On the other hand, since the correctly recognized 3D information is not added to the 3D model, it is possible to prevent the data amount of the 3D model from increasing.

この後は、さらに3次元モデルの精度を高めるために、ノイズを除去する処理を実行する(ST117)。たとえば、3次元モデルを構成する3次元セグメントの中で、長さが所定のしきい値以下のものや、3次元座標のサンプル点数が所定数以下のものを削除する。またXZ平面上の3次元座標の分布状態から影に相当するものを検出し、これを削除する。また、直線のセグメントの延長部分について、設定された上限値を超えるものがないかどうかをチェックし、上限値を超える延長箇所があれば、その箇所を設定した交点とともに削除する。   Thereafter, in order to further improve the accuracy of the three-dimensional model, a process of removing noise is executed (ST117). For example, among the three-dimensional segments constituting the three-dimensional model, those having a length equal to or smaller than a predetermined threshold and those having a three-dimensional coordinate sample point equal to or smaller than a predetermined number are deleted. Further, a shadow corresponding to a shadow is detected from the distribution state of the three-dimensional coordinates on the XZ plane, and this is deleted. In addition, it is checked whether or not there is an extension part of the straight line segment that exceeds the set upper limit value. If there is an extension part that exceeds the upper limit value, the extension part is deleted together with the set intersection point.

このように、短い3次元セグメント、サンプル点数の少ない3次元セグメント、影を表す3次元セグメント、誤った延長が行われた3次元セグメントなどを削除することにより、照合処理において誤った対応づけがされるのを防止できる。また3次元モデルの容量が削減されるので、照合処理の時間を短縮することができる。   In this way, by deleting short 3D segments, 3D segments with a small number of sample points, 3D segments representing shadows, 3D segments with incorrect extension, etc., incorrect matching is performed in the matching process. Can be prevented. Further, since the capacity of the three-dimensional model is reduced, the time for the collation process can be shortened.

ノイズの除去が終了すると、このノイズ除去後の3次元モデルを本登録し(ST118)、処理を終了する。   When the noise removal is finished, the three-dimensional model after the noise removal is fully registered (ST118), and the process is finished.

上記の処理によれば、ワークモデルWMとステレオカメラ1との関係を少しずつ変更しながら、毎時、三角形のマークMの情報を含む3次元情報を照合することによって、直前に得た3次元情報に対する位置ずれ量や回転角度を精度良く求めるので、統合処理時の位置合わせの精度を確保することができる。よって、種々の方向からの計測により復元された3次元情報により、精度の良い3次元モデルを作成することができる。   According to the above processing, the three-dimensional information obtained immediately before is obtained by collating the three-dimensional information including the information of the triangular mark M every hour while changing the relationship between the work model WM and the stereo camera 1 little by little. Since the positional deviation amount and the rotation angle with respect to are accurately obtained, it is possible to ensure the accuracy of alignment during the integration process. Therefore, a highly accurate three-dimensional model can be created from the three-dimensional information restored by measurement from various directions.

また、上記の実施例によれば、各カメラ11〜13の視野に同一のマークMが含まれる状態にしてステレオ撮像を行う必要はあるが、マークMの効果によって位置合わせの精度を確保できる。また、ワークモデルWMの回転角度を厳密に調整しなくて良いから、回転テーブルなどの設備が不要になる。また、ワークモデルWMを適当な角度ずつ動かすことで精度の良い3次元モデルを作成することができるから、ユーザの負担を軽くすることができる。   Further, according to the above-described embodiment, it is necessary to perform stereo imaging in a state where the same mark M is included in the field of view of each camera 11 to 13, but the alignment accuracy can be ensured by the effect of the mark M. Further, since it is not necessary to strictly adjust the rotation angle of the work model WM, facilities such as a rotary table are not required. Further, since the accurate three-dimensional model can be created by moving the work model WM by an appropriate angle, the burden on the user can be reduced.

3−4)複数のマークMを使用する実施例
上記した実施例では、計測座標系のXZ平面に常にワークモデルWMのX1Z1平面に沿う特定の面が接するようにして、ワーク座標系のY1軸に対してワークモデルWMを回転させることで、ワークWの輪郭線の全体形状を表す3次元モデルを作成したが、3次元モデルの精度をより高めるために、Y1軸以外の方向にもワークモデルWMを回転させてもよい。この場合には、各カメラ11〜13に常にマークMを撮像させるのが困難になるが、つぎに説明する実施例のように、ワークモデルWMに複数のマークMを取り付けることで、この問題を解決できる。
3-4) Embodiment using a plurality of marks M In the above-described embodiment, a specific surface along the X1Z1 plane of the workpiece model WM is always in contact with the XZ plane of the measurement coordinate system so that the Y1 axis of the workpiece coordinate system By rotating the workpiece model WM, a three-dimensional model representing the overall shape of the contour line of the workpiece W was created. The WM may be rotated. In this case, it is difficult to cause the cameras 11 to 13 to always capture the mark M, but this problem can be solved by attaching a plurality of marks M to the work model WM as in the embodiment described below. can be solved.

図15は、2個のマークM1,M2が付されたワークモデルWMを用いて3次元モデルを作成する場合の計測処理の例を示す。図15(1)に示すように、一方のマークM1は、ワーク座標系のY1軸がY軸に平行になるようにワークモデルWMを配置したときに上面になる位置に取り付けられ、他方のマークM2は、ワークモデルWMの側面に取り付けられる。なお、各マークM1,M2は、いずれも、各辺の比率が図6に示したように設定された三角形であるが、大きさは、それぞれの貼付面の大きさに応じて適宜変更される。   FIG. 15 shows an example of measurement processing when a three-dimensional model is created using a work model WM with two marks M1 and M2. As shown in FIG. 15 (1), one mark M1 is attached at a position that becomes the upper surface when the work model WM is arranged so that the Y1 axis of the work coordinate system is parallel to the Y axis, and the other mark M2 is attached to the side surface of the work model WM. Each of the marks M1 and M2 is a triangle in which the ratio of each side is set as shown in FIG. 6, but the size is appropriately changed according to the size of the respective sticking surface. .

この実施例でも、先の図4に示した例と同様に、Y1軸に対してワークモデルWMを回転させながら複数回の計測を行う(図15(1))。一連の計測が終了すると、回転軸をY1軸からX1軸に変更して、図15(2)に示すように、ワークモデルWMを90度回転させて計測を行う。さらに図15(3)に示すように、ワークモデルWMを再度90度回転させて計測を行う。   In this embodiment, as in the example shown in FIG. 4, the measurement is performed a plurality of times while rotating the work model WM with respect to the Y1 axis (FIG. 15 (1)). When a series of measurements is completed, the rotation axis is changed from the Y1 axis to the X1 axis, and the work model WM is rotated 90 degrees as shown in FIG. Further, as shown in FIG. 15 (3), the work model WM is rotated again by 90 degrees to perform measurement.

Y1軸に対してワークモデルWMを回転させて計測を行う場合には、マークM1が常に各カメラ11〜13の視野に含まれるようにし、X1軸に対してワークモデルWMを回転させて計測を行う場合には、マークM2が常に各カメラ11〜13の視野に含まれるようにする。さらに、少なくともY1軸に対する回転からX1軸に対する回転に移行する際に、2つのマークM1,M2がともにカメラ11〜13の視野に含まれる状態を設定して計測を行う。   When measurement is performed by rotating the work model WM with respect to the Y1 axis, the mark M1 is always included in the field of view of each camera 11 to 13, and measurement is performed by rotating the work model WM with respect to the X1 axis. When performing, the mark M2 is always included in the visual field of each camera 11-13. Further, at least when shifting from the rotation about the Y1 axis to the rotation about the X1 axis, measurement is performed by setting a state in which the two marks M1 and M2 are both included in the fields of view of the cameras 11-13.

図16は、上記の計測処理により復元された3次元情報を統合する例を示す。
図中のa,b,cは、先の図5の例と同様に、Y1軸に対してワークモデルWMを回転させている間に復元された3次元情報である。これらの3次元情報のうち、3次元情報aには、2つのマークM1,M2の情報m1,m2が含まれる。他の3次元情報b,cにはマークM1の情報m1は含まれているが、マークM2の情報は含まれていない。
FIG. 16 shows an example of integrating the three-dimensional information restored by the above measurement process.
In the figure, a, b, and c are three-dimensional information restored while rotating the work model WM about the Y1 axis, as in the example of FIG. Among these three-dimensional information, the three-dimensional information a includes information m1 and m2 of two marks M1 and M2. The other three-dimensional information b and c includes the information m1 of the mark M1, but does not include the information of the mark M2.

つぎに、図中のgは、ワークモデルWMが図15(2)の状態で配置されているときの計測により復元された3次元情報である。またhは、ワークモデルWMが図15(3)の状態で配置されているときの計測により復元された3次元情報である。これらの3次元情報g,hには、マークM2に対応する情報m2は含まれているが、マークM1に対応する情報は含まれていない。   Next, g in the figure is three-dimensional information restored by measurement when the work model WM is arranged in the state of FIG. Further, h is three-dimensional information restored by measurement when the work model WM is arranged in the state of FIG. The three-dimensional information g and h includes information m2 corresponding to the mark M2, but does not include information corresponding to the mark M1.

この実施例では、3次元情報a,b,cについては、図5の例と同様の統合処理を行う。すなわち3次元情報aを基準として、3次元情報b,cが基準の3次元情報aに位置合わせされるように座標変換した後に、変換後の3次元情報b´,c´および基準の3次元情報aを統合した情報dを作成する。3次元情報a,b,cにはそれぞれマークM1に対応する情報m1が含まれているので、この情報m1によって位置合わせ処理の精度を確保することができる。   In this embodiment, the same integration process as in the example of FIG. 5 is performed for the three-dimensional information a, b, and c. That is, with the three-dimensional information a as a reference, coordinate conversion is performed so that the three-dimensional information b and c are aligned with the reference three-dimensional information a, and then the converted three-dimensional information b ′ and c ′ and the reference three-dimensional Information d is created by integrating information a. Since the three-dimensional information a, b, c includes information m1 corresponding to the mark M1, the accuracy of the alignment process can be ensured by this information m1.

つぎにこの実施例では、X1軸に対してワークモデルWMを回転させて計測を行う方法により復元された3次元情報g,hについても、3次元情報aに位置合わせするための座標変換を行う。そして、変換後の3次元情報g´,h´と3次元情報aとを統合した情報iを作成する。3次元情報a,g,hにはそれぞれマークM2に対応する情報m2が含まれているので、この情報m2によって位置合わせ処理の精度を確保することができる。   Next, in this embodiment, coordinate conversion for aligning with the three-dimensional information a is also performed on the three-dimensional information g and h restored by the method of performing measurement by rotating the work model WM with respect to the X1 axis. . Then, information i is created by integrating the converted three-dimensional information g ′, h ′ and the three-dimensional information a. Since the three-dimensional information a, g, h includes information m2 corresponding to the mark M2, respectively, the accuracy of the alignment process can be ensured by this information m2.

この後は、3次元情報a,b,cにより作成された統合情報dと、3次元情報a,g,hにより作成された統合情報iとを統合することにより、ワークモデルWMの全面の輪郭形状およびマークM1,M2の輪郭形状を表す3次元情報jを作成する。さらにこの3次元情報jからマークM1,M2に対応する情報m1,m2を消去することにより、ワークモデルWMの全体の輪郭形状のみを表す3次元情報kを作成し、これを3次元モデルに確定する。   Thereafter, by integrating the integrated information d created by the three-dimensional information a, b, c and the integrated information i created by the three-dimensional information a, g, h, the contour of the entire surface of the work model WM is obtained. Three-dimensional information j representing the shape and the contour shape of the marks M1 and M2 is created. Further, by deleting the information m1 and m2 corresponding to the marks M1 and M2 from the three-dimensional information j, three-dimensional information k representing only the entire contour shape of the work model WM is created, and this is determined as the three-dimensional model. To do.

上記の処理において、統合情報d,iは、いずれも3次元情報aを基準にした位置合わせにより作成されたものであるから、理論上は、両者の間に位置ずれや回転は生じておらず、容易に統合することができる。また、計測誤差などの影響で情報d,i間に若干のずれが生じていたとしても、両者に共通に含まれるマークM1,M2の情報m1,m2をもって、精度の良い位置合わせを行うことができる。   In the above processing, since the integrated information d and i are both created by alignment based on the three-dimensional information a, theoretically, there is no positional deviation or rotation between them. Can be easily integrated. Further, even if there is a slight deviation between the information d and i due to the influence of a measurement error or the like, it is possible to perform accurate alignment with the information m1 and m2 of the marks M1 and M2 included in both of them. it can.

なお、ワークモデルWMをX1軸に対して回転する場合にも、90度回転させる毎に、その状態下でXZ平面に直交する軸(図15(2)の場合にはZ1軸、図15(3)の場合にはY1軸)に対してワークモデルWMを回転させることにより、ワークモデルWMの姿勢を複数とおりに変更し、変更の都度計測を行ってもよい。この場合にも、各計測により復元された複数の3次元情報のうちの所定数(2以上)を統合対象として選択することができる。さらに、マークM2が付された面が上面になるようにワークモデルWMを配置して、同様に姿勢を種々に変更させて計測を行ってもよい。   Even when the work model WM is rotated with respect to the X1 axis, every time the work model WM is rotated by 90 degrees, an axis orthogonal to the XZ plane under the state (in the case of FIG. 15 (2), the Z1 axis, FIG. In the case of 3), by rotating the work model WM relative to the Y1 axis), the posture of the work model WM may be changed in a plurality of ways, and measurement may be performed each time the change is made. Also in this case, a predetermined number (two or more) of a plurality of three-dimensional information restored by each measurement can be selected as an integration target. Further, the work model WM may be arranged so that the surface with the mark M2 is the upper surface, and the posture may be changed variously in the same manner for measurement.

また、この実施例でも、統合処理により作成された3次元モデルkにより統合処理に採用されなかった3次元情報を照合して、正しい認識が行われるかどうかを判定し、認識に失敗した場合には、照合対象の3次元情報を新たに3次元モデルに追加する処理を行うことができる。   Also in this embodiment, the three-dimensional model k created by the integration process is collated with the three-dimensional information that has not been adopted for the integration process, and it is determined whether correct recognition is performed. Can perform processing for newly adding the three-dimensional information to be collated to the three-dimensional model.

さらに、ワークモデルWMに取り付けるマークは1〜2個に限らず、3個以上のマークを取り付けてもよい。この場合も、いずれか1のマークを基準にして、他のマークについて、それぞれ基準のマークと共に各カメラ11〜13の視野に含まれる状態を少なくとも1回設定して計測を行えば、その2以上のマークの情報を含む3次元情報を介して、統合対象の各3次元情報の位置合わせを行うことができる。また、その位置合わせの精度を確保することもできる。   Furthermore, the number of marks attached to the work model WM is not limited to one or two, and three or more marks may be attached. In this case as well, if any one mark is used as a reference and measurement is performed by setting at least one of the other marks in the field of view of each camera 11 to 13 together with the reference mark, two or more The three-dimensional information to be integrated can be aligned through the three-dimensional information including the mark information. In addition, the alignment accuracy can be ensured.

3次元認識処理を適用したピッキングシステムの概略構成を示す図である。It is a figure which shows schematic structure of the picking system to which a three-dimensional recognition process is applied. 物体認識装置のブロック図である。It is a block diagram of an object recognition apparatus. 3次元認識処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of a three-dimensional recognition process. ワークモデルの計測方法を示す図である。It is a figure which shows the measuring method of a work model. 3次元モデルの作成処理の概略手順を示す図である。It is a figure which shows the general | schematic procedure of the creation process of a three-dimensional model. マークが表す三角形の特徴を表す図である。It is a figure showing the characteristic of the triangle which a mark represents. 三角形の各頂点の複数とおりの対応づけ状態を示す図、および一致度を表すグラフである。It is a figure showing a plurality of correspondence states of each vertex of a triangle, and a graph showing a degree of coincidence. マークの種類を示す図である。It is a figure which shows the kind of mark. 繰り返し構造のあるワーク用のマークを示す図である。It is a figure which shows the mark for the workpiece | work with a repeating structure. 特徴点の補完処理方法を示す図である。It is a figure which shows the complementation processing method of a feature point. 統合対象の3次元情報の選択に用いられるマークの3次元情報の例を示す図である。It is a figure which shows the example of the three-dimensional information of the mark used for selection of the integration target three-dimensional information. 統合に使用する3次元情報を選択するための画面の例を示す図である。It is a figure which shows the example of the screen for selecting the three-dimensional information used for integration. 3次元モデルの作成・登録に関する手順を示すフローチャートである。It is a flowchart which shows the procedure regarding preparation and registration of a three-dimensional model. 統合対象の3次元情報の選択例を示す図である。It is a figure which shows the example of selection of the three-dimensional information of integration object. 2つのマークを付けたワークモデルによる計測方法の例を示す図である。It is a figure which shows the example of the measuring method by the work model which attached two marks. 図15の計測方法により復元された3次元情報を用いて3次元モデルを作成する場合の概略手順を示す図である。It is a figure which shows the general | schematic procedure in the case of producing a three-dimensional model using the three-dimensional information decompress | restored by the measuring method of FIG. 3次元情報の対応づけに誤りが生じる原因を説明する図である。It is a figure explaining the cause which an error produces in matching of three-dimensional information. 3次元情報の対応づけに誤りが生じる他の原因を説明する図である。It is a figure explaining the other cause which an error produces in matching of three-dimensional information.

符号の説明Explanation of symbols

1 ステレオカメラ
2 物体認識装置
11,12,13 カメラ
24 CPU
25 メモリ
W ワーク
WM ワークモデル
M マーク
m,m1,m2 マークの3次元情報
a,b,c,g,h 復元された3次元情報
d,j 統合された3次元情報
e,k 3次元モデル
DESCRIPTION OF SYMBOLS 1 Stereo camera 2 Object recognition apparatus 11, 12, 13 Camera 24 CPU
25 memory W work WM work model M mark m, m1, m2 mark three-dimensional information a, b, c, g, h restored three-dimensional information d, j integrated three-dimensional information e, k three-dimensional model

Claims (7)

ステレオカメラを用いた3次元計測により復元した3次元情報から所定の形状の物体の位置および姿勢を認識するために、当該物体の実物モデルに対する3次元計測の結果を用いて物体の3次元モデルを作成する方法であって、
回転対称性を持たない多角形のマークを前記実物モデルの表面の所定位置に取り付け、前記マークが前記ステレオカメラを構成するすべてのカメラの視野に含まれる状態が維持されることを条件として、各カメラと実物モデルとの位置関係を毎回変更して複数回の撮像を実行し、
毎回の撮像により生成されたステレオ画像からエッジの特徴を検出し、検出された特徴の3次元座標を求めることによって、前記実物モデルおよびマークの輪郭線の特徴を表す3次元情報を復元し、
前記複数回の撮像に伴い復元された複数の3次元情報の全てまたはその一部に相当する2以上の3次元情報を統合の対象として、これら統合対象の3次元情報間の対応関係に基づき各統合対象の3次元情報を位置合わせした後に統合し、
統合された3次元情報から前記マークに対応する情報を消去または無効化し、この処理後の3次元情報を前記3次元モデルとして確定する、
ことを特徴とする3次元モデルの作成方法。
In order to recognize the position and orientation of an object having a predetermined shape from the three-dimensional information restored by three-dimensional measurement using a stereo camera, the three-dimensional model of the object is obtained using the result of the three-dimensional measurement on the real model of the object. A method of creating,
A polygonal mark having no rotational symmetry is attached to a predetermined position on the surface of the real model, and the condition that the mark is included in the field of view of all cameras constituting the stereo camera is maintained. Change the positional relationship between the camera and the real model every time and execute multiple imaging,
The feature of the edge is detected from the stereo image generated by each imaging, and the three-dimensional information representing the feature of the real model and the outline of the mark is restored by obtaining the three-dimensional coordinates of the detected feature.
Two or more three-dimensional information corresponding to all or a part of the plurality of three-dimensional information restored by the plurality of times of imaging is set as an integration target, and each of the three-dimensional information based on the correspondence relationship between the integration target three-dimensional information. After aligning the 3D information to be integrated,
Deleting or invalidating information corresponding to the mark from the integrated three-dimensional information, and determining the three-dimensional information after the processing as the three-dimensional model;
A method for creating a three-dimensional model.
請求項1に記載された方法において、
前記実物モデルの表面の平坦な箇所に前記マークを取り付ける、3次元モデルの作成方法。
The method of claim 1, wherein
A method for creating a three-dimensional model in which the mark is attached to a flat portion of the surface of the real model.
請求項1に記載された方法において、
前記マークを当該マークとは色彩が異なる背景部と一体に形成し、この一体物を実物モデルの表面に取り付ける、3次元モデルの作成方法。
The method of claim 1, wherein
A method for creating a three-dimensional model, wherein the mark is formed integrally with a background portion having a color different from that of the mark, and the integrated object is attached to the surface of the real model.
請求項1〜3のいずれかに記載された方法において、
あらかじめ前記マークの幾何学的特徴を表す3次元特徴データを登録しておき、
前記3次元情報を統合する処理に先立ち、毎回の撮像により生成されたステレオ画像より復元された3次元情報を前記マークの3次元特徴データと照合して、当該マークの幾何学的特徴が良好に復元されているか否かを判定し、前記幾何学的特徴が良好に復元されていないと判定した3次元情報を、統合処理の対象から除外する、3次元モデルの作成方法。
In the method as described in any one of Claims 1-3,
Register in advance three-dimensional feature data representing the geometric features of the mark,
Prior to the process of integrating the three-dimensional information, the three-dimensional information restored from the stereo image generated by each imaging is collated with the three-dimensional feature data of the mark, so that the mark has a good geometric feature. A method for creating a three-dimensional model, wherein it is determined whether or not restoration has been performed, and the three-dimensional information that has been determined that the geometric feature has not been successfully restored is excluded from the target of integration processing.
請求項1〜3のいずれかに記載された方法において、
前記3次元計測では、各カメラにより生成された画像からエッジを検出して、検出されたエッジを複数の2次元セグメントに分割するステップと、各2次元セグメントを画像間で対応づけて、対応するセグメントの組毎に複数の3次元座標を算出し、算出された3次元座標の分布状態に基づき直線または曲線の3次元セグメントを設定するステップと、各3次元セグメントの交点を特徴点に設定するステップとを、実行し、
前記特徴点を設定するステップでは、他のセグメントに交わっていない端縁を具備する直線の3次元セグメントの当該端縁を所定の長さまで延長し、この延長部分が他の3次元セグメントまたはその延長部分に交わるとき、または所定値以内の距離をもって交差するときに、その交点または交差位置に基づき特徴点を設定し、
3次元情報の統合前の位置合わせ処理では、統合対象の3次元情報の1つを基準として、その他の3次元情報を、それぞれの特徴点および3次元セグメントが基準の3次元情報に最も一致した状態になるように座標変換する、3次元モデルの作成方法。
In the method as described in any one of Claims 1-3,
In the three-dimensional measurement, an edge is detected from an image generated by each camera, the detected edge is divided into a plurality of two-dimensional segments, and each two-dimensional segment is associated with each other between the images. A step of calculating a plurality of three-dimensional coordinates for each segment set, setting a three-dimensional segment of a straight line or a curve based on the distribution state of the calculated three-dimensional coordinates, and setting an intersection of each three-dimensional segment as a feature point Step and execute
In the step of setting the feature point, the edge of a straight three-dimensional segment having an edge that does not intersect with another segment is extended to a predetermined length, and the extended portion is another three-dimensional segment or an extension thereof. When intersecting parts or intersecting at a distance within a predetermined value, set feature points based on the intersection or intersection position,
In the alignment process before the integration of the three-dimensional information, one of the three-dimensional information to be integrated is used as a reference, and the other three-dimensional information is the most consistent with the reference three-dimensional information in each feature point and three-dimensional segment. A method for creating a three-dimensional model in which coordinates are transformed so that a state is obtained.
請求項1に記載された方法において、
回転対称性を持たない多角形による第1および第2のマークを、実物モデルの表面のそれぞれ異なる場所に取り付けて、各マークにつきそれぞれ当該マークがすべてのカメラの視野に含まれる状態が複数とおり成立し、かつ第1および第2のマークが共に各カメラの視野に含まれる状態が少なくとも1回成立するように、前記複数回の撮像における各カメラと実物モデルとの位置関係を調整し、
第1のマークのみを各カメラの視野に含めて撮像したときのステレオ画像から復元した3次元情報と、第2のマークのみを各カメラの視野に含めて撮像したときのステレオ画像から復元した3次元情報とを、それぞれ前記第1および第2のマークを各カメラの視野に含めて撮像したときのステレオ画像から復元した3次元情報に位置合わせした後に、これらの3次元情報を統合する、3次元モデルの作成方法。
The method of claim 1, wherein
Attach the first and second marks with polygons that do not have rotational symmetry to different locations on the surface of the real model, and for each mark, there are multiple states in which the mark is included in the field of view of all cameras. And adjusting the positional relationship between each camera and the real model in the plurality of times of imaging so that the first and second marks are both included in the field of view of each camera at least once.
3D information restored from a stereo image when only the first mark is included in the field of view of each camera and 3D information restored from a stereo image when only the second mark is included in the field of view of each camera The three-dimensional information is integrated after aligning the three-dimensional information with the three-dimensional information restored from the stereo image when the first and second marks are included in the field of view of each camera. How to create a dimensional model.
ステレオカメラにより生成された認識対象物のステレオ画像を入力する画像入力手段と、入力されたステレオ画像からエッジの特徴を検出し、検出された特徴に対する3次元計測を行うことによって3次元情報を復元する3次元計測手段と、復元された3次元情報をあらかじめ登録した3次元モデルと照合することにより認識対象物の位置および姿勢を認識する認識処理手段と、前記認識処理手段により使用される3次元モデルを作成して登録する3次元モデル登録手段とを具備する装置であって、
前記3次元モデル登録手段は、
回転対称性を持たない多角形のマークについて、その幾何学的特徴を表す3次元特徴データを登録するためのマーク登録手段と、
前記多角形のマークが表面に取り付けられた実物モデルが、各カメラに対する位置関係が毎回変更されて複数回撮像されることを前提として、毎回の撮像により生成されるステレオ画像を画像入力部より受け付けて、前記3次元計測手段に処理させる計測制御手段と、
前記計測制御手段の処理により前記ステレオ画像から復元された3次元情報を前記マーク登録手段に登録された3次元特徴データと照合して、当該マークの幾何学的特徴が良好に復元されているか否かを判定する判定手段と、
前記複数回の撮像に伴い復元された複数の3次元情報のうち、前記マークの幾何学的特徴が良好に復元されていると判定された2以上の3次元情報を対象にして、これらの3次元情報をそれぞれの対応関係に基づき位置合わせした後に統合する3次元情報統合手段と、
統合後の3次元情報中の前記マークに対応する情報を消去または無効化し、この処理後の3次元情報を登録対象の3次元モデルとして確定するモデル確定手段とを、
具備することを特徴とする物体認識装置。
Image input means for inputting a stereo image of a recognition object generated by a stereo camera, and edge features are detected from the input stereo image, and three-dimensional measurement is performed on the detected features to restore three-dimensional information. A three-dimensional measuring means for recognizing, a recognition processing means for recognizing the position and orientation of the recognition object by collating the restored three-dimensional information with a pre-registered three-dimensional model, and the three-dimensional used by the recognition processing means A device comprising a three-dimensional model registration means for creating and registering a model,
The three-dimensional model registration means includes:
Mark registration means for registering three-dimensional feature data representing a geometric feature of a polygonal mark having no rotational symmetry;
The stereo image generated by each imaging is received from the image input unit on the premise that the real model with the polygonal mark attached to the surface is imaged multiple times with the positional relationship to each camera being changed each time. Measurement control means to be processed by the three-dimensional measurement means,
Whether or not the geometric feature of the mark has been successfully restored by comparing the 3D information restored from the stereo image by the processing of the measurement control means with the 3D feature data registered in the mark registration means Determination means for determining whether or not
Among the plurality of three-dimensional information restored by the plurality of times of imaging, two or more three-dimensional information determined that the geometric feature of the mark is well restored is targeted. 3D information integration means for integrating after aligning the dimensional information based on the corresponding relationship;
Model deciding means for erasing or invalidating information corresponding to the mark in the three-dimensional information after integration, and confirming the three-dimensional information after processing as a three-dimensional model to be registered;
An object recognition device comprising:
JP2008283150A 2008-11-04 2008-11-04 3D model creation method and object recognition apparatus Active JP5287152B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2008283150A JP5287152B2 (en) 2008-11-04 2008-11-04 3D model creation method and object recognition apparatus
US12/611,568 US8433128B2 (en) 2008-11-04 2009-11-03 Method of creating three-dimensional model and object recognizing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008283150A JP5287152B2 (en) 2008-11-04 2008-11-04 3D model creation method and object recognition apparatus

Publications (2)

Publication Number Publication Date
JP2010112729A true JP2010112729A (en) 2010-05-20
JP5287152B2 JP5287152B2 (en) 2013-09-11

Family

ID=42301406

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008283150A Active JP5287152B2 (en) 2008-11-04 2008-11-04 3D model creation method and object recognition apparatus

Country Status (1)

Country Link
JP (1) JP5287152B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012127714A1 (en) 2011-03-24 2012-09-27 大日本スクリーン製造株式会社 Three-dimensional position/posture recognition device, three-dimensional position/posture recognition method, and three-dimensional position/posture recognition program
JP2015169515A (en) * 2014-03-06 2015-09-28 株式会社メガチップス Posture estimation system, program and posture estimation method
JP2018055246A (en) * 2016-09-27 2018-04-05 株式会社トプコン Image processing device, image processing method and image processing program
JP2018205002A (en) * 2017-05-31 2018-12-27 株式会社キーエンス Image inspection device
CN109934931A (en) * 2017-12-19 2019-06-25 阿里巴巴集团控股有限公司 Acquisition image, the method and device for establishing target object identification model
JP2020537242A (en) * 2017-10-08 2020-12-17 マジック アイ インコーポレイテッド Calibration of sensor systems including multiple movable sensors
JPWO2021014542A1 (en) * 2019-07-22 2021-01-28
JP2021086449A (en) * 2019-11-28 2021-06-03 株式会社日立製作所 Model creation device and model creation method
CN116452756A (en) * 2023-06-15 2023-07-18 子亥科技(成都)有限公司 Three-dimensional scene local automatic generation method, device, equipment and storage medium
US11983818B2 (en) 2021-08-03 2024-05-14 Kabushiki Kaisha Toshiba Measurement system and storage medium storing measurement program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62185106A (en) * 1986-02-10 1987-08-13 Agency Of Ind Science & Technol Automatic measurement of attitude of object by means of directivity reference mark
JPH0991436A (en) * 1995-09-21 1997-04-04 Toyota Central Res & Dev Lab Inc Image processing method and device therefor
JP2961264B1 (en) * 1998-09-21 1999-10-12 工業技術院長 Three-dimensional object model generation method and computer-readable recording medium recording three-dimensional object model generation program
JP2002296019A (en) * 2001-03-30 2002-10-09 Iwate Prefecture Three-dimensional shape measuring system
JP2004220510A (en) * 2003-01-17 2004-08-05 Minolta Co Ltd Three-dimensional shape measuring device, three-dimensional shape measuring method and target mark
JP2005509877A (en) * 2001-11-23 2005-04-14 マプヴィジョン オーユー エルテーデー Computer vision system calibration method and system

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62185106A (en) * 1986-02-10 1987-08-13 Agency Of Ind Science & Technol Automatic measurement of attitude of object by means of directivity reference mark
JPH0991436A (en) * 1995-09-21 1997-04-04 Toyota Central Res & Dev Lab Inc Image processing method and device therefor
JP2961264B1 (en) * 1998-09-21 1999-10-12 工業技術院長 Three-dimensional object model generation method and computer-readable recording medium recording three-dimensional object model generation program
JP2002296019A (en) * 2001-03-30 2002-10-09 Iwate Prefecture Three-dimensional shape measuring system
JP2005509877A (en) * 2001-11-23 2005-04-14 マプヴィジョン オーユー エルテーデー Computer vision system calibration method and system
JP2004220510A (en) * 2003-01-17 2004-08-05 Minolta Co Ltd Three-dimensional shape measuring device, three-dimensional shape measuring method and target mark

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012127714A1 (en) 2011-03-24 2012-09-27 大日本スクリーン製造株式会社 Three-dimensional position/posture recognition device, three-dimensional position/posture recognition method, and three-dimensional position/posture recognition program
JP2015169515A (en) * 2014-03-06 2015-09-28 株式会社メガチップス Posture estimation system, program and posture estimation method
JP2018055246A (en) * 2016-09-27 2018-04-05 株式会社トプコン Image processing device, image processing method and image processing program
JP7188870B2 (en) 2017-05-31 2022-12-13 株式会社キーエンス Image inspection equipment
JP2018205002A (en) * 2017-05-31 2018-12-27 株式会社キーエンス Image inspection device
JP2020537242A (en) * 2017-10-08 2020-12-17 マジック アイ インコーポレイテッド Calibration of sensor systems including multiple movable sensors
CN109934931A (en) * 2017-12-19 2019-06-25 阿里巴巴集团控股有限公司 Acquisition image, the method and device for establishing target object identification model
JPWO2021014542A1 (en) * 2019-07-22 2021-01-28
WO2021014542A1 (en) * 2019-07-22 2021-01-28 オムロン株式会社 Template creation device, object recognition processing device, template creation method, object recognition processing method, and program
JP7327484B2 (en) 2019-07-22 2023-08-16 オムロン株式会社 Template creation device, object recognition processing device, template creation method, object recognition processing method, and program
JP2021086449A (en) * 2019-11-28 2021-06-03 株式会社日立製作所 Model creation device and model creation method
JP7362453B2 (en) 2019-11-28 2023-10-17 株式会社日立製作所 Model creation device and model creation method
US11983818B2 (en) 2021-08-03 2024-05-14 Kabushiki Kaisha Toshiba Measurement system and storage medium storing measurement program
CN116452756A (en) * 2023-06-15 2023-07-18 子亥科技(成都)有限公司 Three-dimensional scene local automatic generation method, device, equipment and storage medium

Also Published As

Publication number Publication date
JP5287152B2 (en) 2013-09-11

Similar Documents

Publication Publication Date Title
JP5287152B2 (en) 3D model creation method and object recognition apparatus
JP2010121999A (en) Creation method of three-dimensional model, and object recognition device
US8433128B2 (en) Method of creating three-dimensional model and object recognizing device
CN110570477B (en) Method, device and storage medium for calibrating relative attitude of camera and rotating shaft
US8472703B2 (en) Image capture environment calibration method and information processing apparatus
KR100975512B1 (en) Recognition processing method and image processing device using the same
Strobl et al. More accurate pinhole camera calibration with imperfect planar target
CN108965690B (en) Image processing system, image processing apparatus, and computer-readable storage medium
JP3859574B2 (en) 3D visual sensor
JP4042780B2 (en) Object recognition method, object recognition program and storage medium thereof, and object recognition apparatus
CN110926330B (en) Image processing apparatus, image processing method, and program
JP5432835B2 (en) How to calibrate the camera
WO2006135040A1 (en) Image processing device and image processing method performing 3d measurement
US11094082B2 (en) Information processing apparatus, information processing method, robot system, and non-transitory computer-readable storage medium
JPH08136220A (en) Method and device for detecting position of article
JP2010113398A (en) Method of creating three-dimensional model and object recognizing device
JP5858773B2 (en) Three-dimensional measurement method, three-dimensional measurement program, and robot apparatus
KR101931564B1 (en) Device and method for processing image using image registration
JP3696336B2 (en) How to calibrate the camera
CN114170284A (en) Multi-view point cloud registration method based on active landmark point projection assistance
JP4670994B2 (en) Color image processing method and image processing apparatus
JP4550081B2 (en) Image measurement method
JP2006317418A (en) Image measuring device, image measurement method, measurement processing program, and recording medium
JP2005069757A (en) Method and system for presuming position and posture of camera using fovea wide-angle view image
JPH10318732A (en) Shape measuring device and image formation apparatus of shape measurement

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110909

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121015

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130405

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130507

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130520

R150 Certificate of patent or registration of utility model

Ref document number: 5287152

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250