JP2010243405A - Image processing marker, image processing apparatus for detecting position and attitude of marker displayed object, and image processing program - Google Patents
Image processing marker, image processing apparatus for detecting position and attitude of marker displayed object, and image processing program Download PDFInfo
- Publication number
- JP2010243405A JP2010243405A JP2009094232A JP2009094232A JP2010243405A JP 2010243405 A JP2010243405 A JP 2010243405A JP 2009094232 A JP2009094232 A JP 2009094232A JP 2009094232 A JP2009094232 A JP 2009094232A JP 2010243405 A JP2010243405 A JP 2010243405A
- Authority
- JP
- Japan
- Prior art keywords
- marker
- orientation
- image processing
- image
- component
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
Abstract
Description
本発明は、例えば工業用部品の位置決めやハンドリング等に利用される画像処理の技術に関し、特に、処理の容易化を図るべく対象物に表示するマーカーに係る。 The present invention relates to an image processing technique used for positioning and handling of industrial parts, for example, and particularly relates to a marker displayed on an object in order to facilitate processing.
従来より、工業製品や工業用部品の自動組立において重要なビンピッキングの実用化に際し、その製品や部品等(対象物)を例えばデジタルカメラによって撮影して、その画像から位置及び姿勢を高精度かつ高速に検出する画像処理の技術が種々、提案されている。 Conventionally, when bin picking, which is important in the automatic assembly of industrial products and industrial parts, is put into practical use, the products, parts, etc. (objects) are photographed with, for example, a digital camera, and the position and orientation of the images are highly accurate. Various image processing techniques for detecting at high speed have been proposed.
すなわち、例えば工場の組み立てラインにおいて搬送用パレットにバラ積みされた部品を上方から撮影する場合、積み上がった部品の高さによってカメラまでの距離が変化し、画像の大きさが変化するとともに、部品が積み重なって斜めになることによってその見え方が、つまり画像の形状が変化する。 That is, for example, when shooting parts stacked on a transfer pallet from the top in a factory assembly line, the distance to the camera changes depending on the height of the stacked parts, the size of the image changes, and the parts change. As they are stacked and slanted, their appearance, that is, the shape of the image changes.
そこで、例えば特許文献1に記載の三次元位置及び姿勢の認識方法では、対象物である部品に大円部(所定の直径を有する円形部)と小円部(それと特定の位置関係にある指標部)とを備えたマーカーを表示し、これを斜め方向からカメラにより撮影した画像データにおいて、大円部に相当する楕円を抽出するとともに、その中心から小円部へ向かう傾き角度を求める。 Therefore, for example, in the method for recognizing the three-dimensional position and orientation described in Patent Document 1, a large circle part (a circular part having a predetermined diameter) and a small circle part (an index having a specific positional relationship with the target part) are used. In addition, an ellipse corresponding to the great circle part is extracted from the image data taken by the camera from an oblique direction, and an inclination angle from the center to the small circle part is obtained.
そして、その楕円の形状、大きさ、位置、及び小円部との相対的な位置関係等の情報と、予め記憶しているマーカーの寸法形状に係る基準情報とに基づいて、基準座標系にあるカメラから見たマーカーの位置及び姿勢を表す座標変換行列を求める。この座標変換行列は、基準座標系に対するマーカーの、ひいては対象物の3次元的な位置及び姿勢を表すものであり、同文献においてはそうして検出した位置及び姿勢に基づいてロボットハンドを制御するようにしている。 Then, based on the information on the ellipse shape, size, position, and relative positional relationship with the small circle, and the reference information on the dimension shape of the marker stored in advance, the reference coordinate system A coordinate transformation matrix representing the position and orientation of the marker viewed from a certain camera is obtained. This coordinate transformation matrix represents the three-dimensional position and orientation of the marker with respect to the reference coordinate system, and thus the target object. In this document, the robot hand is controlled based on the detected position and orientation. I am doing so.
ところで、前記のように従来例では、マーカーの構成要素の1つである大円部が部品の傾きによって楕円形の画像になることに着目し、この楕円の形状や大きさを、マーカーの位置及び姿勢を検出するための情報として利用していることから、検出の精度が大円部の大きさに左右されてしまう。 By the way, as described above, in the conventional example, attention is paid to the fact that the great circle part, which is one of the constituent elements of the marker, becomes an elliptical image due to the inclination of the part. And the detection accuracy depends on the size of the great circle portion.
すなわち、画像データにおける楕円の形状や大きさは、マーカーの表示されている面の傾き具合いやカメラとの距離によって変化するものであり、そのことに基づいて対象物の位置や姿勢を検出する際に所要の精度を確保しようとすれば、大円部は或る程度以上、大きくしなくてはならないが、このように大きな大円部を部品に表示することは困難な場合がある。 In other words, the shape and size of the ellipse in the image data changes depending on the inclination of the surface on which the marker is displayed and the distance from the camera. Based on this, the position and orientation of the object are detected. In order to ensure the required accuracy, the large circle portion must be enlarged to some extent, but it may be difficult to display such a large circle portion on the part.
また、一般的にカメラによって撮影した画像データには、前記の大円部や小円部のようなマーカーの構成要素の他に、重なり合う複数の部品の輪郭線や該部品の表面の傷、異物等の画像が含まれるとともに、さらに光学ノイズや電気ノイズも現れることがあって、このようなノイズとマーカー構成要素との識別に誤りを生じる可能性がある。 In addition, in general, image data captured by a camera includes, in addition to the marker components such as the large circle and small circle, the contour lines of a plurality of overlapping parts, scratches on the surface of the parts, foreign objects In addition to the above-described images, optical noise and electrical noise may also appear, which may cause an error in the discrimination between such noise and marker components.
そのため、識別した構成要素からマーカーの位置や姿勢を検出しても、これに基づいて直ちにロボットハンドを制御するのではなく、マーカーの位置や姿勢から一旦、対象物の輪郭を推定し、この推定結果が正しいかどうか例えば画像データにおける対象物の輪郭と対比して検証する必要がある。そして、マーカーの誤識別が多ければ、検証のための処理演算を繰り返すこととなり、徒に処理時間が長くなってしまう。 Therefore, even if the position and orientation of the marker are detected from the identified components, the robot hand is not immediately controlled based on this, but the contour of the object is estimated once from the position and orientation of the marker. It is necessary to verify whether the result is correct, for example, against the contour of the object in the image data. And if there are many misidentifications of a marker, the processing operation for verification will be repeated and processing time will become long.
斯かる諸点に鑑みて本発明の目的は、工業用部品のような対象物に表示する画像処理用のマーカーの構成に工夫を凝らし、その構成要素をあまり大きくせずとも良好な検出精度が得られるようにするとともに、誤検出を減らして処理の迅速化を図ることにある。 In view of these points, the object of the present invention is to devise a configuration of an image processing marker displayed on an object such as an industrial part, and to obtain a good detection accuracy without enlarging the component. And speeding up the process by reducing false detections.
前記の目的を達成すべく本願の請求項1に係る発明では、対象物に表示してその位置及び姿勢を画像処理により検出するためのマーカーとして、3つのマーカー構成要素を各々三角形の頂点に対応するように配置したものである(請求項1)。尚、このことは、マーカーが3つのマーカー構成要素のみからなることを意味するものではなく、以下に述べる付加構成要素を含めて、別の構成要素を有していても構わない。 In the invention according to claim 1 of the present application in order to achieve the above object, three marker components correspond to the vertices of a triangle, respectively, as markers for displaying on the object and detecting the position and orientation by image processing. (Claim 1). This does not mean that the marker consists of only three marker components, and may include other components including the additional components described below.
このようなマーカーが表示された対象物を上述の従来例(特許文献1)と同様にカメラ等によって撮影し、その画像データにおいて3つのマーカー構成要素を識別すれば、画像平面に投影されたマーカーの三角形状、その大きさ及び位置を特定することができる。そして、これらの情報と予め設定されている三角形の寸法形状に係る基準情報とに基づいて例えば前記従来例と同様に、基準座標系にある三角形を画像平面上の三角形状となるように射影するための変換行列を求めることによって、マーカーの(即ち対象物の)位置及び姿勢を検出することができる。 If an object on which such a marker is displayed is photographed by a camera or the like as in the above-described conventional example (Patent Document 1) and three marker components are identified in the image data, the marker projected on the image plane The triangle shape, its size and position can be specified. Then, based on these pieces of information and reference information relating to preset triangle dimensions, for example, the triangles in the reference coordinate system are projected into a triangular shape on the image plane as in the conventional example. By obtaining the transformation matrix for this, the position and orientation of the marker (ie, the object) can be detected.
そうして位置及び姿勢を検出する際の精度を高めるためには、上述したようにマーカーが大きい方が望ましいので、3つのマーカー構成要素は互いに離して或る程度以上、大きな三角形の頂点に配置するのがよい。こうした場合でも個々のマーカー構成要素が大きくなるわけではないから、従来例の大円部を大きくすることとは意味合いが異なり、本発明のマーカーは問題なく対象物に表示することが可能である。 Thus, in order to increase the accuracy in detecting the position and orientation, it is desirable that the marker is large as described above. Therefore, the three marker components are arranged at a vertex of a large triangle more than a certain distance from each other. It is good to do. Even in such a case, the individual marker components do not become large, and therefore, the meaning is different from the enlargement of the large circle portion of the conventional example, and the marker of the present invention can be displayed on the object without any problem.
マーカー構成要素として具体的には真円や楕円等が好ましく、その中心を三角形の頂点に位置付ければよい(請求項2)。真円や楕円は、どのような傾き方をしても真円や楕円にしかならず、それを識別するロジックがシンプルなものになるからである。厳密に言えば、遠近法により真円や楕円は僅かに歪むが、この歪みは無視しても実用上は差し支えない。それ以外にも例えば放物線や2次曲線等、ノイズから識別しやすく、かつ、対応する1点を容易に特定できるような幾何学的形状であればよい。ノイズとの識別にはやや不利になるが、楕円や放物線等の一部分であってもよい。 Specifically, a perfect circle, an ellipse, or the like is preferable as the marker component, and the center thereof may be positioned at the apex of the triangle (claim 2). This is because a perfect circle and an ellipse become only a true circle and an ellipse regardless of the inclination, and the logic for identifying them becomes simple. Strictly speaking, perfect circles and ellipses are slightly distorted by perspective, but this distortion can be ignored in practice. Other than that, a geometrical shape such as a parabola or a quadratic curve, which can be easily identified from noise and can easily identify one corresponding point, may be used. Although it is somewhat disadvantageous for discrimination from noise, it may be a part of an ellipse or a parabola.
また、そのようなマーカーを対象物に表示するには、例えば対象物がプレス成形による金属製部品の場合、その成形の際にマーカーを刻印するのが簡便であり、コストの面でも有利になる。一方、マーカーを対象物に印刷するのであれば、マーカー構成要素は着色した点とすることもできるが、この場合は高コストになるという難がある。 In order to display such a marker on an object, for example, when the object is a metal part formed by press molding, it is easy to mark the marker at the time of molding, which is advantageous in terms of cost. . On the other hand, if the marker is printed on the object, the marker component can be a colored point. However, in this case, there is a problem that the cost becomes high.
ところで、前記したように画像平面上で特定したマーカーの三角形状やその大きさだけでは該マーカーの姿勢を1つに特定することができず、2、3通りに特定される場合がある。例えば、斜めになったマーカーが正三角形状に見えるときには、3つの頂点の区別がつかないから、3通りの姿勢が考えられる。そこで、1辺が他の2辺に比べてかなり長い直角三角形のように、斜めになっても3点の区別がつきやすい形状とするのが好ましい。 By the way, as described above, the posture of the marker cannot be specified as one by only the triangular shape or the size of the marker specified on the image plane, and there are cases where it is specified in two or three ways. For example, when an inclined marker looks like a regular triangle, three vertices cannot be distinguished, so three postures are conceivable. Therefore, it is preferable to have a shape in which three points can be easily distinguished even if they are oblique, such as a right triangle that is considerably longer than the other two sides.
或いは、前記のようにマーカー構成要素として真円や楕円を用いるのであれば、その大きさを互いに異ならせることによって、それらを区別することも可能になるし、着色した点を用いるのであれば、その色を異ならせることによって区別することもできる。 Alternatively, if a perfect circle or ellipse is used as the marker component as described above, it is possible to distinguish them by making their sizes different from each other, and if using a colored point, It is also possible to distinguish by making the colors different.
好ましいのは、3つのマーカー構成要素に対し所定の位置関係となるようにして、別の構成要素を付加することであり(請求項3)、こうすれば、その付加構成要素との相対的な位置関係によって、3つのマーカー構成要素を互いに区別して識別することができる。しかも、付加構成要素の有無によって、マーカー構成要素を誤って識別しているかどうか直ちに判定できるので、処理の迅速化にも貢献する。 Preferably, another component is added so as to have a predetermined positional relationship with respect to the three marker components (Claim 3), and in this way, relative to the added component According to the positional relationship, the three marker components can be distinguished from each other. In addition, since it is possible to immediately determine whether or not the marker component has been mistakenly identified based on the presence or absence of the additional component, it contributes to speeding up the processing.
尚、付加構成要素を三角形の重心位置に配置すると、これとの位置関係によってはマーカー構成要素を区別することができないので、付加構成要素は重心位置以外に配置するのが好ましく(請求項4)、例えば重み付き重心等が考えられる。付加構成要素が重心位置にあっても、前記のようにマーカー構成要素の誤識別について判定することはできる。 If the additional component is arranged at the center of gravity of the triangle, the marker component cannot be distinguished depending on the positional relationship with this, and therefore it is preferable to arrange the additional component at a position other than the center of gravity (Claim 4). For example, a weighted center of gravity can be considered. Even if the additional component is located at the center of gravity, it is possible to determine the misidentification of the marker component as described above.
また、好ましくは付加構成要素は、3つのマーカー構成要素に対応する三角形の内部に配置する(請求項5)。これは、仮に付加構成要素を三角形の外に配置した場合、画像処理の1回の処理演算を行うウインドウ(処理範囲)の大きさの制限に起因して、付加構成要素の識別が遅れる可能性が高くなり、処理の遅延を招く虞れがあるからである。 Preferably, the additional component is arranged inside a triangle corresponding to the three marker components (claim 5). This is because if the additional component is arranged outside the triangle, the identification of the additional component may be delayed due to the limitation of the size of the window (processing range) for performing one processing operation of image processing. This is because there is a possibility that the process becomes higher and the processing is delayed.
別の観点から本発明は、前記のようなマーカーが表示された対象物の位置及び姿勢を検出するための画像処理装置であって、カメラ等により撮影した対象物の画像データからエッジ画像を抽出するエッジ抽出手段と、そうして抽出したエッジ画像のデータから3つのマーカー構成要素の画像を識別するマーカー構成要素識別手段と、その3つのマーカー構成要素の画像から対応する三角形の画像平面における形状、大きさ及び位置を特定し、これらの情報と予め設定されている三角形の形状及び大きさに係る基準情報とに基づいて、マーカーの位置及び姿勢を検出する位置姿勢検出手段と、を備えている(請求項6)。 From another viewpoint, the present invention is an image processing apparatus for detecting the position and orientation of an object on which a marker as described above is displayed, and extracts an edge image from image data of the object photographed by a camera or the like Edge extracting means, marker component identifying means for identifying images of three marker components from the extracted edge image data, and a shape of the corresponding triangular image plane from the images of the three marker components A position / orientation detection unit that identifies the size and position, and detects the position and orientation of the marker based on the information and reference information relating to a preset shape and size of the triangle. (Claim 6).
好ましくは、前記マーカー構成要素識別手段を、3つのマーカー構成要素の画像の他に付加構成要素の画像も識別するものとし、前記位置姿勢検出手段は、前記付加構成要素の画像平面における位置も加味してマーカーの位置及び姿勢を検出するものとする(請求項7)。こうすれば、請求項3の発明について前記したようにマーカー、ひいては対象物の位置及び姿勢をより迅速に検出できる。 Preferably, the marker component identifying means identifies not only three marker component images but also additional component images, and the position and orientation detection means also considers the position of the additional component in the image plane. Thus, the position and orientation of the marker are detected (claim 7). In this case, as described above with regard to the invention of claim 3, the position and orientation of the marker, and hence the object, can be detected more quickly.
より好ましいのは、前記位置姿勢検出手段によって検出されたマーカーの位置及び姿勢から画像平面における対象物の輪郭を推定する輪郭推定手段と、その推定された輪郭とエッジ画像のデータにおける対象物の輪郭とを対比して、両者の位置ずれが小さくなるように前記位置及び姿勢の検出結果を補正する補正手段と、を備えることであり(請求項8)、こうすれば対象物の位置及び姿勢の検出精度が向上する。 More preferably, the contour estimation means for estimating the contour of the object in the image plane from the position and orientation of the marker detected by the position and orientation detection means, and the contour of the object in the data of the estimated contour and edge image And a correction means for correcting the detection result of the position and orientation so that the positional deviation between the two becomes small (Claim 8). Detection accuracy is improved.
さらに別の観点から本発明は、コンピュータ装置によって前記のような画像処理装置を構成するためのプログラム(画像処理プログラム)であって、請求項9の発明は、対象物を撮影した画像データの入力を受け入れる画像データ入力ステップと、その画像データからエッジ画像を抽出するエッジ抽出ステップと、そのエッジ画像のデータから3つのマーカー構成要素の画像を識別するマーカー構成要素識別ステップとを備えるとともに、その3つのマーカー構成要素の画像から対応する三角形の画像平面における形状、大きさ及び位置を特定して、これらの情報と予め設定されている三角形の形状及び大きさに係る基準情報とに基づいて、マーカーの位置及び姿勢を検出するものである(位置姿勢検出ステップ)。 From another viewpoint, the present invention is a program (image processing program) for configuring the image processing apparatus as described above by a computer apparatus, and the invention according to claim 9 inputs image data obtained by photographing an object. An image data input step for receiving the image data, an edge extraction step for extracting an edge image from the image data, and a marker component identification step for identifying images of three marker components from the edge image data. The shape, size and position of the corresponding triangle on the image plane are identified from the images of the two marker components, and the marker is based on these information and reference information relating to the preset shape and size of the triangle. The position and orientation are detected (position and orientation detection step).
そして好ましくは、前記マーカー構成要素識別ステップにおいて、3つのマーカー構成要素の画像の他に付加構成要素の画像も識別し、前記位置姿勢検出ステップでは、前記付加構成要素の画像平面における位置も加味してマーカーの位置及び姿勢を検出する(請求項10)。こうすれば、前記請求項3、7の発明と同様の作用が得られる。 Preferably, in the marker component identification step, an image of an additional component is also identified in addition to the three marker component images, and in the position and orientation detection step, the position of the additional component on the image plane is also taken into account. And detecting the position and orientation of the marker. Thus, the same effect as that of the third and seventh aspects of the invention can be obtained.
より具体的に前記マーカー構成要素識別ステップでは、画像データ中の所定ピクセル数のウインドウを走査して、マーカー構成要素と推定される画像を3つ選択し、これらが各々頂点に位置する三角形を特定する。そして、この三角形の3つの頂点に対して所定の位置関係にある画像が付加構成要素と識別されれば、位置姿勢検出ステップに進む一方で、そのような画像がないか、或いは付加構成要素とは識別されないかのいずれかの場合は、前記マーカー構成要素の選択をやり直すことになる。 More specifically, in the marker component identification step, a window having a predetermined number of pixels in the image data is scanned to select three images that are estimated as marker components, and each of them identifies a triangle located at the vertex. To do. If an image having a predetermined positional relationship with respect to the three vertices of the triangle is identified as an additional component, the process proceeds to a position / orientation detection step. If any of the marker components is not identified, the marker component is selected again.
また、好ましいのは、前記位置姿勢検出ステップにおいて検出したマーカーの位置及び姿勢から画像平面における対象物の輪郭を推定する輪郭推定ステップと、そうして推定した輪郭をエッジ画像のデータにおける対象物の輪郭と対比して、両者の位置ずれが小さくなるようにマーカーの位置及び姿勢の検出結果を補正する補正ステップと、を備えることである(請求項11)。こうすれば、前記請求項8の発明と同じく対象物の位置及び姿勢の検出精度が向上する。 Preferably, a contour estimation step for estimating the contour of the object in the image plane from the position and orientation of the marker detected in the position and orientation detection step, and the contour thus estimated is used for the object in the edge image data. And a correction step of correcting the detection result of the marker position and orientation so that the positional deviation between the two becomes small as compared with the contour. By so doing, the detection accuracy of the position and orientation of the object is improved as in the case of the eighth aspect of the invention.
以上のように、本発明に係る画像処理用のマーカーは、ノイズとの識別が可能な3つの構成要素からなり、それらが各々三角形の頂点に対応付けて配置されているので、個々の構成要素はあまり大きくしなくても、マーカー全体としては所要の大きさを確保できる。よって、例えばバラ積みされた部品のように対象物が傾いていても、その位置及び姿勢をマーカー画像の情報に基づいて精度良く検出することができる。 As described above, the image processing marker according to the present invention includes three components that can be distinguished from noise, and each of them is arranged in association with a vertex of a triangle. Even if the size of the marker is not so large, the required size of the entire marker can be secured. Therefore, for example, even if the target object is tilted like parts stacked in bulk, the position and posture can be detected with high accuracy based on the information of the marker image.
特に、3つのマーカー構成要素に対し所定の位置関係となる付加構成要素を設ければ、これとの相対的な位置関係によって3つのマーカー構成要素が区別できるので、対象物の姿勢をより確実に検出できるとともに、付加構成要素の有無によってマーカー構成要素の誤識別の判定も可能になり、処理の迅速化に貢献する。 In particular, if an additional component having a predetermined positional relationship is provided for the three marker components, the three marker components can be distinguished by their relative positional relationship, so that the posture of the object can be more reliably determined. In addition to being able to be detected, it is possible to determine whether a marker component is erroneously identified depending on the presence or absence of an additional component, which contributes to speeding up of processing.
以下、本発明の実施形態を図面に基づいて説明する。尚、以下の説明は本質的に例示に過ぎず、本発明、その適用物或いはその用途を制限することを意図するものではない。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. In addition, the following description is only an illustration essentially and does not intend restrict | limiting this invention, its application thing, or its use.
図1には、本発明に係る画像処理装置Aが組み込まれたロボット・システムの一例を示す。このシステムは、例えば工場の組み立てラインに設置されていて、供給トレイT1にバラ積みされている部品W(対象物:図2にも示す)をピッキング・ロボットRのハンドにより把持して、隣接する整列トレイT2に移動させるものである。 FIG. 1 shows an example of a robot system incorporating an image processing apparatus A according to the present invention. This system is installed in an assembly line of a factory, for example, and a component W (object: also shown in FIG. 2) stacked in a supply tray T1 is gripped by the hand of the picking robot R and adjacent. It is moved to the alignment tray T2.
図の例では、供給トレイT1の上方にカメラ1が配設されており、これにより撮影した画像データが所定のプログラムに従ってパーソナルコンピュータ2(コンピュータ装置であり、以下、PCと略称)により処理され、部品Wの位置や姿勢が検出される。こうして検出された部品Wの位置や姿勢のデータはロボットRのコントローラCに転送され、部品Wのピックアップ制御に供される。 In the example of the figure, the camera 1 is disposed above the supply tray T1, and image data captured thereby is processed by a personal computer 2 (a computer device, hereinafter abbreviated as PC) according to a predetermined program, The position and orientation of the part W are detected. Data of the position and orientation of the component W thus detected is transferred to the controller C of the robot R and used for pickup control of the component W.
そのようにして撮影された画像データの一例(後述の如くグレースケール画像から抽出されたエッジ画像)を図2(a)に示すと、この例では部品Wは概略矩形板状であって、長方形状をなす表面の短辺の方向に一端が厚く、他端に至るに従って薄くなる楔状である。図の例では12個の部品Wが互いに重なり合って見えている。それぞれの部品Wの表面には、その4隅のうちの3箇所にそれぞれ真円形状のマーカー構成要素m1,m2,m3が刻印されている。これは、例えば部品Wのプレス成形の際に刻印すればよい。 FIG. 2 (a) shows an example of image data thus taken (an edge image extracted from a grayscale image as will be described later). In this example, the component W has a substantially rectangular plate shape and is rectangular. One is thicker in the direction of the short side of the surface forming a wedge, and the wedge shape becomes thinner as it reaches the other end. In the example shown in the figure, twelve parts W appear to overlap each other. On the surface of each part W, three circular marker components m1, m2, and m3 are engraved at three of the four corners. This may be stamped, for example, when the part W is press-formed.
より具体的には図3(a)に示すように、部品Wの表面には長辺を横に向けたときの右上の隅とその両隣の隅との3箇所に、従って、これを反転させれば同左下の隅とその両隣の隅との3箇所に位置するように、3つのマーカー構成要素m1〜m3が刻印されていて、同図に仮想線で示すように長辺、短辺及び対角線に対応する直角三角形を認識し得るマーカーMを構成している。 More specifically, as shown in FIG. 3 (a), on the surface of the part W, the upper right corner when the long side is turned sideways and the corners on both sides thereof are reversed. Then, three marker components m1 to m3 are engraved so as to be located at three places, the lower left corner and the corners on both sides, and the long side, short side, and A marker M that can recognize a right triangle corresponding to a diagonal line is formed.
それらの3つのマーカー構成要素m1〜m3を画像データから識別し、対応するマーカーMの三角形状、その大きさ及び位置を特定して、予めマーカーMの基準情報として設定されているCADデータ等と照合することにより、このマーカーMの、即ちこれが表示されている部品Wの3次元の位置及び姿勢を検出することができる。 These three marker components m1 to m3 are identified from the image data, the corresponding marker M is identified in a triangular shape, its size and position, and CAD data, etc. set in advance as reference information for the marker M By collating, it is possible to detect the three-dimensional position and orientation of the marker M, that is, the component W on which the marker M is displayed.
具体的には、まず、そうして特定される三角形の大きさが、部品WとカメラCとの距離に対応している。そして、仮にマーカーMの表示されている面がカメラCの光軸に直交しているとすれば、つまり、部品Wが傾いていないとすれば、その三角形の形状はCADデータの三角形状と一致するから、このCADデータとの照合によってマーカーMの姿勢、即ち部品Mの姿勢も特定できる。 Specifically, first, the size of the triangle specified in this way corresponds to the distance between the component W and the camera C. If the surface on which the marker M is displayed is orthogonal to the optical axis of the camera C, that is, if the part W is not tilted, the shape of the triangle matches that of the CAD data. Therefore, the posture of the marker M, that is, the posture of the part M can be specified by collation with the CAD data.
すなわち、図3(a)に模式的に示すように、マーカー構成要素m1の円の中心点c1と同m2の中心点c2とを結ぶ仮想線が部品Wの長辺に対応し、同様にマーカー構成要素m1の中心点c1と同m3の中心点c3とを結ぶ仮想線が部品Wの短辺に対応し、さらに、中心点c2,c3同士を結ぶ仮想線が部品Wの対角線に対応しているから、これらの仮想線で示される直角三角形の頂点c1〜c3の座標から一義的に部品Wの位置及び姿勢を特定することができる。 That is, as schematically shown in FIG. 3A, an imaginary line connecting the center point c1 of the circle of the marker component m1 and the center point c2 of the same m2 corresponds to the long side of the part W, and similarly the marker An imaginary line connecting the center point c1 of the component m1 and the center point c3 of the same m3 corresponds to the short side of the component W, and further, an imaginary line connecting the center points c2 and c3 corresponds to the diagonal line of the component W. Therefore, the position and orientation of the component W can be uniquely specified from the coordinates of the vertices c1 to c3 of the right triangle indicated by these virtual lines.
一方で部品Wが傾いている場合は、その傾き具合いに応じて見え方が変わるから、画像データにおける三角形状は例えば同図(b),(c)のように変化する。そこで、このような三角形状の変化に基づいて部品Wの傾き、即ち3次元空間における部品Wの姿勢を検出することができる。この検出の考え方は既に周知であるから(例えば特許文献1を参照)、説明は省略するが、マーカーMの傾きによる見え方の変化を利用することから、所要の検出精度を得るためには或る程度以上、大きなマーカーMが望ましく、そのために3つのマーカー構成要素m1〜m3を部品Wの隅部に表示している。 On the other hand, when the component W is tilted, the appearance changes depending on the tilt, so the triangular shape in the image data changes, for example, as shown in FIGS. Therefore, the inclination of the component W, that is, the posture of the component W in the three-dimensional space can be detected based on such a triangular change. Since the concept of this detection is already well known (see, for example, Patent Document 1), the description is omitted. However, in order to obtain the required detection accuracy, the change in appearance due to the inclination of the marker M is used. A large marker M is desirable to some extent, and for this purpose, three marker components m1 to m3 are displayed at the corners of the part W.
ところで、そうして部品Wが斜めになった結果として図3(b)のようにマーカー画像が正三角形状に近くなると、3つの頂点c1〜c3の区別がつき難くなるので、マーカーMの姿勢を1つに特定することができず、図に破線で示す別の2通りの姿勢を含めて合計3通りの姿勢が推定されるようになる。さらに、マーカー画像が正三角形状にならなくても同図(c)に示すように2通りの姿勢が考えられることもある。 By the way, if the marker image becomes close to a regular triangle as shown in FIG. 3B as a result of the component W being inclined, it is difficult to distinguish the three vertices c1 to c3. Cannot be specified as one, and a total of three postures are estimated including another two postures indicated by broken lines in the figure. Further, even if the marker image does not have an equilateral triangle shape, there are cases where two postures can be considered as shown in FIG.
そこで、この実施形態では、3つのマーカー構成要素m1〜m3に対し所定の位置関係となるようにして、別のマーカ構成要素m4を付加している。具体的には、各マーカー構成要素m1〜m3の円の中心点c1〜c3を頂点とする直角三角形の重み付き重心位置に対応付けて、この位置が中心点c4となるように円形の付加構成要素m4を配置している。 Therefore, in this embodiment, another marker component m4 is added so as to have a predetermined positional relationship with respect to the three marker components m1 to m3. Specifically, it is associated with a weighted barycentric position of a right triangle whose apexes are the center points c1 to c3 of the circles of the respective marker components m1 to m3, and a circular additional configuration so that this position becomes the center point c4. Element m4 is arranged.
この付加構成要素m4の中心点c4は、画像平面x-yにおいて3つのマーカー構成要素m1〜m3の中心点c1〜c3の座標を各々(x1,y1)、(x2,y2)、(x3,y3)として、以下の式(1)のように表されるから、この中心点c4の座標(x4,y4)に基づいて、即ち中心点c4との相対的な位置関係によって、3つのマーカー構成要素m1〜m3を区別することができる。 The center point c4 of this additional component m4 is the coordinates of the center points c1 to c3 of the three marker components m1 to m3 on the image plane xy, respectively (x1, y1), (x2, y2), (x3, y3) As shown in the following formula (1), the three marker components m1 are based on the coordinates (x4, y4) of the center point c4, that is, by the relative positional relationship with the center point c4. ~ M3 can be distinguished.
尚、前記式(1)において係数a、b、cは、重心に対する各頂点の重み付きを表す係数で、互いに異なる任意の値に設定すればよい。a=b=cの場合は付加構成要素m4の中心点c4が三角形の重心に位置することになり、これとの位置関係によっては3つのマーカー構成要素m1〜m3を区別できなくなるからである。つまり、付加構成要素m4は三角形の重心位置以外に配置するのが好ましい。 In the equation (1), the coefficients a, b, and c are coefficients representing the weights of the vertices with respect to the center of gravity, and may be set to arbitrary values different from each other. In the case of a = b = c, the center point c4 of the additional component m4 is located at the center of gravity of the triangle, and depending on the positional relationship therewith, the three marker components m1 to m3 cannot be distinguished. In other words, the additional component m4 is preferably arranged at a position other than the center of gravity of the triangle.
そして、この実施形態では、以下に述べる画像処理プログラムによって画像データから前記3つのマーカー構成要素m1〜m3と付加構成要素m4とを識別し、画像平面におけるマーカーMの三角形状、大きさ及び位置(例えば三角形の重心位置等でよい)の情報と、CADデータに含まれるマーカーMの大きさや位置の情報とに基づいて、当該マーカーMの(即ち部品Wの)3次元的な位置及び姿勢を検出する。 In this embodiment, the three marker components m1 to m3 and the additional component m4 are identified from the image data by an image processing program described below, and the triangular shape, size and position of the marker M on the image plane ( For example, the three-dimensional position and orientation of the marker M (that is, the part W) are detected based on the information on the center of gravity of the triangle) and the information on the size and position of the marker M included in the CAD data. To do.
−画像処理の手順−
次に、この実施形態のシステムにおける画像処理の手順を、具体的に図4のフローチャートに基づいて説明する。最初に工場の生産管理情報等に基づいてロボットRのコントローラCからカメラ1に計測要求信号が送られ、これを受けたカメラ1によって撮影されたグレースケール画像のデータがPC2に送られて、入力される(ステップS1:画像データ入力ステップ)。
-Image processing procedure-
Next, the procedure of image processing in the system of this embodiment will be specifically described based on the flowchart of FIG. First, a measurement request signal is sent from the controller C of the robot R to the camera 1 based on the production management information of the factory, etc., and the data of the gray scale image photographed by the camera 1 receiving the signal is sent to the
すると、画像データの入力を受けたPC2では、この画像データからエッジ画像を抽出する(ステップS2:エッジ抽出ステップ)。これは、従来周知の例えばキャニーエッジ・フィルタやソーベル・フィルタ等によってグレースケール画像をエッジ画像に変換する処理を行うものであり、一例として前記図2(a)のような画像データが得られる。図示のように画像データには、部品Wの輪郭線やマーカ構成要素m1〜m3以外に、部品Wの表面の傷や異物等の画像(ノイズ)が含まれている。
Then, the
続いてステップS3では、ノイズからマーカ構成要素m1〜m3の楕円画像を識別する処理を行う(楕円識別ステップ)。これは、部品Wに刻印されている円形のマーカー構成要素m1,m2,m3が部品Wの傾きによって見かけ上、変形しても楕円にしかならないことを利用し、それらマーカー構成要素m1,m2,m3を識別するものである。こうして楕円形の画像をノイズから識別する手法は従来より種々のものが知られている(例えば、特開2006−65452号公報、特開2002−183730号公報等を参照)。 Subsequently, in step S3, processing for identifying the ellipse images of the marker components m1 to m3 from noise is performed (ellipse identification step). This is based on the fact that the circular marker components m1, m2, and m3 stamped on the part W appear to be elliptical even when deformed due to the inclination of the part W, and the marker components m1, m2, This identifies m3. Various methods for discriminating an elliptical image from noise have been conventionally known (see, for example, JP-A-2006-65452 and JP-A-2002-183730).
一例として、前記エッジ画像のデータにおいて予め設定したピクセル数(例えば200×200ピクセル)のウインドウを走査し、エッジピクセルを探索する。そして、最初に見つかったエッジピクセルから或る角度毎(以下、15度として説明する)にエッジを探索して、最初の1点と後に探索した12点のうち任意の4点との合計5点を、周知の楕円の式に代入することによって楕円の中心等のパラメータを仮推定する。 As an example, a window having a preset number of pixels (for example, 200 × 200 pixels) is scanned in the edge image data to search for edge pixels. Then, the edge is searched for every certain angle (hereinafter, described as 15 degrees) from the edge pixel first found, and a total of 5 points including the first one point and any four points among the 12 points searched later Is temporarily estimated to substitute parameters such as the center of the ellipse.
次に、そうして仮推定した楕円の中心の周りに所定角度(以下、10度として説明する)毎にエッジを探索して、エッジピクセルを36個選択する。この36点を用いて最小二乗法により楕円を推定し、楕円の中心、長径、短径及び軸の傾きといったパラメータを決定する。このような手順を繰り返して楕円と思われる画像(楕円画像)をいくつも検出するのであるが、この際、検出漏れの防止を優先して、楕円か否かの判定基準は緩めに設定するのが好ましい。 Next, the edge is searched for every predetermined angle (hereinafter, described as 10 degrees) around the temporarily estimated ellipse center, and 36 edge pixels are selected. Using these 36 points, an ellipse is estimated by the method of least squares, and parameters such as the center, major axis, minor axis, and axis inclination of the ellipse are determined. This procedure is repeated to detect a number of images (elliptical images) that appear to be ellipses. At this time, priority is given to the prevention of detection omissions and the criteria for determining whether or not an ellipse is set loosely. Is preferred.
そうして複数個(3個以上)の楕円の画像を識別した後にステップS4では、そのうちからランダムに選択した3つの楕円画像について、それらがマーカーMとして予め定められている三角形状の配置となっているかどうか判定する(マーカー検出ステップ)。すなわち、まずは選択した楕円の長径の情報を利用して候補を絞り込む。これは、楕円の長径がマーカー構成要素m1〜m3の円の直径以下であり、かつカメラCとの距離に応じて小さくなることを考慮して、大きすぎる楕円は排除するのであるが、この際も検出漏れの防止を優先し、絞り込みの条件は緩めに設定するのがよい。 After identifying a plurality (three or more) of ellipse images in this way, in step S4, three ellipse images randomly selected from them are arranged in a triangular shape that is predetermined as the marker M. (Marker detection step). That is, first, candidates are narrowed down using information on the major axis of the selected ellipse. In consideration of the fact that the major axis of the ellipse is smaller than the diameter of the circle of the marker components m1 to m3 and becomes smaller according to the distance from the camera C, an ellipse that is too large is excluded. However, priority is given to prevention of detection omissions, and the narrowing-down conditions should be set loosely.
そして、絞り込んだ候補の中のいずれか3つの楕円画像について、図2(b)に仮想線で示すように、それぞれの中心点c1〜c3を頂点とする三角形を仮定し、この三角形の重み付き重心位置の座標(式(1)参照)を計算して、この座標位置を中心とする別の楕円画像があるかどうか判別する。このような楕円画像があれば、前記3つの楕円画像をマーカー構成要素m1〜m3として識別し、図示のようにマーカーMを検出してステップS5に進む一方、重み付き重心位置に対応する楕円画像がなければ、前記の3つの楕円画像の選択からやり直す。 Then, for any three ellipse images among the narrowed candidates, as shown by the phantom lines in FIG. 2 (b), assuming triangles whose vertices are the center points c1 to c3, weights of the triangles are assumed. The coordinates of the center of gravity position (see equation (1)) are calculated to determine whether there is another ellipse image centered on this coordinate position. If there is such an ellipse image, the three ellipse images are identified as marker components m1 to m3, the marker M is detected as shown in the figure, and the process proceeds to step S5, while the ellipse image corresponding to the weighted center of gravity position. If there is not, the process starts again from the selection of the three ellipse images.
ステップS5では、前記のように検出したマーカーMの三角形状、大きさ及び画像平面における位置の情報と、CADデータとして設定されている三角形の形状及び大きさ(基準情報)とに基づいて、マーカーMの、即ち部品Wの3次元的な位置及び姿勢を検出する(位置姿勢検出ステップ)。すなわち、例えば従来例(特許文献1)と同様にして、3次元の基準座標系にあるCADデータの三角形を、前記のように検出した画像平面上のマーカーMの三角形状になるように射影するための変換行列を求める。 In step S5, the marker M is detected based on the triangle shape, size, and position information on the image plane detected as described above, and the triangle shape and size (reference information) set as CAD data. M, that is, the three-dimensional position and orientation of the component W are detected (position and orientation detection step). That is, for example, similar to the conventional example (Patent Document 1), the triangle of CAD data in the three-dimensional reference coordinate system is projected so as to be the triangular shape of the marker M on the image plane detected as described above. Find the transformation matrix for
そして、ステップS6では、前記ステップS5において求めた座標変換行列を用いて、画像平面における部品Wの輪郭を推定する(輪郭推定ステップ)。これは、CADデータ等から作成した基準座標系における部品Wのエッジデータに前記射影変換行列を適用して画像平面上にマッピングすることにより、この画像平面における部品Wの輪郭を推定するものである。 In step S6, the contour of the component W on the image plane is estimated using the coordinate transformation matrix obtained in step S5 (contour estimation step). In this method, the contour of the part W in the image plane is estimated by applying the projection transformation matrix to the edge data of the part W in the reference coordinate system created from CAD data or the like and mapping it on the image plane. .
続くステップS7では、前記のように推定した輪郭と前記エッジ画像のデータ(ステップS2)における部品Wの輪郭とを対比して、両者の位置ずれが小さくなるように、前記位置及び姿勢の検出結果(ステップS5)を補正する(補正ステップ)。こうして画像平面上で2つの輪郭線をマッチングさせる手法も従来より種々、知られているが、ここでは公知の距離変換の手法を利用して2つの輪郭線のずれ量(誤差)を計算し、この誤差が最小となるように輪郭を補正する。 In subsequent step S7, the position and orientation detection results are compared so that the contour estimated as described above and the contour of the part W in the edge image data (step S2) are compared and the positional deviation between them is reduced. (Step S5) is corrected (correction step). Various methods for matching two contour lines on the image plane in this way have been known in the past, but here, a shift amount (error) between the two contour lines is calculated using a known distance conversion method, The contour is corrected so that this error is minimized.
すなわち、ステップS2で抽出したエッジ画像を利用し、全ピクセルにおけるエッジピクセルからの距離を表す距離マップを作成しておき、ステップS6にて推定した輪郭の各エッジピクセルの位置と実際の部品Wの各エッジピクセルとの距離を、前記の距離マップを参照して求めて、その距離の合計を誤差とする。そして、数学的な探索手法を用いて誤差を減少させる処理を繰り返すことで、輪郭を補正する。 That is, using the edge image extracted in step S2, a distance map representing the distance from the edge pixel in all pixels is created, and the position of each edge pixel in the contour estimated in step S6 and the actual part W The distance to each edge pixel is obtained with reference to the distance map, and the sum of the distances is taken as an error. Then, the contour is corrected by repeating the process of reducing the error using a mathematical search method.
こうして補正した部品Wの輪郭、即ちその位置及び姿勢の最終的な検出結果のデータをステップS8にてロボットRのコントローラCに転送し(データ出力)、処理ルーチンを終了する。このデータに基づいてピッキング・ロボットRが制御されることで、そのハンドは供給トレイT1内の部品Wを間違いなくピックアップすることができる。 In step S8, the corrected contour of the component W, that is, the data of the final detection result of the position and orientation thereof is transferred to the controller C of the robot R (data output), and the processing routine is terminated. By controlling the picking robot R based on this data, the hand can definitely pick up the component W in the supply tray T1.
前記フローのステップS3は、エッジ画像のデータから3つの楕円画像を識別するマーカー構成要素識別ステップであり、ステップS4,S5は、マーカーMの(即ち部品Wの)位置及び姿勢を検出する位置姿勢検出ステップである。 Step S3 of the flow is a marker component identification step for identifying three ellipse images from edge image data, and steps S4 and S5 are positions and orientations for detecting the position and orientation of the marker M (that is, the part W). This is a detection step.
そして、この実施形態の画像処理システムにおいては、PC2によって前記フローのような画像処理プログラムが実行されることにより、そのPC2が、エッジ抽出手段と、マーカー構成要素識別手段と、位置姿勢検出手段と、輪郭推定手段と、補正手段とを構成する。
In the image processing system according to this embodiment, the
したがって、この実施形態に係る画像処理装置Aによると、カメラ1により撮影した画像データを処理し、部品Wに表示してあるマーカーMの三角形状、大きさ及び位置を検出して、CADデータの三角形状との間での座標変換行列を求めることにより、そのマーカーMの、即ち部品Wの3次元の位置及び姿勢を検出することができる。 Therefore, according to the image processing apparatus A according to this embodiment, the image data captured by the camera 1 is processed, the triangular shape, size, and position of the marker M displayed on the component W are detected, and the CAD data By obtaining a coordinate transformation matrix between the triangular shape, the three-dimensional position and orientation of the marker M, that is, the part W can be detected.
前記のマーカーMは、3つの円形の構成要素m1〜m3が直角三角形の頂点に対応するように各々部品Wの表面の隅部に配置されているので、個々のマーカー構成要素m1〜m3は小さくてもマーカーM全体としては十分に大きくなり、その見え方の変化によって部品Wの姿勢を精度良く検出することができる。 The markers M are arranged at the corners of the surface of the part W such that the three circular components m1 to m3 correspond to the vertices of the right triangle, so that the individual marker components m1 to m3 are small. However, the marker M as a whole becomes sufficiently large, and the posture of the component W can be detected with high accuracy by the change in the appearance.
そのため、前記のようにマーカーMの位置及び姿勢から部品Wの輪郭を推定し、画像データ中の輪郭との位置ずれが少なくなるように補正するときに、比較的位置ずれが小さいことから補正のための演算量が少なくて済み、処理の迅速化が図られる。 Therefore, when the contour of the component W is estimated from the position and orientation of the marker M as described above and correction is performed so that the positional deviation from the contour in the image data is reduced, the correction is performed because the positional deviation is relatively small. For this reason, the amount of calculation required for this is small, and the processing can be speeded up.
特にこの実施形態では、マーカーMに対応する三角形の重み付き重心位置に付加構成要素m4を表示しており、これとの相対的な位置関係によって3つのマーカー構成要素m1〜m3を区別できるようにしているので、マーカーMの(即ち部品Wの)の姿勢をより確実に検出できる。しかも、前記付加構成要素m4の有無によってマーカー構成要素m1〜m3の誤識別を判定でき、このことも処理の迅速化に貢献する。 In particular, in this embodiment, the additional component m4 is displayed at the weighted center of gravity of the triangle corresponding to the marker M, so that the three marker components m1 to m3 can be distinguished by their relative positional relationship. Therefore, the posture of the marker M (that is, the part W) can be detected more reliably. In addition, the misidentification of the marker components m1 to m3 can be determined based on the presence or absence of the additional component m4, which also contributes to speeding up the process.
付加構成要素m4は、画像平面における3つのマーカー構成要素m1〜m3との位置関係を数式によって記述できる任意の位置に表示ればよいが、この実施形態では三角形の内部に表示されることになり、三角形の外に表示するのに比べると処理が速くなる。 The additional component m4 may be displayed at an arbitrary position where the positional relationship with the three marker components m1 to m3 on the image plane can be described by mathematical formulas. In this embodiment, the additional component m4 is displayed inside the triangle. Compared with displaying outside the triangle, the processing is faster.
すなわち、前記図4のフローのステップS3において楕円画像を識別するときには、画像データのうちの所定ピクセル数(例えば200×200)のウインドウを走査して1回の処理を行い、この処理をウインドウをずらしながら繰り返すことになるが、付加構成要素m4が三角形の内部にあれば、3つのマーカー構成要素m1〜m3を含むウインドウには必ず付加構成要素m4も含まれることになるからである。 That is, when an elliptical image is identified in step S3 of the flow of FIG. 4, a window of a predetermined number of pixels (eg, 200 × 200) in the image data is scanned and processed once, and this process is performed on the window. This is repeated while shifting, because if the additional component m4 is inside the triangle, the window including the three marker components m1 to m3 always includes the additional component m4.
尚、本発明に係るマーカーの構成は前記の実施形態に限定されない。例えばマーカーMの構成要素は真円に限らず楕円としてもよい。いずれも、部品Wがどのように傾いていても真円や楕円にしかならず、それを識別するロジックがシンプルなものになる。それ以外にも例えば放物線や2次曲線等、ノイズからの識別が可能で、かつ対応する1点を容易に特定できるような幾何学的形状、或いはその一部分であってもよい。 In addition, the structure of the marker which concerns on this invention is not limited to the said embodiment. For example, the constituent element of the marker M is not limited to a perfect circle but may be an ellipse. In any case, no matter how the part W is inclined, it becomes only a perfect circle or an ellipse, and the logic for identifying it becomes simple. In addition, a geometric shape such as a parabola or a quadratic curve, which can be distinguished from noise and can easily identify a corresponding point, or a part thereof may be used.
また、マーカー構成要素を部品Wの成形の際に刻印するのではなくて、後から印刷することもできる。この場合、マーカー構成要素は着色した点とすることも可能で、その色を異ならせれば容易に区別して識別できるから、付加構成要素m4は不要となる。 In addition, the marker component is not stamped when the part W is molded, but can be printed later. In this case, the marker component can be a colored point, and if the color is different, it can be easily distinguished and identified, so the additional component m4 is not necessary.
また、真円や楕円等の構成要素とする場合でも、その大きさを互いに異ならせて、区別できるようにすることも可能である。図5には、互いに大きさの異なる3つの真円によって構成されるマーカーMの一例を示している。図の例ではマーカーMの3つの構成要素が近接していることから、これにより検出した部品Wの輪郭(一点鎖線で示す)の位置ずれがやや大きめになっている。 Further, even in the case of a component such as a perfect circle or an ellipse, the sizes can be made different from each other so that they can be distinguished. FIG. 5 shows an example of the marker M configured by three perfect circles having different sizes. In the example shown in the figure, since the three components of the marker M are close to each other, the positional deviation of the contour of the component W (indicated by the alternate long and short dash line) detected thereby is slightly larger.
さらに、例えば真円と楕円、双曲線というように3つのマーカー構成要素の形状を異ならせて、互いに区別できるようにすることも可能であり、この場合にも付加構成要素は不要になる。 Furthermore, it is possible to make the three marker components different from each other, for example, a perfect circle, an ellipse, and a hyperbola, so that they can be distinguished from each other. In this case, additional components are unnecessary.
さらにまた、前記した実施形態のように部品Wの隅部にマーカ構成要素m1〜m3を表示する必要もなく、それらは、例えば部品Wの同一面上のように同時にカメラCの視野内に含まれ得る部位に表示すればよい。それらを表示する範囲は、カメラCの分解能やその撮像範囲等との関係に基づいて適切な大きさに設定すればよい。 Furthermore, it is not necessary to display the marker components m1 to m3 at the corners of the part W as in the above-described embodiment, and they are included in the field of view of the camera C at the same time, for example, on the same plane of the part W. What is necessary is just to display on the site | part which can be obtained. The range for displaying them may be set to an appropriate size based on the relationship with the resolution of the camera C, its imaging range, and the like.
また、本発明に係るマーカーは、前記実施形態のような3つのマーカー構成要素m1〜m3を有するものであれば、付加構成要素m4を含めて別の構成要素を有していてもよく、その別の構成要素を含めて全体としては多角形状をなしていても構わない。 In addition, the marker according to the present invention may have other components including the additional component m4 as long as it has the three marker components m1 to m3 as in the above embodiment. It may have a polygonal shape as a whole including other components.
また、本発明に係るマーカーやそれを用いた画像処理の手法は、前記実施形態のように工業用部品Wのピックアップ作業に適用できるのみならず、それ以外の種々の対象物にも適用できることは言うまでもない。 In addition, the marker and the image processing method using the marker according to the present invention can be applied not only to the pickup work of the industrial component W as in the above embodiment, but also to other various objects. Needless to say.
以上、説明したように本発明に係るマーカーは、その構成要素をあまり大きくしなくとも対象物の位置や姿勢の検出精度を確保することができ、処理の迅速化にも貢献するので、産業上の有用性は高い。 As described above, the marker according to the present invention can ensure the accuracy of detecting the position and orientation of an object without increasing the size of its constituent elements, and contributes to speeding up the processing. Is highly useful.
A 画像処理装置
M マーカー
m1〜m3 マーカー構成要素
m4 付加構成要素
W 工業用部品(対象物)
1 カメラ
2 コンピュータ装置(PC:エッジ抽出手段、マーカー構成要素識別手段、 位置姿勢検出手段、輪郭推定手段、補正手段)
A Image processing device M Marker m1 to m3 Marker component m4 Additional component W Industrial parts (object)
DESCRIPTION OF SYMBOLS 1
Claims (11)
前記対象物に3つのマーカー構成要素が各々三角形の頂点に対応付けて配置されている、ことを特徴とする画像処理用マーカー。 A marker for displaying on an object and detecting its position and orientation by image processing,
The marker for image processing, wherein three marker components are arranged on the object in association with vertices of triangles, respectively.
前記対象物を撮影した画像データからエッジ画像を抽出するエッジ抽出手段と、
前記抽出したエッジ画像のデータから3つのマーカー構成要素の画像を識別するマーカー構成要素識別手段と、
前記識別した3つのマーカー構成要素の画像から対応する三角形の画像平面における形状、大きさ及び位置を特定し、これらの情報と予め設定されている三角形の形状及び大きさに係る基準情報とに基づいて、マーカーの位置及び姿勢を検出する位置姿勢検出手段と、を備えることを特徴とする画像処理装置。 An image processing device for detecting the position and orientation of an object on which a marker according to any one of claims 1 to 5 is displayed,
Edge extraction means for extracting an edge image from image data obtained by photographing the object;
Marker component identification means for identifying three marker component images from the extracted edge image data;
The shape, size and position of the corresponding triangle in the image plane of the corresponding triangle are identified from the images of the three identified marker components, and based on these information and reference information relating to the preset shape and size of the triangle An image processing apparatus comprising: position and orientation detection means for detecting the position and orientation of the marker.
位置姿勢検出手段は、前記付加構成要素の画像平面における位置も加味してマーカーの位置及び姿勢を検出するものである、請求項6の画像処理装置。 The marker component identification means identifies the image of the additional component in addition to the image of the three marker components,
7. The image processing apparatus according to claim 6, wherein the position / orientation detection means detects the position and orientation of the marker in consideration of the position of the additional component on the image plane.
前記輪郭推定手段によって推定された輪郭とエッジ画像のデータにおける対象物の輪郭とを対比して、両者の位置ずれが小さくなるように前記位置及び姿勢の検出結果を補正する補正手段と、を備える、請求項6又は7のいずれかの画像処理装置。 Contour estimation means for estimating the contour of the object in the image plane from the position and orientation of the marker detected by the position and orientation detection means;
A correction unit that compares the contour estimated by the contour estimation unit with the contour of the object in the edge image data and corrects the detection result of the position and orientation so as to reduce the positional deviation between the two. The image processing apparatus according to claim 6 or 7.
前記対象物を撮影した画像データの入力を受け入れる画像データ入力ステップと、
前記画像データからエッジ画像を抽出するエッジ抽出ステップと、
前記抽出したエッジ画像のデータから3つのマーカー構成要素の画像を識別するマーカー構成要素識別ステップと、
前記識別した3つのマーカー構成要素の画像から対応する三角形の画像平面における形状、大きさ及び位置を特定し、これらの情報と予め設定されている三角形の形状及び大きさに係る基準情報とに基づいて、マーカーの位置及び姿勢を検出する位置姿勢検出ステップと、を備えることを特徴とする画像処理プログラム。 An image processing program for detecting by a computer device the position and orientation of an object on which a marker according to any one of claims 1 to 5 is displayed,
An image data input step for accepting input of image data obtained by photographing the object;
An edge extraction step of extracting an edge image from the image data;
A marker component identification step for identifying images of three marker components from the extracted edge image data;
The shape, size and position of the corresponding triangle in the image plane of the corresponding triangle are identified from the images of the three identified marker components, and based on these information and reference information relating to the preset shape and size of the triangle And a position / orientation detection step for detecting the position and orientation of the marker.
位置姿勢検出ステップでは、前記付加構成要素の画像平面における位置も加味してマーカーの位置及び姿勢を検出する、請求項9の画像処理プログラム。 In the marker component identification step, in addition to the three marker component images, the additional component image is also identified,
The image processing program according to claim 9, wherein in the position and orientation detection step, the position and orientation of the marker are detected in consideration of the position of the additional component on the image plane.
前記輪郭推定ステップにおいて推定した輪郭とエッジ画像のデータにおける対象物の輪郭とを対比して、両者の位置ずれが小さくなるように前記位置及び姿勢の検出結果を補正する補正ステップと、を備える請求項9又は10のいずれかの画像処理プログラム。 A contour estimation step for estimating the contour of the object in the image plane from the position and orientation of the marker detected in the position and orientation detection step;
A correction step of comparing the contour estimated in the contour estimation step with the contour of the object in the edge image data and correcting the detection result of the position and orientation so as to reduce the positional deviation between the two. Item 15. The image processing program according to any one of Items 9 and 10.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009094232A JP2010243405A (en) | 2009-04-08 | 2009-04-08 | Image processing marker, image processing apparatus for detecting position and attitude of marker displayed object, and image processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009094232A JP2010243405A (en) | 2009-04-08 | 2009-04-08 | Image processing marker, image processing apparatus for detecting position and attitude of marker displayed object, and image processing program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010243405A true JP2010243405A (en) | 2010-10-28 |
Family
ID=43096566
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009094232A Pending JP2010243405A (en) | 2009-04-08 | 2009-04-08 | Image processing marker, image processing apparatus for detecting position and attitude of marker displayed object, and image processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010243405A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016165778A (en) * | 2015-03-10 | 2016-09-15 | ローランドディー.ジー.株式会社 | Stage mechanism |
WO2017006740A1 (en) * | 2015-07-03 | 2017-01-12 | 三菱重工業株式会社 | Structured body |
JP2020132265A (en) * | 2019-02-26 | 2020-08-31 | 株式会社豊田中央研究所 | Object to be loaded |
JP2021076502A (en) * | 2019-11-11 | 2021-05-20 | 株式会社東芝 | Remote measuring device and remote measuring method |
JP7299442B1 (en) * | 2022-11-17 | 2023-06-27 | ファナック株式会社 | Control device, three-dimensional position measurement system, and program |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04370704A (en) * | 1991-06-19 | 1992-12-24 | Takenaka Komuten Co Ltd | Method for detecting object proper information about position, angle, etc. |
JP2002071313A (en) * | 2000-08-31 | 2002-03-08 | Toshiba Corp | Target marker, method for measuring location of object for using the same, and robot system |
-
2009
- 2009-04-08 JP JP2009094232A patent/JP2010243405A/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04370704A (en) * | 1991-06-19 | 1992-12-24 | Takenaka Komuten Co Ltd | Method for detecting object proper information about position, angle, etc. |
JP2002071313A (en) * | 2000-08-31 | 2002-03-08 | Toshiba Corp | Target marker, method for measuring location of object for using the same, and robot system |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016165778A (en) * | 2015-03-10 | 2016-09-15 | ローランドディー.ジー.株式会社 | Stage mechanism |
WO2017006740A1 (en) * | 2015-07-03 | 2017-01-12 | 三菱重工業株式会社 | Structured body |
JP2017015622A (en) * | 2015-07-03 | 2017-01-19 | 三菱重工業株式会社 | Structure |
US11280445B2 (en) | 2015-07-03 | 2022-03-22 | Mitsubishi Heavy Industries, Ltd. | Structural body |
JP2020132265A (en) * | 2019-02-26 | 2020-08-31 | 株式会社豊田中央研究所 | Object to be loaded |
JP7249168B2 (en) | 2019-02-26 | 2023-03-30 | 株式会社豊田中央研究所 | Objects to be handled |
JP2021076502A (en) * | 2019-11-11 | 2021-05-20 | 株式会社東芝 | Remote measuring device and remote measuring method |
JP7293087B2 (en) | 2019-11-11 | 2023-06-19 | 株式会社東芝 | Telemetry device and telemetry method |
JP7299442B1 (en) * | 2022-11-17 | 2023-06-27 | ファナック株式会社 | Control device, three-dimensional position measurement system, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110116406B (en) | Robotic system with enhanced scanning mechanism | |
CN105453546B (en) | Image processing apparatus, image processing system and image processing method | |
CN109584307B (en) | System and method for improving calibration of intrinsic parameters of a camera | |
US11232589B2 (en) | Object recognition device and object recognition method | |
CN112276936B (en) | Three-dimensional data generating device and robot control system | |
CN112837371A (en) | Object grabbing method and device based on 3D matching and computing equipment | |
CN105849774B (en) | Image contrast device, imaging sensor, processing system, image contrast method | |
US20130058526A1 (en) | Device for automated detection of feature for calibration and method thereof | |
JP5088278B2 (en) | Object detection method, object detection apparatus, and robot system | |
JP2005072888A (en) | Image projection method and image projection device | |
US20180150969A1 (en) | Information processing device, measuring apparatus, system, calculating method, storage medium, and article manufacturing method | |
WO2014045508A1 (en) | Inspection device, inspection method, and inspection program | |
JP2010243405A (en) | Image processing marker, image processing apparatus for detecting position and attitude of marker displayed object, and image processing program | |
CN115609591A (en) | 2D Marker-based visual positioning method and system and composite robot | |
JP5093591B2 (en) | 3D position and orientation measurement method and apparatus | |
WO2019165612A1 (en) | Method for positioning a movable platform, and related device and system | |
CN111783529B (en) | Post-detection improvement based on edges and multi-dimensional corners | |
JP5083715B2 (en) | 3D position and orientation measurement method and apparatus | |
KR102260121B1 (en) | A checkerboard for camera calibration, method and apparatus for automatic target recognition using the same | |
JP4982754B2 (en) | Object detection method | |
JP2007183908A (en) | Method for detecting object | |
CN111860025B (en) | Two-dimensional code region-of-interest positioning method and device | |
JP4566686B2 (en) | Method and apparatus for determining shape of object | |
JP4815592B2 (en) | Object detection method | |
JP2562047B2 (en) | Position and orientation recognition method of target object |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Effective date: 20120322 Free format text: JAPANESE INTERMEDIATE CODE: A621 |
|
RD02 | Notification of acceptance of power of attorney |
Effective date: 20120322 Free format text: JAPANESE INTERMEDIATE CODE: A7422 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20120322 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130412 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130423 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20130820 |