JP2015136742A - Control device, robot system, robot and calibration method - Google Patents

Control device, robot system, robot and calibration method Download PDF

Info

Publication number
JP2015136742A
JP2015136742A JP2014008583A JP2014008583A JP2015136742A JP 2015136742 A JP2015136742 A JP 2015136742A JP 2014008583 A JP2014008583 A JP 2014008583A JP 2014008583 A JP2014008583 A JP 2014008583A JP 2015136742 A JP2015136742 A JP 2015136742A
Authority
JP
Japan
Prior art keywords
work
marker
jig
calibration
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014008583A
Other languages
Japanese (ja)
Inventor
工藤 真
Makoto Kudo
真 工藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2014008583A priority Critical patent/JP2015136742A/en
Publication of JP2015136742A publication Critical patent/JP2015136742A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a control device capable of performing calibration of a marker for work even when a set position of the marker for work is deviated, and further to provide a robot system, a robot, a calibration method and the like.SOLUTION: A control device 100 includes: a captured image reception section 110 receiving a captured image including a marker for calibration 610 provided on a jig for calibration 600 and a marker for work 710 provided on a jig for work 700; and a processing section 130 causing a robot 300 to perform work by using the jig for work 700 on the basis of the captured image.

Description

本発明は、制御装置、ロボットシステム、ロボット及びキャリブレーション方法等に関係する。   The present invention relates to a control device, a robot system, a robot, a calibration method, and the like.

近年、生産現場において、人が行ってきた作業を機械化・自動化するために、産業用ロボットを導入することが多くなってきた。しかし、ロボットの位置決めを行うにあたっては、事前に精密なキャリブレーションを行う必要がある。   In recent years, industrial robots have been increasingly introduced to mechanize and automate work performed by humans at production sites. However, when positioning the robot, it is necessary to perform precise calibration in advance.

このキャリブレーションを行う際には、ロボットが行う作業の基準となる点や線、面などの作業基準と、ロボットとの相対位置姿勢関係を正確に特定(補正)する手法がある。このようなキャリブレーション方法に関する発明としては、例えば特許文献1に記載される発明がある。特許文献1に記載される発明では、ロボットの軸座標原点に対し、一定の位置関係を有する個所に位置合わせマーク(マーカー)を設けるとともに、この位置合わせマークと作業基準との相対位置姿勢関係を予め設定しておく。そして、ロボットが把持する工具を位置合わせマークの位置に移動させ、その時のロボットの軸座標を読み取り、読み取り値と位置合わせマークの座標とのずれをオフセット量として取り込み、作業基準とロボットとの正確な相対位置姿勢関係を特定(補正)する。   When performing this calibration, there is a method for accurately specifying (correcting) the relative position and orientation relationship between the work reference such as a point, line, and surface as a reference for the work performed by the robot and the robot. As an invention relating to such a calibration method, for example, there is an invention described in Patent Document 1. In the invention described in Patent Document 1, an alignment mark (marker) is provided at a position having a certain positional relationship with respect to the axis coordinate origin of the robot, and the relative position and orientation relationship between the alignment mark and the work reference is determined. Set in advance. Then, the tool gripped by the robot is moved to the position of the alignment mark, the robot's axis coordinates at that time are read, and the deviation between the read value and the coordinates of the alignment mark is taken as an offset amount. To identify (correct) the relative position and orientation relationship.

特開平1−234181号公報JP-A-1-234181

このような作業基準は、作業毎に異なることが通常である。そのため、前述した特許文献1において開示される発明のように、マーカーを用いて、作業基準とロボットとの正確な相対位置姿勢関係を特定する場合には、作業が変わる度に、適した位置にマーカー(位置合わせマーク)を貼付(設定)する必要がある。   Such work standards are usually different for each work. Therefore, as in the invention disclosed in Patent Document 1 described above, when an accurate relative position and orientation relationship between a work reference and a robot is specified using a marker, the work position changes to a suitable position each time the work changes. It is necessary to affix (set) a marker (alignment mark).

また近年は、多品種少数の部品を生産する機会が増えてきたため、ロボットに行わせる作業が頻繁に変わることも多い。従って、作業者(教示者、ユーザー)がマーカーを決められた位置に貼付する機会も多くなる。   In recent years, opportunities to produce a small number of various types of parts have increased, and the work performed by the robot often changes frequently. Therefore, there are many opportunities for the operator (teacher, user) to apply the marker to a predetermined position.

しかし、作業者(教示者、ユーザー)が決められた位置に、ずれずに正確にマーカーを貼付することは、非常に困難である。例えば、マーカーの貼付位置が5mmずれたり、マーカーの貼付姿勢が10度傾いたりするだけで、正確なキャリブレーションを行うことができなくなる。この場合には、ロボットと作業基準との相対位置姿勢関係を正確に把握することができなくなり、ロボットに正確な作業を行わせることができなくなる。   However, it is very difficult for the operator (teacher, user) to attach the marker accurately at a predetermined position without shifting. For example, accurate calibration cannot be performed simply by shifting the marker application position by 5 mm or tilting the marker application position by 10 degrees. In this case, it becomes impossible to accurately grasp the relative position and orientation relationship between the robot and the work reference, and the robot cannot perform accurate work.

本発明の一態様は、キャリブレーション用ジグに設けられたキャリブレーション用マーカーと、作業用ジグに設けられた作業用マーカーとを撮像した撮像画像を受け付ける撮像画像受付部と、ロボットに、前記撮像画像に基づいて前記作業用ジグを用いた作業を行わせる処理部と、を含む制御装置に関係する。   According to one aspect of the present invention, a captured image receiving unit that receives a captured image obtained by capturing a calibration marker provided in a calibration jig, a work marker provided in a work jig, and the imaging And a processing unit that performs work using the work jig based on an image.

本発明の一態様では、キャリブレーション用マーカー及び作業用マーカーが映る撮像画像に基づいて、ロボットのキャリブレーションを行い、作業用ジグを用いた作業をロボットに行わせる。   In one embodiment of the present invention, a robot is calibrated based on a captured image in which a calibration marker and a work marker are reflected, and the robot is caused to perform work using a work jig.

これにより、作業用マーカーの設定位置(貼付位置)がずれている場合でも、作業用マーカーのキャリブレーションを行うことが可能になる。   Thereby, even when the setting position (sticking position) of the work marker is deviated, the work marker can be calibrated.

また、本発明の一態様では、前記処理部は、前記撮像画像に対して画像認識処理を行って、前記作業用ジグを用いた作業の基準点、基準線及び基準面のうちの少なくとも一つである作業基準と、前記作業用マーカーとの相対位置姿勢関係を特定してもよい。   In one aspect of the present invention, the processing unit performs image recognition processing on the captured image, and at least one of a reference point, a reference line, and a reference plane of the work using the work jig. The relative position and orientation relationship between the work standard and the work marker may be specified.

本発明の一態様では、作業基準と作業用マーカーとの相対位置姿勢関係を特定する際に、キャリブレーション用マーカーが設けられたキャリブレーション用ジグを用いる。   In one aspect of the present invention, a calibration jig provided with a calibration marker is used when specifying the relative position and orientation relationship between the work reference and the work marker.

これにより、作業基準と作業用マーカーの相対位置姿勢関係を正確に特定することが可能になる。さらに、貼付位置及び貼付姿勢のずれを気にせずに、作業用マーカーを作業用ジグに貼付すること等が可能になる。   This makes it possible to accurately specify the relative position and orientation relationship between the work reference and the work marker. Furthermore, it is possible to attach the work marker to the work jig without worrying about the deviation of the sticking position and the sticking posture.

また、本発明の一態様では、前記撮像画像受付部は、前記キャリブレーション用マーカー及び前記作業基準が、既知の第2の相対位置姿勢関係にある状態で、前記キャリブレーション用マーカー及び前記作業用マーカーを撮像して得られる前記撮像画像を受け付け、前記処理部は、前記撮像画像に基づいて、前記キャリブレーション用マーカー及び前記作業用マーカーのマーカー認識処理を行って、前記相対位置姿勢関係を特定してもよい。   In one aspect of the present invention, the captured image receiving unit may be configured such that the calibration marker and the work marker are in a state where the calibration marker and the work reference are in a known second relative position and orientation relationship. The captured image obtained by imaging a marker is received, and the processing unit performs marker recognition processing of the calibration marker and the working marker based on the captured image to identify the relative position and orientation relationship May be.

これにより、第2の相対位置姿勢関係を画像認識処理等により特定しなくても、作業基準と作業用マーカーの相対位置姿勢関係を特定すること等が可能になる。   This makes it possible to specify the relative position and orientation relationship between the work reference and the work marker without specifying the second relative position and orientation relationship by image recognition processing or the like.

また、本発明の一態様では、前記処理部は、前記マーカー認識処理の結果に基づいて、前記キャリブレーション用マーカー及び前記作業用マーカーの第3の相対位置姿勢関係を特定し、前記第2の相対位置姿勢関係及び前記第3の相対位置姿勢関係に基づいて、前記相対位置姿勢関係を特定してもよい。   In one aspect of the present invention, the processing unit specifies a third relative position and orientation relationship between the calibration marker and the work marker based on a result of the marker recognition process, and the second The relative position / posture relationship may be specified based on the relative position / posture relationship and the third relative position / posture relationship.

これにより、例えば、第2の相対位置姿勢関係と第3の相対位置姿勢関係の差分を取ることにより、作業基準と作業用マーカーの相対位置姿勢関係を特定すること等が可能になる。   Thereby, for example, it is possible to specify the relative position / posture relationship between the work reference and the work marker by taking the difference between the second relative position / posture relationship and the third relative position / posture relationship.

また、本発明の一態様では、前記処理部は、前記作業用マーカーのマーカー認識処理の結果及び前記相対位置姿勢関係に基づいて、ロボット座標系における前記作業基準を特定し、前記作業基準に基づいて、前記ロボットを制御してもよい。   In one aspect of the present invention, the processing unit identifies the work reference in a robot coordinate system based on a marker recognition process result of the work marker and the relative position and orientation relationship, and based on the work reference. The robot may be controlled.

これにより、作業用マーカーの設定位置がずれている場合でも、作業基準に基づいて、ロボットを正確に動作させること等が可能になる。   Thereby, even when the setting position of the work marker is shifted, the robot can be accurately operated based on the work reference.

また、本発明の一態様では、前記作業用マーカーは、作業者により前記作業用ジグに貼付されたマーカーであってもよい。   In the aspect of the invention, the work marker may be a marker attached to the work jig by an operator.

これにより、ロボットの作業に正しく対応した作業用マーカーが貼付された作業用ジグを、効率的に用意すること等が可能になる。   As a result, it is possible to efficiently prepare a working jig to which a working marker that correctly corresponds to the work of the robot is attached.

また、本発明の一態様では、前記撮像画像受付部は、前記キャリブレーション用ジグ及び前記作業用ジグが接触した状態で、前記キャリブレーション用マーカー及び前記作業用マーカーを撮像して得られる前記撮像画像を受け付けてもよい。   In one aspect of the present invention, the captured image receiving unit captures the calibration marker and the work marker in a state where the calibration jig and the work jig are in contact with each other. Images may be accepted.

これにより、キャリブレーション用ジグと作業用ジグの位置合わせを作業者が容易に行うこと等が可能になる。   As a result, the operator can easily align the calibration jig and the work jig.

また、本発明の一態様では、前記キャリブレーション用マーカー及び前記作業用マーカーの少なくとも一方は、ジグプロパティーの情報を有していてもよい。   In one embodiment of the present invention, at least one of the calibration marker and the work marker may have jig property information.

これにより、マーカー認識処理を行うことにより、ジグプロパティーの情報を取得すること等が可能になる。   Accordingly, it is possible to acquire jig property information by performing marker recognition processing.

また、本発明の一態様では、前記処理部は、前記キャリブレーション用マーカーのマーカー認識処理により、前記キャリブレーション用マーカーの前記ジグプロパティーを認識し、前記ジグプロパティーに基づいて、前記第2の相対位置姿勢関係を特定してもよい。   In the aspect of the invention, the processing unit recognizes the jig property of the calibration marker by marker recognition processing of the calibration marker, and based on the jig property, the second relative The position and orientation relationship may be specified.

これにより、第2の相対位置姿勢関係が異なる複数のキャリブレーション用ジグを作業毎に使い分けること等が可能になる。   As a result, it is possible to use a plurality of calibration jigs having different second relative positions and orientations for each work.

また、本発明の他の態様は、キャリブレーション用マーカーが設けられたキャリブレーション用ジグと、作業用マーカーが設けられた作業用ジグと、前記キャリブレーション用ジグと前記作業用ジグとを撮像する撮像部と、前記撮像部が撮像した撮像画像により、前記作業用ジグを用いた作業を行うロボットと、を含むロボットシステムに関係する。   According to another aspect of the present invention, a calibration jig provided with a calibration marker, a work jig provided with a work marker, the calibration jig, and the work jig are imaged. The present invention relates to a robot system including an imaging unit and a robot that performs work using the work jig by a captured image captured by the imaging unit.

また、本発明の他の態様は、キャリブレーション用ジグに設けられたキャリブレーション用マーカーと作業用ジグに設けられた作業用マーカーとを撮像部が撮像した撮像画像により、前記作業用ジグを用いた作業を行うロボットに関係する。   According to another aspect of the present invention, the work jig is used by a captured image obtained by capturing an image of a calibration marker provided on the calibration jig and a work marker provided on the work jig. Related to the robot that performs the work.

また、本発明の他の態様は、キャリブレーション用マーカーが設けられたキャリブレーション用ジグと、作業用マーカーが設けられた作業用ジグとが映る撮像画像を受け付けることと、前記撮像画像に対して画像認識処理を行って、前記作業用ジグを用いた作業の基準点、基準線及び基準面のうちの少なくとも一つである作業基準と、前記作業用マーカーとの相対位置姿勢関係を特定することと、を含むキャリブレーション方法に関係する。   According to another aspect of the present invention, a captured image in which a calibration jig provided with a calibration marker and a work jig provided with a work marker are received, and the captured image is received. Performing image recognition processing to identify a relative position and orientation relationship between a work reference that is at least one of a reference point, a reference line, and a reference plane of the work using the work jig and the work marker; And a calibration method including:

また、本発明の他の態様では、上記各部としてコンピューターを機能させるプログラム、又は該プログラムを記憶したコンピューター読み取り可能な情報記憶装置に関係する。   Another aspect of the present invention relates to a program that causes a computer to function as each of the above-described units, or a computer-readable information storage device that stores the program.

本発明の幾つかの態様によれば、作業用マーカーの設定位置がずれている場合でも、作業用マーカーのキャリブレーションを行うことができる制御装置、ロボットシステム、ロボット及びキャリブレーション方法等を提供することができる。   According to some aspects of the present invention, there are provided a control device, a robot system, a robot, a calibration method, and the like that can calibrate a work marker even when the setting position of the work marker is shifted. be able to.

作業用ジグを用いたロボットによる作業の説明図。Explanatory drawing of the operation | work by the robot using a working jig. 作業用マーカーの貼付位置及び貼付姿勢のずれの説明図。Explanatory drawing of the shift | offset | difference of the sticking position and sticking posture of a work marker. キャリブレーション用ジグの説明図。Explanatory drawing of the jig for calibration. 本実施形態のシステム構成例。The system configuration example of this embodiment. 相対位置姿勢関係の特定処理の説明図。Explanatory drawing of the relative position / orientation relationship specifying process. 本実施形態のキャリブレーションの処理の流れを説明するフローチャート。6 is a flowchart for explaining the flow of calibration processing according to the present embodiment. 図7(A)〜図7(D)は、第2の相対位置姿勢関係の説明図。FIG. 7A to FIG. 7D are explanatory diagrams of a second relative position and orientation relationship. 本実施形態のロボット制御の処理の流れを説明するフローチャート。The flowchart explaining the flow of the process of the robot control of this embodiment. 図9(A)〜図9(D)は、ネジを吸着する作業の説明図。FIG. 9A to FIG. 9D are explanatory diagrams of the operation of sucking the screw. Eリングを取得する作業の説明図。Explanatory drawing of the operation | work which acquires an E ring. 図11(A)、図11(B)は、ロボットの構成例。FIG. 11A and FIG. 11B are configuration examples of a robot. ネットワークを介してロボットを制御するロボット制御システムの構成例。1 is a configuration example of a robot control system that controls a robot via a network.

以下、本実施形態について説明する。なお、以下で説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また、本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。   Hereinafter, this embodiment will be described. In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.

1.本実施形態の手法
まず本実施形態の手法が適用される作業として、例えば図1に示すような作業を考える。図1に示すロボットRBは、把持部(ハンド)HDで把持したワークWKを、位置P1〜位置P3の各位置に並べて置く作業を行う。そのため、まずは位置P1〜位置P3を認識する必要があるが、この場合には、作業基準である作業基準点SPを認識し、作業基準点SPに基づいて、位置P1〜位置P3を認識する。なお、作業基準とは、作業を行う際に基準となる点、線及び面などであり、図1の例では作業基準点SPである。
1. First, as an operation to which the method of the present embodiment is applied, for example, the operation shown in FIG. 1 is considered. The robot RB shown in FIG. 1 performs an operation of placing the work WK gripped by the gripping part (hand) HD side by side at positions P1 to P3. Therefore, first, it is necessary to recognize the positions P1 to P3. In this case, the work reference point SP that is the work reference is recognized, and the positions P1 to P3 are recognized based on the work reference point SP. The work standard is a point, a line, a surface, or the like that serves as a standard when performing work, and is the work standard point SP in the example of FIG.

そして、その際には、作業者(教示者、ユーザー)により、作業用マーカーWMKが貼付(設定)された作業用ジグWJGを用いて、ロボット座標系における作業基準の位置を特定する。具体的には、撮像部(カメラ)CMにより撮像した撮像画像に基づいて、作業用マーカーWMKを認識し、認識した作業用マーカーWMKの位置と所与の位置関係にある点を、作業基準点SPとして特定する。なお、作業用ジグは、作業毎又は作業基準毎に個別に用意されるものであり、例えば図1のように、作業用ジグWJGの一部分を作業基準(SP)と合わせる(接触又は隣接させる)ことが可能なものである。   At that time, the operator (teacher, user) specifies the position of the work reference in the robot coordinate system using the work jig WJG to which the work marker WMK is attached (set). Specifically, the work marker WMK is recognized based on a captured image captured by the imaging unit (camera) CM, and a point having a given positional relationship with the position of the recognized work marker WMK is determined as a work reference point. It is specified as SP. The work jigs are individually prepared for each work or each work standard. For example, as shown in FIG. 1, a part of the work jig WJG is matched with the work standard (SP) (contact or adjacent). Is possible.

しかし、前述したように、この作業用マーカーは、作業者(教示者、マーカー)が作業用ジグに貼付(設定)するものであるため、貼付位置や貼付姿勢がずれることが多い。例えば、図2に示すように、作業用ジグWJGの理想貼付位置IPに作業用マーカーを貼り付けようとしたものの、貼付位置がずれて、実際の貼付位置が位置RPになってしまうこと等がよくある。この場合には、作業用マーカーに基づいて、作業基準を正確に特定できなくなることがある。具体的には、貼付位置が5mmずれたり、貼付姿勢が10度ずれたりするだけで、正確な作業基準を特定できなくなる。なお、前述した特許文献1においては、位置合わせマークが作業用マーカーに相当し、この位置合わせマークを設定する際にずれが生じる可能性がある。   However, as described above, since the operator (teacher, marker) is affixed (set) to the work jig by the operator (teacher, marker), the application position and the application posture are often shifted. For example, as shown in FIG. 2, the work marker is to be attached to the ideal application position IP of the work jig WJG, but the application position is shifted and the actual application position becomes the position RP. Often. In this case, the work reference may not be accurately identified based on the work marker. Specifically, it is not possible to specify an accurate work standard simply by affixing the attachment position by 5 mm or the application posture by 10 degrees. In Patent Document 1 described above, the alignment mark corresponds to a work marker, and there is a possibility that a deviation occurs when the alignment mark is set.

そこで、本実施形態では、図3に示すように、作業用ジグWJGの他に、キャリブレーション用マーカーCMKが貼付(設定)されたキャリブレーション用ジグCJGを用いて、作業前に作業用マーカーWMKのキャリブレーションを行う。具体的には、キャリブレーション用ジグCJGを用いて、作業用マーカーWMKと作業基準(作業基準点SP)との正確な相対位置姿勢関係を特定する。作業用マーカーWMKと作業基準との正確な相対位置姿勢関係が分かれば、作業用マーカーWMKの貼付位置が本来の理想貼付位置からずれていたとしても、ロボット座標系における作業基準の位置を正確に特定することが可能となる。   Therefore, in the present embodiment, as shown in FIG. 3, in addition to the working jig WJG, a calibration jig CJG to which the calibration marker CMK is attached (set) is used, and the work marker WMK is set before the work. Perform calibration. Specifically, an accurate relative position and orientation relationship between the work marker WMK and the work reference (work reference point SP) is specified using the calibration jig CJG. If the correct relative position and orientation relationship between the work marker WMK and the work reference is known, even if the application position of the work marker WMK is deviated from the original ideal application position, the position of the work reference in the robot coordinate system can be accurately determined. It becomes possible to specify.

具体的に、本実施形態の制御装置100及び制御装置100を含むロボット300の構成例を図4に示す。本実施形態の制御装置100は、撮像画像を受け付ける撮像画像受付部110と、ロボット300に、撮像画像に基づいて作業用ジグ700を用いた作業を行わせる処理部130と、を含む。なお、本実施形態の制御装置100は、図4の構成に限定されず、これらの一部の構成要素を省略したり、他の構成要素を追加したりするなどの種々の変形実施が可能である。また、本実施形態の制御装置100は、後述する図11(A)に示すように、ロボット300に含まれており、ロボット300と一体に構成されていてもよい。さらに、後述する図12に示すように、制御装置100の機能は、サーバー500と、各ロボット300が有する端末装置330とにより、実現されてもよい。   Specifically, FIG. 4 illustrates a configuration example of the control device 100 according to the present embodiment and the robot 300 including the control device 100. The control device 100 according to the present embodiment includes a captured image receiving unit 110 that receives a captured image, and a processing unit 130 that causes the robot 300 to perform work using the work jig 700 based on the captured image. The control device 100 of the present embodiment is not limited to the configuration of FIG. 4, and various modifications such as omitting some of these components or adding other components are possible. is there. Further, the control device 100 of this embodiment is included in the robot 300 as shown in FIG. 11A described later, and may be configured integrally with the robot 300. Furthermore, as shown in FIG. 12 described later, the function of the control device 100 may be realized by a server 500 and a terminal device 330 included in each robot 300.

まず、撮像画像受付部110は、キャリブレーション用ジグ600に設けられたキャリブレーション用マーカー610と、作業用ジグ700に設けられた作業用マーカー710とが映る撮像画像を取得する。なお、撮像画像受付部110は、撮像部200からの撮像画像を受け付けるインターフェース部、或いは、有線及び無線の少なくとも一方を含むネットワークを介して撮像部200からの撮像画像を受信する通信部などにより実現できる。   First, the captured image reception unit 110 acquires a captured image in which a calibration marker 610 provided in the calibration jig 600 and a work marker 710 provided in the work jig 700 are reflected. The captured image receiving unit 110 is realized by an interface unit that receives a captured image from the imaging unit 200, or a communication unit that receives a captured image from the imaging unit 200 via a network including at least one of wired and wireless. it can.

そして、処理部130は、撮像画像に対して画像認識処理を行って、作業用ジグ700を用いた作業の基準点、基準線及び基準面のうちの少なくとも一つである作業基準と、作業用マーカー710との相対位置姿勢関係を特定する。なお、処理部130の機能は、各種プロセッサー(CPU等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムなどにより実現できる。   Then, the processing unit 130 performs image recognition processing on the captured image, a work reference that is at least one of a reference point, a reference line, and a reference plane of the work using the work jig 700, and a work The relative position and orientation relationship with the marker 710 is specified. The function of the processing unit 130 can be realized by hardware such as various processors (CPU or the like), ASIC (gate array or the like), a program, or the like.

具体的には、撮像画像受付部110は、キャリブレーション用マーカー610及び作業基準が、既知の第2の相対位置姿勢関係にある状態で、キャリブレーション用マーカー610及び作業用マーカー710を撮像して得られる撮像画像を取得する。   Specifically, the captured image reception unit 110 captures the calibration marker 610 and the work marker 710 in a state where the calibration marker 610 and the work reference are in the known second relative position and orientation relationship. Obtained captured images are acquired.

そして、処理部130は、撮像画像に基づいて、キャリブレーション用マーカー610及び作業用マーカー710のマーカー認識処理を行って、作業基準及び作業用マーカー710の相対位置姿勢関係を特定する。   Then, the processing unit 130 performs marker recognition processing of the calibration marker 610 and the work marker 710 based on the captured image, and specifies the work position and the relative position and orientation relationship of the work marker 710.

さらに、より具体的には、処理部130は、マーカー認識処理の結果に基づいて、キャリブレーション用マーカー610及び作業用マーカー710の第3の相対位置姿勢関係を特定し、第2の相対位置姿勢関係及び第3の相対位置姿勢関係に基づいて、作業基準及び作業用マーカー710の相対位置姿勢関係を特定する。   More specifically, the processing unit 130 specifies the third relative position and orientation relationship between the calibration marker 610 and the work marker 710 based on the result of the marker recognition process, and the second relative position and orientation. Based on the relationship and the third relative position and orientation relationship, the work reference and the relative position and orientation relationship of the work marker 710 are specified.

ここで、図5を用いて具体例を説明する。まず、本例では、キャリブレーション用マーカーCMKと作業基準点SP(作業基準)が、第2の相対位置姿勢関係にある状態で、キャリブレーション用マーカーCMKと作業用マーカーWMKを撮像する。   Here, a specific example will be described with reference to FIG. First, in this example, the calibration marker CMK and the work marker WMK are imaged in a state where the calibration marker CMK and the work reference point SP (work reference) are in the second relative position and orientation relationship.

ここで、キャリブレーション用マーカーCMKは、メーカーによりキャリブレーション用ジグCJGに正確に貼付されたものである。つまり、キャリブレーション用マーカーCMKと作業基準点SPとの相対位置姿勢関係が、あらかじめ決められた第2の位置姿勢関係になるように、キャリブレーション用マーカーCMKがキャリブレーション用ジグCJGに貼付されている。例えば、図5における第2の相対位置姿勢関係は、キャリブレーション用マーカーCMKの中心点CMCから、作業基準点SPへのベクトルDR2により表されるような相対位置姿勢関係である。なお、実際の作業を行う際には、キャリブレーション用ジグCJGを用いる必要はない。キャリブレーション用ジグCJGは、あくまで作業前に、作業用マーカーWMKと作業基準との相対位置姿勢関係を正確に特定するために用いるものである。ただし、後述する図9(A)〜図9(D)の例や、図10の例のように、作業に用いるツールをキャリブレーション用ジグCJGとして用いることなども可能である。   Here, the calibration marker CMK is accurately affixed to the calibration jig CJG by the manufacturer. That is, the calibration marker CMK is affixed to the calibration jig CJG so that the relative position and orientation relationship between the calibration marker CMK and the work reference point SP becomes a predetermined second position and orientation relationship. Yes. For example, the second relative position / posture relationship in FIG. 5 is a relative position / posture relationship represented by a vector DR2 from the center point CMC of the calibration marker CMK to the work reference point SP. It is not necessary to use the calibration jig CJG when performing actual work. The calibration jig CJG is used to accurately specify the relative position and orientation relationship between the work marker WMK and the work reference before work. However, it is also possible to use a tool used for work as a calibration jig CJG as in the examples of FIGS. 9A to 9D described later and the example of FIG.

次に、撮像画像に基づいて、マーカー認識処理を行って、作業用マーカーWMKとキャリブレーション用マーカーCMKを認識し、第3の相対位置姿勢関係を特定する。例えば、図5における第3の相対位置姿勢関係は、キャリブレーション用マーカーCMKの中心点CMCから、作業用マーカーWMKの中心点WMCへのベクトルDR3により表されるような相対位置姿勢関係である。   Next, marker recognition processing is performed based on the captured image to recognize the work marker WMK and the calibration marker CMK, and specify the third relative position and orientation relationship. For example, the third relative position and orientation relationship in FIG. 5 is a relative position and orientation relationship represented by a vector DR3 from the center point CMC of the calibration marker CMK to the center point WMC of the work marker WMK.

そして、第2の相対位置姿勢関係であるベクトルDR2と、第3の相対位置姿勢関係であるベクトルDR3との差分を取ることにより、作業基準点SP及び作業用マーカーWMKの相対位置姿勢関係を表すベクトルDRを特定する。例えばこのベクトルDRは、作業用マーカーWMKの中心点WMCから、作業基準点SPへのベクトルである。   The relative position and orientation relationship between the work reference point SP and the work marker WMK is expressed by taking the difference between the vector DR2 that is the second relative position and orientation relationship and the vector DR3 that is the third relative position and orientation relationship. The vector DR is specified. For example, the vector DR is a vector from the center point WMC of the work marker WMK to the work reference point SP.

なお、図5の例では、作業基準として作業基準点SPを用いる場合について説明したが、前述したように作業基準として、作業基準線や作業基準面を用いることも可能である。例えば、作業基準線は、点SPと端点P1を結ぶ第1の直線や、点SPと端点P2を結ぶ第2の直線などである。また、作業基準面は、第1の直線を含み、紙面に対して垂直な第1の面と、第2の直線を含み、紙面に対して垂直な第2の面と、第1の直線と第2の直線とを含む第3の面などである。   In the example of FIG. 5, the case where the work reference point SP is used as the work reference has been described. However, as described above, a work reference line or a work reference plane may be used as the work reference. For example, the work reference line is a first straight line connecting the point SP and the end point P1, a second straight line connecting the point SP and the end point P2, and the like. The work reference plane includes a first straight line and includes a first surface perpendicular to the paper surface, a second straight line, the second surface perpendicular to the paper surface, and the first straight line. And a third surface including the second straight line.

これにより、作業用マーカーの設定位置(貼付位置)がずれている場合でも、作業用マーカーのキャリブレーションを行うことが可能になり、前述したように、作業基準と作業用マーカーの相対位置姿勢関係を正確に特定すること等が可能になる。   This makes it possible to calibrate the work marker even when the work marker setting position (sticking position) is deviated, and as described above, the relative position and orientation relationship between the work reference and the work marker. Can be specified accurately.

また、第2の相対位置姿勢関係が既知な相対位置姿勢関係であることにより、第2の相対位置姿勢関係を画像認識処理などにより特定しなくても、作業基準と作業用マーカーの相対位置姿勢関係を特定すること等が可能になる。   Further, since the second relative position / posture relationship is a known relative position / posture relationship, the relative position / posture of the work reference and the work marker can be determined without specifying the second relative position / posture relationship by image recognition processing or the like. It becomes possible to specify the relationship.

さらに、第3の相対位置姿勢関係を特定することにより、例えば第2の相対位置姿勢関係と第3の相対位置姿勢関係の差分を取ることによって、作業基準と作業用マーカーの相対位置姿勢関係を特定すること等が可能になる。   Furthermore, by specifying the third relative position / posture relationship, for example, by taking the difference between the second relative position / posture relationship and the third relative position / posture relationship, the relative position / posture relationship between the work reference and the work marker can be determined. It becomes possible to specify.

そして、処理部130は、作業用マーカー710のマーカー認識処理の結果、及び特定した相対位置姿勢関係に基づいて、ロボット座標系における作業基準を特定し、作業基準に基づいて、ロボット300を制御する。   Then, the processing unit 130 specifies a work reference in the robot coordinate system based on the result of the marker recognition process of the work marker 710 and the specified relative position and orientation relationship, and controls the robot 300 based on the work reference. .

これにより、作業用マーカーの設定位置がずれている場合でも、作業基準に基づいて、ロボット300を正確に動作させること等が可能になる。例えば前述した図1の例においては、作業用マーカーWMKがずれて貼られている場合でも、前述した方法でロボット座標系での作業基準点SPを正確に認識し、認識した作業基準点SPに基づいて、ロボットRBを動作させ、ワークWKを位置P1〜位置P3に並べて置くこと等が可能になる。   Thereby, even when the setting position of the work marker is shifted, the robot 300 can be accurately operated based on the work reference. For example, in the example of FIG. 1 described above, even when the work marker WMK is attached with a deviation, the work reference point SP in the robot coordinate system is accurately recognized by the method described above, and the recognized work reference point SP is used as the recognized work reference point SP. Based on this, it is possible to operate the robot RB and place the workpiece WK side by side at the positions P1 to P3.

以上のような処理を行うため、貼付位置及び貼付姿勢のずれを気にせずに、作業用マーカーを作業用ジグに貼付すること等が可能になる。   Since the processing as described above is performed, it is possible to attach the work marker to the work jig without worrying about the deviation of the sticking position and the sticking posture.

よって、作業用マーカー710は、作業者により作業用ジグ700に貼付されたマーカーであってもよい。   Therefore, the work marker 710 may be a marker attached to the work jig 700 by the worker.

これにより、ロボットに行わせる作業の種類が多い場合などには特に、作業の準備の効率化を図ること等が可能になる。この場合の作業の準備とは、作業に正しく対応した作業用マーカーが貼付された作業用ジグを用意することである。なお、作業用マーカー及びキャリブレーション用マーカーは、図示したものには限定されず、どのようなマーカーを用いてもよい。   This makes it possible to improve work preparation efficiency, particularly when there are many types of work to be performed by the robot. The preparation of the work in this case is to prepare a work jig to which a work marker corresponding to the work correctly is attached. The work marker and the calibration marker are not limited to those shown in the figure, and any marker may be used.

また、本実施形態は、キャリブレーション用ジグ及びキャリブレーション用マーカーを用いる点において、前述した特許文献1とは明確に異なる。前述した特許文献1では、位置合わせマーク(作業用マーカー)に基づいて、作業基準を特定するが、位置合わせマークの設定位置がずれる可能性があり、この場合には、正確に作業基準を特定することができない。これに対して、本実施形態は、キャリブレーション用マーカーを用いて、作業用マーカーと作業基準との正確な相対位置姿勢関係を特定する。そのため、作業用マーカーが多少ずれて貼られた場合であっても、ロボット座標系における作業基準の位置(位置及び姿勢)を正確に特定して、ロボットを制御することが可能である。   Further, the present embodiment is clearly different from Patent Document 1 described above in that a calibration jig and a calibration marker are used. In Patent Document 1 described above, the work reference is specified based on the alignment mark (work marker). However, there is a possibility that the setting position of the alignment mark is shifted. In this case, the work reference is accurately specified. Can not do it. On the other hand, this embodiment specifies an accurate relative position and orientation relationship between the work marker and the work reference using the calibration marker. For this reason, even when the work markers are pasted with a slight shift, it is possible to accurately specify the work reference position (position and posture) in the robot coordinate system and control the robot.

2.処理の詳細
次に、本実施形態におけるキャリブレーションの処理の流れを図6のフローチャートを用いて説明する。
2. Details of Processing Next, the flow of calibration processing in the present embodiment will be described with reference to the flowchart of FIG.

まず、作業者(ユーザー、教示者)が作業用ジグに作業用マーカーを貼付する(S101)。次に、作業者が、キャリブレーション用ジグと作業用ジグを作業基準に合わせて置き(S102)、撮像部200が、キャリブレーション用マーカーと作業用マーカーを撮像する(S103)。   First, a worker (user, teacher) attaches a work marker to a work jig (S101). Next, the operator places the calibration jig and the work jig in accordance with the work standard (S102), and the imaging unit 200 images the calibration marker and the work marker (S103).

この時、例えば前述した図5のように、撮像画像受付部110は、キャリブレーション用ジグ600(CJG)及び作業用ジグ700(WJG)が接触した状態で、キャリブレーション用マーカー610(CMK)及び作業用マーカー710(WMK)を撮像して得られる撮像画像を取得する(S102、S103)。   At this time, for example, as shown in FIG. 5 described above, the captured image receiving unit 110 has the calibration marker 610 (CMK) and the calibration jig 600 (CJG) and the work jig 700 (WJG) in contact with each other. A captured image obtained by capturing the work marker 710 (WMK) is acquired (S102, S103).

このように、二つのジグを接触させて設置することで、キャリブレーション用ジグと作業用ジグの位置合わせを作業者が容易に行うこと等が可能になる。   In this way, by placing the two jigs in contact with each other, the operator can easily align the calibration jig and the work jig.

次に、処理部130は、撮像画像に基づいて、キャリブレーション用マーカーと作業用マーカーのマーカー認識処理を行う(S104)。そして、処理部130は、マーカー認識処理の結果に基づいて、第2の相対位置姿勢関係を特定する(S105)。   Next, the processing unit 130 performs marker recognition processing for the calibration marker and the work marker based on the captured image (S104). Then, the processing unit 130 specifies the second relative position and orientation relationship based on the result of the marker recognition process (S105).

ここで、第2の相対位置姿勢関係を特定する処理の具体例を説明する。まず、キャリブレーション用マーカー610及び作業用マーカー710の少なくとも一方は、ジグプロパティーの情報を有している。ジグプロパティーの情報とは、例えばジグ又はマーカーのIDやジグの形状に関わる情報、そのジグに対応する作業基準の情報、作業内容の情報などのことである。   Here, a specific example of the process of specifying the second relative position / posture relationship will be described. First, at least one of the calibration marker 610 and the work marker 710 has jig property information. The jig property information includes, for example, information on a jig or marker ID or jig shape, work standard information corresponding to the jig, work content information, and the like.

ここでは例えば、キャリブレーション用マーカーが、ジグプロパティーの情報としてジグID(マーカーID)を有している例を、図7(A)〜図7(D)を用いて説明する。   Here, for example, an example in which the calibration marker has a jig ID (marker ID) as jig property information will be described with reference to FIGS. 7A to 7D.

本例では、形状が異なるキャリブレーション用ジグ毎に、異なるキャリブレーション用マーカーが貼付されている。具体的には、図7(A)のキャリブレーション用ジグCJG1には、キャリブレーション用マーカーCMK1が貼付されており、図7(B)のキャリブレーション用ジグCJG2には、キャリブレーション用マーカーCMK2が、図7(C)のキャリブレーション用ジグCJG3には、キャリブレーション用マーカーCMK3が貼付されている。これらのキャリブレーション用ジグ(CJG1〜CJG3)は、互いに形状が異なるジグである。また、これらのキャリブレーション用マーカー(CMK1〜CMK3)も、互いに異なるマーカーである。さらに、これらのキャリブレーション用マーカー(CMK1〜CMK3)の各マーカーが有するジグプロパティーも互いに異なるものである。   In this example, different calibration markers are attached to each calibration jig having a different shape. Specifically, a calibration marker CMK1 is attached to the calibration jig CJG1 in FIG. 7A, and a calibration marker CMK2 is attached to the calibration jig CJG2 in FIG. 7B. A calibration marker CMK3 is affixed to the calibration jig CJG3 in FIG. These calibration jigs (CJG1 to CJG3) are jigs having different shapes. These calibration markers (CMK1 to CMK3) are also different from each other. Furthermore, the jig properties possessed by these markers for calibration (CMK1 to CMK3) are also different from each other.

この場合に、各キャリブレーション用ジグの左上隅を作業基準点に合わせて置くようにすると、キャリブレーション用マーカーと作業基準点との第2の相対位置姿勢関係が、互いに異なることになる。具体的には、図7(A)の場合には、キャリブレーション用マーカーMK1と作業基準点SP1との第2の相対位置姿勢関係は、PR1となり、図7(B)の場合には、キャリブレーション用マーカーMK2と作業基準点SP2との第2の相対位置姿勢関係は、PR2となり、図7(C)の場合には、キャリブレーション用マーカーMK3と作業基準点SP3との第2の相対位置姿勢関係は、PR3となる。本例では、このような各第2の相対位置姿勢関係を、図7(D)の表のように、各ジグIDに関連付けて記憶している。   In this case, if the upper left corner of each calibration jig is placed in alignment with the work reference point, the second relative position and orientation relationship between the calibration marker and the work reference point will be different from each other. Specifically, in the case of FIG. 7A, the second relative position and orientation relationship between the calibration marker MK1 and the work reference point SP1 is PR1, and in the case of FIG. 7B, the calibration is performed. The second relative position and orientation relationship between the calibration marker MK2 and the work reference point SP2 is PR2, and in the case of FIG. 7C, the second relative position between the calibration marker MK3 and the work reference point SP3. The posture relationship is PR3. In this example, each such second relative position and orientation relationship is stored in association with each jig ID as shown in the table of FIG.

そして、処理部130は、マーカー認識処理により、キャリブレーション用マーカー610のジグプロパティーを認識し、ジグプロパティーに基づいて、第2の相対位置姿勢関係を特定する(S105)。   Then, the processing unit 130 recognizes the jig property of the calibration marker 610 through the marker recognition process, and specifies the second relative position and orientation relationship based on the jig property (S105).

具体的に本例では、マーカー認識処理によって、キャリブレーション用マーカーのジグIDを認識し、認識したジグIDに関連付けて記憶されている第2の相対位置姿勢関係を特定する。例えば、マーカー認識処理により、ジグIDがCMK1であると特定した場合には、第2の相対位置姿勢関係はPR1であると特定する。その他の場合についても同様である。また、本例では、作業基準が作業基準点である場合について説明したが、作業基準が作業基準線や作業基準面である場合にも同様の処理を行うことが可能である。さらに、キャリブレーション用マーカーがジグIDではなく、第2の相対位置姿勢関係に関する情報を直接有している場合には、記憶部を介して第2の相対位置姿勢関係を特定するのではなく、マーカー認識処理により、第2の相対位置姿勢関係を直接、認識してもよい。   Specifically, in this example, the jig ID of the calibration marker is recognized by the marker recognition process, and the second relative position and orientation relationship stored in association with the recognized jig ID is specified. For example, if the jig ID is specified as CMK1 by the marker recognition process, the second relative position / posture relationship is specified as PR1. The same applies to other cases. In this example, the case where the work reference is a work reference point has been described. However, the same processing can be performed when the work reference is a work reference line or a work reference plane. Further, when the calibration marker is not a jig ID but directly has information on the second relative position / posture relationship, the second relative position / posture relationship is not specified via the storage unit. The second relative position / posture relationship may be directly recognized by the marker recognition process.

これにより、マーカー認識処理を行うことにより、ジグプロパティーの情報を取得すること等が可能になる。   Accordingly, it is possible to acquire jig property information by performing marker recognition processing.

そして、マーカー認識処理の結果に基づいて、第2の相対位置姿勢関係を特定すること等が可能になる。従って、第2の相対位置姿勢関係が異なる複数のキャリブレーション用ジグを作業毎に使い分けること等が可能になる。   Then, it is possible to specify the second relative position and orientation relationship based on the result of the marker recognition process. Accordingly, it is possible to use a plurality of calibration jigs having different second relative positions and orientations for each work.

次に、処理部130は、キャリブレーション用マーカーのマーカー認識処理の結果に基づいて、キャリブレーション用マーカー及び作業用マーカーの第3の相対位置姿勢関係を特定する(S106)。例えば、第3の相対位置姿勢関係は、前述した図5の例ではDR3である。   Next, the processing unit 130 specifies the third relative position and orientation relationship between the calibration marker and the work marker based on the result of the marker recognition process of the calibration marker (S106). For example, the third relative position / posture relationship is DR3 in the example of FIG. 5 described above.

そして、処理部130は、第2の相対位置姿勢関係及び第3の相対位置姿勢関係に基づいて、作業基準及び作業用マーカーの相対位置姿勢関係を特定し(S107)、特定した相対位置姿勢関係とジグIDとを関連付けて記憶部に記憶する(S108)。以上が、本実施形態におけるキャリブレーションの処理の流れである。   Then, the processing unit 130 identifies the relative position and orientation relationship between the work reference and the work marker based on the second relative position and orientation relationship and the third relative position and orientation relationship (S107), and the identified relative position and orientation relationship. And the jig ID are associated and stored in the storage unit (S108). The above is the flow of the calibration process in the present embodiment.

次に、図8のフローチャートを用いて、実際にロボットを動作させる際の処理の流れについて説明する。   Next, the flow of processing when actually operating the robot will be described using the flowchart of FIG.

まず、作業者が作業用ジグを作業エリア内に設置する(S201)。この際には、キャリブレーションを行った時と同じように、作業基準に合わせて作業用ジグを設置するが、キャリブレーション用ジグを設置する必要はない。   First, the worker installs a work jig in the work area (S201). At this time, as in the case of calibration, the work jig is installed in accordance with the work standard, but it is not necessary to install the calibration jig.

次に、撮像部200により作業用ジグ(作業用マーカー)と作業基準を撮像し、撮像画像を取得する(S202)。そして、作業用マーカーのマーカー認識処理により、ジグIDを認識し、認識したジグIDに関連付けて記憶されている相対位置姿勢関係を特定する(S203)。この相対位置姿勢関係は、図6のステップS108において、ジグIDに関連付けて記憶部に記憶されたものである。   Next, the imaging unit 200 captures a work jig (work marker) and a work reference, and obtains a captured image (S202). Then, the jig ID is recognized by the marker recognition process of the work marker, and the relative position and orientation relationship stored in association with the recognized jig ID is specified (S203). This relative position / posture relationship is stored in the storage unit in association with the jig ID in step S108 of FIG.

そして、特定した相対位置姿勢関係に基づいて、ロボット座標系における作業基準の位置(位置及び姿勢)を特定し(S204)、特定した作業基準に基づいて、ロボットを動作させる(S205)。以上が、ロボットを動作させる際の処理の流れである。   Then, based on the specified relative position and orientation relationship, the position (position and orientation) of the work reference in the robot coordinate system is specified (S204), and the robot is operated based on the specified work reference (S205). The above is the flow of processing when operating the robot.

また、以上の説明では、図5に示すようなL字型の作業用ジグWJGと、矩形のキャリブレーション用ジグCJGを用いる例について説明したが、本実施形態はこれに限定されない。例えば、図9(A)〜図9(D)に示すように、キャリブレーション用ジグCJGとしてドライバーを用い、作業用ジグWJGとしてネジ供給機を用いる場合などもある。以下で、図9(A)〜図9(D)の例について説明する。   In the above description, the example using the L-shaped work jig WJG and the rectangular calibration jig CJG as shown in FIG. 5 has been described, but the present embodiment is not limited to this. For example, as shown in FIGS. 9A to 9D, a screwdriver may be used as the calibration jig CJG, and a screw feeder may be used as the work jig WJG. Hereinafter, examples of FIGS. 9A to 9D will be described.

まず、図9(A)〜図9(D)では、ワークWK(本例ではカッターユニット)にネジSCを組み付ける作業を、ロボットに行わせる様子を図示している。本例ではその中でも特に、ネジ供給機WJGにネジSCを取りに行く作業に着目する。ネジ供給機WJGにネジSCを取りに行く際には、ロボットのハンドHDが把持するドライバーCJGの先端CPを、ネジSCの先端WPに合わせる必要がある。つまり、本例では、ネジSCの先端WPが作業基準点となり、この作業基準点WPにドライバーCJGの先端CPを合わせる作業をロボットに行わせる。   First, FIG. 9A to FIG. 9D illustrate how the robot performs the work of assembling the screw SC to the work WK (the cutter unit in this example). In this example, attention is particularly paid to the work of obtaining the screw SC in the screw feeder WJG. When the screw SC is to be picked up by the screw feeder WJG, it is necessary to align the tip CP of the driver CJG gripped by the robot hand HD with the tip WP of the screw SC. In other words, in this example, the tip WP of the screw SC becomes the work reference point, and the robot is caused to perform the work of aligning the tip CP of the driver CJG with the work reference point WP.

実際にこの作業を行う際には、ネジ供給機WJGに貼付された作業用マーカーWMKに対して、マーカー認識処理を行い、このマーカー認識処理の結果に基づいて、ロボットを動作させる。しかし、この作業用マーカーWMKは、作業者により貼付されたものであるため、前述したように、貼付位置及び貼付姿勢がずれている場合がある。   When this work is actually performed, a marker recognition process is performed on the work marker WMK attached to the screw feeder WJG, and the robot is operated based on the result of the marker recognition process. However, since the work marker WMK is affixed by the operator, the affixing position and the affixing posture may be deviated as described above.

そこで、ドライバーCJGに基づいて、作業用マーカーWMKのキャリブレーションを行う。なお、このドライバーCJGには、メーカーによりキャリブレーション用マーカーCMKが正確に貼付されている。   Therefore, the work marker WMK is calibrated based on the driver CJG. Note that a calibration marker CMK is accurately attached to the driver CJG by the manufacturer.

この際には、まず図9(A)に示すように、ロボットのハンドHDで、ドライバーCJGを把持する。次に、図9(B)及び図9(C)に示すように、把持したドライバーCJGの先端CPが、ネジSCの先端WPに接触するように、ドライバーCJGを移動させる。   At this time, first, as shown in FIG. 9A, the driver CJG is gripped by the robot hand HD. Next, as shown in FIGS. 9B and 9C, the driver CJG is moved so that the tip CP of the gripped driver CJG contacts the tip WP of the screw SC.

そして、ドライバーCJGの先端CPが、ネジSCの先端WPに接触している状態を撮像部により撮像し、作業用マーカーWMK及びキャリブレーション用マーカーCMKのマーカー認識処理を行う。次に、前述したように、マーカー認識処理の結果に基づいて、第2の相対位置姿勢関係と第3の相対位置姿勢関係を特定する。この時の第2の相対位置姿勢関係は、キャリブレーション用マーカーCMKとネジSCの先端WP(又はドライバーCJGの先端CP)の相対位置姿勢関係であり、第3の相対位置姿勢関係は、キャリブレーション用マーカーCMKと作業用マーカーWMKの相対位置姿勢関係である。   Then, a state where the tip CP of the driver CJG is in contact with the tip WP of the screw SC is imaged by the imaging unit, and marker recognition processing of the work marker WMK and the calibration marker CMK is performed. Next, as described above, the second relative position / posture relationship and the third relative position / posture relationship are specified based on the result of the marker recognition process. The second relative position / posture relationship at this time is the relative position / posture relationship between the calibration marker CMK and the tip WP of the screw SC (or the tip CP of the driver CJG), and the third relative position / posture relationship is the calibration. This is the relative position and orientation relationship between the work marker CMK and the work marker WMK.

次に、特定した第2の相対位置姿勢関係と第3の相対位置姿勢関係とに基づいて、作業用マーカーWMKとネジSCの先端WPとの相対位置姿勢関係を特定し、特定した相対位置姿勢関係を、作業用マーカーWMKのジグIDに関連付けて記憶部に記憶させる。ここまでがキャリブレーションの処理である。   Next, the relative position and orientation relationship between the work marker WMK and the tip WP of the screw SC is specified based on the specified second relative position and orientation relationship and the third relative position and orientation relationship. The relationship is stored in the storage unit in association with the jig ID of the work marker WMK. This is the calibration process.

そして、前述したように、ドライバーCJGの先端CPにネジSCを吸着させる作業を、ロボットに実際に行わせる際には、作業用マーカーWMKのマーカー認識処理を行い、認識したジグIDに関連付けて記憶されている相対位置姿勢関係を特定する。そして、特定した相対位置姿勢関係に基づいて、ロボット座標系におけるネジSCの先端WPの位置を特定し、特定したネジSCの先端WPの位置に基づいて、ロボットを動作させて、ドライバーCJGの先端CPにネジSCを吸着させる。   As described above, when the robot actually performs the work of attracting the screw SC to the tip CP of the driver CJG, the marker recognition processing of the work marker WMK is performed and stored in association with the recognized jig ID. Identify the relative position and orientation relationship. Then, the position of the tip WP of the screw SC in the robot coordinate system is specified based on the specified relative position and orientation relationship, the robot is operated based on the position of the tip WP of the specified screw SC, and the tip of the driver CJG Adhere the screw SC to the CP.

最後に、図9(D)に示すように、ドライバーCJGの先端CPに吸着させたネジSCをワークWKに組み付ける。なお、本例では、ドライバーCJGが、キャリブレーション用ジグとツールの両方の役割を兼ねているため、実際の作業時にもドライバーCJGが用いられることになる。ここで、ツールとは、ワークや作業対象に対して加工等の作業を行うための道具であって、例えばドリルやドライバーなどの工具を指す。なお、ツールは、把持部310により把持されるものであってもよいし、ロボット300のアームのエンドポイントに直接設けられるものであってもよい。   Finally, as shown in FIG. 9D, the screw SC attracted to the tip CP of the driver CJG is assembled to the work WK. In this example, since the driver CJG functions as both a calibration jig and a tool, the driver CJG is used during actual work. Here, the tool is a tool for performing work such as machining on a workpiece or work target, and refers to a tool such as a drill or a screwdriver, for example. Note that the tool may be gripped by the gripper 310 or may be provided directly at the end point of the arm of the robot 300.

さらに、他の例を図10に示す。本例では、Eリング供給機WJGの軸に沿って、EリングERが並んで積み上げられている。この時に、EリングERにEリングセッターCJGを押し付けて、EリングERを取得する作業を、ロボットに行わせる。   Furthermore, another example is shown in FIG. In this example, E-rings ER are stacked side by side along the axis of the E-ring feeder WJG. At this time, the E ring setter CJG is pressed against the E ring ER to cause the robot to perform an operation of acquiring the E ring ER.

この場合には、EリングセッターCJGが、キャリブレーション用ジグとして用いられるため、EリングセッターCJGにキャリブレーション用マーカーCMKが貼付されている。一方で、Eリング供給機WJGは作業用ジグとして用いられ、Eリング供給機WJGに作業用マーカーWMKが貼付されている。   In this case, since the E ring setter CJG is used as a calibration jig, a calibration marker CMK is attached to the E ring setter CJG. On the other hand, the E-ring supply machine WJG is used as a work jig, and a work marker WMK is attached to the E-ring supply machine WJG.

そして、一番下のEリングの位置を作業基準点WPとして、EリングセッターCJGの先端CPを押し付けた状態で、前述した作業用マーカーWMKのキャリブレーションの処理を行い、作業用マーカーWMKと作業基準点WPの相対位置姿勢関係を特定して、記憶する。   Then, with the position of the bottom E-ring as the work reference point WP, the work marker WMK and the work marker WMK are calibrated in the state where the tip CP of the E-ring setter CJG is pressed. The relative position and orientation relationship of the reference point WP is specified and stored.

これにより、実際の作業を行う際には、Eリング供給機WJGに貼付された作業用マーカーWMKのマーカー認識処理を行うことにより、ロボット座標系における正確な作業基準点WPを認識し、EリングERを取得する作業をロボットに行わせることが可能になる。   As a result, when performing actual work, by performing marker recognition processing of the work marker WMK attached to the E-ring supply machine WJG, an accurate work reference point WP in the robot coordinate system is recognized, and the E-ring It is possible to cause the robot to perform an operation of acquiring the ER.

3.ロボット及びロボットシステム
次に、本実施形態のロボット300について説明する。ロボット300は、前述した図4に示すように、制御装置100(撮像画像受付部110と処理部130とを有する)と、ロボット制御部350と、ロボット機構380と、を含む。また、ロボットシステムは、キャリブレーション用ジグ600と、作業用ジグ700と、撮像部200と、ロボット300と、を含む。
3. Next, the robot 300 of this embodiment will be described. As shown in FIG. 4 described above, the robot 300 includes a control device 100 (having a captured image receiving unit 110 and a processing unit 130), a robot control unit 350, and a robot mechanism 380. The robot system includes a calibration jig 600, a work jig 700, an imaging unit 200, and a robot 300.

そして、ロボット機構380は、エンドエフェクター310やアーム320等を有している。ここで、エンドエフェクター310とは、ワーク(作業対象物)を把持したり、持ち上げたり、吊り上げたり、吸着させたり、ワークに加工を施したりするために、アームのエンドポイントに取り付ける部品のことをいう。エンドエフェクター310は、例えばハンド(把持部)であってもよいし、フックであってもよいし、吸盤等であってもよい。さらに、1本のアームに対して、複数のエンドエフェクターを設けても良い。なお、アームとは、ロボット300のパーツであって、一つ以上の関節を含む可動パーツのことをいう。   The robot mechanism 380 includes an end effector 310, an arm 320, and the like. Here, the end effector 310 is a part attached to the end point of the arm in order to grip, lift, lift, adsorb, or process the work (work object). Say. The end effector 310 may be, for example, a hand (gripping unit), a hook, a suction cup, or the like. Further, a plurality of end effectors may be provided for one arm. The arm is a part of the robot 300 and refers to a movable part including one or more joints.

次に、処理部130は、前述した各処理を行うことにより、ロボット座標系における作業基準を特定し、特定した作業基準をロボット制御部350に出力する。そして、ロボット制御部350は、取得したロボット座標系での作業基準に基づいて、ロボット機構380を制御する。   Next, the processing unit 130 specifies the work reference in the robot coordinate system by performing each process described above, and outputs the specified work reference to the robot control unit 350. Then, the robot control unit 350 controls the robot mechanism 380 based on the acquired work standard in the robot coordinate system.

この場合には、ロボット300は、図11(A)のようにロボット本体と制御装置100とが一体に構成されていてもよい。すなわち、ロボット300は、制御装置100を含んでいてもよい。具体的には図11(A)に示すように、ロボット300は、ロボット機構380及びロボット機構380を支えるベースユニット部を有し、当該ベースユニット部に制御装置100及びロボット制御部350が格納されるものであってもよい。そして、図11(A)のロボット300には、ベースユニット部に車輪等が設けられ、ロボット全体が移動可能な構成となっている。このロボット300は、人手により移動させられるものであってもよいし、車輪を駆動させるモーターを設け、当該モーターをロボット制御部350により制御することにより、移動させられるものであってもよい。なお、図11(A)は双腕型の例であるが、ロボット300は、後述する図11(B)に示すように単腕型や、その他の多腕型のロボットであってもよい。   In this case, the robot 300 may be configured such that the robot body and the control device 100 are integrated as shown in FIG. That is, the robot 300 may include the control device 100. Specifically, as illustrated in FIG. 11A, the robot 300 includes a robot mechanism 380 and a base unit portion that supports the robot mechanism 380, and the control device 100 and the robot control portion 350 are stored in the base unit portion. It may be a thing. The robot 300 in FIG. 11A is provided with wheels and the like in the base unit portion so that the entire robot can move. The robot 300 may be moved manually, or may be moved by providing a motor that drives wheels and controlling the motor by the robot control unit 350. 11A is an example of a double arm type, the robot 300 may be a single arm type or other multi-arm type robot as shown in FIG. 11B described later.

さらに、図11(A)のように、ロボット300の下に設けられたベースユニット部に、制御装置100が設けられるとは限られない。例えば、本実施形態のロボット300は、図11(B)に示すように、ロボット本体300(ロボット)と制御装置100とが別体に構成されていてもよい。この場合には、制御装置100の一部又は全部の機能は、例えばPC(Personal Computer)により実現される。この場合には、制御装置100とロボット300は、有線及び無線の少なくとも一方を含むネットワークを介して、通信接続されている。   Furthermore, as illustrated in FIG. 11A, the control device 100 is not necessarily provided in the base unit portion provided under the robot 300. For example, as shown in FIG. 11B, the robot 300 of the present embodiment may be configured such that the robot body 300 (robot) and the control device 100 are separate. In this case, some or all of the functions of the control device 100 are realized by, for example, a PC (Personal Computer). In this case, the control device 100 and the robot 300 are communicatively connected via a network including at least one of wired and wireless.

また、図12に示すように、制御装置100の機能は、有線及び無線の少なくとも一方を含むネットワーク400を介して、ロボット300と通信接続されたサーバー500により実現されてもよい。   As shown in FIG. 12, the function of the control device 100 may be realized by a server 500 that is connected to the robot 300 via a network 400 including at least one of wired and wireless.

或いは本実施形態では、本発明の制御装置の処理の一部を、サーバー500側の制御装置が行ってもよい。この場合には、ロボット300側に設けられた制御装置との分散処理により、当該処理を実現する。なお、ロボット300側の制御装置は、例えばロボット300に設置される端末装置330(制御部)により実現される。   Alternatively, in the present embodiment, a part of the processing of the control device of the present invention may be performed by the control device on the server 500 side. In this case, the processing is realized by distributed processing with the control device provided on the robot 300 side. The control device on the robot 300 side is realized by a terminal device 330 (control unit) installed in the robot 300, for example.

そして、この場合に、サーバー500側の制御装置は、本発明の制御装置における各処理のうち、サーバー500の制御装置に割り当てられた処理を行う。一方、ロボット300に設けられた制御装置は、本発明の制御装置の各処理のうち、ロボット300の制御装置に割り当てられた処理を行う。なお、本発明の制御装置の各処理は、サーバー500側に割り当てられた処理であってもよいし、ロボット300側に割り当てられた処理であってもよい。   In this case, the control device on the server 500 side performs a process assigned to the control device of the server 500 among the processes in the control device of the present invention. On the other hand, the control device provided in the robot 300 performs the process assigned to the control device of the robot 300 among the processes of the control device of the present invention. Each process of the control apparatus of the present invention may be a process assigned to the server 500 side or a process assigned to the robot 300 side.

これにより、例えば端末装置330よりも処理能力の高いサーバー500が、処理量の多い処理を行うこと等が可能になる。さらに、例えばサーバー500が各ロボット300の動作を一括して制御することができ、複数のロボット300に協調動作をさせること等が容易になる。   Thereby, for example, the server 500 having a higher processing capability than the terminal device 330 can perform processing with a large processing amount. Further, for example, the server 500 can collectively control the operations of the robots 300, and it is easy to cause a plurality of robots 300 to perform cooperative operations.

そして、撮像部(カメラ)200は、例えばCCD(charge-coupled device)等の撮像素子と光学系とを含む。撮像部200は、例えば天井や作業台の上などに、作業用マーカー及びキャリブレーション用マーカー、作業基準等が、撮像部200の画角内に入るような角度で配置される。そして、撮像部200は、撮像画像の情報を制御装置100(撮像画像受付部110)に出力する。ただし、本実施形態においては、撮像画像の情報をそのまま制御装置100に出力するものとするが、これに限定されるものではない。例えば、撮像部200は、画像処理用等に用いられるデバイス(プロセッサー)を含むことができる。   The imaging unit (camera) 200 includes an imaging element such as a charge-coupled device (CCD) and an optical system. The imaging unit 200 is disposed at an angle such that a work marker, a calibration marker, a work reference, and the like fall within the angle of view of the imaging unit 200, for example, on a ceiling or a work table. Then, the imaging unit 200 outputs information of the captured image to the control device 100 (captured image reception unit 110). However, in the present embodiment, the information of the captured image is output as it is to the control device 100, but the present invention is not limited to this. For example, the imaging unit 200 can include a device (processor) used for image processing or the like.

また、以上の説明では、ロボット300を制御するために、制御装置100により相対位置姿勢関係を特定する処理について説明してきたが、本実施形態はこれに限定されない。例えば、特定した相対位置姿勢関係をCAD(Computer Aided Design)マッチング(物体検出)等に用いることも可能である。   Moreover, in the above description, in order to control the robot 300, the process which specifies the relative position and orientation relationship by the control device 100 has been described, but the present embodiment is not limited to this. For example, the specified relative position and orientation relationship can be used for CAD (Computer Aided Design) matching (object detection) or the like.

なお、本実施形態の制御装置、ロボットシステム及びロボット等は、その処理の一部または大部分をプログラムにより実現してもよい。この場合には、CPU等のプロセッサーがプログラムを実行することで、本実施形態の制御装置、ロボットシステム及びロボット等が実現される。具体的には、非一時的な情報記憶装置に記憶されたプログラムが読み出され、読み出されたプログラムをCPU等のプロセッサーが実行する。ここで、情報記憶装置(コンピューターにより読み取り可能な装置)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(DVD、CD等)、HDD(ハードディスクドライブ)、或いはメモリー(カード型メモリー、ROM等)などにより実現できる。そして、CPU等のプロセッサーは、情報記憶装置に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。即ち、情報記憶装置には、本実施形態の各部としてコンピューター(操作部、処理部、記憶部、出力部を備える装置)を機能させるためのプログラム(各部の処理をコンピューターに実行させるためのプログラム)が記憶される。   Note that a part or most of the processing of the control device, the robot system, the robot, and the like of the present embodiment may be realized by a program. In this case, a control device, a robot system, a robot, and the like according to the present embodiment are realized by a processor such as a CPU executing a program. Specifically, a program stored in a non-temporary information storage device is read, and a processor such as a CPU executes the read program. Here, an information storage device (device readable by a computer) stores programs, data, and the like, and functions as an optical disk (DVD, CD, etc.), HDD (hard disk drive), or memory (card type). It can be realized by memory, ROM, etc. A processor such as a CPU performs various processes according to the present embodiment based on a program (data) stored in the information storage device. That is, in the information storage device, a program for causing a computer (an apparatus including an operation unit, a processing unit, a storage unit, and an output unit) to function as each unit of the present embodiment (a program for causing a computer to execute the processing of each unit). Is memorized.

また、本実施形態の制御装置等は、プロセッサーとメモリーを含んでも良い。ここでのプロセッサーは、例えばCPU(Central Processing Unit)であってもよい。ただし、プロセッサーはCPUに限定されるものではなく、GPU(Graphics Processing Unit)、或いはDSP(Digital Signal Processor)等、各種プロセッサーを用いることが可能である。また、プロセッサーはASIC(Application Specific Integrated Circuit)によるハードウェア回路でもよい。また、メモリーはコンピューターにより読み取り可能な命令を格納するものであり、当該命令がプロセッサーにより実行されることで、本実施形態に係る制御装置等の各部が実現されることになる。ここでのメモリーは、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)などの半導体メモリーであってもよいし、レジスターやハードディスク等でもよい。また、ここでの命令は、プログラムを構成する命令セットの命令でもよいし、プロセッサーのハードウェア回路に対して操作を指示する命令であってもよい。   Further, the control device or the like of the present embodiment may include a processor and a memory. The processor here may be, for example, a CPU (Central Processing Unit). However, the processor is not limited to the CPU, and various processors such as a GPU (Graphics Processing Unit) or a DSP (Digital Signal Processor) can be used. The processor may be a hardware circuit based on ASIC (Application Specific Integrated Circuit). The memory stores instructions that can be read by a computer. When the instructions are executed by the processor, each unit of the control device according to the present embodiment is realized. The memory here may be a semiconductor memory such as an SRAM (Static Random Access Memory) or a DRAM (Dynamic Random Access Memory), or may be a register or a hard disk. In addition, the instruction here may be an instruction of an instruction set constituting the program, or an instruction for instructing an operation to the hardware circuit of the processor.

以上のように本実施形態について詳細に説明したが、本発明の新規事項および効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。従って、このような変形例はすべて本発明の範囲に含まれるものとする。例えば、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語と共に記載された用語は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。また、制御装置及びロボット等の構成、動作も本実施形態で説明したものに限定されず、種々の変形実施が可能である。   Although the present embodiment has been described in detail as described above, it will be easily understood by those skilled in the art that many modifications can be made without departing from the novel matters and effects of the present invention. Accordingly, all such modifications are intended to be included in the scope of the present invention. For example, a term described at least once together with a different term having a broader meaning or the same meaning in the specification or the drawings can be replaced with the different term in any part of the specification or the drawings. Further, the configurations and operations of the control device and the robot are not limited to those described in the present embodiment, and various modifications can be made.

100 制御装置、110 撮像画像受付部、130 処理部、200 撮像部、
300 ロボット、310 エンドエフェクター、320 アーム、330 端末装置、350 ロボット制御部、380 ロボット機構、400 ネットワーク、
500 サーバー、600 キャリブレーション用ジグ、
610 キャリブレーション用マーカー、700 作業用ジグ、710 作業用マーカー
100 control device, 110 captured image reception unit, 130 processing unit, 200 imaging unit,
300 robot, 310 end effector, 320 arm, 330 terminal device, 350 robot controller, 380 robot mechanism, 400 network,
500 servers, 600 calibration jigs,
610 Calibration marker, 700 Work jig, 710 Work marker

Claims (12)

キャリブレーション用ジグに設けられたキャリブレーション用マーカーと、作業用ジグに設けられた作業用マーカーとを撮像した撮像画像を受け付ける撮像画像受付部と、
ロボットに、前記撮像画像に基づいて前記作業用ジグを用いた作業を行わせる処理部と、
を含むことを特徴とする制御装置。
A captured image reception unit that receives a captured image obtained by imaging a calibration marker provided in a calibration jig and a work marker provided in a work jig;
A processing unit that causes the robot to perform work using the work jig based on the captured image;
The control apparatus characterized by including.
請求項1において、
前記処理部は、
前記撮像画像に対して画像認識処理を行って、前記作業用ジグを用いた作業の基準点、基準線及び基準面のうちの少なくとも一つである作業基準と、前記作業用マーカーとの相対位置姿勢関係を特定することを特徴とする制御装置。
In claim 1,
The processor is
Relative position of a work reference that is at least one of a reference point, a reference line, and a reference surface of the work using the work jig and the work marker by performing image recognition processing on the captured image A control device characterized by specifying an attitude relationship.
請求項2において、
前記撮像画像受付部は、
前記キャリブレーション用マーカー及び前記作業基準が、既知の第2の相対位置姿勢関係にある状態で、前記キャリブレーション用マーカー及び前記作業用マーカーを撮像して得られる前記撮像画像を受け付け、
前記処理部は、
前記撮像画像に基づいて、前記キャリブレーション用マーカー及び前記作業用マーカーのマーカー認識処理を行って、前記相対位置姿勢関係を特定することを特徴とする制御装置。
In claim 2,
The captured image reception unit
Accepting the captured image obtained by imaging the calibration marker and the work marker in a state where the calibration marker and the work reference are in a known second relative position and orientation relationship;
The processor is
A control apparatus that performs marker recognition processing of the calibration marker and the work marker based on the captured image to identify the relative position and orientation relationship.
請求項3において、
前記処理部は、
前記マーカー認識処理の結果に基づいて、前記キャリブレーション用マーカー及び前記作業用マーカーの第3の相対位置姿勢関係を特定し、前記第2の相対位置姿勢関係及び前記第3の相対位置姿勢関係に基づいて、前記相対位置姿勢関係を特定することを特徴とする制御装置。
In claim 3,
The processor is
Based on the result of the marker recognition process, a third relative position / posture relationship between the calibration marker and the work marker is specified, and the second relative position / posture relationship and the third relative position / posture relationship are determined. A control device that identifies the relative position and orientation relationship based on the relationship.
請求項2乃至4のいずれかにおいて、
前記処理部は、
前記作業用マーカーのマーカー認識処理の結果及び前記相対位置姿勢関係に基づいて、ロボット座標系における前記作業基準を特定し、前記作業基準に基づいて、前記ロボットを制御することを特徴とする制御装置。
In any of claims 2 to 4,
The processor is
A control device that identifies the work reference in a robot coordinate system based on a result of marker recognition processing of the work marker and the relative position and orientation relationship, and controls the robot based on the work reference. .
請求項2乃至5のいずれかにおいて、
前記作業用マーカーは、
作業者により前記作業用ジグに貼付されたマーカーであることを特徴とする制御装置。
In any of claims 2 to 5,
The working marker is
A control device characterized by being a marker affixed to the work jig by an operator.
請求項2乃至6のいずれかにおいて、
前記撮像画像受付部は、
前記キャリブレーション用ジグ及び前記作業用ジグが接触した状態で、前記キャリブレーション用マーカー及び前記作業用マーカーを撮像して得られる前記撮像画像を受け付けることを特徴とする制御装置。
In any one of Claims 2 thru | or 6.
The captured image reception unit
A control apparatus that receives the captured image obtained by imaging the calibration marker and the work marker in a state where the calibration jig and the work jig are in contact with each other.
請求項2乃至7のいずれかにおいて、
前記キャリブレーション用マーカー及び前記作業用マーカーの少なくとも一方は、
ジグプロパティーの情報を有することを特徴とする制御装置。
In any one of Claims 2 thru | or 7,
At least one of the calibration marker and the working marker is:
A control device having information on jig properties.
請求項8において、
前記処理部は、
前記キャリブレーション用マーカーのマーカー認識処理により、前記キャリブレーション用マーカーの前記ジグプロパティーを認識し、前記ジグプロパティーに基づいて、前記第2の相対位置姿勢関係を特定することを特徴とする制御装置。
In claim 8,
The processor is
A control apparatus that recognizes the jig property of the calibration marker by the marker recognition processing of the calibration marker and identifies the second relative position and orientation relationship based on the jig property.
キャリブレーション用マーカーが設けられたキャリブレーション用ジグと、
作業用マーカーが設けられた作業用ジグと、
前記キャリブレーション用ジグと前記作業用ジグとを撮像する撮像部と、
前記撮像部が撮像した撮像画像により、前記作業用ジグを用いた作業を行うロボットと、を含むことを特徴とするロボットシステム。
A calibration jig provided with a calibration marker;
A working jig provided with a working marker;
An imaging unit for imaging the calibration jig and the work jig;
And a robot that performs work using the work jig based on a captured image captured by the image capturing unit.
キャリブレーション用ジグに設けられたキャリブレーション用マーカーと作業用ジグに設けられた作業用マーカーとを撮像部が撮像した撮像画像により、前記作業用ジグを用いた作業を行うことを特徴とするロボット。   A robot that performs an operation using the work jig by using a captured image obtained by an image pickup unit of a calibration marker provided on the calibration jig and a work marker provided on the work jig. . キャリブレーション用マーカーが設けられたキャリブレーション用ジグと、作業用マーカーが設けられた作業用ジグとが映る撮像画像を受け付けることと、
前記撮像画像に対して画像認識処理を行って、前記作業用ジグを用いた作業の基準点、基準線及び基準面のうちの少なくとも一つである作業基準と、前記作業用マーカーとの相対位置姿勢関係を特定することと、
を含むことを特徴とするキャリブレーション方法。
Receiving a captured image showing a calibration jig provided with a calibration marker and a work jig provided with a work marker;
Relative position of a work reference that is at least one of a reference point, a reference line, and a reference surface of the work using the work jig and the work marker by performing image recognition processing on the captured image Identifying posture relationships;
A calibration method comprising:
JP2014008583A 2014-01-21 2014-01-21 Control device, robot system, robot and calibration method Pending JP2015136742A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014008583A JP2015136742A (en) 2014-01-21 2014-01-21 Control device, robot system, robot and calibration method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014008583A JP2015136742A (en) 2014-01-21 2014-01-21 Control device, robot system, robot and calibration method

Publications (1)

Publication Number Publication Date
JP2015136742A true JP2015136742A (en) 2015-07-30

Family

ID=53768118

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014008583A Pending JP2015136742A (en) 2014-01-21 2014-01-21 Control device, robot system, robot and calibration method

Country Status (1)

Country Link
JP (1) JP2015136742A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018230517A1 (en) * 2017-06-13 2018-12-20 川崎重工業株式会社 Operation system
CN113714343A (en) * 2020-05-25 2021-11-30 梅塔利克斯Cad/Cam有限公司 Device and method for calibrating a robot cell
JP7015949B1 (en) 2021-03-15 2022-02-14 Dmg森精機株式会社 Sticking position measuring device and machine tool equipped with it
CN114882103A (en) * 2022-04-20 2022-08-09 南昌龙旗信息技术有限公司 Handwriting pen nut alignment method, device, equipment and storage medium

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018230517A1 (en) * 2017-06-13 2018-12-20 川崎重工業株式会社 Operation system
JPWO2018230517A1 (en) * 2017-06-13 2020-04-23 川崎重工業株式会社 Work system
JP7145851B2 (en) 2017-06-13 2022-10-03 川崎重工業株式会社 work system
US11613021B2 (en) 2017-06-13 2023-03-28 Kawasaki Jukogyo Kabushiki Kaisha Operation system
CN113714343A (en) * 2020-05-25 2021-11-30 梅塔利克斯Cad/Cam有限公司 Device and method for calibrating a robot cell
EP3916500A1 (en) * 2020-05-25 2021-12-01 Metalix CAD/CAM Ltd. A device and method for calibrating a robotic cell
CN113714343B (en) * 2020-05-25 2024-04-02 梅塔利克斯Cad/Cam有限公司 Device and method for calibrating automaton units
JP7015949B1 (en) 2021-03-15 2022-02-14 Dmg森精機株式会社 Sticking position measuring device and machine tool equipped with it
WO2022196052A1 (en) * 2021-03-15 2022-09-22 Dmg森精機株式会社 Adhesion position measurement device and machine tool provided therewith
JP2022141200A (en) * 2021-03-15 2022-09-29 Dmg森精機株式会社 Sticking position measurement device and machine tool including the same
CN114882103A (en) * 2022-04-20 2022-08-09 南昌龙旗信息技术有限公司 Handwriting pen nut alignment method, device, equipment and storage medium

Similar Documents

Publication Publication Date Title
JP6966582B2 (en) Systems and methods for automatic hand-eye calibration of vision systems for robot motion
KR102661635B1 (en) System and method for tying together machine vision coordinate spaces in a guided assembly environment
EP2921267A2 (en) Robot system, calibration method in robot system, and position correcting method in robot system
JP2016078195A (en) Robot system, robot, control device and control method of robot
CN105729441A (en) Robot, robot system, control apparatus, and control method
JP2015136742A (en) Control device, robot system, robot and calibration method
JP2014180720A (en) Robot system and calibration method
EP3238883A1 (en) Robot
US20170277167A1 (en) Robot system, robot control device, and robot
JP6885856B2 (en) Robot system and calibration method
JP2016187846A (en) Robot, robot controller and robot system
JP4794011B2 (en) Image processing apparatus and robot control system
JP2011117914A (en) Object control system, object control method, program, and rotation center position specification device
JP2019069493A (en) Robot system
JP6390088B2 (en) Robot control system, robot, program, and robot control method
JP2022541120A (en) Systems and methods for robotic bin picking using advanced scanning techniques
JP2017100202A (en) Robot system, control device, control method, and program
US20160306340A1 (en) Robot and control device
JP2015182212A (en) Robot system, robot, control device, and control method
CN107756391B (en) Correction method of mechanical arm correction system
JP6928316B2 (en) Parts mounting machine with holding function
TW201908079A (en) Device and method for calibrating end-effector of robot arm
JP2015003348A (en) Robot control system, control device, robot, control method for robot control system and robot control method
JP7112528B2 (en) Work coordinate creation device
JP6629520B2 (en) Robot system