JP6129058B2 - Teaching point correction apparatus and teaching point correction method - Google Patents

Teaching point correction apparatus and teaching point correction method Download PDF

Info

Publication number
JP6129058B2
JP6129058B2 JP2013234555A JP2013234555A JP6129058B2 JP 6129058 B2 JP6129058 B2 JP 6129058B2 JP 2013234555 A JP2013234555 A JP 2013234555A JP 2013234555 A JP2013234555 A JP 2013234555A JP 6129058 B2 JP6129058 B2 JP 6129058B2
Authority
JP
Japan
Prior art keywords
teaching point
workpiece
point correction
sensor
measurement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013234555A
Other languages
Japanese (ja)
Other versions
JP2015093356A (en
Inventor
和義 高山
和義 高山
桧山 昌之
昌之 桧山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2013234555A priority Critical patent/JP6129058B2/en
Publication of JP2015093356A publication Critical patent/JP2015093356A/en
Application granted granted Critical
Publication of JP6129058B2 publication Critical patent/JP6129058B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Description

本発明は、ロボットシステムにおける教示点の位置を補正する教示点補正装置と教示点補正方法に関するものである。   The present invention relates to a teaching point correction apparatus and a teaching point correction method for correcting the position of a teaching point in a robot system.

ロボットシステムにおいては、作業対象となるワークの設置誤差等に伴い、ロボットに設定された教示点を補正する必要がある。そこで、タッチセンサがワークの主要な面に接触を検知したときの位置座標に基づいて、補正値を算出する方法(例えば、特許文献1参照。)や、二次元変位センサを用いて補正値を算出する方法(例えば、特許文献2参照。)が提案されている。   In the robot system, it is necessary to correct the teaching point set in the robot in accordance with the installation error of the work to be worked. Therefore, a correction value is calculated using a method of calculating a correction value based on the position coordinates when the touch sensor detects contact with the main surface of the workpiece (for example, refer to Patent Document 1), or using a two-dimensional displacement sensor. A calculation method (see, for example, Patent Document 2) has been proposed.

特開2011−152599号公報(段落0018〜0043、図2〜図3)JP 2011-152599 A (paragraphs 0018 to 0043, FIGS. 2 to 3) 特開2011−183535号公報(段落0021〜0030、図1〜図6)JP 2011-183535 A (paragraphs 0021 to 0030, FIGS. 1 to 6)

しかしながら、タッチセンサによって位置座標を求める方法では、3次元の位置情報を得るためには、3か所の面に対してタッチセンサを接触させる必要があり、面に応じてロボットの軸の向きを変更する必要があった。ロボットが動作する際には、少なからず位置ズレ(教示データと実移動量の差)を伴うものであるが、平行移動に比べて軸の向きを変更する際の位置ズレは大きく、位置情報の精度に大きな影響を与え、高精度な位置補正が困難になる。   However, in the method of obtaining the position coordinates with the touch sensor, in order to obtain the three-dimensional position information, the touch sensor needs to be in contact with the three surfaces, and the robot axis direction is determined according to the surface. There was a need to change. When the robot operates, it is accompanied by a position shift (difference between the teaching data and the actual movement amount), but the position shift when changing the direction of the axis is larger than the parallel movement. The accuracy is greatly affected, and highly accurate position correction becomes difficult.

一方、2次元変位センサを用いる方法では、1回の計測で少なくとも2つの位置情報が得られるので、ロボットの動作回数は減少させることができるが、それでも3次元の位置情報を得るためには、直交する2つの平面動作での位置情報の取得が必要となる。つまり、いずれの方法によっても、3次元の位置情報を得るためには、軸方向の変更が必要で、高精度な位置補正は困難であった。   On the other hand, in the method using a two-dimensional displacement sensor, since at least two pieces of position information can be obtained by one measurement, the number of operations of the robot can be reduced. However, in order to obtain three-dimensional position information, It is necessary to acquire position information in two orthogonal plane operations. That is, in any method, in order to obtain three-dimensional position information, it is necessary to change the axial direction, and highly accurate position correction is difficult.

本発明は、上記のような問題点を解決するためになされたものであり、高精度な3次元の位置補正が可能な教示点補正装置および教示点補正方法を得ることを目的とするものである。   The present invention has been made to solve the above-described problems, and it is an object of the present invention to obtain a teaching point correction apparatus and a teaching point correction method capable of highly accurate three-dimensional position correction. is there.

本発明にかかる教示点補正装置は、基準ワークに対して設定したロボットの教示点を、前記基準ワークに代えて設置した作業対象ワークに対して補正する教示点補正装置であって、対象物の表面までの距離を検知して前記対象物の位置を測定する位置センサと、撮像する向きを前記位置センサが検知する向きに合わせた撮像器とが設けられるとともに、前記ロボットの先端に接続され、計測動作が1方向でアクセスするセンサユニットと、前記ロボットと連携して前記センサユニットによる測定動作を制御する測定制御部と、前記位置センサで測定した位置データと、前記撮像器で取得した画像データに基づいて、前記基準ワークに対する前記作業対象ワークの変位量を算出し、算出した変位量に基づいて前記教示点を補正する教示点補正部と、を備え、前記基準ワークおよび前記作業対象ワークのうちの一方のワークが設置される設置面には、位置の基準となる基準ブロックが固定されており、前記測定制御部は、前記位置センサが検知する向きを前記設置面に向けたまま、前記一方のワークおよび前記基準ブロックに対して前記位置データと前記画像データを取得するように前記測定動作を制御するとともに、前記教示点補正部は、前記1方向から取得した前記位置データと前記画像データに基づいて、前記変位量を直交する3軸の平行移動成分と3軸の回転成分からなる六自由度の成分で算出することを特徴とする。 A teaching point correction apparatus according to the present invention is a teaching point correction apparatus that corrects a teaching point of a robot set for a reference workpiece with respect to a work target workpiece installed in place of the reference workpiece. A position sensor that detects the distance to the surface and measures the position of the object, and an imager that matches the direction in which the position sensor detects the direction of imaging, and is connected to the tip of the robot ; a sensor unit measuring operation is that access in one direction, and a measurement control section for controlling the measurement operation by cooperation with the sensor unit and the robot, the position data measured by the position sensor, the image acquired by the imager A teaching point correction unit that calculates a displacement amount of the work target workpiece with respect to the reference workpiece based on the data, and corrects the teaching point based on the calculated displacement amount A reference block serving as a reference for a position is fixed to an installation surface on which one of the reference workpiece and the work target workpiece is installed, and the measurement control unit includes the position sensor. While controlling the measurement operation so as to acquire the position data and the image data for the one workpiece and the reference block while keeping the direction to be detected facing the installation surface, the teaching point correction unit Based on the position data and the image data acquired from the one direction , the displacement amount is calculated as a six-degree-of-freedom component composed of a three-axis parallel translation component and a three-axis rotation component. .

本発明にかかる教示点補正方法は、 基準ワークに対して設定したロボットの教示点を、前記基準ワークに代えて設置した作業対象ワークに対して補正する教示点補正方法であって、位置の基準となる基準ブロックが固定された設置面に前記基準ワークを設置し、前記教示点を設定する工程と、対象物の表面までの距離を検知して前記対象物の位置を測定する位置センサと、撮像する向きを前記位置センサが検知する向きに合わせた撮像器とが設けられたセンサユニットを前記ロボットの先端に接続し、計測動作が1方向でアクセスする前記センサユニットを用いて前記基準ワークの前記基準ブロックに対する位置を測定する第一測定工程と、前記基準ワークに代えて、前記設置面に前記作業対象ワークを設置する工程と、前記センサユニットを用いて前記作業対象ワークの前記基準ブロックに対する位置を測定する第二測定工程と、前記第一測定工程および前記第二測定工程の測定結果から前記基準ワークに対する前記作業対象ワークの変位量を算出し、算出した変位量に基づき前記教示点を補正する工程と、を含み、前記第一測定工程および前記第二測定工程では、それぞれ前記位置センサが検知する向きを前記設置面に向けたまま、前記基準ワークおよび前記作業対象ワークのうちの前記設置面に設置されたワークと前記基準ブロックの位置データと画像データを取得するように前記ロボットと前記センサユニットの動作を連携して制御するとともに、前記教示点を補正する工程では、前記1方向から取得した前記位置データと前記画像データに基づいて、前記変位量を直交する3軸の平行移動成分と3軸の回転成分からなる六自由度の成分で算出することを特徴とする。 A teaching point correction method according to the present invention is a teaching point correction method for correcting a teaching point of a robot set for a reference workpiece with respect to a work target workpiece installed in place of the reference workpiece. A step of setting the reference workpiece on an installation surface to which a reference block is fixed, setting the teaching point, a position sensor for detecting the distance to the surface of the object and measuring the position of the object; A sensor unit provided with an imager whose orientation is detected by the position sensor is connected to the tip of the robot, and the measurement operation is accessed in one direction . A first measurement step of measuring a position with respect to the reference block; a step of installing the work target workpiece on the installation surface instead of the reference workpiece; and the sensor unit And calculating a displacement amount of the work target workpiece with respect to the reference workpiece from the measurement results of the first measurement step and the second measurement step. And correcting the teaching point based on the calculated displacement amount, and in the first measurement step and the second measurement step, respectively, while the direction detected by the position sensor is directed toward the installation surface, While controlling the operation of the robot and the sensor unit in a coordinated manner so as to obtain the position data and image data of the reference block and the work installed on the installation surface of the reference work and the work target work, wherein in the step of correcting the teaching point, on the basis of the said position data obtained from one direction the image data, and perpendicular to the displacement amount And calculating a component of six degrees of freedom consisting of rotational components of parallel movement component and three axes of three axes, characterized in.

この発明によれば、ロボットの軸方向を変更することなく、3次元の位置情報を得ることができるので、高精度な3次元の位置補正が可能な教示点補正装置および教示点補正方法を得ることができる。   According to the present invention, three-dimensional position information can be obtained without changing the axial direction of the robot. Therefore, a teaching point correction apparatus and a teaching point correction method capable of highly accurate three-dimensional position correction are obtained. be able to.

本発明の実施の形態1にかかる教示点補正装置を備えたロボットシステムの全体構成図である。1 is an overall configuration diagram of a robot system including a teaching point correction apparatus according to a first embodiment of the present invention. 本発明の実施の形態1にかかる教示点補正装置を構成するセンサユニットの構成図である。It is a block diagram of the sensor unit which comprises the teaching point correction apparatus concerning Embodiment 1 of this invention. 本発明の実施の形態1にかかる教示点補正方法のうち、基準ワークに対する教示点と位置情報を生成する部分を示すフローチャートである。It is a flowchart which shows the part which produces | generates the teaching point and position information with respect to a reference | standard workpiece among the teaching point correction methods concerning Embodiment 1 of this invention. 本発明の実施の形態1にかかる教示点補正方法のうち、作業対象ワークの位置の基準ワークの位置に対する変位量を生成する部分を示すフローチャートである。It is a flowchart which shows the part which produces | generates the displacement amount with respect to the position of the reference | standard workpiece of the position of a work target workpiece | work among the teaching point correction methods concerning Embodiment 1 of this invention. 本発明の実施の形態1にかかる教示点補正装置において、教示点を作成する際の構成を示す図である。It is a figure which shows the structure at the time of creating a teaching point in the teaching point correction apparatus concerning Embodiment 1 of this invention. 本発明の実施の形態1にかかる教示点補正装置で、基準ワークに対して教示点を作成する際の例を示す図である。It is a figure which shows the example at the time of creating a teaching point with respect to a reference | standard workpiece | work with the teaching point correction apparatus concerning Embodiment 1 of this invention. 本発明の実施の形態1にかかる教示点補正装置で、ある位置情報(θx0)を算出するための位置センサによる測定例を示す図である。It is a figure which shows the example of a measurement by the position sensor for calculating a certain positional information ((theta) x0) in the teaching point correction apparatus concerning Embodiment 1 of this invention. 本発明の実施の形態1にかかる教示点補正装置あるいは教示点補正方法で、位置センサの測定値により、位置情報の一つ(θx0)を算出する例を示す図である。It is a figure which shows the example which calculates one of positional information ((theta) x0) with the measured value of a position sensor with the teaching point correction apparatus or teaching point correction method concerning Embodiment 1 of this invention. 本発明の実施の形態1にかかる教示点補正装置で、ある位置情報(θy0)を算出するための位置センサによる測定例を示す図である。It is a figure which shows the example of a measurement by the position sensor for calculating a certain positional information ((theta) y0) in the teaching point correction apparatus concerning Embodiment 1 of this invention. 本発明の実施の形態1にかかる教示点補正装置で、ある位置情報(x、y、θz)を算出するためのカメラによる測定(撮像)例を示す図である。It is a figure which shows the measurement (imaging) example by the camera for calculating some positional information (x, y, (theta) z) with the teaching point correction apparatus concerning Embodiment 1 of this invention. 本発明の実施の形態1にかかる教示点補正装置あるいは教示点補正方法で、撮像した画像情報により、位置情報(x、y、θz)を算出する例を示す図である。It is a figure which shows the example which calculates position information (x, y, (theta) z) from the image information imaged with the teaching point correction apparatus or teaching point correction method concerning Embodiment 1 of this invention.

実施の形態1.
図1〜図11は、本発明の実施の形態1にかかる教示点補正装置および教示点補正方法について説明するためのものである。そのうち、図1〜図4は、教示点補正装置を用いたロボットシステムの機械的構成、および教示点補正方法における動作を説明するためのものであり、図1は教示点補正装置を備えたロボットシステムの全体構成図、図2は教示点補正装置を構成するセンサユニットの構成図、図3は教示点補正装置および教示点補正方法における動作のうち、基準ワークを用いて教示点を生成する部分と、基準ワークの基準ブロックに対する位置関係を示す位置情報を生成する部分を示すフローチャート、図4は実作業対象のワークの基準ワークに対する変位量を生成する部分を示すフローチャートである。
Embodiment 1 FIG.
FIGS. 1-11 is for demonstrating the teaching point correction apparatus and teaching point correction method concerning Embodiment 1 of this invention. 1 to 4 are for explaining the mechanical configuration of the robot system using the teaching point correcting apparatus and the operation in the teaching point correcting method, and FIG. 1 is a robot equipped with the teaching point correcting apparatus. FIG. 2 is a block diagram of the sensor unit constituting the teaching point correction apparatus, and FIG. 3 is a part of the teaching point correction apparatus and the teaching point correction method that generates a teaching point using a reference workpiece. FIG. 4 is a flowchart showing a part for generating a displacement amount of the work to be actually worked with respect to the reference work.

図5と図6は、基準ワークに対する教示点の生成例を示すもので、図5は教示点補正装置を備えたロボットシステムで、設置面に対して基準ブロックとを配置し、ロボットのアーム先端に挿入治具を装着した状態を示す図、図6は基準ワークに対する教示点作成における挿入治具を基準ワークに近づける際の段階ごとの状態を示す図である。   FIGS. 5 and 6 show examples of teaching point generation for a reference workpiece. FIG. 5 shows a robot system equipped with a teaching point correction device, in which a reference block is arranged on an installation surface, and a robot arm tip FIG. 6 is a diagram showing a state at each stage when the insertion jig is brought close to the reference workpiece in creating a teaching point for the reference workpiece.

図7〜図11は、ワークの基準ブロックに対する位置関係を示す位置情報を生成するための測定あるいは算出方法の例について説明するためのもので、図7はx軸を中心とする回転成分を示す位置情報(θx0)を算出するための位置センサによる測定例を示す図、図8は位置センサの測定値に基づいて、x軸を中心とする回転成分を示す位置情報(θx0)を算出する例を示す図、図9はy軸を中心とする回転成分を示す位置情報(θy0)を算出するための位置センサによる測定例を示す図、図10は位置情報のうち、x方向の平行移動成分、y方向の平行移動成分およびx軸を中心とする回転成分(x、y、θz)を算出するためのカメラによる測定(撮像)例を示す図、図11は撮像した画像情報により、位置情報(x、y、θz)を算出する例を示す図である。   FIGS. 7 to 11 are diagrams for explaining an example of a measurement or calculation method for generating position information indicating a positional relationship of a workpiece with respect to a reference block, and FIG. 7 shows a rotation component around the x axis. FIG. 8 is a diagram illustrating an example of measurement by a position sensor for calculating position information (θx0), and FIG. 8 is an example of calculating position information (θx0) indicating a rotation component around the x axis based on the measurement value of the position sensor. FIG. 9 is a diagram showing an example of measurement by a position sensor for calculating position information (θy0) indicating a rotation component around the y axis, and FIG. 10 is a translation component in the x direction of the position information. FIG. 11 is a diagram showing an example of measurement (imaging) by a camera for calculating a translation component in the y direction and a rotation component (x, y, θz) about the x axis, and FIG. 11 shows position information based on the captured image information. Calculate (x, y, θz) It is a figure which shows the example to take out.

本発明の実施の形態1にかかるロボットシステム1は、図1に示すように、ワーク4に対して作業を行うため、制御装置6によって制御される所謂多関節ロボットであるロボット2を備えたものである。ロボット2のアーム先端2eには、センサユニット3が取り付けられている。センサユニット3は、図2に示すように、位置センサ32、カメラ33ならびに照明34が設けられた筐体31が、アーム先端2eのオートツールチェンジャー2cによって保持されている。オートツールチェンジャー2cは、センサユニット3ならびにハンドといった組立用のツール(図示しない)の脱着を自動で行い、ロボットシステム1における位置補正動作ならびに組立動作を全て自動で行う。   As shown in FIG. 1, a robot system 1 according to a first embodiment of the present invention includes a robot 2 that is a so-called articulated robot controlled by a control device 6 in order to perform work on a workpiece 4. It is. A sensor unit 3 is attached to the arm tip 2 e of the robot 2. As shown in FIG. 2, in the sensor unit 3, a housing 31 provided with a position sensor 32, a camera 33, and an illumination 34 is held by an auto tool changer 2c at an arm tip 2e. The auto tool changer 2c automatically attaches / detaches the assembly tool (not shown) such as the sensor unit 3 and the hand, and automatically performs the position correction operation and the assembly operation in the robot system 1.

位置センサ32については、本実施形態では、接触式変位センサを使用する。カメラ33ならびに照明34は、使用環境等により、適宜、最適なものを選択できる。制御装置6は、例えば、記憶装置を備えたコンピュータであり、位置センサ32ならびにカメラ33にて計測されたデータをもとに3次元の位置情報(直交する3軸の平行移動成分+回転成分の計6自由度)を算出して記憶する。これにより、ワーク4に対する教示点の生成および、後述する補正(キャリブレーション)を行うことができる。すなわち、制御装置6は、ロボット2を制御する制御器であるとともに、センサユニット3と連携して教示点の生成と補正を行う教示点補正装置として機能する。   As for the position sensor 32, a contact-type displacement sensor is used in this embodiment. The camera 33 and the illumination 34 can be appropriately selected depending on the usage environment. The control device 6 is, for example, a computer including a storage device, and based on data measured by the position sensor 32 and the camera 33, three-dimensional position information (three orthogonal translational components + rotational components). Total 6 degrees of freedom) is calculated and stored. As a result, it is possible to generate teaching points for the workpiece 4 and to perform correction (calibration) described later. That is, the control device 6 is a controller that controls the robot 2 and functions as a teaching point correction device that generates and corrects teaching points in cooperation with the sensor unit 3.

ワーク4は、部品搭載パレット、組立ユニットといった、ロボット2が作業をする対象であり、品種切り替え時などに、交換されるものである。交換作業自体は、人手交換、自動交換のどちらでも良い。基準ブロック5A、5Bは、ロボットシステム1の設置面7に設置・固定されているもので、ロボットシステム1における4の基準となるものであるため、通常は取り外したりはしない。ワーク4および基準ブロック5A、5Bは、剛体(例えば金属)であり、位置センサ32にて計測が可能となるように、基準となり得る面(例えば、5Af、5Bf)が設けられている。また、カメラ33で撮像した画像から画像処理が可能となるように、特徴的なエッジ部もしくは、マーキングが施されているものとする。   The workpiece 4 is a target on which the robot 2 works, such as a component mounting pallet and an assembly unit, and is exchanged when the type is switched. The exchange operation itself may be either manual exchange or automatic exchange. The reference blocks 5A and 5B are installed and fixed on the installation surface 7 of the robot system 1, and are the four references in the robot system 1. Therefore, the reference blocks 5A and 5B are not normally removed. The workpiece 4 and the reference blocks 5A and 5B are rigid bodies (for example, metal), and are provided with surfaces (for example, 5Af and 5Bf) that can be used as a reference so that the position sensor 32 can measure them. Further, it is assumed that a characteristic edge portion or marking is applied so that image processing can be performed from an image captured by the camera 33.

つぎに、図3と図4のフローチャートの流れに沿って、本実施の形態にかかる教示点補正装置の動作あるいは教示点補正方法について説明する。
始めに、作業対象となる複数種のワークに対して、基準となる基準ワーク(マスターワークとも称される。)に対して教示点と位置情報の生成を行う(図3)。はじめに、1種類のワーク4のなかのひとつを基準ワーク4Mとして選定し、設置面7に設置する(ステップS10)。ここでは、ワーク4として、図5に示すように、六面体の一面に四角形の穴4hが開いているものを用い、ロボット2のアーム先端2eには、穴4hに対応した直方体の挿入治具8が設置されている例について説明する。
Next, the operation of the teaching point correction apparatus or the teaching point correction method according to the present embodiment will be described along the flow of the flowcharts of FIGS.
First, with respect to a plurality of types of workpieces to be worked, teaching points and position information are generated for a reference workpiece (also referred to as a master workpiece) (FIG. 3). First, one of the types of workpieces 4 is selected as the reference workpiece 4M and installed on the installation surface 7 (step S10). Here, as the workpiece 4, as shown in FIG. 5, a hexahedron having a square hole 4h opened on one surface is used, and a rectangular parallelepiped insertion jig 8 corresponding to the hole 4h is provided at the arm tip 2e of the robot 2. An example in which is installed will be described.

つぎに、図6(a)〜図6(c)に示すように、挿入治具8の先端の直方体部分8pを、基準ワーク4Mの四角形の穴4h部分に挿入して教示点を生成する(ステップS30)。この挿入動作は、一般的に自動制御で行えるものではなく、ロボット2の向きや位置を微妙に調整しながら行われる。そして、図6(b)に示す直方体部分8pが穴4hに挿入される直前での平行移動成分や回転成分の情報(IO)、および直方体部分8pの穴4hへの挿入が完了した時点での平行移動成分や回転成分の情報(IP)を、教示点としてティーチングする。   Next, as shown in FIGS. 6A to 6C, the rectangular parallelepiped portion 8p at the tip of the insertion jig 8 is inserted into the rectangular hole 4h portion of the reference workpiece 4M to generate a teaching point ( Step S30). This insertion operation is not generally performed by automatic control, and is performed while finely adjusting the orientation and position of the robot 2. Then, the information (IO) of the translational component and the rotational component immediately before the rectangular parallelepiped portion 8p shown in FIG. 6B is inserted into the hole 4h, and the insertion of the rectangular parallelepiped portion 8p into the hole 4h are completed. Teaching the information (IP) of the translation component and the rotation component as a teaching point.

次に、教示点のティーチングを行った基準ワーク4Mと、設置面7に設置・固定している基準ブロック5A、5Bとの位置関係を示す位置情報を生成する(ステップS30〜S50)。まずは、図7に示すように、基準ワーク4Mならびに基準ブロック5Aの基準面4f、5Afのそれぞれに設定された2点(PMaとPMb、およびPAaとPAb)に、位置センサ32を接触させ、接触したときの位置を測定する(ステップS30の一部)。接触位置としては、x座標の値を一定に保ち、点に応じてy座標の値を設定し、位置センサ32が基準面に接触したときのz座標の値を取得する。点に応じて位置センサ32を接触させる位置は、ロボット2の教示点として、ワーク4の種類に応じて設定され、制御装置6に記憶されている。   Next, position information indicating the positional relationship between the reference work 4M for which teaching points have been taught and the reference blocks 5A and 5B installed and fixed on the installation surface 7 is generated (steps S30 to S50). First, as shown in FIG. 7, the position sensor 32 is brought into contact with two points (PMa and PMb and PAa and PAb) set on the reference work 4M and the reference surfaces 4f and 5Af of the reference block 5A. The position is measured (part of step S30). As the contact position, the value of the x coordinate is kept constant, the value of the y coordinate is set according to the point, and the value of the z coordinate when the position sensor 32 contacts the reference plane is acquired. The position where the position sensor 32 is brought into contact according to the point is set according to the type of the workpiece 4 as a teaching point of the robot 2 and stored in the control device 6.

上記のように位置センサ32を用いて測定した接触位置データから、次のようにしてx軸を中心とする回転成分を示す位置情報(θx0)を算出する(ステップS50の一部)。このとき、例えば、接触したときの位置のy座標(ロボット2の教示点)とz座標(位置センサ32の値)を便宜的に以下のように表現すると、基準面4f、5Af上の位置センサ32が接触した部分のzy面における関係は図8に示すようになる。
PMa=(y1、t1)
PMb=(y2、t2)
PAa=(y3、t3)
PAb=(y4、t4)
From the contact position data measured using the position sensor 32 as described above, position information (θx0) indicating a rotation component centered on the x axis is calculated as follows (part of step S50). At this time, for example, if the y-coordinate (the teaching point of the robot 2) and the z-coordinate (value of the position sensor 32) at the time of contact are expressed as follows for convenience, the position sensors on the reference planes 4f and 5Af The relationship in the zy plane of the part where 32 touches is as shown in FIG.
PMa = (y1, t1)
PMb = (y2, t2)
PAa = (y3, t3)
PAb = (y4, t4)

基準ブロック5A、5Bは、加工精度ならびに取り付け精度により、点PMaと点PMbとを結ぶ直線と、点PAaと点PAbとを結ぶ直線とは、ある傾きをもつ。基準ワーク4Mならびに基準ブロック5Aにおける、各2点によって導かれる2つの直線の傾きは、基準面4fの基準面5Afに対する傾きである。その傾きは、位置情報のうち、x軸まわりの回転成分θx0であり、三角関数の加法定理から、下記の式(1)のように導き出される。   In the reference blocks 5A and 5B, the straight line connecting the point PMa and the point PMb and the straight line connecting the point PAa and the point PAb have a certain inclination depending on the machining accuracy and the mounting accuracy. The inclinations of the two straight lines led by the two points in the reference workpiece 4M and the reference block 5A are inclinations of the reference plane 4f with respect to the reference plane 5Af. The inclination is the rotation component θx0 around the x axis in the position information, and is derived from the trigonometric addition theorem as shown in the following equation (1).

Figure 0006129058
Figure 0006129058

求められた位置情報θx0は、基準ワーク4Mと同じ種類のワーク4の基準となる値であるため、制御装置6に記憶する。   The obtained position information θx0 is a value serving as a reference for the same type of workpiece 4 as the reference workpiece 4M, and is stored in the control device 6.

一方、基準ブロック5Bを基準にして、図9に示すように、基準ワーク4Mならびに基準ブロック5Bの基準面4f、5Bfのそれぞれに設定された2点(PMc、PMd、PBc、PBd)に、位置センサ32を接触させ、接触したときの位置を測定する(ステップS30の一部)。接触位置としては、y座標の値を一定に保ち、点に応じてx座標の値を設定し、位置センサ32が基準面に接触したときのz座標の値を取得する。点に応じて位置センサ32を接触させる位置は、ロボット2の教示点として、ワーク4の種類に応じて設定され、制御装置6に記憶されている。   On the other hand, with reference to the reference block 5B, as shown in FIG. 9, the position is set at two points (PMc, PMd, PBc, PBd) set on the reference work 4M and the reference surfaces 4f, 5Bf of the reference block 5B. The sensor 32 is brought into contact, and the position at the time of contact is measured (part of step S30). As the contact position, the value of the y coordinate is kept constant, the value of the x coordinate is set according to the point, and the value of the z coordinate when the position sensor 32 contacts the reference plane is acquired. The position where the position sensor 32 is brought into contact according to the point is set according to the type of the workpiece 4 as a teaching point of the robot 2 and stored in the control device 6.

そして、y軸を中心とする回転成分を示す位置情報(θy0)を算出する(ステップS50の一部)。ここでも、接触したときの位置のy座標(ロボット2の教示点)とz座標(位置センサ32の値)を便宜的に以下のように表現する。
PMc=(x5、t5)
PMd=(x6、t6)
PBc=(x7、t7)
PBd=(x8、t8)
Then, position information (θy0) indicating a rotation component around the y-axis is calculated (part of step S50). Also here, the y-coordinate (the teaching point of the robot 2) and the z-coordinate (value of the position sensor 32) at the time of contact are expressed as follows for convenience.
PMc = (x5, t5)
PMd = (x6, t6)
PBc = (x7, t7)
PBd = (x8, t8)

基準ワーク4Mならびに基準ブロック5Bにおける、各2点によって導かれる2つの直線の傾きが、基準面4fの基準面5Bfに対する傾きである。その傾きは、位置情報のうち、y軸まわりの回転成分θy0であり、三角関数の加法定理から、下記の式(2)のように導き出される。   The inclinations of the two straight lines led by the two points in the reference workpiece 4M and the reference block 5B are inclinations of the reference plane 4f with respect to the reference plane 5Bf. The inclination is a rotation component θy0 around the y-axis in the position information, and is derived from the trigonometric addition theorem as shown in the following equation (2).

Figure 0006129058
Figure 0006129058

求められた位置情報θy0は、基準ワーク4Mと同じ種類のワーク4の基準となる値であるため、制御装置6に記憶する。さらに、上記動作(ステップS30)にて得られたt1、t2、t3、t4ならびにt5、t6、t7、t8は、z軸方向の基準となるため、制御装置6に記憶する。   The obtained position information θy0 is a value serving as a reference for the same type of workpiece 4 as the reference workpiece 4M, and is stored in the control device 6. Further, t1, t2, t3, and t4 and t5, t6, t7, and t8 obtained in the above operation (step S30) are stored in the control device 6 because they become the reference in the z-axis direction.

さらにまた、センサユニット3に組み込まれているカメラ33によって、図10に示すように基準ブロック5Aと5Bのうちの一方(図では基準ブロック5A)と基準ワーク4Mとが隣接する部分を上方向(z方向で離れた位置)から撮像する(ステップS40)。カメラ33の画素数ならびに撮像エリアについては、補正精度によって、適宜選択できるものとする。カメラ33は画像処理システム(図示しない)に接続されており、撮像した画像において、エッジ検出、エッジ間距離の測定といった、一般的な画像処理システムの機能を有するものとする。   Furthermore, as shown in FIG. 10, the camera 33 incorporated in the sensor unit 3 moves the portion where one of the reference blocks 5A and 5B (reference block 5A in the figure) and the reference workpiece 4M are adjacent to each other upward ( An image is taken from a position separated in the z direction (step S40). The number of pixels and the imaging area of the camera 33 can be appropriately selected depending on the correction accuracy. The camera 33 is connected to an image processing system (not shown), and has a general image processing system function such as edge detection and edge distance measurement in a captured image.

撮像により、例えば、図11のような画像(xy面における輪郭形状)が得られたとする。すると、画像処理システムは、基準ブロック5Aのx軸と交わる輪郭線EAsと基準ワーク4Mに対向する輪郭線EAo、基準ワーク4Mのx軸と交わる輪郭線EMsと基準ブロック5Aに対向する輪郭線EMoを抽出する。そして、抽出した輪郭線EAsとEMsがなす角を位置情報θz0(z軸まわりの回転成分)、EAoのEAsとの交点およびEMoのEMsとの交点の、y軸方向の平行移動成分を位置情報y0、x軸方向の平行移動成分を位置情報xoとして算出する(ステップS50の一部)。   For example, it is assumed that an image (contour shape on the xy plane) as shown in FIG. 11 is obtained by imaging. Then, the image processing system includes the contour EAs that intersects the x axis of the reference block 5A and the contour EAo that faces the reference workpiece 4M, and the contour EMs that intersects the x axis of the reference workpiece 4M and the contour EMO that faces the reference block 5A. To extract. Then, the angle formed by the extracted contours EAs and EMs is the position information θz0 (rotational component around the z axis), the EAo intersection with the EAs, and the intersection of the EMo EMs with the translational component in the y-axis direction. The parallel movement component in the y0 and x-axis direction is calculated as the position information xo (part of step S50).

求められたx0、y0ならびにθz0は、基準ワーク4Mと同じ種類の作業対象ワーク4Wの基準となる値であるため、制御装置6に記憶する。ここでは、基準ワーク4Mと基準ブロック5Aとの位置関係を求めているが、基準ワーク4Mと基準ブロック5Bとの位置関係を求めて、その値を基準値として制御装置6に記憶してもよい。   Since the obtained x0, y0, and θz0 are values that serve as a reference for the work target workpiece 4W of the same type as the reference workpiece 4M, they are stored in the control device 6. Here, the positional relationship between the reference workpiece 4M and the reference block 5A is obtained, but the positional relationship between the reference workpiece 4M and the reference block 5B may be obtained and the value may be stored in the control device 6 as a reference value. .

これにより、ある種類のワークの基準ワークに対して、挿入動作を教示した基準位置となる位置情報の生成が完了する。すると、必要な種類のワークの基準ワークに対する位置情報が得られるまで(ステップS60で「N」の場合)、同様の動作(ステップS10〜S50)を繰り返す。必要な種類のワークの基準ワークに対する位置情報が得られると(ステップS60で「Y」の場合)、基準ワークに対する位置情報の生成が完了する。   Thereby, the generation of position information serving as a reference position for teaching the insertion operation is completed for a reference work of a certain type of work. Then, the same operation (steps S10 to S50) is repeated until the position information of the necessary type of workpiece with respect to the reference workpiece is obtained (in the case of “N” in step S60). When the position information of the necessary type of workpiece with respect to the reference workpiece is obtained (in the case of “Y” in step S60), the generation of the position information for the reference workpiece is completed.

つぎに、実際に作業対象となるワーク4に対する教示点の補正(図4)について、六面体の一面に四角形の穴4hが開いている基準ワーク4Mと同じ種類のワーク(図示しないが、基準ワーク4Mと区別するため、作業対象ワーク4Wと称する。)を選定した例について説明する。   Next, regarding the correction of the teaching point for the workpiece 4 that is actually the work target (FIG. 4), the same type of workpiece as the reference workpiece 4M in which a square hole 4h is opened on one side of the hexahedron (not shown, but the reference workpiece 4M is not shown). In order to distinguish them from each other, an example of selecting the work target workpiece 4W) will be described.

はじめに、作業対象ワーク4Wを設置面7に設置する(ステップS110)。このとき、作業対象ワーク4Wの取り付け位置は、教示点をティーチングした基準ワーク4Mが設置された位置とは一致しない。そこで、基準ワーク4Mに対して行った測定(ステップS30〜S40)と同様の測定を作業対象ワーク4Wに対しても実施(ステップS120〜S130)を実施し、その測定値に基づいて、位置情報の変位量(Δx、Δy、Δz、Δθx、Δθy、Δθz)を算出する(ステップS140)。   First, the work target workpiece 4W is installed on the installation surface 7 (step S110). At this time, the attachment position of the work target workpiece 4W does not coincide with the position where the reference workpiece 4M teaching the teaching point is installed. Therefore, the same measurement as the measurement performed on the reference workpiece 4M (steps S30 to S40) is also performed on the work target workpiece 4W (steps S120 to S130), and the position information is based on the measurement values. Displacement amounts (Δx, Δy, Δz, Δθx, Δθy, Δθz) are calculated (step S140).

変位量のうち、x軸まわりの回転成分、およびy軸まわりの回転成分の変位量Δθx、Δθxは、まず、ステップS50と同様に、作業対象ワーク4Wの基準ブロック5A、5Bに対する傾き(回転成分θx1、θy1)を算出する。そして、それぞれ下記のように基準ワーク4Mの位置情報θx0、θy0との差を計算することで算出する(ステップS140の一部)。
Δθx=θx1−θx0
Δθy=θy1−θy0
Among the displacement amounts, the displacement amounts Δθx and Δθx of the rotation component around the x-axis and the rotation component around the y-axis are first inclined (rotation component) with respect to the reference blocks 5A and 5B of the work target workpiece 4W, as in step S50. θx1, θy1) are calculated. And it calculates by calculating the difference with the positional information (theta) x0 and (theta) y0 of the reference | standard workpiece | work 4M as follows (part of step S140).
Δθx = θx1-θx0
Δθy = θy1-θy0

そして、θx1、θy1を算出するために得られた位置センサ32の値をそれぞれt9、t10、t11、t12、ならびにt13、t14、t15、t16とすると、下記式(3)あるいは式(4)により、z方向の平行移動成分の変位であるΔzが得られる(ステップS140の一部)。   If the values of the position sensor 32 obtained for calculating θx1 and θy1 are t9, t10, t11, t12, and t13, t14, t15, t16, respectively, the following equation (3) or equation (4) is used. , Δz which is the displacement of the translation component in the z direction is obtained (part of step S140).

Figure 0006129058
Figure 0006129058

Figure 0006129058
Figure 0006129058

なお、上記式(3)あるいは式(4)は、厳密には作業対象ワーク4Wのxy面上での位置ずれがある場合には成立しない式である。しかし、実体上は、作業対象ワーク4Wのxy面上での位置ずれのz方向の位置への影響は無視できるレベルであり、上記式で得られた変位量Δzにより、後述する補正を正確に行うことができる。   Strictly speaking, the above expression (3) or (4) is an expression that does not hold when there is a positional shift on the xy plane of the work target workpiece 4W. However, in reality, the influence of the positional deviation on the xy plane of the work target workpiece 4W on the position in the z direction is negligible, and the correction described later is accurately performed by the displacement amount Δz obtained by the above equation. It can be carried out.

そして、残る変位量(Δx、Δy、Δθz)は、ステップS130で得られた画像データをもとに、ステップS50と同様に、まず、作業対象ワーク4Wの基準ブロック5Aに対するx軸方向の平行移動成分x1、y軸方向の平行移動成分y1、およびz軸まわりの回転成分θz1を算出する。そして、それぞれ下記のように基準ワーク4Mの位置情報x0、y0、θzとの差を計算することで算出する(ステップS140の一部)。
Δx=x1−x0
Δy=y1−y0
Δθz=θz1−θz0
The remaining displacement amounts (Δx, Δy, Δθz) are first translated in the x-axis direction with respect to the reference block 5A of the work target workpiece 4W based on the image data obtained in step S130, as in step S50. A component x1, a translation component y1 in the y-axis direction, and a rotation component θz1 around the z-axis are calculated. And it calculates by calculating the difference with the positional information x0, y0, (theta) z of the reference | standard workpiece | work 4M as follows (part of step S140).
Δx = x1−x0
Δy = y1-y0
Δθz = θz1-θz0

算出された3次元の変位量(Δx、Δy、Δz、Δθx、Δθy、Δθz)は、アーム先端2eを原点とするツール座標系での補正値として、教示ポイントの情報(IO、IP)へフィードバックされ、補正(キャリブレーション)される。   The calculated three-dimensional displacement amounts (Δx, Δy, Δz, Δθx, Δθy, Δθz) are fed back to teaching point information (IO, IP) as correction values in the tool coordinate system with the arm tip 2e as the origin. And corrected (calibrated).

このように、ワーク4ならびに基準ブロック5A、5Bに対して、1方向からのアクセスのみで、3次元の補正に必要な変位量(直交3軸の平行移動成分:Δx、Δy、Δz、直交3軸の回転3成分:Δθx、Δθy、Δθz)を得ることができる。そのため、補正に必要な位置情報の生成の際にロボット2の軸方向を変化させる必要が無く、ロボット2自身が持っている固有の位置ずれ量の影響が最小となるため、高精度な位置補正が可能となる。さらに、キャリブレーション時間の短縮も期待される。   As described above, the displacement amount necessary for three-dimensional correction (the orthogonal three-axis translational components: Δx, Δy, Δz, orthogonal 3 is only required to access the workpiece 4 and the reference blocks 5A and 5B from one direction. Three rotation components of the shaft: Δθx, Δθy, Δθz) can be obtained. For this reason, it is not necessary to change the axial direction of the robot 2 when generating the position information necessary for correction, and the influence of the inherent positional deviation amount possessed by the robot 2 itself is minimized. Is possible. Furthermore, shortening of calibration time is also expected.

また、補正に必要な位置情報を得るための計測動作が1方向からのアクセスのみでよいので、ワーク4の周辺部を、センサユニット3が取り付けられたロボット2が、あらゆる方向からアクセスすることを想定して構成する必要が無い。そのため、ロボットシステム1全体がコンパクトになり、省スペース化ならびに設備コストの低減もできるといった実用的な利点もある。また、組立設備においては、ワーク4に対して1方向からは必ずアクセスできるため、設備構成に制約を受けることなく、ロボットシステム1が導入できる。   In addition, since the measurement operation for obtaining the position information necessary for correction is only required to be accessed from one direction, the robot 2 to which the sensor unit 3 is attached accesses the peripheral part of the workpiece 4 from any direction. There is no need to configure it. Therefore, there is a practical advantage that the entire robot system 1 is compact, space saving and equipment cost can be reduced. Moreover, since the assembly equipment can always access the workpiece 4 from one direction, the robot system 1 can be introduced without being restricted by the equipment configuration.

なお、ここでは、1度の計測動作にて補正値を導出しているが、高い位置精度が求められる場合は、計測動作と補正動作を繰り返すことで、補正値の精度を高めるようにしても良い。また、本実施の形態1において、位置センサ32に、接触式変位センサを用いる例を示したがこれに限られることはない。例えば、レーザ変位センサや超音波センサのような非接触式変位センサを用いても良い。この場合、センサユニット3に組み込まれるセンサは全て非接触式となるため、ワーク4が柔軟物であっても、位置補正量が導出され、ロボット教示点のキャリブレーションが可能となる。   Here, the correction value is derived by one measurement operation. However, when high position accuracy is required, the accuracy of the correction value may be increased by repeating the measurement operation and the correction operation. good. In the first embodiment, an example in which a contact displacement sensor is used as the position sensor 32 has been described. However, the present invention is not limited to this. For example, a non-contact displacement sensor such as a laser displacement sensor or an ultrasonic sensor may be used. In this case, since all the sensors incorporated in the sensor unit 3 are non-contact type, even if the workpiece 4 is a flexible object, the position correction amount is derived, and the robot teaching point can be calibrated.

以上のように、本発明の実施の形態1にかかる教示点補正装置によれば、基準ワーク4Mに対して設定したロボット2(またはロボットシステム1)の教示点(IO、IP)を、基準ワーク4Mに代えて設置した作業対象ワーク4Wに対して補正する教示点補正装置であって、対象物の表面までの距離を検知して対象物の位置を測定する位置センサ32と、撮像する向きを位置センサ32が検知する向きに合わせた撮像器(カメラ33)とが設けられるとともに、ロボット2の先端(アーム先端2e)に接続されるセンサユニット3と、ロボット2と連携してセンサユニット3による測定動作を制御する測定制御部(制御装置6内に形成)と、位置センサ32で測定した位置データと、撮像器(カメラ33)で取得した画像データに基づいて、基準ワーク4Mに対する作業対象ワーク4Wの変位量を算出し、算出した変位量に基づいて教示点(IO、IP)を補正する教示点補正部(制御装置6内に形成)と、を備え、基準ワーク4Mおよび作業対象ワーク4Wのうちの一方のワーク4が設置される設置面7には、位置の基準となる基準ブロック5A、5Bが固定されており、測定制御部は、位置センサ32が検知する向きを設置面7に向けたまま、一方のワーク4および基準ブロック5A、5Bに対して位置データと画像データを取得するように測定動作を制御するとともに、教示点補正部は、位置データと画像データに基づいて、変位量を直交する3軸の平行移動成分と3軸の回転成分からなる六自由度の成分(Δx、Δy、Δz、Δθx、Δθy、Δθz)で算出するように構成したので、ロボット2の位置ずれを最小限に抑え、高精度な3次元の位置補正が可能となる。   As described above, according to the teaching point correction apparatus according to the first embodiment of the present invention, the teaching point (IO, IP) of the robot 2 (or robot system 1) set for the reference workpiece 4M is used as the reference workpiece. This is a teaching point correction device that corrects a work target workpiece 4W installed instead of 4M, and detects the distance to the surface of the target object and measures the position of the target object, and the direction of imaging. An imager (camera 33) that matches the direction detected by the position sensor 32 is provided, the sensor unit 3 connected to the tip of the robot 2 (arm tip 2 e), and the sensor unit 3 in cooperation with the robot 2. Based on the measurement control unit (formed in the control device 6) for controlling the measurement operation, the position data measured by the position sensor 32, and the image data acquired by the image pickup device (camera 33). A teaching point correction unit (formed in the control device 6) that calculates the amount of displacement of the work target workpiece 4W relative to the reference workpiece 4M and corrects the teaching point (IO, IP) based on the calculated amount of displacement; Reference blocks 5A and 5B serving as position references are fixed to the installation surface 7 on which one of the workpiece 4M and the work target workpiece 4W is installed, and the position sensor 32 detects the measurement control unit. While controlling the measurement operation so as to acquire position data and image data for one work 4 and the reference blocks 5A and 5B, with the direction to be set facing the installation surface 7, the teaching point correction unit Based on the image data, the displacement amount is calculated as a six-degree-of-freedom component (Δx, Δy, Δz, Δθx, Δθy, Δθz) composed of a three-axis parallel translation component and a three-axis rotation component. So to minimize the positional deviation of the robot 2, it is possible to highly accurate three-dimensional position correction.

とくに、教示点補正部は、六自由度の成分のうち、検知する向きに垂直な2軸の回転成分(Δθx、Δθy)と検知する向きの平行移動成分(Δz)を位置データのみで算出するように構成したので、残る3自由度の成分(Δx、Δy、Δθz)のみを画像データで算出すればよい。そのため、画像解析では、図11で示したように隣接するワーク4と基準ブロック5Aのエッジ部分のみを抽出すればよく、複雑な画像解析を伴うことなく、容易に変位量を算出することができる。   In particular, the teaching point correction unit calculates a biaxial rotation component (Δθx, Δθy) perpendicular to the detection direction and a parallel movement component (Δz) in the detection direction out of the components with six degrees of freedom using only the position data. Thus, only the remaining three-degree-of-freedom components (Δx, Δy, Δθz) have to be calculated from the image data. Therefore, in the image analysis, it is only necessary to extract the edge portions of the adjacent workpiece 4 and the reference block 5A as shown in FIG. 11, and the displacement amount can be easily calculated without complicated image analysis. .

また、位置センサ32に、非接触式変位センサを用いると、表面が変形しやすいワークを用いても、正確に3次元の位置補正が可能となる。   If a non-contact displacement sensor is used as the position sensor 32, three-dimensional position correction can be accurately performed even when a workpiece whose surface is easily deformed is used.

また、本実施の形態1にかかる教示点補正方法によれば、基準ワーク4Mに対して設定したロボット2(またはロボットシステム1)の教示点(IO、IP)を、基準ワーク4Mに代えて設置した作業対象ワーク4Wに対して補正する教示点補正方法であって、位置の基準となる基準ブロック5A、5Bが固定された設置面7に基準ワーク4Mを設置し、教示点(IO、IP)を設定する工程(ステップS10〜S20)と、対象物の表面までの距離を検知して対象物の位置を測定する位置センサ32と、撮像する向きを位置センサ32が検知する向きに合わせた撮像器(カメラ33)とが設けられたセンサユニット3をロボット2の先端(アーム先端2e)に接続し、センサユニット3を用いて基準ワーク4Mの基準ブロック5A、5Bに対する位置を測定する第一測定工程(ステップS30〜S40)と、基準ワーク4Mに代えて、設置面7に作業対象ワーク4Wを設置する工程(ステップS110)と、センサユニット3を用いて作業対象ワーク4Wの基準ブロック5A、5Bに対する位置を測定する第二測定工程(ステップS120〜S130)と、第一測定工程および第二測定工程の測定結果から基準ワーク4Mに対する作業対象ワーク4Wの変位量を算出し、算出した変位量に基づき教示点(IO、IP)を補正する工程(ステップS50、S140〜S150)と、を含み、第一測定工程および第二測定工程では、それぞれ位置センサ32が検知する向きを設置面7に向けたまま、基準ワーク4Mおよび作業対象ワーク4Wのうちの設置面7に設置されたワーク4と基準ブロック5A、5Bの位置データと画像データを取得するようにロボット2とセンサユニット3の動作を連携して制御するとともに、教示点(IO、IP)を補正する工程では、位置データと画像データに基づいて、変位量を直交する3軸の平行移動成分と3軸の回転成分からなる六自由度の成分(Δx、Δy、Δz、Δθx、Δθy、Δθz)で算出するように構成したので、ロボット2の位置ずれを最小限に抑え、高精度な3次元の位置補正が可能となる。   Further, according to the teaching point correction method according to the first embodiment, the teaching point (IO, IP) of the robot 2 (or robot system 1) set for the reference workpiece 4M is set in place of the reference workpiece 4M. This is a teaching point correction method for correcting the work target workpiece 4W, wherein the reference workpiece 4M is set on the setting surface 7 on which the reference blocks 5A and 5B serving as positions are fixed, and the teaching point (IO, IP) is set. A step (steps S10 to S20), a position sensor 32 that detects the distance to the surface of the object and measures the position of the object, and an image that matches the direction in which the position sensor 32 detects the image capturing direction. The sensor unit 3 provided with a device (camera 33) is connected to the tip of the robot 2 (arm tip 2e), and the sensor unit 3 is used to connect the reference blocks 5A and 5B of the reference workpiece 4M. A first measurement step (steps S30 to S40) for measuring the position to be performed, a step (step S110) of installing the work target workpiece 4W on the installation surface 7 instead of the reference workpiece 4M, and a work target using the sensor unit 3 The second measurement process (steps S120 to S130) for measuring the position of the work 4W with respect to the reference blocks 5A and 5B, and the displacement amount of the work target work 4W with respect to the reference work 4M from the measurement results of the first measurement process and the second measurement process. And a step of correcting the teaching point (IO, IP) based on the calculated displacement amount (steps S50, S140 to S150), and the position sensor 32 detects each in the first measurement step and the second measurement step. The workpiece 4 installed on the installation surface 7 of the reference workpiece 4M and the work target workpiece 4W with the orientation to be directed toward the installation surface 7 In the process of controlling the operation of the robot 2 and the sensor unit 3 in cooperation so as to acquire the position data and image data of the quasi-blocks 5A and 5B, and correcting the teaching point (IO, IP), the position data and the image data Based on the above, the displacement amount is calculated as a component having six degrees of freedom (Δx, Δy, Δz, Δθx, Δθy, Δθz) composed of a three-axis parallel translation component and a three-axis rotation component. The positional deviation of the robot 2 is minimized, and highly accurate three-dimensional position correction is possible.

とくに、教示点を補正する工程では、六自由度の成分のうち、検知する向きに垂直な2軸の回転成分(Δθx、Δθy)と検知する向きの平行移動成分(Δz)を位置データのみで算出するように構成したので、残る3自由度の成分(Δx、Δy、Δθz)のみを画像データで算出すればよい。そのため、画像解析では、図11で示したように隣接するワーク4と基準ブロック5Aのエッジ部分のみを抽出すればよく、複雑な画像解析を伴うことなく、容易に変位量を算出することができる。   In particular, in the process of correcting the teaching point, out of the six degrees of freedom components, the biaxial rotation component (Δθx, Δθy) perpendicular to the direction to be detected and the parallel movement component (Δz) in the direction to be detected are obtained from only the position data. Since the calculation is made, only the remaining three-degree-of-freedom components (Δx, Δy, Δθz) need be calculated from the image data. Therefore, in the image analysis, it is only necessary to extract the edge portions of the adjacent workpiece 4 and the reference block 5A as shown in FIG. 11, and the displacement amount can be easily calculated without complicated image analysis. .

1:ロボットシステム、 2:ロボット、 3:センサユニット(教示点補正装置)、
4:ワーク、 4f:ワークの主面、 4M:基準ワーク、 4W:作業対象ワーク、
5:基準ブロック組、 5A:基準ブロックA、 5Af:基準ブロックAの主面、 5B:基準ブロックB、 5Bf:基準ブロックBの主面、 6 制御装置(教示点補正装置)、 7:設置面、 8: 挿入治具、 31:センサユニット筐体、 32:位置センサ、 33:カメラ(撮像器)、 34:照明、 35:オートツールチェンジャー、
EAo,EAs:基準ブロックAの撮像による計測対象(エッジ)、 EMo,EMs:の撮像による計測対象(エッジ)、 PAa〜PAb:基準ブロックAの主面上の位置センサによる計測対象(点)、 PBc〜PBd:基準ブロックBの主面上の位置センサによる計測対象(点)、 PMa〜PMd:ワークの主面上の位置センサによる計測対象(点)。
1: robot system, 2: robot, 3: sensor unit (teaching point correction device),
4: Work, 4f: Main surface of work, 4M: Standard work, 4W: Work target work,
5: Reference block set, 5A: Reference block A, 5Af: Main surface of reference block A, 5B: Reference block B, 5Bf: Main surface of reference block B, 6 Control device (teaching point correction device), 7: Installation surface 8: Insertion jig 31: Sensor unit housing 32: Position sensor 33: Camera (imaging device) 34: Illumination 35: Auto tool changer
EAo, EAs: measurement object (edge) by imaging of reference block A, EMo, EMs: measurement object (edge) by imaging, PAa to PAb: measurement object (point) by position sensor on main surface of reference block A, PBc to PBd: measurement target (point) by the position sensor on the main surface of the reference block B, PMa to PMd: measurement target (point) by the position sensor on the main surface of the workpiece.

Claims (5)

基準ワークに対して設定したロボットの教示点を、前記基準ワークに代えて設置した作業対象ワークに対して補正する教示点補正装置であって、
対象物の表面までの距離を検知して前記対象物の位置を測定する位置センサと、撮像する向きを前記位置センサが検知する向きに合わせた撮像器とが設けられるとともに、前記ロボットの先端に接続され、計測動作が1方向でアクセスするセンサユニットと、
前記ロボットと連携して前記センサユニットによる測定動作を制御する測定制御部と、
前記位置センサで測定した位置データと、前記撮像器で取得した画像データに基づいて、前記基準ワークに対する前記作業対象ワークの変位量を算出し、算出した変位量に基づいて前記教示点を補正する教示点補正部と、を備え、
前記基準ワークおよび前記作業対象ワークのうちの一方のワークが設置される設置面には、位置の基準となる基準ブロックが固定されており、
前記測定制御部は、前記位置センサが検知する向きを前記設置面に向けたまま、前記一方のワークおよび前記基準ブロックに対して前記位置データと前記画像データを取得するように前記測定動作を制御するとともに、
前記教示点補正部は、前記1方向から取得した前記位置データと前記画像データに基づいて、前記変位量を直交する3軸の平行移動成分と3軸の回転成分からなる六自由度の成分で算出することを特徴とする教示点補正装置。
A teaching point correction device for correcting a teaching point of a robot set for a reference workpiece with respect to a work target workpiece installed instead of the reference workpiece,
A position sensor that detects the distance to the surface of the object and measures the position of the object, and an imager that matches the direction in which the image is captured to the direction that the position sensor detects are provided at the tip of the robot. are connected, a sensor unit measuring operation is that access in one direction,
A measurement control unit for controlling the measurement operation by the sensor unit in cooperation with the robot;
Based on the position data measured by the position sensor and the image data acquired by the imaging device, a displacement amount of the work target workpiece with respect to the reference workpiece is calculated, and the teaching point is corrected based on the calculated displacement amount. A teaching point correction unit,
On the installation surface on which one of the reference workpiece and the work target workpiece is installed, a reference block serving as a reference for the position is fixed,
The measurement control unit controls the measurement operation so as to acquire the position data and the image data with respect to the one workpiece and the reference block while keeping a direction detected by the position sensor toward the installation surface. And
The teaching point correction unit is a six-degree-of-freedom component composed of a three-axis translation component and a three-axis rotation component orthogonal to the displacement amount based on the position data and the image data acquired from the one direction. A teaching point correction apparatus characterized by calculating.
前記教示点補正部は、前記六自由度の成分のうち、前記検知する向きに垂直な2軸の回転成分と前記検知する向きの平行移動成分を前記位置データのみで算出することを特徴とする請求項1に記載の教示点補正装置。   The teaching point correction unit calculates, from the six-degree-of-freedom components, a biaxial rotation component perpendicular to the detection direction and a translation component of the detection direction only from the position data. The teaching point correction apparatus according to claim 1. 前記位置センサは、非接触式変位センサであることを特徴とする請求項1または2に記載の教示点補正装置。   The teaching point correction apparatus according to claim 1, wherein the position sensor is a non-contact displacement sensor. 基準ワークに対して設定したロボットの教示点を、前記基準ワークに代えて設置した作業対象ワークに対して補正する教示点補正方法であって、
位置の基準となる基準ブロックが固定された設置面に前記基準ワークを設置し、前記教示点を設定する工程と、
対象物の表面までの距離を検知して前記対象物の位置を測定する位置センサと、撮像する向きを前記位置センサが検知する向きに合わせた撮像器とが設けられたセンサユニットを前記ロボットの先端に接続し、計測動作が1方向でアクセスする前記センサユニットを用いて前記基準ワークの前記基準ブロックに対する位置を測定する第一測定工程と、
前記基準ワークに代えて、前記設置面に前記作業対象ワークを設置する工程と、
前記センサユニットを用いて前記作業対象ワークの前記基準ブロックに対する位置を測定する第二測定工程と、
前記第一測定工程および前記第二測定工程の測定結果から前記基準ワークに対する前記作業対象ワークの変位量を算出し、算出した変位量に基づき前記教示点を補正する工程と、を含み、
前記第一測定工程および前記第二測定工程では、それぞれ前記位置センサが検知する向きを前記設置面に向けたまま、前記基準ワークおよび前記作業対象ワークのうちの前記設置面に設置されたワークと前記基準ブロックの位置データと画像データを取得するように前記ロボットと前記センサユニットの動作を連携して制御するとともに、
前記教示点を補正する工程では、前記1方向から取得した前記位置データと前記画像データに基づいて、前記変位量を直交する3軸の平行移動成分と3軸の回転成分からなる六自由度の成分で算出することを特徴とする教示点補正方法。
A teaching point correction method for correcting a teaching point of a robot set for a reference workpiece with respect to a work target workpiece installed instead of the reference workpiece,
Installing the reference work on an installation surface on which a reference block serving as a reference of position is fixed, and setting the teaching point;
A sensor unit provided with a position sensor that detects the distance to the surface of the object and measures the position of the object, and an imager that matches the direction in which the position is detected by the position sensor. A first measurement step of measuring a position of the reference workpiece with respect to the reference block using the sensor unit connected to a tip and accessed in one direction by a measurement operation ;
In place of the reference workpiece, a step of installing the work target workpiece on the installation surface;
A second measurement step of measuring a position of the work target workpiece with respect to the reference block using the sensor unit;
Calculating a displacement amount of the work target workpiece with respect to the reference workpiece from the measurement results of the first measurement step and the second measurement step, and correcting the teaching point based on the calculated displacement amount,
In the first measurement step and the second measurement step, the workpiece installed on the installation surface among the reference workpiece and the work target workpiece, with the direction detected by the position sensor facing the installation surface, In conjunction with controlling the operation of the robot and the sensor unit so as to obtain the position data and image data of the reference block,
In the step of correcting the teaching point, on the basis of the position data and the image data acquired from the one direction, the six degrees of freedom composed of a three-axis translational component and a three-axis rotation component orthogonal to the displacement amount. A teaching point correction method comprising calculating by a component.
前記教示点を補正する工程では、前記六自由度の成分のうち、前記検知する向きに垂直な2軸の回転成分と前記検知する向きの平行移動成分を前記位置データのみに基づいて算出することを特徴とする請求項4に記載の教示点補正方法。   In the step of correcting the teaching point, out of the six-degree-of-freedom components, a biaxial rotation component perpendicular to the detection direction and a translation component of the detection direction are calculated based only on the position data. The teaching point correction method according to claim 4, wherein:
JP2013234555A 2013-11-13 2013-11-13 Teaching point correction apparatus and teaching point correction method Active JP6129058B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013234555A JP6129058B2 (en) 2013-11-13 2013-11-13 Teaching point correction apparatus and teaching point correction method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013234555A JP6129058B2 (en) 2013-11-13 2013-11-13 Teaching point correction apparatus and teaching point correction method

Publications (2)

Publication Number Publication Date
JP2015093356A JP2015093356A (en) 2015-05-18
JP6129058B2 true JP6129058B2 (en) 2017-05-17

Family

ID=53196116

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013234555A Active JP6129058B2 (en) 2013-11-13 2013-11-13 Teaching point correction apparatus and teaching point correction method

Country Status (1)

Country Link
JP (1) JP6129058B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108858209A (en) * 2018-09-12 2018-11-23 浙江智昌机器人科技有限公司 A kind of industrial robot controller
KR102130617B1 (en) * 2019-05-13 2020-07-06 주식회사 하나비전테크 Apparatus and method for controling position of robot

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101741997B1 (en) * 2016-10-25 2017-05-31 다래비젼주식회사 Robot Arm Align Apparatus And Align Method With The Same
JP6707485B2 (en) * 2017-03-22 2020-06-10 株式会社東芝 Object handling device and calibration method thereof
JP6538751B2 (en) * 2017-05-18 2019-07-03 ファナック株式会社 Programming device and robot control method
JP7074494B2 (en) * 2018-02-16 2022-05-24 日本電産サンキョー株式会社 How to calculate the correction value for industrial robots
JP2018158439A (en) * 2018-03-15 2018-10-11 株式会社東芝 Object handling device, control device, and calibration method
JP6628170B1 (en) * 2019-03-14 2020-01-08 オムロン株式会社 Measurement system and measurement method
JP2021003805A (en) * 2020-10-07 2021-01-14 株式会社東芝 Object handling device, and control method

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01252381A (en) * 1988-03-31 1989-10-09 Toshiba Corp Device for correcting position of robot
JPH1024206A (en) * 1996-07-11 1998-01-27 Toray Ind Inc Filter unit
JP2006308500A (en) * 2005-04-28 2006-11-09 Yorozu Corp Three dimensional workpiece measuring method
JP5459486B2 (en) * 2010-01-26 2014-04-02 株式会社Ihi Robot calibration method and apparatus
JP5351083B2 (en) * 2010-03-11 2013-11-27 新明和工業株式会社 Teaching point correction apparatus and teaching point correction method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108858209A (en) * 2018-09-12 2018-11-23 浙江智昌机器人科技有限公司 A kind of industrial robot controller
KR102130617B1 (en) * 2019-05-13 2020-07-06 주식회사 하나비전테크 Apparatus and method for controling position of robot

Also Published As

Publication number Publication date
JP2015093356A (en) 2015-05-18

Similar Documents

Publication Publication Date Title
JP6129058B2 (en) Teaching point correction apparatus and teaching point correction method
CN107428009B (en) Method for commissioning an industrial robot, industrial robot system and control system using the method
US11911914B2 (en) System and method for automatic hand-eye calibration of vision system for robot motion
CN108453701B (en) Method for controlling robot, method for teaching robot, and robot system
US20210114221A1 (en) Method of teaching robot and robot system
CN109153125B (en) Method for orienting an industrial robot and industrial robot
JP4171488B2 (en) Offline programming device
JP5670416B2 (en) Robot system display device
EP1607194B1 (en) Robot system comprising a plurality of robots provided with means for calibrating their relative position
EP2082850B1 (en) Generating device of processing robot program
JP6025386B2 (en) Image measuring apparatus, image measuring method, and image measuring program
TW201403277A (en) Robot system, robot, robot control device, robot control method, and robot control program
JP2005201824A (en) Measuring device
JP2005300230A (en) Measuring instrument
JP2006329903A (en) Three-dimensional measuring method and three-dimensional measuring system
US11403780B2 (en) Camera calibration device and camera calibration method
JP2019063954A (en) Robot system, calibration method and calibration program
CN114012724B (en) Automatic calibration method for industrial robot coordinate system based on probe
JP2020089963A (en) Robot system and coordinate conversion method
Zhu et al. Development of a monocular vision system for robotic drilling
WO2020184575A1 (en) Measurement system and measurement method
Motta Robot Calibration: Modeling, Measurement and Applications
US20230328372A1 (en) Image processing system and image processing method
US20240066701A1 (en) Simulation device using three-dimensional position information obtained from output from vision sensor
KR100784734B1 (en) Error compensation method for the elliptical trajectory of industrial robot

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151116

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160830

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160906

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161019

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170314

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170411

R151 Written notification of patent or utility model registration

Ref document number: 6129058

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250