JP6129058B2 - Teaching point correction apparatus and teaching point correction method - Google Patents
Teaching point correction apparatus and teaching point correction method Download PDFInfo
- Publication number
- JP6129058B2 JP6129058B2 JP2013234555A JP2013234555A JP6129058B2 JP 6129058 B2 JP6129058 B2 JP 6129058B2 JP 2013234555 A JP2013234555 A JP 2013234555A JP 2013234555 A JP2013234555 A JP 2013234555A JP 6129058 B2 JP6129058 B2 JP 6129058B2
- Authority
- JP
- Japan
- Prior art keywords
- teaching point
- workpiece
- point correction
- sensor
- measurement
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012937 correction Methods 0.000 title claims description 77
- 238000000034 method Methods 0.000 title claims description 28
- 238000005259 measurement Methods 0.000 claims description 54
- 238000006073 displacement reaction Methods 0.000 claims description 38
- 238000009434 installation Methods 0.000 claims description 24
- 238000013519 translation Methods 0.000 claims description 11
- 238000003384 imaging method Methods 0.000 claims description 10
- 238000001514 detection method Methods 0.000 claims description 6
- 238000010586 diagram Methods 0.000 description 8
- 238000003780 insertion Methods 0.000 description 7
- 230000037431 insertion Effects 0.000 description 7
- 238000010191 image analysis Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000005286 illumination Methods 0.000 description 3
- 238000003708 edge detection Methods 0.000 description 1
- 238000003754 machining Methods 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
Images
Landscapes
- Manipulator (AREA)
Description
本発明は、ロボットシステムにおける教示点の位置を補正する教示点補正装置と教示点補正方法に関するものである。 The present invention relates to a teaching point correction apparatus and a teaching point correction method for correcting the position of a teaching point in a robot system.
ロボットシステムにおいては、作業対象となるワークの設置誤差等に伴い、ロボットに設定された教示点を補正する必要がある。そこで、タッチセンサがワークの主要な面に接触を検知したときの位置座標に基づいて、補正値を算出する方法(例えば、特許文献1参照。)や、二次元変位センサを用いて補正値を算出する方法(例えば、特許文献2参照。)が提案されている。 In the robot system, it is necessary to correct the teaching point set in the robot in accordance with the installation error of the work to be worked. Therefore, a correction value is calculated using a method of calculating a correction value based on the position coordinates when the touch sensor detects contact with the main surface of the workpiece (for example, refer to Patent Document 1), or using a two-dimensional displacement sensor. A calculation method (see, for example, Patent Document 2) has been proposed.
しかしながら、タッチセンサによって位置座標を求める方法では、3次元の位置情報を得るためには、3か所の面に対してタッチセンサを接触させる必要があり、面に応じてロボットの軸の向きを変更する必要があった。ロボットが動作する際には、少なからず位置ズレ(教示データと実移動量の差)を伴うものであるが、平行移動に比べて軸の向きを変更する際の位置ズレは大きく、位置情報の精度に大きな影響を与え、高精度な位置補正が困難になる。 However, in the method of obtaining the position coordinates with the touch sensor, in order to obtain the three-dimensional position information, the touch sensor needs to be in contact with the three surfaces, and the robot axis direction is determined according to the surface. There was a need to change. When the robot operates, it is accompanied by a position shift (difference between the teaching data and the actual movement amount), but the position shift when changing the direction of the axis is larger than the parallel movement. The accuracy is greatly affected, and highly accurate position correction becomes difficult.
一方、2次元変位センサを用いる方法では、1回の計測で少なくとも2つの位置情報が得られるので、ロボットの動作回数は減少させることができるが、それでも3次元の位置情報を得るためには、直交する2つの平面動作での位置情報の取得が必要となる。つまり、いずれの方法によっても、3次元の位置情報を得るためには、軸方向の変更が必要で、高精度な位置補正は困難であった。 On the other hand, in the method using a two-dimensional displacement sensor, since at least two pieces of position information can be obtained by one measurement, the number of operations of the robot can be reduced. However, in order to obtain three-dimensional position information, It is necessary to acquire position information in two orthogonal plane operations. That is, in any method, in order to obtain three-dimensional position information, it is necessary to change the axial direction, and highly accurate position correction is difficult.
本発明は、上記のような問題点を解決するためになされたものであり、高精度な3次元の位置補正が可能な教示点補正装置および教示点補正方法を得ることを目的とするものである。 The present invention has been made to solve the above-described problems, and it is an object of the present invention to obtain a teaching point correction apparatus and a teaching point correction method capable of highly accurate three-dimensional position correction. is there.
本発明にかかる教示点補正装置は、基準ワークに対して設定したロボットの教示点を、前記基準ワークに代えて設置した作業対象ワークに対して補正する教示点補正装置であって、対象物の表面までの距離を検知して前記対象物の位置を測定する位置センサと、撮像する向きを前記位置センサが検知する向きに合わせた撮像器とが設けられるとともに、前記ロボットの先端に接続され、計測動作が1方向でアクセスするセンサユニットと、前記ロボットと連携して前記センサユニットによる測定動作を制御する測定制御部と、前記位置センサで測定した位置データと、前記撮像器で取得した画像データに基づいて、前記基準ワークに対する前記作業対象ワークの変位量を算出し、算出した変位量に基づいて前記教示点を補正する教示点補正部と、を備え、前記基準ワークおよび前記作業対象ワークのうちの一方のワークが設置される設置面には、位置の基準となる基準ブロックが固定されており、前記測定制御部は、前記位置センサが検知する向きを前記設置面に向けたまま、前記一方のワークおよび前記基準ブロックに対して前記位置データと前記画像データを取得するように前記測定動作を制御するとともに、前記教示点補正部は、前記1方向から取得した前記位置データと前記画像データに基づいて、前記変位量を直交する3軸の平行移動成分と3軸の回転成分からなる六自由度の成分で算出することを特徴とする。 A teaching point correction apparatus according to the present invention is a teaching point correction apparatus that corrects a teaching point of a robot set for a reference workpiece with respect to a work target workpiece installed in place of the reference workpiece. A position sensor that detects the distance to the surface and measures the position of the object, and an imager that matches the direction in which the position sensor detects the direction of imaging, and is connected to the tip of the robot ; a sensor unit measuring operation is that access in one direction, and a measurement control section for controlling the measurement operation by cooperation with the sensor unit and the robot, the position data measured by the position sensor, the image acquired by the imager A teaching point correction unit that calculates a displacement amount of the work target workpiece with respect to the reference workpiece based on the data, and corrects the teaching point based on the calculated displacement amount A reference block serving as a reference for a position is fixed to an installation surface on which one of the reference workpiece and the work target workpiece is installed, and the measurement control unit includes the position sensor. While controlling the measurement operation so as to acquire the position data and the image data for the one workpiece and the reference block while keeping the direction to be detected facing the installation surface, the teaching point correction unit Based on the position data and the image data acquired from the one direction , the displacement amount is calculated as a six-degree-of-freedom component composed of a three-axis parallel translation component and a three-axis rotation component. .
本発明にかかる教示点補正方法は、 基準ワークに対して設定したロボットの教示点を、前記基準ワークに代えて設置した作業対象ワークに対して補正する教示点補正方法であって、位置の基準となる基準ブロックが固定された設置面に前記基準ワークを設置し、前記教示点を設定する工程と、対象物の表面までの距離を検知して前記対象物の位置を測定する位置センサと、撮像する向きを前記位置センサが検知する向きに合わせた撮像器とが設けられたセンサユニットを前記ロボットの先端に接続し、計測動作が1方向でアクセスする前記センサユニットを用いて前記基準ワークの前記基準ブロックに対する位置を測定する第一測定工程と、前記基準ワークに代えて、前記設置面に前記作業対象ワークを設置する工程と、前記センサユニットを用いて前記作業対象ワークの前記基準ブロックに対する位置を測定する第二測定工程と、前記第一測定工程および前記第二測定工程の測定結果から前記基準ワークに対する前記作業対象ワークの変位量を算出し、算出した変位量に基づき前記教示点を補正する工程と、を含み、前記第一測定工程および前記第二測定工程では、それぞれ前記位置センサが検知する向きを前記設置面に向けたまま、前記基準ワークおよび前記作業対象ワークのうちの前記設置面に設置されたワークと前記基準ブロックの位置データと画像データを取得するように前記ロボットと前記センサユニットの動作を連携して制御するとともに、前記教示点を補正する工程では、前記1方向から取得した前記位置データと前記画像データに基づいて、前記変位量を直交する3軸の平行移動成分と3軸の回転成分からなる六自由度の成分で算出することを特徴とする。 A teaching point correction method according to the present invention is a teaching point correction method for correcting a teaching point of a robot set for a reference workpiece with respect to a work target workpiece installed in place of the reference workpiece. A step of setting the reference workpiece on an installation surface to which a reference block is fixed, setting the teaching point, a position sensor for detecting the distance to the surface of the object and measuring the position of the object; A sensor unit provided with an imager whose orientation is detected by the position sensor is connected to the tip of the robot, and the measurement operation is accessed in one direction . A first measurement step of measuring a position with respect to the reference block; a step of installing the work target workpiece on the installation surface instead of the reference workpiece; and the sensor unit And calculating a displacement amount of the work target workpiece with respect to the reference workpiece from the measurement results of the first measurement step and the second measurement step. And correcting the teaching point based on the calculated displacement amount, and in the first measurement step and the second measurement step, respectively, while the direction detected by the position sensor is directed toward the installation surface, While controlling the operation of the robot and the sensor unit in a coordinated manner so as to obtain the position data and image data of the reference block and the work installed on the installation surface of the reference work and the work target work, wherein in the step of correcting the teaching point, on the basis of the said position data obtained from one direction the image data, and perpendicular to the displacement amount And calculating a component of six degrees of freedom consisting of rotational components of parallel movement component and three axes of three axes, characterized in.
この発明によれば、ロボットの軸方向を変更することなく、3次元の位置情報を得ることができるので、高精度な3次元の位置補正が可能な教示点補正装置および教示点補正方法を得ることができる。 According to the present invention, three-dimensional position information can be obtained without changing the axial direction of the robot. Therefore, a teaching point correction apparatus and a teaching point correction method capable of highly accurate three-dimensional position correction are obtained. be able to.
実施の形態1.
図1〜図11は、本発明の実施の形態1にかかる教示点補正装置および教示点補正方法について説明するためのものである。そのうち、図1〜図4は、教示点補正装置を用いたロボットシステムの機械的構成、および教示点補正方法における動作を説明するためのものであり、図1は教示点補正装置を備えたロボットシステムの全体構成図、図2は教示点補正装置を構成するセンサユニットの構成図、図3は教示点補正装置および教示点補正方法における動作のうち、基準ワークを用いて教示点を生成する部分と、基準ワークの基準ブロックに対する位置関係を示す位置情報を生成する部分を示すフローチャート、図4は実作業対象のワークの基準ワークに対する変位量を生成する部分を示すフローチャートである。
FIGS. 1-11 is for demonstrating the teaching point correction apparatus and teaching point correction
図5と図6は、基準ワークに対する教示点の生成例を示すもので、図5は教示点補正装置を備えたロボットシステムで、設置面に対して基準ブロックとを配置し、ロボットのアーム先端に挿入治具を装着した状態を示す図、図6は基準ワークに対する教示点作成における挿入治具を基準ワークに近づける際の段階ごとの状態を示す図である。 FIGS. 5 and 6 show examples of teaching point generation for a reference workpiece. FIG. 5 shows a robot system equipped with a teaching point correction device, in which a reference block is arranged on an installation surface, and a robot arm tip FIG. 6 is a diagram showing a state at each stage when the insertion jig is brought close to the reference workpiece in creating a teaching point for the reference workpiece.
図7〜図11は、ワークの基準ブロックに対する位置関係を示す位置情報を生成するための測定あるいは算出方法の例について説明するためのもので、図7はx軸を中心とする回転成分を示す位置情報(θx0)を算出するための位置センサによる測定例を示す図、図8は位置センサの測定値に基づいて、x軸を中心とする回転成分を示す位置情報(θx0)を算出する例を示す図、図9はy軸を中心とする回転成分を示す位置情報(θy0)を算出するための位置センサによる測定例を示す図、図10は位置情報のうち、x方向の平行移動成分、y方向の平行移動成分およびx軸を中心とする回転成分(x、y、θz)を算出するためのカメラによる測定(撮像)例を示す図、図11は撮像した画像情報により、位置情報(x、y、θz)を算出する例を示す図である。 FIGS. 7 to 11 are diagrams for explaining an example of a measurement or calculation method for generating position information indicating a positional relationship of a workpiece with respect to a reference block, and FIG. 7 shows a rotation component around the x axis. FIG. 8 is a diagram illustrating an example of measurement by a position sensor for calculating position information (θx0), and FIG. 8 is an example of calculating position information (θx0) indicating a rotation component around the x axis based on the measurement value of the position sensor. FIG. 9 is a diagram showing an example of measurement by a position sensor for calculating position information (θy0) indicating a rotation component around the y axis, and FIG. 10 is a translation component in the x direction of the position information. FIG. 11 is a diagram showing an example of measurement (imaging) by a camera for calculating a translation component in the y direction and a rotation component (x, y, θz) about the x axis, and FIG. 11 shows position information based on the captured image information. Calculate (x, y, θz) It is a figure which shows the example to take out.
本発明の実施の形態1にかかるロボットシステム1は、図1に示すように、ワーク4に対して作業を行うため、制御装置6によって制御される所謂多関節ロボットであるロボット2を備えたものである。ロボット2のアーム先端2eには、センサユニット3が取り付けられている。センサユニット3は、図2に示すように、位置センサ32、カメラ33ならびに照明34が設けられた筐体31が、アーム先端2eのオートツールチェンジャー2cによって保持されている。オートツールチェンジャー2cは、センサユニット3ならびにハンドといった組立用のツール(図示しない)の脱着を自動で行い、ロボットシステム1における位置補正動作ならびに組立動作を全て自動で行う。
As shown in FIG. 1, a
位置センサ32については、本実施形態では、接触式変位センサを使用する。カメラ33ならびに照明34は、使用環境等により、適宜、最適なものを選択できる。制御装置6は、例えば、記憶装置を備えたコンピュータであり、位置センサ32ならびにカメラ33にて計測されたデータをもとに3次元の位置情報(直交する3軸の平行移動成分+回転成分の計6自由度)を算出して記憶する。これにより、ワーク4に対する教示点の生成および、後述する補正(キャリブレーション)を行うことができる。すなわち、制御装置6は、ロボット2を制御する制御器であるとともに、センサユニット3と連携して教示点の生成と補正を行う教示点補正装置として機能する。
As for the
ワーク4は、部品搭載パレット、組立ユニットといった、ロボット2が作業をする対象であり、品種切り替え時などに、交換されるものである。交換作業自体は、人手交換、自動交換のどちらでも良い。基準ブロック5A、5Bは、ロボットシステム1の設置面7に設置・固定されているもので、ロボットシステム1における4の基準となるものであるため、通常は取り外したりはしない。ワーク4および基準ブロック5A、5Bは、剛体(例えば金属)であり、位置センサ32にて計測が可能となるように、基準となり得る面(例えば、5Af、5Bf)が設けられている。また、カメラ33で撮像した画像から画像処理が可能となるように、特徴的なエッジ部もしくは、マーキングが施されているものとする。
The workpiece 4 is a target on which the
つぎに、図3と図4のフローチャートの流れに沿って、本実施の形態にかかる教示点補正装置の動作あるいは教示点補正方法について説明する。
始めに、作業対象となる複数種のワークに対して、基準となる基準ワーク(マスターワークとも称される。)に対して教示点と位置情報の生成を行う(図3)。はじめに、1種類のワーク4のなかのひとつを基準ワーク4Mとして選定し、設置面7に設置する(ステップS10)。ここでは、ワーク4として、図5に示すように、六面体の一面に四角形の穴4hが開いているものを用い、ロボット2のアーム先端2eには、穴4hに対応した直方体の挿入治具8が設置されている例について説明する。
Next, the operation of the teaching point correction apparatus or the teaching point correction method according to the present embodiment will be described along the flow of the flowcharts of FIGS.
First, with respect to a plurality of types of workpieces to be worked, teaching points and position information are generated for a reference workpiece (also referred to as a master workpiece) (FIG. 3). First, one of the types of workpieces 4 is selected as the
つぎに、図6(a)〜図6(c)に示すように、挿入治具8の先端の直方体部分8pを、基準ワーク4Mの四角形の穴4h部分に挿入して教示点を生成する(ステップS30)。この挿入動作は、一般的に自動制御で行えるものではなく、ロボット2の向きや位置を微妙に調整しながら行われる。そして、図6(b)に示す直方体部分8pが穴4hに挿入される直前での平行移動成分や回転成分の情報(IO)、および直方体部分8pの穴4hへの挿入が完了した時点での平行移動成分や回転成分の情報(IP)を、教示点としてティーチングする。
Next, as shown in FIGS. 6A to 6C, the rectangular parallelepiped portion 8p at the tip of the
次に、教示点のティーチングを行った基準ワーク4Mと、設置面7に設置・固定している基準ブロック5A、5Bとの位置関係を示す位置情報を生成する(ステップS30〜S50)。まずは、図7に示すように、基準ワーク4Mならびに基準ブロック5Aの基準面4f、5Afのそれぞれに設定された2点(PMaとPMb、およびPAaとPAb)に、位置センサ32を接触させ、接触したときの位置を測定する(ステップS30の一部)。接触位置としては、x座標の値を一定に保ち、点に応じてy座標の値を設定し、位置センサ32が基準面に接触したときのz座標の値を取得する。点に応じて位置センサ32を接触させる位置は、ロボット2の教示点として、ワーク4の種類に応じて設定され、制御装置6に記憶されている。
Next, position information indicating the positional relationship between the
上記のように位置センサ32を用いて測定した接触位置データから、次のようにしてx軸を中心とする回転成分を示す位置情報(θx0)を算出する(ステップS50の一部)。このとき、例えば、接触したときの位置のy座標(ロボット2の教示点)とz座標(位置センサ32の値)を便宜的に以下のように表現すると、基準面4f、5Af上の位置センサ32が接触した部分のzy面における関係は図8に示すようになる。
PMa=(y1、t1)
PMb=(y2、t2)
PAa=(y3、t3)
PAb=(y4、t4)
From the contact position data measured using the
PMa = (y1, t1)
PMb = (y2, t2)
PAa = (y3, t3)
PAb = (y4, t4)
基準ブロック5A、5Bは、加工精度ならびに取り付け精度により、点PMaと点PMbとを結ぶ直線と、点PAaと点PAbとを結ぶ直線とは、ある傾きをもつ。基準ワーク4Mならびに基準ブロック5Aにおける、各2点によって導かれる2つの直線の傾きは、基準面4fの基準面5Afに対する傾きである。その傾きは、位置情報のうち、x軸まわりの回転成分θx0であり、三角関数の加法定理から、下記の式(1)のように導き出される。
In the reference blocks 5A and 5B, the straight line connecting the point PMa and the point PMb and the straight line connecting the point PAa and the point PAb have a certain inclination depending on the machining accuracy and the mounting accuracy. The inclinations of the two straight lines led by the two points in the
求められた位置情報θx0は、基準ワーク4Mと同じ種類のワーク4の基準となる値であるため、制御装置6に記憶する。
The obtained position information θx0 is a value serving as a reference for the same type of workpiece 4 as the
一方、基準ブロック5Bを基準にして、図9に示すように、基準ワーク4Mならびに基準ブロック5Bの基準面4f、5Bfのそれぞれに設定された2点(PMc、PMd、PBc、PBd)に、位置センサ32を接触させ、接触したときの位置を測定する(ステップS30の一部)。接触位置としては、y座標の値を一定に保ち、点に応じてx座標の値を設定し、位置センサ32が基準面に接触したときのz座標の値を取得する。点に応じて位置センサ32を接触させる位置は、ロボット2の教示点として、ワーク4の種類に応じて設定され、制御装置6に記憶されている。
On the other hand, with reference to the
そして、y軸を中心とする回転成分を示す位置情報(θy0)を算出する(ステップS50の一部)。ここでも、接触したときの位置のy座標(ロボット2の教示点)とz座標(位置センサ32の値)を便宜的に以下のように表現する。
PMc=(x5、t5)
PMd=(x6、t6)
PBc=(x7、t7)
PBd=(x8、t8)
Then, position information (θy0) indicating a rotation component around the y-axis is calculated (part of step S50). Also here, the y-coordinate (the teaching point of the robot 2) and the z-coordinate (value of the position sensor 32) at the time of contact are expressed as follows for convenience.
PMc = (x5, t5)
PMd = (x6, t6)
PBc = (x7, t7)
PBd = (x8, t8)
基準ワーク4Mならびに基準ブロック5Bにおける、各2点によって導かれる2つの直線の傾きが、基準面4fの基準面5Bfに対する傾きである。その傾きは、位置情報のうち、y軸まわりの回転成分θy0であり、三角関数の加法定理から、下記の式(2)のように導き出される。
The inclinations of the two straight lines led by the two points in the
求められた位置情報θy0は、基準ワーク4Mと同じ種類のワーク4の基準となる値であるため、制御装置6に記憶する。さらに、上記動作(ステップS30)にて得られたt1、t2、t3、t4ならびにt5、t6、t7、t8は、z軸方向の基準となるため、制御装置6に記憶する。
The obtained position information θy0 is a value serving as a reference for the same type of workpiece 4 as the
さらにまた、センサユニット3に組み込まれているカメラ33によって、図10に示すように基準ブロック5Aと5Bのうちの一方(図では基準ブロック5A)と基準ワーク4Mとが隣接する部分を上方向(z方向で離れた位置)から撮像する(ステップS40)。カメラ33の画素数ならびに撮像エリアについては、補正精度によって、適宜選択できるものとする。カメラ33は画像処理システム(図示しない)に接続されており、撮像した画像において、エッジ検出、エッジ間距離の測定といった、一般的な画像処理システムの機能を有するものとする。
Furthermore, as shown in FIG. 10, the
撮像により、例えば、図11のような画像(xy面における輪郭形状)が得られたとする。すると、画像処理システムは、基準ブロック5Aのx軸と交わる輪郭線EAsと基準ワーク4Mに対向する輪郭線EAo、基準ワーク4Mのx軸と交わる輪郭線EMsと基準ブロック5Aに対向する輪郭線EMoを抽出する。そして、抽出した輪郭線EAsとEMsがなす角を位置情報θz0(z軸まわりの回転成分)、EAoのEAsとの交点およびEMoのEMsとの交点の、y軸方向の平行移動成分を位置情報y0、x軸方向の平行移動成分を位置情報xoとして算出する(ステップS50の一部)。
For example, it is assumed that an image (contour shape on the xy plane) as shown in FIG. 11 is obtained by imaging. Then, the image processing system includes the contour EAs that intersects the x axis of the
求められたx0、y0ならびにθz0は、基準ワーク4Mと同じ種類の作業対象ワーク4Wの基準となる値であるため、制御装置6に記憶する。ここでは、基準ワーク4Mと基準ブロック5Aとの位置関係を求めているが、基準ワーク4Mと基準ブロック5Bとの位置関係を求めて、その値を基準値として制御装置6に記憶してもよい。
Since the obtained x0, y0, and θz0 are values that serve as a reference for the work target workpiece 4W of the same type as the
これにより、ある種類のワークの基準ワークに対して、挿入動作を教示した基準位置となる位置情報の生成が完了する。すると、必要な種類のワークの基準ワークに対する位置情報が得られるまで(ステップS60で「N」の場合)、同様の動作(ステップS10〜S50)を繰り返す。必要な種類のワークの基準ワークに対する位置情報が得られると(ステップS60で「Y」の場合)、基準ワークに対する位置情報の生成が完了する。 Thereby, the generation of position information serving as a reference position for teaching the insertion operation is completed for a reference work of a certain type of work. Then, the same operation (steps S10 to S50) is repeated until the position information of the necessary type of workpiece with respect to the reference workpiece is obtained (in the case of “N” in step S60). When the position information of the necessary type of workpiece with respect to the reference workpiece is obtained (in the case of “Y” in step S60), the generation of the position information for the reference workpiece is completed.
つぎに、実際に作業対象となるワーク4に対する教示点の補正(図4)について、六面体の一面に四角形の穴4hが開いている基準ワーク4Mと同じ種類のワーク(図示しないが、基準ワーク4Mと区別するため、作業対象ワーク4Wと称する。)を選定した例について説明する。
Next, regarding the correction of the teaching point for the workpiece 4 that is actually the work target (FIG. 4), the same type of workpiece as the
はじめに、作業対象ワーク4Wを設置面7に設置する(ステップS110)。このとき、作業対象ワーク4Wの取り付け位置は、教示点をティーチングした基準ワーク4Mが設置された位置とは一致しない。そこで、基準ワーク4Mに対して行った測定(ステップS30〜S40)と同様の測定を作業対象ワーク4Wに対しても実施(ステップS120〜S130)を実施し、その測定値に基づいて、位置情報の変位量(Δx、Δy、Δz、Δθx、Δθy、Δθz)を算出する(ステップS140)。
First, the work target workpiece 4W is installed on the installation surface 7 (step S110). At this time, the attachment position of the work target workpiece 4W does not coincide with the position where the
変位量のうち、x軸まわりの回転成分、およびy軸まわりの回転成分の変位量Δθx、Δθxは、まず、ステップS50と同様に、作業対象ワーク4Wの基準ブロック5A、5Bに対する傾き(回転成分θx1、θy1)を算出する。そして、それぞれ下記のように基準ワーク4Mの位置情報θx0、θy0との差を計算することで算出する(ステップS140の一部)。
Δθx=θx1−θx0
Δθy=θy1−θy0
Among the displacement amounts, the displacement amounts Δθx and Δθx of the rotation component around the x-axis and the rotation component around the y-axis are first inclined (rotation component) with respect to the reference blocks 5A and 5B of the work target workpiece 4W, as in step S50. θx1, θy1) are calculated. And it calculates by calculating the difference with the positional information (theta) x0 and (theta) y0 of the reference | standard workpiece | work 4M as follows (part of step S140).
Δθx = θx1-θx0
Δθy = θy1-θy0
そして、θx1、θy1を算出するために得られた位置センサ32の値をそれぞれt9、t10、t11、t12、ならびにt13、t14、t15、t16とすると、下記式(3)あるいは式(4)により、z方向の平行移動成分の変位であるΔzが得られる(ステップS140の一部)。
If the values of the
なお、上記式(3)あるいは式(4)は、厳密には作業対象ワーク4Wのxy面上での位置ずれがある場合には成立しない式である。しかし、実体上は、作業対象ワーク4Wのxy面上での位置ずれのz方向の位置への影響は無視できるレベルであり、上記式で得られた変位量Δzにより、後述する補正を正確に行うことができる。 Strictly speaking, the above expression (3) or (4) is an expression that does not hold when there is a positional shift on the xy plane of the work target workpiece 4W. However, in reality, the influence of the positional deviation on the xy plane of the work target workpiece 4W on the position in the z direction is negligible, and the correction described later is accurately performed by the displacement amount Δz obtained by the above equation. It can be carried out.
そして、残る変位量(Δx、Δy、Δθz)は、ステップS130で得られた画像データをもとに、ステップS50と同様に、まず、作業対象ワーク4Wの基準ブロック5Aに対するx軸方向の平行移動成分x1、y軸方向の平行移動成分y1、およびz軸まわりの回転成分θz1を算出する。そして、それぞれ下記のように基準ワーク4Mの位置情報x0、y0、θzとの差を計算することで算出する(ステップS140の一部)。
Δx=x1−x0
Δy=y1−y0
Δθz=θz1−θz0
The remaining displacement amounts (Δx, Δy, Δθz) are first translated in the x-axis direction with respect to the
Δx = x1−x0
Δy = y1-y0
Δθz = θz1-θz0
算出された3次元の変位量(Δx、Δy、Δz、Δθx、Δθy、Δθz)は、アーム先端2eを原点とするツール座標系での補正値として、教示ポイントの情報(IO、IP)へフィードバックされ、補正(キャリブレーション)される。
The calculated three-dimensional displacement amounts (Δx, Δy, Δz, Δθx, Δθy, Δθz) are fed back to teaching point information (IO, IP) as correction values in the tool coordinate system with the
このように、ワーク4ならびに基準ブロック5A、5Bに対して、1方向からのアクセスのみで、3次元の補正に必要な変位量(直交3軸の平行移動成分:Δx、Δy、Δz、直交3軸の回転3成分:Δθx、Δθy、Δθz)を得ることができる。そのため、補正に必要な位置情報の生成の際にロボット2の軸方向を変化させる必要が無く、ロボット2自身が持っている固有の位置ずれ量の影響が最小となるため、高精度な位置補正が可能となる。さらに、キャリブレーション時間の短縮も期待される。
As described above, the displacement amount necessary for three-dimensional correction (the orthogonal three-axis translational components: Δx, Δy, Δz, orthogonal 3 is only required to access the workpiece 4 and the reference blocks 5A and 5B from one direction. Three rotation components of the shaft: Δθx, Δθy, Δθz) can be obtained. For this reason, it is not necessary to change the axial direction of the
また、補正に必要な位置情報を得るための計測動作が1方向からのアクセスのみでよいので、ワーク4の周辺部を、センサユニット3が取り付けられたロボット2が、あらゆる方向からアクセスすることを想定して構成する必要が無い。そのため、ロボットシステム1全体がコンパクトになり、省スペース化ならびに設備コストの低減もできるといった実用的な利点もある。また、組立設備においては、ワーク4に対して1方向からは必ずアクセスできるため、設備構成に制約を受けることなく、ロボットシステム1が導入できる。
In addition, since the measurement operation for obtaining the position information necessary for correction is only required to be accessed from one direction, the
なお、ここでは、1度の計測動作にて補正値を導出しているが、高い位置精度が求められる場合は、計測動作と補正動作を繰り返すことで、補正値の精度を高めるようにしても良い。また、本実施の形態1において、位置センサ32に、接触式変位センサを用いる例を示したがこれに限られることはない。例えば、レーザ変位センサや超音波センサのような非接触式変位センサを用いても良い。この場合、センサユニット3に組み込まれるセンサは全て非接触式となるため、ワーク4が柔軟物であっても、位置補正量が導出され、ロボット教示点のキャリブレーションが可能となる。
Here, the correction value is derived by one measurement operation. However, when high position accuracy is required, the accuracy of the correction value may be increased by repeating the measurement operation and the correction operation. good. In the first embodiment, an example in which a contact displacement sensor is used as the
以上のように、本発明の実施の形態1にかかる教示点補正装置によれば、基準ワーク4Mに対して設定したロボット2(またはロボットシステム1)の教示点(IO、IP)を、基準ワーク4Mに代えて設置した作業対象ワーク4Wに対して補正する教示点補正装置であって、対象物の表面までの距離を検知して対象物の位置を測定する位置センサ32と、撮像する向きを位置センサ32が検知する向きに合わせた撮像器(カメラ33)とが設けられるとともに、ロボット2の先端(アーム先端2e)に接続されるセンサユニット3と、ロボット2と連携してセンサユニット3による測定動作を制御する測定制御部(制御装置6内に形成)と、位置センサ32で測定した位置データと、撮像器(カメラ33)で取得した画像データに基づいて、基準ワーク4Mに対する作業対象ワーク4Wの変位量を算出し、算出した変位量に基づいて教示点(IO、IP)を補正する教示点補正部(制御装置6内に形成)と、を備え、基準ワーク4Mおよび作業対象ワーク4Wのうちの一方のワーク4が設置される設置面7には、位置の基準となる基準ブロック5A、5Bが固定されており、測定制御部は、位置センサ32が検知する向きを設置面7に向けたまま、一方のワーク4および基準ブロック5A、5Bに対して位置データと画像データを取得するように測定動作を制御するとともに、教示点補正部は、位置データと画像データに基づいて、変位量を直交する3軸の平行移動成分と3軸の回転成分からなる六自由度の成分(Δx、Δy、Δz、Δθx、Δθy、Δθz)で算出するように構成したので、ロボット2の位置ずれを最小限に抑え、高精度な3次元の位置補正が可能となる。
As described above, according to the teaching point correction apparatus according to the first embodiment of the present invention, the teaching point (IO, IP) of the robot 2 (or robot system 1) set for the
とくに、教示点補正部は、六自由度の成分のうち、検知する向きに垂直な2軸の回転成分(Δθx、Δθy)と検知する向きの平行移動成分(Δz)を位置データのみで算出するように構成したので、残る3自由度の成分(Δx、Δy、Δθz)のみを画像データで算出すればよい。そのため、画像解析では、図11で示したように隣接するワーク4と基準ブロック5Aのエッジ部分のみを抽出すればよく、複雑な画像解析を伴うことなく、容易に変位量を算出することができる。
In particular, the teaching point correction unit calculates a biaxial rotation component (Δθx, Δθy) perpendicular to the detection direction and a parallel movement component (Δz) in the detection direction out of the components with six degrees of freedom using only the position data. Thus, only the remaining three-degree-of-freedom components (Δx, Δy, Δθz) have to be calculated from the image data. Therefore, in the image analysis, it is only necessary to extract the edge portions of the adjacent workpiece 4 and the
また、位置センサ32に、非接触式変位センサを用いると、表面が変形しやすいワークを用いても、正確に3次元の位置補正が可能となる。
If a non-contact displacement sensor is used as the
また、本実施の形態1にかかる教示点補正方法によれば、基準ワーク4Mに対して設定したロボット2(またはロボットシステム1)の教示点(IO、IP)を、基準ワーク4Mに代えて設置した作業対象ワーク4Wに対して補正する教示点補正方法であって、位置の基準となる基準ブロック5A、5Bが固定された設置面7に基準ワーク4Mを設置し、教示点(IO、IP)を設定する工程(ステップS10〜S20)と、対象物の表面までの距離を検知して対象物の位置を測定する位置センサ32と、撮像する向きを位置センサ32が検知する向きに合わせた撮像器(カメラ33)とが設けられたセンサユニット3をロボット2の先端(アーム先端2e)に接続し、センサユニット3を用いて基準ワーク4Mの基準ブロック5A、5Bに対する位置を測定する第一測定工程(ステップS30〜S40)と、基準ワーク4Mに代えて、設置面7に作業対象ワーク4Wを設置する工程(ステップS110)と、センサユニット3を用いて作業対象ワーク4Wの基準ブロック5A、5Bに対する位置を測定する第二測定工程(ステップS120〜S130)と、第一測定工程および第二測定工程の測定結果から基準ワーク4Mに対する作業対象ワーク4Wの変位量を算出し、算出した変位量に基づき教示点(IO、IP)を補正する工程(ステップS50、S140〜S150)と、を含み、第一測定工程および第二測定工程では、それぞれ位置センサ32が検知する向きを設置面7に向けたまま、基準ワーク4Mおよび作業対象ワーク4Wのうちの設置面7に設置されたワーク4と基準ブロック5A、5Bの位置データと画像データを取得するようにロボット2とセンサユニット3の動作を連携して制御するとともに、教示点(IO、IP)を補正する工程では、位置データと画像データに基づいて、変位量を直交する3軸の平行移動成分と3軸の回転成分からなる六自由度の成分(Δx、Δy、Δz、Δθx、Δθy、Δθz)で算出するように構成したので、ロボット2の位置ずれを最小限に抑え、高精度な3次元の位置補正が可能となる。
Further, according to the teaching point correction method according to the first embodiment, the teaching point (IO, IP) of the robot 2 (or robot system 1) set for the
とくに、教示点を補正する工程では、六自由度の成分のうち、検知する向きに垂直な2軸の回転成分(Δθx、Δθy)と検知する向きの平行移動成分(Δz)を位置データのみで算出するように構成したので、残る3自由度の成分(Δx、Δy、Δθz)のみを画像データで算出すればよい。そのため、画像解析では、図11で示したように隣接するワーク4と基準ブロック5Aのエッジ部分のみを抽出すればよく、複雑な画像解析を伴うことなく、容易に変位量を算出することができる。
In particular, in the process of correcting the teaching point, out of the six degrees of freedom components, the biaxial rotation component (Δθx, Δθy) perpendicular to the direction to be detected and the parallel movement component (Δz) in the direction to be detected are obtained from only the position data. Since the calculation is made, only the remaining three-degree-of-freedom components (Δx, Δy, Δθz) need be calculated from the image data. Therefore, in the image analysis, it is only necessary to extract the edge portions of the adjacent workpiece 4 and the
1:ロボットシステム、 2:ロボット、 3:センサユニット(教示点補正装置)、
4:ワーク、 4f:ワークの主面、 4M:基準ワーク、 4W:作業対象ワーク、
5:基準ブロック組、 5A:基準ブロックA、 5Af:基準ブロックAの主面、 5B:基準ブロックB、 5Bf:基準ブロックBの主面、 6 制御装置(教示点補正装置)、 7:設置面、 8: 挿入治具、 31:センサユニット筐体、 32:位置センサ、 33:カメラ(撮像器)、 34:照明、 35:オートツールチェンジャー、
EAo,EAs:基準ブロックAの撮像による計測対象(エッジ)、 EMo,EMs:の撮像による計測対象(エッジ)、 PAa〜PAb:基準ブロックAの主面上の位置センサによる計測対象(点)、 PBc〜PBd:基準ブロックBの主面上の位置センサによる計測対象(点)、 PMa〜PMd:ワークの主面上の位置センサによる計測対象(点)。
1: robot system, 2: robot, 3: sensor unit (teaching point correction device),
4: Work, 4f: Main surface of work, 4M: Standard work, 4W: Work target work,
5: Reference block set, 5A: Reference block A, 5Af: Main surface of reference block A, 5B: Reference block B, 5Bf: Main surface of reference block B, 6 Control device (teaching point correction device), 7: Installation surface 8: Insertion jig 31: Sensor unit housing 32: Position sensor 33: Camera (imaging device) 34: Illumination 35: Auto tool changer
EAo, EAs: measurement object (edge) by imaging of reference block A, EMo, EMs: measurement object (edge) by imaging, PAa to PAb: measurement object (point) by position sensor on main surface of reference block A, PBc to PBd: measurement target (point) by the position sensor on the main surface of the reference block B, PMa to PMd: measurement target (point) by the position sensor on the main surface of the workpiece.
Claims (5)
対象物の表面までの距離を検知して前記対象物の位置を測定する位置センサと、撮像する向きを前記位置センサが検知する向きに合わせた撮像器とが設けられるとともに、前記ロボットの先端に接続され、計測動作が1方向でアクセスするセンサユニットと、
前記ロボットと連携して前記センサユニットによる測定動作を制御する測定制御部と、
前記位置センサで測定した位置データと、前記撮像器で取得した画像データに基づいて、前記基準ワークに対する前記作業対象ワークの変位量を算出し、算出した変位量に基づいて前記教示点を補正する教示点補正部と、を備え、
前記基準ワークおよび前記作業対象ワークのうちの一方のワークが設置される設置面には、位置の基準となる基準ブロックが固定されており、
前記測定制御部は、前記位置センサが検知する向きを前記設置面に向けたまま、前記一方のワークおよび前記基準ブロックに対して前記位置データと前記画像データを取得するように前記測定動作を制御するとともに、
前記教示点補正部は、前記1方向から取得した前記位置データと前記画像データに基づいて、前記変位量を直交する3軸の平行移動成分と3軸の回転成分からなる六自由度の成分で算出することを特徴とする教示点補正装置。 A teaching point correction device for correcting a teaching point of a robot set for a reference workpiece with respect to a work target workpiece installed instead of the reference workpiece,
A position sensor that detects the distance to the surface of the object and measures the position of the object, and an imager that matches the direction in which the image is captured to the direction that the position sensor detects are provided at the tip of the robot. are connected, a sensor unit measuring operation is that access in one direction,
A measurement control unit for controlling the measurement operation by the sensor unit in cooperation with the robot;
Based on the position data measured by the position sensor and the image data acquired by the imaging device, a displacement amount of the work target workpiece with respect to the reference workpiece is calculated, and the teaching point is corrected based on the calculated displacement amount. A teaching point correction unit,
On the installation surface on which one of the reference workpiece and the work target workpiece is installed, a reference block serving as a reference for the position is fixed,
The measurement control unit controls the measurement operation so as to acquire the position data and the image data with respect to the one workpiece and the reference block while keeping a direction detected by the position sensor toward the installation surface. And
The teaching point correction unit is a six-degree-of-freedom component composed of a three-axis translation component and a three-axis rotation component orthogonal to the displacement amount based on the position data and the image data acquired from the one direction. A teaching point correction apparatus characterized by calculating.
位置の基準となる基準ブロックが固定された設置面に前記基準ワークを設置し、前記教示点を設定する工程と、
対象物の表面までの距離を検知して前記対象物の位置を測定する位置センサと、撮像する向きを前記位置センサが検知する向きに合わせた撮像器とが設けられたセンサユニットを前記ロボットの先端に接続し、計測動作が1方向でアクセスする前記センサユニットを用いて前記基準ワークの前記基準ブロックに対する位置を測定する第一測定工程と、
前記基準ワークに代えて、前記設置面に前記作業対象ワークを設置する工程と、
前記センサユニットを用いて前記作業対象ワークの前記基準ブロックに対する位置を測定する第二測定工程と、
前記第一測定工程および前記第二測定工程の測定結果から前記基準ワークに対する前記作業対象ワークの変位量を算出し、算出した変位量に基づき前記教示点を補正する工程と、を含み、
前記第一測定工程および前記第二測定工程では、それぞれ前記位置センサが検知する向きを前記設置面に向けたまま、前記基準ワークおよび前記作業対象ワークのうちの前記設置面に設置されたワークと前記基準ブロックの位置データと画像データを取得するように前記ロボットと前記センサユニットの動作を連携して制御するとともに、
前記教示点を補正する工程では、前記1方向から取得した前記位置データと前記画像データに基づいて、前記変位量を直交する3軸の平行移動成分と3軸の回転成分からなる六自由度の成分で算出することを特徴とする教示点補正方法。 A teaching point correction method for correcting a teaching point of a robot set for a reference workpiece with respect to a work target workpiece installed instead of the reference workpiece,
Installing the reference work on an installation surface on which a reference block serving as a reference of position is fixed, and setting the teaching point;
A sensor unit provided with a position sensor that detects the distance to the surface of the object and measures the position of the object, and an imager that matches the direction in which the position is detected by the position sensor. A first measurement step of measuring a position of the reference workpiece with respect to the reference block using the sensor unit connected to a tip and accessed in one direction by a measurement operation ;
In place of the reference workpiece, a step of installing the work target workpiece on the installation surface;
A second measurement step of measuring a position of the work target workpiece with respect to the reference block using the sensor unit;
Calculating a displacement amount of the work target workpiece with respect to the reference workpiece from the measurement results of the first measurement step and the second measurement step, and correcting the teaching point based on the calculated displacement amount,
In the first measurement step and the second measurement step, the workpiece installed on the installation surface among the reference workpiece and the work target workpiece, with the direction detected by the position sensor facing the installation surface, In conjunction with controlling the operation of the robot and the sensor unit so as to obtain the position data and image data of the reference block,
In the step of correcting the teaching point, on the basis of the position data and the image data acquired from the one direction, the six degrees of freedom composed of a three-axis translational component and a three-axis rotation component orthogonal to the displacement amount. A teaching point correction method comprising calculating by a component.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013234555A JP6129058B2 (en) | 2013-11-13 | 2013-11-13 | Teaching point correction apparatus and teaching point correction method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013234555A JP6129058B2 (en) | 2013-11-13 | 2013-11-13 | Teaching point correction apparatus and teaching point correction method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015093356A JP2015093356A (en) | 2015-05-18 |
JP6129058B2 true JP6129058B2 (en) | 2017-05-17 |
Family
ID=53196116
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013234555A Active JP6129058B2 (en) | 2013-11-13 | 2013-11-13 | Teaching point correction apparatus and teaching point correction method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6129058B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108858209A (en) * | 2018-09-12 | 2018-11-23 | 浙江智昌机器人科技有限公司 | A kind of industrial robot controller |
KR102130617B1 (en) * | 2019-05-13 | 2020-07-06 | 주식회사 하나비전테크 | Apparatus and method for controling position of robot |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101741997B1 (en) * | 2016-10-25 | 2017-05-31 | 다래비젼주식회사 | Robot Arm Align Apparatus And Align Method With The Same |
JP6707485B2 (en) * | 2017-03-22 | 2020-06-10 | 株式会社東芝 | Object handling device and calibration method thereof |
JP6538751B2 (en) * | 2017-05-18 | 2019-07-03 | ファナック株式会社 | Programming device and robot control method |
JP7074494B2 (en) * | 2018-02-16 | 2022-05-24 | 日本電産サンキョー株式会社 | How to calculate the correction value for industrial robots |
JP2018158439A (en) * | 2018-03-15 | 2018-10-11 | 株式会社東芝 | Object handling device, control device, and calibration method |
JP6628170B1 (en) * | 2019-03-14 | 2020-01-08 | オムロン株式会社 | Measurement system and measurement method |
JP2021003805A (en) * | 2020-10-07 | 2021-01-14 | 株式会社東芝 | Object handling device, and control method |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH01252381A (en) * | 1988-03-31 | 1989-10-09 | Toshiba Corp | Device for correcting position of robot |
JPH1024206A (en) * | 1996-07-11 | 1998-01-27 | Toray Ind Inc | Filter unit |
JP2006308500A (en) * | 2005-04-28 | 2006-11-09 | Yorozu Corp | Three dimensional workpiece measuring method |
JP5459486B2 (en) * | 2010-01-26 | 2014-04-02 | 株式会社Ihi | Robot calibration method and apparatus |
JP5351083B2 (en) * | 2010-03-11 | 2013-11-27 | 新明和工業株式会社 | Teaching point correction apparatus and teaching point correction method |
-
2013
- 2013-11-13 JP JP2013234555A patent/JP6129058B2/en active Active
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108858209A (en) * | 2018-09-12 | 2018-11-23 | 浙江智昌机器人科技有限公司 | A kind of industrial robot controller |
KR102130617B1 (en) * | 2019-05-13 | 2020-07-06 | 주식회사 하나비전테크 | Apparatus and method for controling position of robot |
Also Published As
Publication number | Publication date |
---|---|
JP2015093356A (en) | 2015-05-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6129058B2 (en) | Teaching point correction apparatus and teaching point correction method | |
CN107428009B (en) | Method for commissioning an industrial robot, industrial robot system and control system using the method | |
US11911914B2 (en) | System and method for automatic hand-eye calibration of vision system for robot motion | |
CN108453701B (en) | Method for controlling robot, method for teaching robot, and robot system | |
US20210114221A1 (en) | Method of teaching robot and robot system | |
CN109153125B (en) | Method for orienting an industrial robot and industrial robot | |
JP4171488B2 (en) | Offline programming device | |
JP5670416B2 (en) | Robot system display device | |
EP1607194B1 (en) | Robot system comprising a plurality of robots provided with means for calibrating their relative position | |
EP2082850B1 (en) | Generating device of processing robot program | |
JP6025386B2 (en) | Image measuring apparatus, image measuring method, and image measuring program | |
TW201403277A (en) | Robot system, robot, robot control device, robot control method, and robot control program | |
JP2005201824A (en) | Measuring device | |
JP2005300230A (en) | Measuring instrument | |
JP2006329903A (en) | Three-dimensional measuring method and three-dimensional measuring system | |
US11403780B2 (en) | Camera calibration device and camera calibration method | |
JP2019063954A (en) | Robot system, calibration method and calibration program | |
CN114012724B (en) | Automatic calibration method for industrial robot coordinate system based on probe | |
JP2020089963A (en) | Robot system and coordinate conversion method | |
Zhu et al. | Development of a monocular vision system for robotic drilling | |
WO2020184575A1 (en) | Measurement system and measurement method | |
Motta | Robot Calibration: Modeling, Measurement and Applications | |
US20230328372A1 (en) | Image processing system and image processing method | |
US20240066701A1 (en) | Simulation device using three-dimensional position information obtained from output from vision sensor | |
KR100784734B1 (en) | Error compensation method for the elliptical trajectory of industrial robot |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20151116 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160830 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160906 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161019 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170314 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170411 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6129058 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |