JP5450242B2 - Manipulator calibration method and robot control system - Google Patents

Manipulator calibration method and robot control system Download PDF

Info

Publication number
JP5450242B2
JP5450242B2 JP2010109369A JP2010109369A JP5450242B2 JP 5450242 B2 JP5450242 B2 JP 5450242B2 JP 2010109369 A JP2010109369 A JP 2010109369A JP 2010109369 A JP2010109369 A JP 2010109369A JP 5450242 B2 JP5450242 B2 JP 5450242B2
Authority
JP
Japan
Prior art keywords
manipulator
calibration value
coordinate system
calibration
straight line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010109369A
Other languages
Japanese (ja)
Other versions
JP2011235400A (en
Inventor
洋人 坂原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Daihen Corp
Original Assignee
Daihen Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daihen Corp filed Critical Daihen Corp
Priority to JP2010109369A priority Critical patent/JP5450242B2/en
Publication of JP2011235400A publication Critical patent/JP2011235400A/en
Application granted granted Critical
Publication of JP5450242B2 publication Critical patent/JP5450242B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Numerical Control (AREA)
  • Manipulator (AREA)

Description

本発明は、マニピュレータのキャリブレーション方法及びロボット制御システムに関するものである。   The present invention relates to a manipulator calibration method and a robot control system.

近年、手先カメラと呼ばれるセンサ装置をマニピュレータの先端に取り付け、センサから得られる情報により、マニピュレータの動作を制御する制御手法が開発されてきている。しかし、マニピュレータのモータ組み付け誤差やアーム加工誤差に加え、センサとマニピュレータの取り付け位置姿勢情報が正確に把握されていなければ、マニピュレータの正確な制御はできない。このため、マニピュレータの各リンク部の位置関係やマニピュレータの先端の座標系を基準としたセンサの位置姿勢情報を正確に導出する、つまりキャリブレーションを行うことが必要になる。   In recent years, a control method for attaching a sensor device called a hand camera to the tip of a manipulator and controlling the operation of the manipulator based on information obtained from the sensor has been developed. However, accurate control of the manipulator cannot be performed unless the mounting position and orientation information of the sensor and the manipulator is accurately grasped in addition to the motor assembly error and arm machining error of the manipulator. For this reason, it is necessary to accurately derive the position / orientation information of the sensor based on the positional relationship of each link part of the manipulator and the coordinate system of the tip of the manipulator, that is, to perform calibration.

ここで、手先カメラを持つマニピュレータのキャリブレーション方法としては、特許文献1がある。特許文献1では、マニピュレータの手先にCCDカメラを取り付け、所定位置に被写点を固定し、マニピュレータ及びカメラを様々に関節動作させ、撮像する。その後、実際のカメラの2次元画像上における被写点の位置と論理的に算出される被写点の位置のずれを複数個求め、マニピュレータのリンク要素のパラメータの補正値を変数として、ずれが最小になるように最小二乗法をすることにより補正値を演算する手法である。特許文献1では、各リンク長さを実際に測定することや、マニピュレータを実際にある一点に移動させる手間を省くことができ、作業工程が大幅に短縮できる利点がある。   Here, there is Patent Literature 1 as a calibration method for a manipulator having a hand camera. In Patent Document 1, a CCD camera is attached to the hand of a manipulator, a subject point is fixed at a predetermined position, and the manipulator and the camera are variously articulated to perform imaging. After that, a plurality of deviations between the positions of the subject points on the two-dimensional image of the actual camera and the positions of the subject points that are logically calculated are obtained. This is a technique for calculating a correction value by performing a least square method so as to be minimized. In Patent Document 1, there is an advantage that it is possible to save the trouble of actually measuring each link length and moving the manipulator to a certain point, and to greatly shorten the work process.

特許文献2では、手先カメラのキャリブレーションではないが、マニピュレータの先端に、特徴点を有する治具を取付けるとともに、マニピュレータを支持するロボット本体に固定した撮像用、照準用のセンサにより前記特徴点を持つ治具を観測して、三次元位置センサのキャリブレーションを行う方法が提案されている。特許文献2では、基準座標系における前記特徴点の三次元位置と、撮像用,照準用であるセンサ部の2つのカメラの撮像面における前記特徴点の位置との組み合せを複数求め、これらから三角測量の原理で2つのカメラ(センサ)の三次元位置をキャリブレーションするようにしている。この方法は、人手でセンサを動かさなくてもよいところから、作業者の目にレーザが当たる危険性を回避することができ、手間も少なくてすむ利点がある。   In Patent Document 2, although the hand camera is not calibrated, a jig having a feature point is attached to the tip of the manipulator, and the feature point is detected by an imaging and aiming sensor fixed to a robot body that supports the manipulator. A method for calibrating a three-dimensional position sensor by observing a holding jig has been proposed. In Patent Document 2, a plurality of combinations of the three-dimensional position of the feature point in the reference coordinate system and the position of the feature point on the imaging surfaces of the two cameras of the sensor unit for imaging and aiming are obtained, and a triangle is obtained therefrom. The three-dimensional positions of two cameras (sensors) are calibrated based on the principle of surveying. This method has an advantage that it is possible to avoid the danger of the laser hitting the eyes of the operator because the sensor does not have to be moved manually, and the labor can be reduced.

又、特許文献3では、先端に視覚センサが取り付けられたロボットアームを姿勢変化させ、変化の前後それぞれにおいて、視覚センサにより取得されるワーク画像の変化と、カメラの取り付け位置姿勢の仮の値からワークの位置変化を求める。この際、仮の値を複数用意し、ワークの位置変化が最小となるものを選択することで、カメラの取り付け位置を決定することができる。   Further, in Patent Document 3, the posture of a robot arm having a visual sensor attached to the tip is changed, and before and after the change, the change in the work image acquired by the visual sensor and the provisional value of the camera attachment position and posture are determined. Find the position change of the workpiece. At this time, the camera mounting position can be determined by preparing a plurality of temporary values and selecting the one that minimizes the workpiece position change.

特許文献3では、ワークの置き場所を自由に設定でき、実際の作業に近い状態でキャリブレーションができる利点がある。   In Patent Document 3, there is an advantage that the place where the workpiece is placed can be freely set and calibration can be performed in a state close to actual work.

特許第2682763号公報Japanese Patent No. 2668263 特開平11−33962号公報JP 11-33962 A 特開2007−61979号公報JP 2007-61979 A

ところで、特許文献1、特許文献3にみられるように、現在、手先カメラのキャリブレーション手法はいくつか提案されている。しかし、キャリブレーションの実行の際に特別な冶具が必要となっている。すなわち、特許文献1、特許文献3では専用のキャリブレーション用の装置、治具が必要となり、キャリブレーションのために多くの時間とコストが必要となる問題がある。特許文献2は、手先カメラではないが、マニピュレータ先端の位置を観測するためのカメラのキャリブレーションであるとともに、マニピュレータに取付する専用の治具が必要となる。   By the way, as can be seen in Patent Document 1 and Patent Document 3, several methods for calibrating the hand camera have been proposed. However, a special jig is required when performing calibration. In other words, Patent Documents 1 and 3 require a dedicated calibration device and jig, and there is a problem that much time and cost are required for calibration. Although Patent Document 2 is not a hand camera, it is a camera calibration for observing the position of the manipulator tip and requires a dedicated jig to be attached to the manipulator.

本発明の目的は、直線部を有するだけの簡単な構成の治具により、センサのキャリブレーションのみならずマニピュレータのキャリブレーションをどこでも簡単に行うことができるとともに、前記治具の準備などの作業工数を大幅に削減できるばかりか、特別な治具が準備できない環境でも即座にキャリブレーションを行うことが可能であり、マニピュレータに求められる本来の作業を行うための不必要な待ち時間や工数が削減できるマニピュレータのキャリブレーション方法を提供することにある。   An object of the present invention is to easily perform calibration of a manipulator as well as calibration of a sensor anywhere with a jig having a simple configuration having only a straight portion, and man-hours such as preparation of the jig. This makes it possible to calibrate immediately even in environments where special jigs cannot be prepared, thereby reducing unnecessary waiting time and man-hours for the original work required for manipulators. It is to provide a manipulator calibration method.

又、本発明の他の目的は、上記のキャリブレーション方法を実行するロボット制御システムを提供することにある。   Another object of the present invention is to provide a robot control system for executing the above calibration method.

上記問題点を解決するために、請求項1に記載の発明は、マニピュレータの周囲に配置された治具の直線部上の複数の点を、互いに異なる複数の観測位置姿勢をとらせた状態で、前記マニピュレータ先端に設けた視覚センサによりそれぞれ検出する第1ステップと、基準座標系を基準としたマニピュレータ先端座標系の原点位置姿勢と、前記マニピュレータ先端を基準とする前記視覚センサのセンサ座標系の原点位置姿勢を未知変数とした関数であるとともに、前記直線部上の点(以下、検出点という)の基準座標系座標を、前記観測位置姿勢毎にそれぞれ求める第2ステップと、前記観測位置姿勢毎に求めた前記直線部上の検出点の2つを一組としたとき、複数の組から前記関数を要素とするとともに、前記基準座標系を基準とした前記直線部の単位方向ベクトルを複数算出し、算出した前記直線部の単位方向ベクトルと、基準座標系のベクトル変数で表される前記直線部の単位方向ベクトルが等しいことを利用して連立方程式を作り、最小二乗法により、前記マニピュレータに関する第1較正値を求めるとともに、前記視覚センサのセンサ座標系の原点位置姿勢であって、前記マニピュレータ先端を基準とするセンサ座標系の原点位置姿勢を第2較正値として求める第3ステップを含むことを特徴とするマニピュレータのキャリブレーション方法を要旨としている。   In order to solve the above-mentioned problem, the invention according to claim 1 is a state in which a plurality of points on the linear portion of the jig arranged around the manipulator are in a plurality of different observation positions and postures. The first step of detecting by the visual sensor provided at the tip of the manipulator, the origin position and orientation of the manipulator tip coordinate system based on the reference coordinate system, and the sensor coordinate system of the visual sensor based on the manipulator tip A second step of obtaining a reference coordinate system coordinate of a point on the straight line portion (hereinafter referred to as a detection point) for each observation position and orientation, which is a function having an origin position and orientation as an unknown variable; When two detection points on the straight line portion obtained every time are set as one set, the function is used as an element from a plurality of sets, and the straight line with reference to the reference coordinate system is used. A plurality of unit direction vectors of the part is calculated, and the calculated unit direction vector of the straight line part and the unit direction vector of the straight line part represented by the vector variable of the reference coordinate system are used to create simultaneous equations, A first calibration value related to the manipulator is obtained by a least square method, and the origin position and orientation of the sensor coordinate system of the visual sensor, and the origin position and orientation of the sensor coordinate system with reference to the tip of the manipulator is a second calibration value. The gist of the present invention is a manipulator calibration method characterized by including a third step obtained as follows.

請求項2の発明は、請求項1において、前記連立方程式は、線形化して一次近似式にしたものであることを特徴とする。
請求項3の発明は、請求項2おいて、前記第1較正値及び第2較正値が、それぞれ仮の実数と誤差変数の和で成り立っているものとしたとき、前記第3ステップでは、第1較正値及び第2較正値がそれぞれ得られたとき、前記仮の実数を、該得られた第1較正値及び第2較正値に更新した後、前記誤差変数が予め定められた閾値以下になるまで前記第3ステップの処理を繰り返すことを特徴とする。
The invention of claim 2 is characterized in that, in claim 1, the simultaneous equations are linearized into a first-order approximation.
According to a third aspect of the present invention, in the second aspect, when the first calibration value and the second calibration value are each composed of a temporary real number and a sum of error variables, When the first calibration value and the second calibration value are obtained, respectively, the temporary real number is updated to the obtained first calibration value and the second calibration value, and then the error variable is equal to or less than a predetermined threshold value. The process of the third step is repeated until it becomes.

請求項4の発明は、請求項1乃至請求項3のうちいずれか1項において、前記治具は、複数の面と面間に設けられた複数の稜線を有し、前記直線部は、複数の稜線のうち、1つの稜線であることを特徴とする。   According to a fourth aspect of the present invention, in any one of the first to third aspects, the jig has a plurality of surfaces and a plurality of ridge lines provided between the surfaces. Among the ridge lines, it is one ridge line.

請求項5の発明は、マニピュレータの周囲に配置された治具の直線部上の複数の点を検出するために前記マニピュレータの互いに異なる複数の観測位置姿勢をとらせる制御手段と、前記マニピュレータの互いに異なる複数の観測位置姿勢毎に、マニピュレータ先端に設けられた視覚センサが前記治具の直線部上の異なる複数の点についてそれぞれ検出した値を記憶する記憶手段と、基準座標系を基準としたマニピュレータ先端座標系の原点位置姿勢と、前記マニピュレータ先端を基準とする前記視覚センサのセンサ座標系の原点位置姿勢を未知変数とした関数であるとともに、前記直線部上の点(以下、検出点という)の基準座標系座標を、前記観測位置姿勢毎にそれぞれ求める検出点座標算出手段と、前記観測位置姿勢毎に求めた前記直線部上の検出点の2つを一組としたとき、複数の組から前記関数を要素とするとともに、前記基準座標系を基準とした前記直線部の単位方向ベクトルを複数算出し、算出した前記直線部の単位方向ベクトルと、基準座標系のベクトル変数で表される前記直線部の単位方向ベクトルが等しいことを利用して連立方程式を作り、最小二乗法により、前記マニピュレータに関する第1較正値を求めるとともに、前記マニピュレータ先端を基準とするセンサ座標系の原点位置姿勢を第2較正値として求める処理を行う較正値算出手段を含むことを特徴とするロボット制御システムを要旨としている。   According to a fifth aspect of the present invention, there is provided control means for taking a plurality of different observation position / postures of the manipulator in order to detect a plurality of points on a linear portion of a jig arranged around the manipulator; A storage means for storing values detected by a visual sensor provided at the tip of the manipulator for each of a plurality of different points on the linear portion of the jig for each of a plurality of different observation positions and orientations, and a manipulator based on a reference coordinate system It is a function with the origin position and orientation of the tip coordinate system and the origin position and orientation of the sensor coordinate system of the visual sensor relative to the tip of the manipulator as unknown variables, and a point on the straight line portion (hereinafter referred to as a detection point) Detection point coordinate calculation means for each of the observation position and orientation, and the straight line obtained for each of the observation position and orientation When two of the upper detection points are set as one set, the function is used as an element from a plurality of sets, and a plurality of unit direction vectors of the straight line portion with respect to the reference coordinate system are calculated, and the calculated straight line A simultaneous equation is created using the fact that the unit direction vector of the part and the unit direction vector of the straight line part represented by the vector variable of the reference coordinate system are equal, and the first calibration value for the manipulator is obtained by the least square method In addition, the gist of the robot control system includes calibration value calculation means for performing processing for obtaining the origin position and orientation of the sensor coordinate system based on the tip of the manipulator as a second calibration value.

請求項6の発明は、請求項5において、前記較正値算出手段は、前記連立方程式を、線形化して一次近似式にした上で前記較正値を算出するものであることを特徴とする。
請求項7の発明は、請求項6において、前記較正値算出手段は、前記第1較正値及び第2較正値が、それぞれ仮の実数と誤差変数の和で成り立っているものとし、第1較正値及び第2較正値がそれぞれ得られたとき、前記仮の実数を、該得られた第1較正値及び第2較正値に更新した後、前記誤差変数が予め定められた閾値以下になるまで、前記処理を繰り返すことを特徴とする。
The invention of claim 6 is characterized in that, in claim 5, the calibration value calculation means calculates the calibration value after linearizing the simultaneous equations into a linear approximation.
According to a seventh aspect of the present invention, in the sixth aspect, the calibration value calculating means is configured such that the first calibration value and the second calibration value are each composed of a temporary real number and a sum of error variables, When the value and the second calibration value are respectively obtained, the temporary real number is updated to the obtained first calibration value and the second calibration value, and then the error variable is equal to or less than a predetermined threshold value. The process is repeated.

請求項1の発明によれば、直線部を有するだけの簡単な構成の治具により、センサのキャリブレーションのみならずマニピュレータのキャリブレーションをどこでも簡単に行うことができる。又、治具の準備などの作業工数を大幅に削減できるばかりか、特別な治具が準備できない環境でも即座にキャリブレーションを行うことが可能であり、マニピュレータに求められる本来の作業を行うための不必要な待ち時間や工数が削減できる。   According to the first aspect of the present invention, not only the calibration of the sensor but also the calibration of the manipulator can be easily performed everywhere with a jig having a simple configuration having only a straight portion. In addition to greatly reducing the number of man-hours required for jig preparation, it is possible to calibrate immediately even in environments where special jigs cannot be prepared, and to perform the original work required for manipulators. Unnecessary waiting time and man-hours can be reduced.

請求項2の発明によれば、連立方程式が線形化して一次近似式にされているため、第3ステップの処理で行う計算を簡便化でき、線形化して一次近似式にしない場合に比して、演算に係る時間を短くできる効果がある。   According to the invention of claim 2, since the simultaneous equations are linearized to be a linear approximation, the calculation performed in the third step process can be simplified, compared with the case where the linearization is not made to be a linear approximation. There is an effect that the time required for the calculation can be shortened.

請求項3の発明によれば、前記連立方程式を線形化すると誤差が生じるが、この誤差を閾値以下にすることができ、較正値の精度を保障することができる。
請求項4の発明によれば、治具の稜線を直線部としているため、特別な治具が必要でなくなり、直方体、立方体等の直線部を面間に有する既存の治具を使用することができ、或いは単純な形状の治具で良くなり、キャリブレーションのための特別な形状の治具を必要としない。
According to the third aspect of the present invention, an error occurs when the simultaneous equations are linearized. However, this error can be reduced to a threshold value or less, and the accuracy of the calibration value can be ensured.
According to the invention of claim 4, since the ridge line of the jig is a straight part, a special jig is not necessary, and an existing jig having a straight part such as a rectangular parallelepiped or a cube between the surfaces can be used. Or a simple jig can be used, and no special jig is required for calibration.

請求項5の発明によれば、上記の請求項1のキャリブレーション方法を実行するロボット制御システムを提供できる。
請求項6の発明によれば、較正値算出手段は連立方程式が線形化して一次近似式にするため、第3ステップの処理で行う計算を簡便化でき、線形化して一次近似式にしない場合に比して、演算に係る時間を短くできるキャリブレーション方法を実行するロボット制御システムを提供できる。
According to invention of Claim 5, the robot control system which performs the calibration method of said Claim 1 can be provided.
According to the invention of claim 6, since the simultaneous equation is linearized into a linear approximation formula, the calculation performed in the process of the third step can be simplified, and when the linearization is not made into the linear approximation formula. In comparison, it is possible to provide a robot control system that executes a calibration method that can shorten the time required for computation.

請求項7の発明によれば、前記連立方程式を線形化すると誤差が生じるが、この誤差を閾値以下にすることができ、較正値の精度を保障することができるキャリブレーション方法を実行するロボット制御システムを提供できる。   According to the invention of claim 7, an error occurs when the simultaneous equations are linearized. The robot control that executes the calibration method that can reduce the error to a threshold value and ensure the accuracy of the calibration value. Can provide a system.

一実施形態のロボット制御システムの構成を示すブロック図。The block diagram which shows the structure of the robot control system of one Embodiment. レーザ変位センサLSが治具に対して観測位置姿勢を変化させた状態を示す説明図。Explanatory drawing which shows the state which the laser displacement sensor LS changed the observation position attitude | position with respect to the jig | tool. 実施形態で使用する座標系の説明図。Explanatory drawing of the coordinate system used by embodiment.

以下、本発明を具体化した視覚センサを有するマニピュレータのキャリブレーション方法及びロボット制御システムを具体化した一実施形態を図1〜3を参照して説明する。
図1はロボット制御システム10の構成を示すブロック図である。ロボット制御システム10は、ワーク(作業対象物)に対して、特定の作業を行うように制御するものである。ロボット制御システム10は、前記作業を行うマニピュレータMと、マニピュレータMを制御するロボット制御装置RCと、ワークの形状を検出する視覚センサ及びレーザセンサとしてのレーザ変位センサLSとを備える。
Hereinafter, an embodiment in which a calibration method for a manipulator having a visual sensor embodying the present invention and a robot control system are embodied will be described with reference to FIGS.
FIG. 1 is a block diagram showing the configuration of the robot control system 10. The robot control system 10 controls the work (work object) to perform a specific work. The robot control system 10 includes a manipulator M that performs the above operation, a robot control device RC that controls the manipulator M, a visual sensor that detects the shape of a workpiece, and a laser displacement sensor LS as a laser sensor.

マニピュレータMは、フロア等に固定されるベース部材12と、複数の回転軸を介して連結された複数のアーム13とを備える。本実施形態のロボットは、6軸のロボットである。最も先端側に位置するアーム13先端(すなわち、マニピュレータM先端)には、前記特定の作業を行うためのツール(図示しない)、例えば、溶接トーチ、塗装ガン、ロボットハンド等が設けられる。   The manipulator M includes a base member 12 fixed to a floor or the like, and a plurality of arms 13 connected via a plurality of rotating shafts. The robot of this embodiment is a 6-axis robot. A tool (not shown) for performing the specific operation, for example, a welding torch, a paint gun, a robot hand, or the like, is provided at the distal end of the arm 13 (that is, the distal end of the manipulator M) located on the most distal side.

ロボット制御装置RCは、コンピュータからなる。すなわち、ロボット制御装置RCはCPU(中央処理装置)20、マニピュレータMを制御するための各種プログラムを記憶する書き換え可能なROM21や、作業メモリとなるRAM22、各種データを記憶する書換可能な不揮発性メモリからなる記憶部23を備える。CPU20は、制御手段、検出点座標算出手段、及び較正値算出手段に相当する。又、記憶部23は記憶手段に相当する。   The robot controller RC is composed of a computer. That is, the robot controller RC is a CPU (central processing unit) 20, a rewritable ROM 21 that stores various programs for controlling the manipulator M, a RAM 22 that is a working memory, and a rewritable nonvolatile memory that stores various data. The memory | storage part 23 which consists of is provided. The CPU 20 corresponds to control means, detection point coordinate calculation means, and calibration value calculation means. The storage unit 23 corresponds to a storage unit.

前記ROM21には、マニピュレータのキャリブレーション、及び、前記ツールの特定の作業を行わせるための各種のロボット制御プログラムが記憶されている。そして、前記プログラムに従って前記CPU20が、各アーム13間に設けられた図示しないモータを制御駆動することにより、前記ツールの位置姿勢及びレーザ変位センサLSの観測位置姿勢が変化する。   The ROM 21 stores various robot control programs for performing calibration of the manipulator and specific work of the tool. The CPU 20 controls and drives a motor (not shown) provided between the arms 13 according to the program, whereby the position and orientation of the tool and the observation position and orientation of the laser displacement sensor LS change.

レーザ変位センサLSは、前記ツールと併設されるようにアーム13先端(すなわち、マニピュレータ先端)にブラケットBrを介して取付けされている(図3参照)。そして、本実施形態では、このマニピュレータM先端において、任意の一点を基準とするセンサ座標系の原点位置姿勢を後述する第2較正値Cとして求めるようにしている。なお、本実施形態では、マニピュレータM先端において、前記ブラケットの取付部位を前記任意の一点としているが、限定するものではなく、マニピュレータM先端の特定の位置を任意の一点とすればよい。   The laser displacement sensor LS is attached to the tip of the arm 13 (that is, the tip of the manipulator) via a bracket Br so as to be attached to the tool (see FIG. 3). In this embodiment, the origin position / posture of the sensor coordinate system with an arbitrary point as a reference is obtained as a second calibration value C to be described later at the tip of the manipulator M. In the present embodiment, at the tip of the manipulator M, the mounting part of the bracket is the one arbitrary point. However, the present invention is not limited, and a specific position of the manipulator M may be an arbitrary point.

レーザ変位センサLSは、二次元レーザセンサであって、レーザの発光及び受光によりワークWまでの距離を測定する走査型のレーザ変位センサであり、図2に示すようにレーザ照射部Lsaから扇形の検出範囲を有する。前記レーザ変位センサLSは、レーザを照射するレーザ照射部Lsaと、ワーク等の作業対象物で反射したレーザを受光する受光部(図示しない)等を備える。レーザ変位センサLSが検出した値は、図1に示すセンサインターフェイスユニット24を介してロボット制御装置RCに出力され、記憶部23に格納される。   The laser displacement sensor LS is a two-dimensional laser sensor that is a scanning type laser displacement sensor that measures the distance to the workpiece W by light emission and light reception of a laser. As shown in FIG. It has a detection range. The laser displacement sensor LS includes a laser irradiation unit Lsa that irradiates a laser, a light receiving unit (not shown) that receives a laser beam reflected by a work target such as a workpiece, and the like. The value detected by the laser displacement sensor LS is output to the robot control device RC via the sensor interface unit 24 shown in FIG.

上記のように構成されたロボット制御システム10を使用して、マニピュレータM及びレーザ変位センサLSのキャリブレーションの方法を説明する。
(作業手順)
まず、本実施形態のキャリブレーションの作業手順について説明する。
A method for calibrating the manipulator M and the laser displacement sensor LS will be described using the robot control system 10 configured as described above.
(Work procedure)
First, the calibration procedure of the present embodiment will be described.

マニピュレータM先端に対して、レーザ変位センサLSをブラケットBrを介して取り付ける。このとき、マニピュレータM先端からレーザ照射部Lsaまでの、位置姿勢を測定し、あるいは、ブラケットBr及びレーザ変位センサLSのカタログ値に基づいて得ておき、この位置姿勢を第2較正値Cの仮の実数(すなわち、近似値)として、予め図示しないティーチペンダント、或いはパーソナルコンピュータ等の入力装置を介して、ロボット制御装置RCの記憶部23に格納しておく。   A laser displacement sensor LS is attached to the tip of the manipulator M via a bracket Br. At this time, the position and orientation from the tip of the manipulator M to the laser irradiation unit Lsa are measured, or obtained based on the catalog values of the bracket Br and the laser displacement sensor LS, and the position and orientation are temporarily calculated as the second calibration value C. Are stored in advance in the storage unit 23 of the robot controller RC via an input device such as a teach pendant or a personal computer (not shown).

又、テーブル30上に治具Gを配置する。なお、治具Gの配置はテーブル30上に限定するものではなく、床面に直接配置して、動かないようにしてもよい。治具Gは、本実施形態では、複数の面、及び互いに隣接する面間には直線を有する稜線を有する。又、本実施形態では、治具Gは図2に示すように平板、或いは直方体に形成され、上面の長手方向に延びる上面の稜線が直線部32とされている。すなわち、治具Gは複数の平面を有しているとともに複数の稜線を有しており、この複数の稜線のうち、上面の縁部に設けられた1つの稜線を直線部32としている。   A jig G is arranged on the table 30. In addition, arrangement | positioning of the jig | tool G is not limited on the table 30, You may arrange | position directly on a floor surface so that it may not move. In the present embodiment, the jig G has a plurality of surfaces and ridge lines having straight lines between adjacent surfaces. In the present embodiment, the jig G is formed in a flat plate or a rectangular parallelepiped as shown in FIG. 2, and the ridge line on the upper surface extending in the longitudinal direction of the upper surface is the straight portion 32. In other words, the jig G has a plurality of planes and a plurality of ridge lines, and among the plurality of ridge lines, one ridge line provided at the edge of the upper surface is defined as the straight line portion 32.

次に、前記ROM21に格納したキャリブレーションの算出プログラムをCPU20が実行することにより、CPU20は図示しないマニピュレータMの各回転軸のモータを駆動制御する。このCPU20のマニピュレータMの制御により、検出点の検出のための観測位置姿勢、すなわち、マニピュレータM先端の観測位置姿勢を異ならしめて、すなわち、これらの複数の観測位置姿勢(図2では、姿勢1、姿勢2、姿勢3で示す。)のもとで、レーザ変位センサLSにより治具Gに設けられた直線部32上の異なる複数の点を測定する。観測位置姿勢の数は、少なくとも6点以上が必要である。この処理は第1ステップに相当する。   Next, when the CPU 20 executes the calibration calculation program stored in the ROM 21, the CPU 20 drives and controls the motors of the rotating shafts of the manipulator M (not shown). Under the control of the manipulator M of the CPU 20, the observation position / posture for detecting the detection point, that is, the observation position / posture at the tip of the manipulator M is made different, that is, a plurality of these observation position / postures (posture 1, A plurality of different points on the linear portion 32 provided on the jig G are measured by the laser displacement sensor LS. The number of observation positions and orientations must be at least 6 points. This process corresponds to the first step.

なお、観測位置姿勢の数(すなわち、検出点の数)は、ロボットの軸数に応じて、決定すればよい。
例えば、ロボットの軸数の増減に応じて、較正するマニピュレータのパラメータは増減するが、較正するパラメータの数をp個とすると、検出点の数qは、下式を満たす必要がある。
Note that the number of observation positions and orientations (that is, the number of detection points) may be determined according to the number of axes of the robot.
For example, the parameter of the manipulator to be calibrated increases or decreases according to the increase or decrease of the number of axes of the robot, but if the number of parameters to be calibrated is p, the number of detection points q needs to satisfy the following equation.

p< ×3 (なお、は組み合わせを表す。)、
これを解くと、3q−3q−2p>0 となる。
従って、q>√(9+24p)/6
となる。このため、本実施形態の6軸ロボットの場合は、
p=45(=6×6+6+3)となるため、
q>5.5となり、検出点の数qは正の整数であるから、6以上となる。なお、「6×6+6+3」中、「6×6」はマニピュレータのパラメータ数であり、「6」は、センサのパラメータ数であり、「3」は直線部32のパラメータ数である。
p < q C 2 × 3 (where q C 2 represents a combination),
When this is solved, 3q 2 -3q-2p> 0.
Therefore, q> √ (9 + 24p) / 6
It becomes. For this reason, in the case of the 6-axis robot of this embodiment,
Since p = 45 (= 6 × 6 + 6 + 3),
Since q> 5.5 and the number of detection points q is a positive integer, it is 6 or more. In “6 × 6 + 6 + 3”, “6 × 6” is the number of parameters of the manipulator, “6” is the number of parameters of the sensor, and “3” is the number of parameters of the straight line portion 32.

次に、ロボット制御装置RCは、レーザ変位センサLSでそれぞれ測定した点(以下、検出点という)における検出値をセンサインターフェイスユニット24を介して取り込み、記憶部23に記憶する。図2では、前記検出点は、姿勢1〜姿勢3において、それぞれ測定した検出点をK1〜K3で示している。   Next, the robot controller RC takes in the detected values at the points (hereinafter referred to as detection points) measured by the laser displacement sensor LS via the sensor interface unit 24 and stores them in the storage unit 23. In FIG. 2, the detected points are indicated by K <b> 1 to K <b> 3 in the postures 1 to 3, respectively.

この後、ロボット制御装置RCのCPU20は、前記検出値と、予め記憶部23に記憶されている、マニピュレータMのリンクパラメータの初期値を使用して、マニピュレータに関する第1較正値と、レーザ変位センサLSの取付誤差を求める。なお、リンクパラメータは、例えば、デナビット・ハーテンバーグ法(Denavit-Hartenberg method )により、マニピュレータMを構成している各アーム寸法と各回転軸の配置を定義したものであり、公知であるため、説明を省略する。前記リンクパラメータの初期値は記憶部23に格納されている。   Thereafter, the CPU 20 of the robot controller RC uses the detected value and the initial value of the link parameter of the manipulator M, which is stored in the storage unit 23 in advance, and the first calibration value related to the manipulator, the laser displacement sensor, and so on. Find the LS mounting error. The link parameter defines the dimensions of each arm constituting the manipulator M and the arrangement of each rotation axis by, for example, the Denavit-Hartenberg method, and is well known. Omitted. The initial value of the link parameter is stored in the storage unit 23.

(較正値の算出)
次に、CPU20が実行する較正値の算出方法について説明する。
まず、本実施形態において、基本要素となる座標系、座標変換行列(同次変換行列)及びベクトルの定義を図3を参照して説明する。なお、本実施形態で説明する各座標系は右手直交系である。
(Calculation of calibration value)
Next, a calibration value calculation method executed by the CPU 20 will be described.
First, in this embodiment, the definition of a coordinate system, a coordinate transformation matrix (homogeneous transformation matrix), and vectors as basic elements will be described with reference to FIG. Each coordinate system described in the present embodiment is a right-handed orthogonal system.

図3中、Tiは、姿勢i(i=1,2,3……)におけるロボット座標系を基準としたマニピュレータM先端のJ6基準座標系(すなわち、マニピュレータ先端座標系)の原点位置姿勢であって観測により求めることができる。Tiは、観測により求まるエンコーダ値と、求める第1較正値となる未知パラメータより成り立つ。なお、J6は、マニピュレータMの回転軸をベース部材12側から順に数えて第6番目を表している。従って、J6基準座標系とは、第6番目の回転軸を基準とした座標系のことである。   In FIG. 3, Ti is the origin position / posture of the J6 reference coordinate system (that is, the manipulator tip coordinate system) of the manipulator M tip relative to the robot coordinate system in the posture i (i = 1, 2, 3,...). Can be obtained by observation. Ti is composed of an encoder value obtained by observation and an unknown parameter serving as a first calibration value to be obtained. J6 represents the sixth when the rotation shaft of the manipulator M is counted in order from the base member 12 side. Therefore, the J6 reference coordinate system is a coordinate system based on the sixth rotation axis.

又、ロボット座標系は、図3に示すようにベース部材12の特定点を原点とする座標系であり、基準座標系に相当する。前記特定点は、ベース部材12上の任意の点でよい。
Cは、マニピュレータM先端のJ6基準座標系を基準としたレーザ照射部Lsaの座標系の原点位置姿勢であって未知数であり、本実施形態において算出する較正値(すなわち、第2較正値)である。ここで、レーザ照射部Lsaの座標系は、センサ座標系に相当する。センサ座標系は、レーザの照射方向をx軸(+)方向とした右手直交系である。
Further, the robot coordinate system is a coordinate system having a specific point of the base member 12 as an origin as shown in FIG. 3, and corresponds to a reference coordinate system. The specific point may be an arbitrary point on the base member 12.
C is the origin position and orientation of the coordinate system of the laser irradiation unit Lsa with respect to the J6 reference coordinate system at the tip of the manipulator M, and is an unknown number, and is a calibration value (that is, a second calibration value) calculated in the present embodiment. is there. Here, the coordinate system of the laser irradiation part Lsa corresponds to a sensor coordinate system. The sensor coordinate system is a right-handed orthogonal system in which the laser irradiation direction is the x-axis (+) direction.

は、姿勢iにおけるレーザ照射部Lsaの座標系(センサ座標系)を基準とした検出点の位置であり、レーザ変位センサLSの出力(すなわち、検出値)により求めることができる。 F i is the position of the detection point with reference to the coordinate system (sensor coordinate system) of the laser irradiation unit Lsa in the posture i, and can be obtained from the output (ie, detection value) of the laser displacement sensor LS.

は、姿勢iにおけるロボット座標系(基準座標系)を基準とした検出点の位置であり、T、C、Fから求めることができる。
なお、P,Pは、リンクパラメータと、視覚センサが検出した値とから、第1較正値となる未知パラメータを含むTiと、第2較正値Cとを未知変数とした関数に相当する。
P i is the position of the detection point based on the robot coordinate system (reference coordinate system) in posture i, and can be obtained from T i , C, and F i .
Note that P i and P j correspond to functions using the link parameter and the value detected by the visual sensor as an unknown variable with Ti including the unknown parameter serving as the first calibration value and the second calibration value C. .

前記リンクパラメータの初期値は、後述する繰り返し演算のときのTに関する第1較正値xaj,yaj,zaj,αaj,βaj,μaiを求める際の仮の実数A' の初期値となる。ここで、x,y,z,α,β,μのサフィックスaは、これらの値が仮の実数であることを意味している。 The initial value of the link parameter is an initial value of a temporary real number A ′ used to obtain the first calibration values x aj , y aj , z aj , α aj , β aj , and μ ai related to T i in the later-described iterative calculation. Value. Here, the suffix a of x, y, z, α, β, μ means that these values are provisional real numbers.

Cについての初期値は、レーザ変位センサLSを取り付けるブラケットBrとレーザ変位センサLS自身の形から、較正値Cの併進とロール・ピッチ・ヨーのパラメータの近似値として得られる。これら初期値は、予め記憶部23に格納されている。   The initial value for C is obtained as an approximation of the translation of the calibration value C and the parameters of roll, pitch, and yaw from the shape of the bracket Br to which the laser displacement sensor LS is attached and the laser displacement sensor LS itself. These initial values are stored in the storage unit 23 in advance.

Lは、ロボット座標系を基準とした直線部32の単位方向ベクトルであって、未知の値である。なお、T、Cは4×4の同次変換行列であり、F、P及びLは4次元ベクトルである。 L is a unit direction vector of the straight line portion 32 based on the robot coordinate system, and is an unknown value. T i and C are 4 × 4 homogeneous transformation matrices, and F i , P i, and L are four-dimensional vectors.

次に、前記各基本要素についてCPU20が行う算出について説明する。
マニピュレータMにおいて、姿勢iにおけるj−1軸先端の座標系を基準としたj軸先端の座標系の原点位置姿勢の同次変換行列をAijとする。Aijを併進とロール・ピッチ・ヨーのパラメータ(x,y,z,yaw,pitch,roll)=(xaj,yaj,zaj,αaj,βaj,γaij)で表すと式(1)となる。
Next, calculation performed by the CPU 20 for each basic element will be described.
In the manipulator M, let A ij be the homogeneous transformation matrix of the origin position and orientation of the coordinate system at the tip of the j-axis with reference to the coordinate system at the tip of the j−1 axis in the orientation i. When A ij is expressed by parameters of translation and roll, pitch, and yaw (x, y, z, yaw, pitch, roll) = (x aj , y aj , z aj , α aj , β aj , γ aij ), 1).

Figure 0005450242
ここで、xaj,yaj,zaj,αaj,βajはロボット毎に決定される値である。又、γaijは、マニピュレータMの各回転軸を駆動するモータに設けられたロータリーエンコーダのエンコーダ値εijとロボット毎に決定されるμaiの和で表される値である。xaj,yaj,zaj,αaj,βaj,μaiは本実施形態で求める前記Tiに関する第1較正値である。
Figure 0005450242
Here, x aj , y aj , z aj , α aj , and β aj are values determined for each robot. Γ aij is a value represented by the sum of the encoder value ε ij of the rotary encoder provided in the motor that drives each rotating shaft of the manipulator M and μ ai determined for each robot. x aj , y aj , z aj , α aj , β aj , and μ ai are first calibration values related to Ti obtained in the present embodiment.

Figure 0005450242
又、本実施形態では、Tiはベース部材12から6つ目のアームであるAi6先端の座標なので式(3)で表される。
Figure 0005450242
In this embodiment, since Ti is the coordinate of the tip of Ai6, which is the sixth arm from the base member 12, it is expressed by Expression (3).

Figure 0005450242
レーザ照射部Lsaの座標系(センサ座標系)を基準とした姿勢iにおける検出点の位置Fiは式(4)で表される。ここでyfi,zfi はレーザ変位センサLSにより取得される値である。なお、式(4)式及び式(5)中の「T」は転置行列を表している。
Figure 0005450242
The position Fi of the detection point in the posture i with reference to the coordinate system (sensor coordinate system) of the laser irradiation unit Lsa is expressed by Expression (4). Here, y fi and z fi are values acquired by the laser displacement sensor LS. Note that “T” in Equation (4) and Equation (5) represents a transposed matrix.

Figure 0005450242
ロボット座標系(基準座標系)を基準とした直線部32の単位方向ベクトルLは式(5)で表される。ここでxl,yl,zlは未知の値であって、ベクトル変数である。
Figure 0005450242
The unit direction vector L of the straight line portion 32 with reference to the robot coordinate system (reference coordinate system) is expressed by Expression (5). Here, x l , y l and z l are unknown values and are vector variables.

Figure 0005450242
そして、CPU20は、ロボット座標系(基準座標系)を基準とした姿勢iにおける検出点の位置Pを式(6)で算出する。
Figure 0005450242
Then, the CPU 20 calculates the position P i of the detection point in the posture i with the robot coordinate system (reference coordinate system) as a reference, using Expression (6).

Figure 0005450242
この式(6)の計算処理は、第2ステップに相当する。
Figure 0005450242
The calculation process of Equation (6) corresponds to the second step.

(拘束条件、及び較正値のCPU20による算出)
上記のように互いに異なる検出点は全て直線部32上であるため、i番目の検出点からj番目の検出点に向かうベクトルは直線部32の方向ベクトルとなる。この方向ベクトルは正規化すると単位方向ベクトルとなり、ロボット座標系を基準とした直線部32の単位方向ベクトルLに等しくなる。式(7)中、左辺において、分子は方向ベクトルを示し、分母は正規化していることを示している。
(Calculation of constraint conditions and calibration values by CPU 20)
Since different detection points are all on the straight line portion 32 as described above, the vector from the i-th detection point to the j-th detection point is the direction vector of the straight line portion 32. When this direction vector is normalized, it becomes a unit direction vector and is equal to the unit direction vector L of the straight line portion 32 with reference to the robot coordinate system. In the equation (7), on the left side, the numerator indicates a direction vector, and the denominator indicates normalization.

Figure 0005450242
なお、前記式(7)は四次元のベクトル式であるが、四次元目が全て0であるため、実質はCとLに含まれる未知数(すなわち、前記較正値)を変数とした関数を要素とする3次元ベクトルであり、要素ごとの3つの方程式が成り立つ。又、検出点の検出、すなわち、観測位置姿勢の組の総数を考慮すると、CとLに含まれる未知数を変数とした方程式は、取得した観測位置姿勢の数をnとすると、3×(n(n−1))/2個取得できる。例えば、観測位置姿勢nが6の場合、45個の方程式を取得できる。
Figure 0005450242
The equation (7) is a four-dimensional vector equation, but since the fourth dimension is all 0, the function is essentially a function with unknowns included in C and L (that is, the calibration value) as variables. The three equations for each element hold. Further, in consideration of detection point detection, that is, the total number of observation position / posture sets, an equation using unknowns included in C and L as variables is 3 × (n (N-1)) / 2 can be acquired. For example, when the observation position / posture n is 6, 45 equations can be acquired.

CPU20は、これらの方程式を生成して、すなわち連立方程式を生成して、最小二乗法を使用することにより、未知数を求める。すなわち、較正値xaj,yaj,zaj,αaj,βaj,μai、及び較正値Cを求める。なお、CPU20のここでの処理は第3ステップに相当する。 The CPU 20 generates these equations, that is, generates simultaneous equations, and obtains the unknown by using the least square method. That is, the calibration values x aj , y aj , z aj , α aj , β aj , μ ai , and the calibration value C are obtained. The process performed by the CPU 20 corresponds to the third step.

(CPU20による線形化と繰り返し演算)
ここで、線形化について述べる。本実施形態では、簡単化のために変数の線形化を行う。又、未知数が多い理由から、説明を簡略化するとともに、誤差変数を微少値として扱うために、変数(すなわち、未知数)をAという一般形で表して説明する。ここでは、変数Aを仮の実数A' と、AとA' との差を表す誤差変数ΔAとに分割し、Aをそれらの和(A' +ΔA)で表す。すなわち、A=A' +ΔAで表す。ここで、未知数Aを、前記較正値(すなわち、第1較正値及び第2較正値を含む)として考えるものとする。
(Linearization and repeated calculation by CPU 20)
Here, linearization will be described. In the present embodiment, linearization of variables is performed for simplification. In addition, because the number of unknowns is large, the description will be simplified, and the variable (that is, the unknown number) will be represented by a general form A in order to treat the error variable as a minute value. Here, the variable A is divided into a temporary real number A ′ and an error variable ΔA representing the difference between A and A ′, and A is represented by the sum (A ′ + ΔA) thereof. That is, A = A ′ + ΔA. Here, the unknown A is considered as the calibration value (that is, including the first calibration value and the second calibration value).

そして、前項までで説明した前記較正値(すなわち、未知数A)に関する計算を行うものとする。式(7)において作成された方程式を解く前に誤差変数ΔAが微少値ということを利用し、前記方程式の解を得るために、CPU20により、各式を1次のマクローリン展開による線形化を行う。   And the calculation regarding the said calibration value (namely, unknown A) demonstrated to the preceding clause shall be performed. In order to obtain the solution of the equation by using the fact that the error variable ΔA is a minute value before solving the equation created in Equation (7), the CPU 20 linearizes each equation by first-order Macrolin expansion. .

ここでマクローリン展開とは元関数をn次微分し、原点近傍の超平面の傾きを算出することで、原点周辺のn次の近似式を求める方法である。本実施形態では1次近似を行っているため、非常に簡単な式で記述できる。すなわち、式(7)を式(8)のように表すと、マクローリン展開の1次近似の式は式(9)にすることができる。   Here, Macrolin's expansion is a method for obtaining an nth-order approximate expression around the origin by differentiating the original function by nth order and calculating the inclination of the hyperplane near the origin. In the present embodiment, since linear approximation is performed, it can be described by a very simple expression. That is, when Expression (7) is expressed as Expression (8), a first-order approximation expression of the Macrolin expansion can be expressed as Expression (9).

Figure 0005450242
Figure 0005450242

Figure 0005450242
又、本実施形態では、CPU20は、様々な検出点i,jの組により、式(9)式から、最小二乗法により全ての未知数Aを求める、すなわち、初期値を除いた第1較正値xaj,yaj,zaj,αaj,βaj,μai、及び第2較正値Cを算出する。なお、算出した結果である第1較正値xaj,yaj,zaj,αaj,βaj,μai、及び第2較正値Cには線形化により誤差が生じるため、CPU20はA(=A' +ΔA)を新たな、A' として更新した後、始めから計算を行う。
Figure 0005450242
In the present embodiment, the CPU 20 obtains all unknowns A by the least square method from the equation (9) using various combinations of detection points i and j, that is, the first calibration value excluding the initial value. x aj , y aj , z aj , α aj , β aj , μ ai , and the second calibration value C are calculated. Since the first calibration value xaj , yaj , zaj , αaj , βaj , μai , and the second calibration value C, which are calculated results, cause errors due to linearization, the CPU 20 uses A (= After updating A ′ + ΔA) as a new A ′, the calculation starts from the beginning.

そして、誤差ΔAを構成している各変数、例えば、第2較正値Cの場合は、Δxc,Δy,Δz,Δα,Δβ,Δγの大きさが下記の式(12)、式(13)を満足する迄、この処理を繰り返す。 Each variable constitutes an error .DELTA.A, for example, in the case of the second calibration value C, Δxc, Δy c, Δz c, Δα c, Δβ c, the magnitude of [Delta] [gamma] c is the formula (12) below, This process is repeated until expression (13) is satisfied.

このことにより、最終的に求められる第2較正値Cの精度を保障している。式(12)、式(13)は、CPU20が行う閾値S,及び閾値θとの比較処理の例である。閾値S、閾値θはそれぞれ、位置及び姿勢の閾値である。   This ensures the accuracy of the second calibration value C finally obtained. Expressions (12) and (13) are examples of comparison processing performed by the CPU 20 with the threshold value S and the threshold value θ. The threshold value S and the threshold value θ are position and orientation threshold values, respectively.

Figure 0005450242
Figure 0005450242

Figure 0005450242
なお、Tiに関する第1較正値xaj,yaj,zaj,αaj,βaj,μaiに関しても、Cと同様にそれぞれ設けられた閾値よりも小さな値となるまで、CPU20はA(=A' +ΔA)を新たなA' として更新した後、前記処理を繰り返す。このことにより、最終的に求められるTiに関する第1較正値xaj,yaj,zaj,αaj,βaj,μaiの精度を保障している。
Figure 0005450242
Note that the first calibration values x aj , y aj , z aj , α aj , β aj , and μ ai related to Ti are similar to C, until the CPU 20 becomes A (= After updating A ′ + ΔA) as a new A ′, the above process is repeated. This guarantees the accuracy of the first calibration values x aj , y aj , z aj , α aj , β aj , and μ ai regarding the finally obtained Ti.

さて、本実施形態によれば、以下のような特徴がある。
(1) 本実施形態のキャリブレーション方法は、第1ステップとして、マニピュレータMの周囲に配置された治具Gの直線部32上の複数の点を、マニピュレータMの互いに異なる複数の観測位置姿勢とらせた状態で、レーザ変位センサLSによりそれぞれ検出する。また、第2ステップとして、ロボット座標系(基準座標系)を基準としたJ6基準座標系(マニピュレータ先端座標系)の原点位置姿勢Tiと、マニピュレータM先端を基準とするレーザ変位センサLSのレーザ照射部Lsaの座標系(センサ座標系)の原点位置姿勢Cを未知変数とした関数Pi,Pjであるとともに、直線部32上の検出点の基準座標系座標(ロボット座標系座標)を、観測位置姿勢毎にそれぞれ求める。
Now, according to this embodiment, there are the following features.
(1) In the calibration method of the present embodiment, as a first step, a plurality of points on the straight line portion 32 of the jig G arranged around the manipulator M are regarded as a plurality of different observation position / postures of the manipulator M. In this state, the laser displacement sensor LS detects each. As a second step, the origin position / posture Ti of the J6 reference coordinate system (manipulator tip coordinate system) with reference to the robot coordinate system (reference coordinate system) and the laser irradiation of the laser displacement sensor LS with the tip of the manipulator M as a reference. In addition to the functions Pi and Pj having the origin position and orientation C of the coordinate system (sensor coordinate system) of the part Lsa as unknown variables, the reference coordinate system coordinates (robot coordinate system coordinates) of the detection point on the straight line part 32 are set as the observation position. Obtain for each posture.

また、第3ステップとして、観測位置姿勢毎に求めた直線部32上の検出点の2つを一組としたとき、複数の組から関数Pi,Pjを要素とするとともに、前記ロボット座標系(基準座標系)を基準とした直線部32の単位方向ベクトルを複数算出する。さらに、算出した直線部32の単位方向ベクトルと、ロボット座標系(基準座標系)のベクトル変数(xl,yl,zl)で表される直線部32の単位方向ベクトルLが等しいことを利用して連立方程式を作る。さらに、最小二乗法により、マニピュレータMに関する第1較正値を求めるとともに、マニピュレータM先端を基準とするレーザ照射部Lsaの座標系(センサ座標系)の原点位置姿勢Cを第2較正値として求める。 Further, as a third step, when two detection points on the straight line portion 32 obtained for each observation position and orientation are taken as one set, functions Pi and Pj are used as elements from a plurality of sets, and the robot coordinate system ( A plurality of unit direction vectors of the straight line portion 32 with respect to the reference coordinate system) are calculated. Furthermore, the calculated unit direction vector of the straight line portion 32 and the unit direction vector L of the straight line portion 32 represented by the vector variables (x 1 , y 1 , z 1 ) of the robot coordinate system (reference coordinate system) are equal. Use it to make simultaneous equations. Further, the first calibration value for the manipulator M is obtained by the least square method, and the origin position / posture C of the coordinate system (sensor coordinate system) of the laser irradiation unit Lsa with the tip of the manipulator M as a reference is obtained as the second calibration value.

この結果、直線部32を有するだけの簡単な構成の治具Gにより、センサのキャリブレーションのみならずマニピュレータMのキャリブレーションをどこでも簡単に行うことができる。又、治具の準備などの作業工数を大幅に削減できるばかりか、特別な治具が準備できない環境でも即座にマニピュレータMのキャリブレーションを行うことが可能であり、マニピュレータMに求められる本来の作業を行うための不必要な待ち時間や工数が削減できる。   As a result, not only the sensor calibration but also the manipulator M can be easily calibrated anywhere by using the jig G having a simple configuration having only the linear portion 32. In addition to greatly reducing the number of work steps such as jig preparation, the manipulator M can be calibrated immediately in an environment where a special jig cannot be prepared. Unnecessary waiting time and man-hours for carrying out can be reduced.

(2) 本実施形態のキャリブレーション方法では、連立方程式が線形化して一次近似式にされているため、第3ステップの処理で行う計算を簡便化でき、線形化して一次近似式にしない場合に比して、演算に係る時間を短くできる。   (2) In the calibration method of the present embodiment, since the simultaneous equations are linearized to be a primary approximation, the calculation performed in the process of the third step can be simplified and is not linearized to be a primary approximation. In comparison, the calculation time can be shortened.

(3)本実施形態のキャリブレーション方法は、第1較正値及び第2較正値Cが、それぞれ仮の実数(近似値)と誤差変数の和で成り立っているものとし、第3ステップでは、第1較正値及び第2較正値Cがそれぞれ得られたとき、仮の実数を、該得られた第1較正値及び第2較正値Cに更新した後、誤差変数が予め定められた閾値以下になるまで第3ステップの処理を繰り返すようにした。   (3) In the calibration method of the present embodiment, the first calibration value and the second calibration value C are each composed of a temporary real number (approximate value) and a sum of error variables. In the third step, When the first calibration value and the second calibration value C are obtained, respectively, the temporary real number is updated to the obtained first calibration value and the second calibration value C, and then the error variable is equal to or less than a predetermined threshold value. The process of the third step is repeated until it becomes.

この結果、本実施形態によれば、連立方程式を線形化すると誤差が生じるが、この誤差を閾値以下にすることができ、較正値の精度を保障することができる。
(4) 本実施形態のキャリブレーション方法では、治具Gは、複数の面と面間に設けられた複数の稜線を有し、直線部32を複数の稜線のうち、1つの稜線で構成している。この結果、治具Gの稜線を直線部32としているため、特別な治具が必要でなくなり、直方体、平板等の直線部を面間に有する既存の治具を使用することができ、或いは単純な形状の治具で良くなり、キャリブレーションのための特別な形状の治具を必要としない。
As a result, according to the present embodiment, an error occurs when the simultaneous equations are linearized. However, this error can be reduced to a threshold value or less, and the accuracy of the calibration value can be ensured.
(4) In the calibration method of the present embodiment, the jig G has a plurality of ridge lines provided between the plurality of surfaces, and the straight line portion 32 is configured by one ridge line among the plurality of ridge lines. ing. As a result, since the ridge line of the jig G is the straight portion 32, a special jig is not necessary, and an existing jig having a straight portion such as a rectangular parallelepiped or a flat plate between the surfaces can be used, or simply A jig with a simple shape is better, and a jig with a special shape for calibration is not required.

(5) 本実施形態のロボット制御システム10は、ロボット制御装置RCのCPU20が、制御手段として、マニピュレータMの周囲に配置された治具Gの直線部32上の複数の点を検出するためにマニピュレータMの互いに異なる複数の観測位置姿勢をとらせる。   (5) In the robot control system 10 of the present embodiment, the CPU 20 of the robot control device RC detects a plurality of points on the linear portion 32 of the jig G arranged around the manipulator M as a control means. A plurality of observation positions / postures of the manipulator M are different from each other.

又、ロボット制御装置RCの記憶部23は記憶手段として、マニピュレータMの互いに異なる複数の観測位置姿勢毎に、レーザ変位センサLSが治具Gの直線部32上の異なる複数の点についてそれぞれ検出した値を記憶するようにした。又、CPU20は、検出点座標算出手段として、ロボット座標系(基準座標系)を基準としたJ6基準座標系(マニピュレータ先端座標系)の原点位置姿勢と、マニピュレータM先端を基準とするレーザ変位センサLSのレーザ照射部Lsaの座標系(センサ座標系)の原点位置姿勢を未知変数とした関数であるとともに、直線部32上の検出点のロボット座標系(基準座標系)座標を、観測位置姿勢毎にそれぞれ求めるようにした。さらに、CPU20は、較正値算出手段として、観測位置姿勢毎に求めた直線部32上の検出点の2つを一組としたとき、複数の組から関数Pi,Pjを要素とするとともに、前記ロボット座標系(基準座標系)を基準とした直線部32の単位方向ベクトルを複数算出する。さらに、CPU20は、較正値算出手段として、算出した直線部32の単位方向ベクトルと、ロボット座標系(基準座標系)のベクトル変数(xl,yl,zl)で表される直線部32の単位方向ベクトルLが等しいことを利用して連立方程式を作る。さらに、CPU20は、較正値算出手段として、最小二乗法により、マニピュレータMに関する第1較正値を求めるとともに、マニピュレータM先端を基準とするレーザ照射部Lsaの座標系(センサ座標系)の原点位置姿勢Cを第2較正値として求める。   Further, the storage unit 23 of the robot control device RC serves as storage means, and the laser displacement sensor LS detects a plurality of different points on the linear part 32 of the jig G for each of a plurality of different observation positions and orientations of the manipulator M. The value was memorized. Further, the CPU 20 serves as a detection point coordinate calculation means as a laser displacement sensor based on the origin position and orientation of the J6 reference coordinate system (manipulator tip coordinate system) based on the robot coordinate system (reference coordinate system) and the tip of the manipulator M. It is a function with the origin position and orientation of the coordinate system (sensor coordinate system) of the laser irradiation unit Lsa of the LS as an unknown variable, and the robot coordinate system (reference coordinate system) coordinates of the detection point on the straight line portion 32 are the observation position and orientation. I asked for it every time. Furthermore, the CPU 20 uses, as a calibration value calculation means, two detection points on the straight line portion 32 obtained for each observation position and orientation as one set, and functions Pi and Pj from a plurality of sets as elements. A plurality of unit direction vectors of the straight line portion 32 based on the robot coordinate system (reference coordinate system) are calculated. Further, the CPU 20 uses the calculated unit direction vector of the straight line portion 32 and the unit direction of the straight line portion 32 represented by the vector variable (xl, yl, zl) of the robot coordinate system (reference coordinate system) as a calibration value calculation means. A simultaneous equation is created using the fact that the vectors L are equal. Further, the CPU 20 obtains a first calibration value related to the manipulator M by a least square method as a calibration value calculation means, and also the origin position / posture of the coordinate system (sensor coordinate system) of the laser irradiation unit Lsa with the tip of the manipulator M as a reference. C is determined as the second calibration value.

この結果、本実施形態のロボット制御システム10は、前記(1)のキャリブレーション方法を実行するロボット制御システムを提供することができる。
(6) 本実施形態のロボット制御システム10は、CPU20(較正値算出手段)は、前記連立方程式を、線形化して一次近似式にした上で較正値Cを算出するようにした。この結果、ロボット制御システム10は、第3ステップの処理で行う計算を簡便化でき、線形化して一次近似式にしない場合に比して、演算に係る時間を短くできるキャリブレーション方法を実行するロボット制御システムを提供することができる。
As a result, the robot control system 10 of the present embodiment can provide a robot control system that executes the calibration method (1).
(6) In the robot control system 10 of the present embodiment, the CPU 20 (calibration value calculation means) calculates the calibration value C after linearizing the simultaneous equations into a linear approximation. As a result, the robot control system 10 can simplify the calculation performed in the process of the third step, and can execute the calibration method that can shorten the time required for the calculation as compared with the case where the calculation is linearized and not the primary approximation formula. A control system can be provided.

(7) 本実施形態のロボット制御システム10では、CPU20(較正値算出手段)は、第1較正値及び第2較正値Cが、それぞれ仮の実数と誤差変数の和で成り立っているものとし、第1較正値及び第2較正値Cがそれぞれ得られたとき、仮の実数を、該得られた第1較正値及び第2較正値Cに更新した後、誤差変数が予め定められた閾値以下になるまで、処理を繰り返すようにした。   (7) In the robot control system 10 of the present embodiment, the CPU 20 (calibration value calculation means) assumes that the first calibration value and the second calibration value C are each composed of the sum of a temporary real number and an error variable, When the first calibration value and the second calibration value C are respectively obtained, the provisional real number is updated to the obtained first calibration value and the second calibration value C, and then the error variable is equal to or less than a predetermined threshold value. The process was repeated until.

この結果、本実施形態によれば、連立方程式を線形化すると誤差が生じるが、この誤差を閾値以下にすることができ、較正値の精度を保障することができる。
(8) なお、従来技術は、2次元画像情報や三次元センサなどを対象にしたものが多く2次元レーザセンサを対象にしたセンサキャリブレーションは提案されていない。前記特許文献1〜3は、CCDカメラを利用したキャリブレーションの方法であり、これらの方法では、センサ原点に対しY軸とそれに対応するZ軸の1点しか取得できないレーザセンサではキャリブレーションが実現できない。これに対して、本実施形態の方法及びロボット制御システム10は二次元レーザセンサのセンサキャリブレーションができる。
As a result, according to the present embodiment, an error occurs when the simultaneous equations are linearized. However, this error can be reduced to a threshold value or less, and the accuracy of the calibration value can be ensured.
(8) It should be noted that many of the prior arts are intended for two-dimensional image information, three-dimensional sensors, etc., and sensor calibration for a two-dimensional laser sensor has not been proposed. Patent Documents 1 to 3 are calibration methods using a CCD camera. In these methods, calibration is realized with a laser sensor that can acquire only one point of the Y axis and the corresponding Z axis with respect to the sensor origin. Can not. In contrast, the method and the robot control system 10 of the present embodiment can perform sensor calibration of a two-dimensional laser sensor.

なお、本発明は前記実施形態に限定されるものではなく、下記のように構成してもよい。
・ 前記実施形態では、視覚センサを二次元レーザセンサとしたが、二次元レーザセンサに限定されるものではなく、CCDカメラ等の撮像手段であってもよい。この場合、撮像手段が取得して得られた画像中において、任意の画素を基準として、例えば撮像した画像の中心位置を前記基準として、該中心位置に最も近位の直線部の画素の点を検出点とすれば、以下、前記実施形態と同様にキャリブレーションを行うことができる。
In addition, this invention is not limited to the said embodiment, You may comprise as follows.
In the embodiment, the visual sensor is a two-dimensional laser sensor. However, the visual sensor is not limited to the two-dimensional laser sensor, and may be an imaging unit such as a CCD camera. In this case, in the image obtained by the imaging unit, with respect to an arbitrary pixel, for example, the center position of the captured image is used as the reference, and the pixel point of the straight line portion closest to the center position is determined. If the detection point is used, calibration can be performed in the same manner as in the above embodiment.

・ 前記実施形態では、治具Gを平板、或いは直方体の稜線を直線部としたが、治具Gは、平板、或いは直方体に限定されるものではなく、立方体でもよい。或いは、稜線が直線となるものであれば、治具Gの形状は限定されるものではない。前記直線となった稜線を直線部とすることもできる。   In the above embodiment, the jig G is a flat plate or the ridge line of the rectangular parallelepiped is a straight portion, but the jig G is not limited to a flat plate or a rectangular parallelepiped, and may be a cube. Alternatively, the shape of the jig G is not limited as long as the ridgeline is a straight line. The straight ridgeline may be a straight line portion.

・ 又、直線部は、稜線に限定されるものではない、例えば、平面を有する一側面、例えば、上面、或いは上面に隣接する側面に対して凹設された直線上の溝を直線状に形成して直線部としてもよい。前記溝は、レーザ変位センサLSで検出できる深さを有している。さらに、直線部32は、溝に限定されるものではなく、前記上面に突出されるとともに直線上に上面に沿って位置方向に延出された突条であってもよい。この場合、突条は、レーザ変位センサLSにより、上面からの高さが検出できる高さを有するものとする。   -Also, the straight line portion is not limited to the ridge line, for example, a straight groove formed on one side surface having a flat surface, for example, the upper surface or a side surface adjacent to the upper surface is formed linearly. And it is good also as a straight part. The groove has a depth that can be detected by the laser displacement sensor LS. Further, the straight portion 32 is not limited to the groove, and may be a protrusion that protrudes from the upper surface and extends linearly along the upper surface in the position direction. In this case, the protrusion has a height that can be detected from the upper surface by the laser displacement sensor LS.

又、直線部32が設けられる治具Gの面は、上面に限定されるものではなく、上面に隣接する側面であってもよい。
・ 又、治具Gの上面の一部に対して、上方に高さを有する段部を設け、前記上面に沿って前記段部が一方向に直線状に延びるように形成して、その直線状の部分を直線部としてもよい。
Further, the surface of the jig G on which the linear portion 32 is provided is not limited to the upper surface, and may be a side surface adjacent to the upper surface.
Further, a step portion having a height is provided on a part of the upper surface of the jig G, and the step portion is formed so as to extend linearly in one direction along the upper surface. The shape portion may be a straight portion.

・ 前記実施形態では、6軸ロボットで説明したが、6軸ロボットに限定されるものではない。前記方法、及びロボット制御システムは、6軸よりも少ない5軸、4軸等の軸数が少ないロボット、或いは、7軸以上のロボットにも変更してもよい。   In the above embodiment, the 6-axis robot has been described. However, the present invention is not limited to the 6-axis robot. The method and the robot control system may be changed to a robot with a small number of axes such as five axes, four axes, etc., fewer than six axes, or a robot with seven axes or more.

この場合、前記実施形態の式(2)において、マニピュレータM先端の座標系を、変更後の軸数に応じて変更すればよい。例えば、7軸ロボットのときは、Tiはベース部材12から7つ目のアームであるAi7先端の座標となるように変更し、
T7=Ai1i2i3i4i5i6i7
とすればよい。又、この場合、CとLに含まれる未知数となる変数が増加するため、その分、6軸ロボットの観測位置姿勢の数よりも観測位置姿勢nを増加すればよい。
In this case, what is necessary is just to change the coordinate system of the manipulator M front-end | tip in Formula (2) of the said embodiment according to the number of axes after a change. For example, in the case of a 7-axis robot, Ti is changed to be the coordinates of the tip of Ai7, which is the seventh arm from the base member 12,
T7 = A i1 A i2 A i3 A i4 A i5 A i6 A i7
And it is sufficient. In this case, since the number of unknown variables included in C and L increases, the observation position / posture n may be increased more than the number of observation positions / postures of the 6-axis robot.

検出点の数は、ロボットの軸数に応じて前述した、
q>√(9+24p)/6を満足する正の整数以上とすればよい。
・ 前記実施形態では、連立方程式をマクローリン展開により線形化を行い、計算を簡単にしたが、マクローリン展開せずに、非線形のままで前記連立方程式の解を求めても良い。
The number of detection points is as described above according to the number of axes of the robot.
A positive integer satisfying q> √ (9 + 24p) / 6 may be set.
In the above-described embodiment, the simultaneous equations are linearized by macrolin expansion and the calculation is simplified. However, the solution of the simultaneous equations may be obtained while maintaining the nonlinearity without performing macrolin expansion.

M…マニピュレータ、G…治具、RC…ロボット制御装置、
LS…レーザ変位センサ(視覚センサ)、
10…ロボット制御システム、
20…CPU(制御手段、検出点座標算出手段、較正値算出手段)、
21…ROM、23…記憶部(記憶手段)、32…直線部。
M ... Manipulator, G ... Jig, RC ... Robot controller,
LS ... Laser displacement sensor (visual sensor),
10 ... Robot control system,
20 ... CPU (control means, detection point coordinate calculation means, calibration value calculation means),
21... ROM, 23... Storage unit (storage means), 32.

Claims (7)

マニピュレータの周囲に配置された治具の直線部上の複数の点を、互いに異なる複数の観測位置姿勢をとらせた状態で、前記マニピュレータ先端に設けた視覚センサによりそれぞれ検出する第1ステップと、
基準座標系を基準としたマニピュレータ先端座標系の原点位置姿勢と、前記マニピュレータ先端を基準とする前記視覚センサのセンサ座標系の原点位置姿勢を未知変数とした関数であるとともに、前記直線部上の点(以下、検出点という)の基準座標系座標を、前記観測位置姿勢毎にそれぞれ求める第2ステップと、
前記観測位置姿勢毎に求めた前記直線部上の検出点の2つを一組としたとき、複数の組から前記関数を要素とするとともに、前記基準座標系を基準とした前記直線部の単位方向ベクトルを複数算出し、算出した前記直線部の単位方向ベクトルと、基準座標系のベクトル変数で表される前記直線部の単位方向ベクトルが等しいことを利用して連立方程式を作り、最小二乗法により、前記マニピュレータに関する第1較正値を求めるとともに、前記視覚センサのセンサ座標系の原点位置姿勢であって、前記マニピュレータ先端を基準とするセンサ座標系の原点位置姿勢を第2較正値として求める第3ステップを含む
ことを特徴とするマニピュレータのキャリブレーション方法。
A first step of detecting a plurality of points on a linear portion of a jig arranged around the manipulator by a visual sensor provided at a tip of the manipulator in a state where a plurality of different observation positions and postures are taken;
The origin position and orientation of the manipulator tip coordinate system with reference to the reference coordinate system and the origin position and orientation of the sensor coordinate system of the visual sensor with respect to the manipulator tip as an unknown variable, and A second step of obtaining reference coordinate system coordinates of points (hereinafter referred to as detection points) for each of the observation positions and orientations;
When two detection points on the straight line portion obtained for each observation position and orientation are taken as a set, the function is an element from a plurality of sets, and the unit of the straight line portion is based on the reference coordinate system. A plurality of direction vectors are calculated, a simultaneous equation is created using the fact that the calculated unit direction vector of the straight line portion is equal to the unit direction vector of the straight line portion represented by the vector variable of the reference coordinate system, and the least square method To obtain a first calibration value relating to the manipulator, and to obtain an origin position / posture of the sensor coordinate system of the visual sensor as a second calibration value. A manipulator calibration method comprising three steps.
前記連立方程式は、線形化して一次近似式にしたものであることを特徴とする請求項1に記載のマニピュレータのキャリブレーション方法。   The manipulator calibration method according to claim 1, wherein the simultaneous equations are linearized into a linear approximation. 前記第1較正値及び第2較正値が、それぞれ仮の実数と誤差変数の和で成り立っているものとしたとき、
前記第3ステップでは、第1較正値及び第2較正値がそれぞれ得られたとき、前記仮の実数を、該得られた第1較正値及び第2較正値に更新した後、前記誤差変数が予め定められた閾値以下になるまで前記第3ステップの処理を繰り返すことを特徴とする請求項2に記載のマニピュレータのキャリブレーション方法。
When the first calibration value and the second calibration value are each composed of a temporary real number and a sum of error variables,
In the third step, when the first calibration value and the second calibration value are obtained, respectively, the temporary real number is updated to the obtained first calibration value and the second calibration value, and then the error variable is calculated. The manipulator calibration method according to claim 2, wherein the process of the third step is repeated until a predetermined threshold value or less is reached.
前記治具は、複数の面と面間に設けられた複数の稜線を有し、
前記直線部は、複数の稜線のうち、1つの稜線であることを特徴とする請求項1乃至請求項3のうちいずれか1項に記載のマニピュレータのキャリブレーション方法。
The jig has a plurality of ridgelines provided between the plurality of surfaces,
4. The manipulator calibration method according to claim 1, wherein the straight line portion is one ridge line among a plurality of ridge lines. 5.
マニピュレータの周囲に配置された治具の直線部上の複数の点を検出するために前記マニピュレータの互いに異なる複数の観測位置姿勢をとらせる制御手段と、
前記マニピュレータの互いに異なる複数の観測位置姿勢毎に、マニピュレータ先端に設けられた視覚センサが前記治具の直線部上の異なる複数の点についてそれぞれ検出した値を記憶する記憶手段と、基準座標系を基準としたマニピュレータ先端座標系の原点位置姿勢と、前記マニピュレータ先端を基準とする前記視覚センサのセンサ座標系の原点位置姿勢を未知変数とした関数であるとともに、前記直線部上の点(以下、検出点という)の基準座標系座標を、前記観測位置姿勢毎にそれぞれ求める検出点座標算出手段と、
前記観測位置姿勢毎に求めた前記直線部上の検出点の2つを一組としたとき、複数の組から前記関数を要素とするとともに、前記基準座標系を基準とした前記直線部の単位方向ベクトルを複数算出し、算出した前記直線部の単位方向ベクトルと、基準座標系のベクトル変数で表される前記直線部の単位方向ベクトルが等しいことを利用して連立方程式を作り、最小二乗法により、前記マニピュレータに関する第1較正値を求めるとともに、前記マニピュレータ先端を基準とするセンサ座標系の原点位置姿勢を第2較正値として求める処理を行う較正値算出手段を含む
ことを特徴とするロボット制御システム。
Control means for taking a plurality of different observation positions and postures of the manipulator in order to detect a plurality of points on a linear portion of a jig arranged around the manipulator;
For each of a plurality of different observation positions and postures of the manipulator, a storage means for storing values respectively detected by a visual sensor provided at the tip of the manipulator for a plurality of different points on the linear portion of the jig, and a reference coordinate system It is a function using the origin position and orientation of the manipulator tip coordinate system as a reference and the origin position and orientation of the sensor coordinate system of the visual sensor with respect to the manipulator tip as unknown variables, and a point on the straight line portion (hereinafter, Detection point coordinate calculation means for obtaining a reference coordinate system coordinate (referred to as a detection point) for each observation position and orientation;
When two detection points on the straight line portion obtained for each observation position and orientation are taken as a set, the function is an element from a plurality of sets, and the unit of the straight line portion is based on the reference coordinate system. A plurality of direction vectors are calculated, a simultaneous equation is created using the fact that the calculated unit direction vector of the straight line portion is equal to the unit direction vector of the straight line portion represented by the vector variable of the reference coordinate system, and the least square method And a calibration value calculating means for obtaining a first calibration value related to the manipulator and performing a process for obtaining the origin position and orientation of the sensor coordinate system with the tip of the manipulator as a second calibration value. system.
前記較正値算出手段は、前記連立方程式を、線形化して一次近似式にした上で前記較正値を算出するものである請求項5に記載のロボット制御システム。   The robot control system according to claim 5, wherein the calibration value calculation means calculates the calibration value after linearizing the simultaneous equations into a first-order approximation. 前記較正値算出手段は、前記第1較正値及び第2較正値が、それぞれ仮の実数と誤差変数の和で成り立っているものとし、第1較正値及び第2較正値がそれぞれ得られたとき、前記仮の実数を、該得られた第1較正値及び第2較正値に更新した後、前記誤差変数が予め定められた閾値以下になるまで、前記処理を繰り返すことを特徴とする請求項6に記載のロボット制御システム。   The calibration value calculation means assumes that the first calibration value and the second calibration value are each composed of a temporary real number and a sum of error variables, and the first calibration value and the second calibration value are obtained, respectively. The temporary real number is updated to the first calibration value and the second calibration value obtained, and then the process is repeated until the error variable is equal to or less than a predetermined threshold. 7. The robot control system according to 6.
JP2010109369A 2010-05-11 2010-05-11 Manipulator calibration method and robot control system Active JP5450242B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010109369A JP5450242B2 (en) 2010-05-11 2010-05-11 Manipulator calibration method and robot control system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010109369A JP5450242B2 (en) 2010-05-11 2010-05-11 Manipulator calibration method and robot control system

Publications (2)

Publication Number Publication Date
JP2011235400A JP2011235400A (en) 2011-11-24
JP5450242B2 true JP5450242B2 (en) 2014-03-26

Family

ID=45323941

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010109369A Active JP5450242B2 (en) 2010-05-11 2010-05-11 Manipulator calibration method and robot control system

Country Status (1)

Country Link
JP (1) JP5450242B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5805457B2 (en) * 2011-08-10 2015-11-04 株式会社ダイヘン Welding robot controller
JP5963515B2 (en) * 2012-04-20 2016-08-03 三菱電機株式会社 Tool vector automatic setting method
KR101842286B1 (en) 2012-10-30 2018-03-26 현대로보틱스주식회사 Method for Automatic Calibration of Robot
JP6404968B2 (en) 2017-03-03 2018-10-17 ファナック株式会社 Wire electric discharge machine
CN107643143A (en) * 2017-09-26 2018-01-30 华南理工大学 A kind of planer-type force feedback equipment power output measuring table and power output compensation method
JP6810116B2 (en) 2018-10-24 2021-01-06 ファナック株式会社 Calibration method and control device for laser machining robot
CN112123329A (en) * 2020-02-21 2020-12-25 深圳市三宝创新智能有限公司 Robot 3D vision hand-eye calibration method
JP6796899B1 (en) * 2020-08-07 2020-12-09 リンクウィズ株式会社 Information processing method, information processing system, program
CN117498752B (en) * 2023-12-29 2024-03-15 深圳市科沃电气技术有限公司 Motor drive control method, device, equipment and storage medium

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2682763B2 (en) * 1991-06-29 1997-11-26 ファナック株式会社 Automatic measurement method of operation error of robot body
JPH08272414A (en) * 1995-03-29 1996-10-18 Fanuc Ltd Calibrating method for robot and visual sensor using hand camera
JPH1063317A (en) * 1996-08-13 1998-03-06 Fanuc Ltd Method for combining coordinate system in robot and visual sensor system
JPH1133962A (en) * 1997-07-18 1999-02-09 Yaskawa Electric Corp Calibration of three-dimensional position sensor for robot
JP2006110705A (en) * 2004-09-15 2006-04-27 Yaskawa Electric Corp Calibration method of robot
JP2007061979A (en) * 2005-09-01 2007-03-15 Sharp Corp Visual sensor correction method for robot arm and computer program
JP4443497B2 (en) * 2005-11-02 2010-03-31 パルステック工業株式会社 Multi-degree-of-freedom robot positioning error correction apparatus and positioning error correction method
JP5574805B2 (en) * 2010-04-28 2014-08-20 株式会社ダイヘン Sensor calibration method and robot control system for manipulator with visual sensor

Also Published As

Publication number Publication date
JP2011235400A (en) 2011-11-24

Similar Documents

Publication Publication Date Title
JP5450242B2 (en) Manipulator calibration method and robot control system
JP7207851B2 (en) Control method, robot system, article manufacturing method, program and recording medium
JP6966582B2 (en) Systems and methods for automatic hand-eye calibration of vision systems for robot motion
JP6429473B2 (en) Robot system, robot system calibration method, program, and computer-readable recording medium
CN107214692B (en) Automatic calibration method of robot system
US9221176B2 (en) Robot system and method for controlling the same
JP4267005B2 (en) Measuring apparatus and calibration method
KR102271941B1 (en) Automated machining head with vision and procedure
JP3946711B2 (en) Robot system
JP6572262B2 (en) Teaching position correcting device and teaching position correcting method
EP3542969B1 (en) Working-position correcting method and working robot
JP6855492B2 (en) Robot system, robot system control device, and robot system control method
US10889003B2 (en) Robot system, robot controller, and method for controlling robot
JP7035657B2 (en) Robot control device, robot, robot system, and camera calibration method
JP2017170599A (en) Positioning device using robot
WO2018196232A1 (en) Method for automatically calibrating robot and end effector, and system
JP6674655B2 (en) Relative data calibration device and method
JP5574805B2 (en) Sensor calibration method and robot control system for manipulator with visual sensor
JP6897396B2 (en) Control devices, robot systems and control methods
JP6855491B2 (en) Robot system, robot system control device, and robot system control method
KR101842286B1 (en) Method for Automatic Calibration of Robot
US20140365006A1 (en) Visual Datum Reference Tool
WO2023083056A1 (en) Method and device for calibrating kinematic parameters of robot
Santolaria et al. Self-alignment of on-board measurement sensors for robot kinematic calibration
CN115519536A (en) System and method for error correction and compensation for 3D eye-hand coordination

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131217

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131225

R150 Certificate of patent or registration of utility model

Ref document number: 5450242

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250