JPH06206186A - Calibration of handling precision of horizontal articulated type robot equipped with visual sensor - Google Patents

Calibration of handling precision of horizontal articulated type robot equipped with visual sensor

Info

Publication number
JPH06206186A
JPH06206186A JP1919993A JP1919993A JPH06206186A JP H06206186 A JPH06206186 A JP H06206186A JP 1919993 A JP1919993 A JP 1919993A JP 1919993 A JP1919993 A JP 1919993A JP H06206186 A JPH06206186 A JP H06206186A
Authority
JP
Japan
Prior art keywords
robot
work
handling
visual sensor
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP1919993A
Other languages
Japanese (ja)
Inventor
Katsufumi Araki
克文 荒木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Citizen Watch Co Ltd
Original Assignee
Citizen Watch Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Citizen Watch Co Ltd filed Critical Citizen Watch Co Ltd
Priority to JP1919993A priority Critical patent/JPH06206186A/en
Publication of JPH06206186A publication Critical patent/JPH06206186A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To carry out the correct handling work of a robot from the position data of a workpiece which is obtained by a visual sensor. CONSTITUTION:The handling work for a workpiece 13 is carried out, by carrying out the correction calculation fat the position data of a visual sensor according to the correction value table, by providing the correction value table having the deflection quantity generated between the handling position A of the workpiece 13 as working object and the tool shaft 8 of a robot and the offset quantity between the hand standard position B of the robot and the tool shaft 8 of the robot, as parameter, for each image pick-up position of a camera means.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、ロボットに視覚センサ
を介して得られる位置データを用いてハンドリング作業
を行なわせる際の位置データの校正法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for calibrating position data when a robot performs a handling operation using position data obtained through a visual sensor.

【0002】[0002]

【従来の技術】従来、産業用ロボットの位置指令方式と
して、教示による位置データの入力方式を用いていた。
一方、近年になってオフラインで作成した位置データや
視覚センサを介して得られる位置データを用いてロボッ
トを動作させる方式への要求が高まっている。しかし、
一般に産業用ロボットにとって、ロボット自体の位置決
め再現精度は満足できるものの、ロボットと外界との相
対的な位置決め精度には課題が残る。
2. Description of the Related Art Conventionally, a position data input method by teaching has been used as a position command method for an industrial robot.
On the other hand, in recent years, there has been an increasing demand for a method of operating a robot using position data created offline or position data obtained via a visual sensor. But,
Generally, for industrial robots, the positioning reproducibility of the robot itself is satisfactory, but the relative positioning accuracy between the robot and the outside world remains a problem.

【0003】従来技術の参考例として図5に示す視覚セ
ンサに対するロボット座標系の教示方法を挙げる。この
例では、水平多関節型ロボットRの第2アーム6の先端
にカメラ手段7を視野方向がロボット作業面に対して鉛
直に取り付けていて、ロボット動作範囲内の任意の点に
撮像位置を移動可能になっている。作業面上には視覚セ
ンサ教示用のプレート14が設置されてあり、そのプレ
ート14には互いに間隔の概知な3つの位置決め穴15
a、15b、及び15cが設けられている。カメラ手段
7はこれら3つの位置決め穴を同時に視野内に納めるこ
とが可能で、カメラ画像位置演算手段はそれぞれの位置
をカメラ座標系の位置データとして算出する事が可能で
ある。また、ツール軸8は3つの位置決め穴15a、1
5b,及び15cに対して挿入可能であって、ロボット
座標系の位置データを把握する事が可能となっている。
As a reference example of the prior art, a teaching method of a robot coordinate system for a visual sensor shown in FIG. 5 will be given. In this example, the camera means 7 is attached to the tip of the second arm 6 of the horizontal articulated robot R so that the visual field direction is vertical to the robot work surface, and the imaging position is moved to an arbitrary point within the robot operation range. It is possible. A plate 14 for teaching a visual sensor is installed on the work surface, and the plate 14 has three positioning holes 15 that are generally spaced from each other.
a, 15b, and 15c are provided. The camera means 7 can simultaneously accommodate these three positioning holes in the field of view, and the camera image position calculation means can calculate each position as position data of the camera coordinate system. Further, the tool shaft 8 has three positioning holes 15a, 1
It can be inserted into 5b and 15c, and the position data of the robot coordinate system can be grasped.

【0004】まず水平多関節型ロボットRをカメラ手段
7が3つの位置決め穴15a,15b,及び15cを同
時に撮像できる位置に動作させて、その撮像位置におい
てそれぞれの位置決め穴を撮像し、重心位置をカメラ画
像位置演算手段で求めてカメラ座標系での位置データを
算出する。3つの位置決め穴どうしの間隔は概知なので
カメラ座標系の画素単位の寸法はこの段階で把握でき
る。次にツール軸8をそれぞれの位置決め穴に挿入する
事で各位置決め穴のロボット座標系での位置データを把
握する。それぞれの座標系が示す3点の位置情報から、
カメラ手段7の中心位置Dとツール軸8との距離LD
第2アーム6に対する傾き角θD を算出する事が可能
で、水平多関節型ロボットRの各関節角度と各アーム
長、及びカメラ手段7の取り付け位置のパラメータを用
いて任意の撮像位置でのカメラ座標系の位置データをロ
ボット座標系の位置データに換算できるとしている。
First, the horizontal articulated robot R is moved to a position where the camera means 7 can image the three positioning holes 15a, 15b, and 15c at the same time, and each positioning hole is imaged at the imaging position to determine the position of the center of gravity. The position data in the camera coordinate system is calculated by the camera image position calculation means. Since the distance between the three positioning holes is generally known, the size of each pixel in the camera coordinate system can be grasped at this stage. Next, the tool shaft 8 is inserted into each positioning hole to grasp the position data of each positioning hole in the robot coordinate system. From the position information of the three points indicated by each coordinate system,
It is possible to calculate the distance L D between the center position D of the camera means 7 and the tool axis 8 and the tilt angle θ D with respect to the second arm 6, and each joint angle and each arm length of the horizontal articulated robot R, and It is stated that the position data of the camera coordinate system at an arbitrary imaging position can be converted into the position data of the robot coordinate system by using the parameter of the mounting position of the camera means 7.

【0005】[0005]

【発明が解決しようとする課題】上述したカメラ座標系
からロボット座標系への換算方法では、ロボットの各ア
ーム長、各関節角度があらかじめ正確に解っていないと
ロボット座標系自身に歪みが生じて、カメラ手段のロボ
ットアームに対する取り付け寸法を正確に算出できな
い。一般に、ロボットの各関節角度を把握することは容
易であるが、各アーム長を正確に求める事は難しく熱膨
張等で変化してしまう。ロボットに対するカメラ取り付
け寸法に関しても、カメラ手段のアームに対する取り付
け角度は正確に求められるがツール軸に対する取り付け
距離を正確に求めるのは難しい。よって、ロボットの各
アーム長、カメラ手段のツール軸に対する取り付け距離
の誤差を主要因として、カメラ画像位置演算手段で求め
るカメラ座標系の位置データをロボット座標系の位置デ
ータに換算する際に誤差を生じてしまう。また、視覚セ
ンサで位置データを認識するワークの姿勢は任意である
ので、ロボットはツール軸に取り付けたハンドを適切な
角度に回転させてワークのピックアップ及びプレース作
業を行なうので、ハンド基準位置とツール軸とのオフセ
ット量も把握してなければ正確なハンドリング作業を行
えない。
In the conversion method from the camera coordinate system to the robot coordinate system, the robot coordinate system itself is distorted unless the arm lengths and joint angles of the robot are known in advance. However, the attachment dimension of the camera means to the robot arm cannot be calculated accurately. Generally, it is easy to grasp each joint angle of the robot, but it is difficult to accurately determine each arm length, and the arm length changes due to thermal expansion or the like. Regarding the camera mounting dimensions for the robot, the mounting angle of the camera means with respect to the arm can be accurately determined, but it is difficult to accurately determine the mounting distance with respect to the tool axis. Therefore, when converting the position data of the camera coordinate system obtained by the camera image position calculating means into the position data of the robot coordinate system, the error is mainly caused by the error of each arm length of the robot and the attachment distance of the camera means to the tool axis. Will occur. Also, since the posture of the work whose position data is recognized by the visual sensor is arbitrary, the robot rotates the hand attached to the tool axis to an appropriate angle to pick up and place the work. If you do not know the offset amount from the axis, you cannot perform accurate handling work.

【0006】これらの課題を解決するため、本発明の目
的は、水平多関節型ロボットのアームに取り付けたカメ
ラ手段、及びカメラ画像位置演算手段から得られる位置
データを用いてワークのハンドリング作業を正確に行な
うために、視覚センサから得る位置データの校正法を提
供することである。
In order to solve these problems, an object of the present invention is to accurately handle a work using a camera means attached to an arm of a horizontal articulated robot and position data obtained from a camera image position calculating means. To provide a method of calibrating position data obtained from a visual sensor in order to do so.

【0007】[0007]

【課題を解決するための手段】上記課題を解決するため
に、本発明では、視覚センサより得るワーク認識位置に
ロボットのツール軸を動作させる際に、ロボットの作業
領域中にあらかじめ設定してあるカメラ画像撮像位置毎
に、作業対象ワークのハンドリング位置とロボットのツ
ール軸とで生じるずれ量と、ロボットのハンド基準位置
とロボットのツール軸とのオフセット量を補正値パラメ
ータとした補正値テーブルを持たせて、視覚センサから
得る位置データをそのカメラ画像撮像位置に対応する補
正値テーブルの補正値パラメータで補正演算しながらロ
ボットを動作させることで、視覚センサを用いた正確な
ハンドリング作業を実現する。
In order to solve the above problems, according to the present invention, when the tool axis of the robot is moved to the work recognition position obtained from the visual sensor, it is preset in the work area of the robot. For each camera image capture position, there is a correction value table that uses the amount of deviation between the handling position of the work to be worked and the tool axis of the robot and the offset amount between the robot hand reference position and the robot tool axis as correction value parameters. Then, the robot operates while correcting and calculating the position data obtained from the visual sensor with the correction value parameter of the correction value table corresponding to the camera image pickup position, thereby realizing an accurate handling work using the visual sensor.

【0008】[0008]

【作用】ロボットコントローラの保持するロボットの各
アーム長やカメラ取り付け寸法に誤差がある場合、カメ
ラ手段の撮像位置がロボット作業領域中の任意の位置で
変化すると、カメラ画像位置演算手段より得るワーク認
識位置にロボットのツール軸を動作させた際、作業対象
ワークのハンドリング位置とロボットのツール軸とで生
じるずれ量はカメラ画像撮像位置毎にまちまちに変化す
るので、カメラ画像撮像位置毎にそのずれ量を補正する
補正値テーブルが必要である。また、カメラ画像位置演
算手段で位置データを認識するワークの姿勢は任意であ
るので、ロボットはツール軸に取り付けたハンドを適切
な角度に回転させてワークのピック及びプレース作業を
行なう。よって、カメラ画像位置演算手段から得る位置
データでワークのハンドリング作業をするロボットは、
あらかじめ決められているカメラ手段の各撮像位置毎に
作業対象ワークのハンドリング位置とロボットのツール
軸とのずれ量と、ロボットのハンド基準位置とロボット
のツール軸とのオフセット量とを補正値パラメータとす
る個別の補正値テーブルで視覚センサの位置データを補
正演算することにより、作業対象ワークのハンドリング
位置にロボットのハンド基準位置を動作させることが可
能になる。
When there is an error in the length of each arm of the robot held by the robot controller or the camera mounting dimension, if the image pickup position of the camera means changes at any position in the robot work area, the work recognition obtained by the camera image position calculation means. When the tool axis of the robot is moved to the position, the amount of deviation that occurs between the handling position of the work to be processed and the tool axis of the robot varies depending on the camera image capturing position. A correction value table for correcting is required. Further, since the posture of the work whose position data is recognized by the camera image position calculation means is arbitrary, the robot rotates the hand attached to the tool shaft at an appropriate angle to pick and place the work. Therefore, the robot that handles the work with the position data obtained from the camera image position calculation means is
For each imaging position of the predetermined camera means, the deviation amount between the handling position of the work object and the tool axis of the robot, and the offset amount between the robot hand reference position and the robot tool axis are used as correction value parameters. It is possible to move the hand reference position of the robot to the handling position of the work to be worked by correcting and calculating the position data of the visual sensor using the individual correction value table.

【0009】[0009]

【実施例】以下、本発明の実施例について図面を参照し
ながら詳細に説明する。図1は本説明で引用する視覚セ
ンサ付きの水平多関節型ロボットRの外観を示してい
る。ここでは、第1旋回軸3を中心に作業面11方向に
旋回可能な第1アーム4を基台2に設け、第1アーム4
の先端に位置する第2旋回軸5を中心に作業面11方向
に旋回可能な第2アーム6を設け、第2アーム6の先端
に上下動可能で作業面11方向に旋回可能なツール軸8
を持つ水平多関節型ロボットRを例に実施例を説明す
る。ツール軸8の先端には、ワークを吸着機構によって
ハンドリングするハンド9が取り付けてあり、このハン
ド9の吸着ノズル先端はテーパ状に加工されており、作
業者がワークの吸着位置に対してハンド9の先端を教示
しやすくしている。このロボットの第2アーム6の先端
には、画像取り込み用のカメラ手段7を視野方向が作業
面11に対して鉛直な向きに取り付けている。ロボット
コントローラ1には、ロボットの動作制御手段とカメラ
画像位置演算手段とを内臓している。ロボットコントロ
ーラ1には教示操作を行なう教示装置10を取り付けて
ある。
Embodiments of the present invention will now be described in detail with reference to the drawings. FIG. 1 shows an appearance of a horizontal articulated robot R with a visual sensor, which is cited in this description. Here, a first arm 4 that can swivel around the first swivel axis 3 in the direction of the work surface 11 is provided on the base 2, and the first arm 4
Is provided with a second arm 6 which can be swung in the direction of the work surface 11 around the second swivel shaft 5 located at the tip of the tool shaft 8 which is vertically movable at the end of the second arm 6 and can be swung in the direction of the work surface 11
An embodiment will be described by taking a horizontal articulated robot R having A hand 9 for handling a work by a suction mechanism is attached to the tip of the tool shaft 8. The tip of the suction nozzle of this hand 9 is processed into a taper shape so that an operator can hold the hand 9 with respect to the suction position of the work. It is easy to teach the tip of. At the tip of the second arm 6 of this robot, a camera means 7 for capturing an image is attached so that the visual field direction is vertical to the work surface 11. The robot controller 1 includes a robot motion control means and a camera image position calculation means. A teaching device 10 that performs a teaching operation is attached to the robot controller 1.

【0010】図2に示すのは、図1で説明した水平多関
節型ロボットRが行なうハンドリング作業を示す図であ
る。この図が示す作業では、作業領域中に視覚ロボット
対応型のパーツフィーダ12a、12b,及び12cを
設置してある。各パーツフィーダは、部品を決まった位
置に整列させるのではなく、図中長方形で示される各撮
像領域にワークを任意の姿勢で送り込む。ロボットは、
各撮像領域上に定めたカメラ画像撮像点にカメラ手段7
を移動させてワークを撮像する。ロボットコントローラ
1の動作制御手段とカメラ画像位置制御手段とには、あ
らかじめ求めたロボットの各アーム長、各関節角度、及
びカメラ取り付け寸法、画素単位寸法等の各パラメータ
をあらかじめ入力してある。カメラ画像位置制御手段
は、撮像したワークのカメラ座標系での位置データを、
これらパラメータを用いてロボット座標系の位置データ
に変換してロボット動作制御手段に渡すことで、ロボッ
トは各パーツフィーダの撮像領域中の任意のワークの位
置データを認識してワークのハンドリング作業を行える
様になっている。
FIG. 2 is a diagram showing the handling work performed by the horizontal articulated robot R described in FIG. In the work shown in this figure, parts feeders 12a, 12b, and 12c corresponding to the visual robot are installed in the work area. Each parts feeder does not align the parts at a predetermined position, but feeds the work into each imaging region indicated by a rectangle in the drawing in any posture. Robots
The camera means 7 is located at the camera image capturing point defined on each image capturing area.
Is moved to image the work. To the operation control means and the camera image position control means of the robot controller 1, parameters such as the arm lengths of the robot, the joint angles, the camera mounting dimensions, and the pixel unit dimensions, which are obtained in advance, are input in advance. The camera image position control means, the position data in the camera coordinate system of the imaged work,
By converting the position data of the robot coordinate system using these parameters and passing them to the robot operation control means, the robot can recognize the position data of any work in the imaging area of each parts feeder and perform the work of handling the work. It has become like.

【0011】実際のロボットの各アーム長、及びツール
軸8に対するカメラ取り付け距離がロボットコントロー
ラ1の保持するパラメータと誤差を持つ場合は、図3に
示す様に、カメラ座標系からロボット座標系へ変換され
たカメラ画像位置演算手段の位置データはxy座標で表
されるが、ロボット動作制御手段の持つロボット座標系
(XY座標)に対してあるオフセット量を持ってしま
う。この様な場合、パーツフィーダ12aの撮像領域中
にあるワーク13の位置データをカメラ手段7を介して
カメラ画像位置演算手段から得て、ロボット動作制御手
段がツール軸8をワーク13のハンドリング位置に動作
させると、図4に示すモデルの状態になる。この様に、
ワーク13のハンドリング位置である点Aに対してツー
ル軸8は点Dの位置に動作してしまう。また、ハンド9
の基準位置がロボットのツール軸8に対してオフセット
量を持つ場合は、ツール軸8の角度を0度とした場合に
ロボットのハンド9の基準位置は点Bにずれてしまう。
When the actual arm lengths of the robot and the camera mounting distance with respect to the tool axis 8 have errors with the parameters held by the robot controller 1, the camera coordinate system is converted to the robot coordinate system as shown in FIG. Although the position data of the camera image position calculating means is expressed by xy coordinates, it has a certain offset amount with respect to the robot coordinate system (XY coordinates) of the robot operation control means. In such a case, the position data of the work 13 in the imaging area of the parts feeder 12a is obtained from the camera image position calculation means via the camera means 7, and the robot operation control means sets the tool axis 8 to the handling position of the work 13. When operated, the state of the model shown in FIG. 4 is obtained. Like this
The tool axis 8 moves to the position of the point D with respect to the point A which is the handling position of the work 13. Also, hand 9
When the reference position of 1 has an offset amount with respect to the tool axis 8 of the robot, the reference position of the robot hand 9 is displaced to the point B when the angle of the tool axis 8 is 0 degree.

【0012】カメラ手段7のパーツフィーダ12aにつ
いての撮像位置は、ロボット作業中に変化させない固定
点として教示してあり、パーツフィーダ12aの撮像領
域はロボットの動作範囲に対して限られた領域である。
よって、図4で示すワークのハンドリング位置を示す点
Aとロボットのツール軸8の位置を示す点Dとで生じる
ずれ量は、一定の値でありその撮像領域に対して1つの
近似値で表すことができる。このことから、ワーク13
のハンドリング位置を示す点Aに対する点D及び点Bの
ずれ量を測定することで、パーツフィーダ12aの撮像
領域中の任意の姿勢で任意の位置にあるワークを正確に
ハンドリングする為の補正値パラメータを求めることが
できる。
The image pickup position of the parts feeder 12a of the camera means 7 is taught as a fixed point which is not changed during the robot work, and the image pickup area of the parts feeder 12a is a limited area with respect to the operation range of the robot. .
Therefore, the amount of deviation generated between the point A indicating the handling position of the work shown in FIG. 4 and the point D indicating the position of the tool axis 8 of the robot is a constant value and is represented by one approximate value for the imaging area. be able to. From this, work 13
The correction value parameter for accurately handling the work at an arbitrary position in an arbitrary posture in the imaging area of the parts feeder 12a by measuring the amount of deviation of the point D and the point B from the point A indicating the handling position. Can be asked.

【0013】まず、図4に示した点Bの点Aに対する位
置を求める。ワーク13のハンドリング位置を示す点A
に点Bにあるハンド9の基準位置を教示装置10を用い
てツール角度0度のまま移動させる。その時のX方向、
Y方向の移動量からXY平面上での点Aに対する点Bの
位置が把握できる。また、ハンド9の基準位置を点Bの
位置に戻した後でロボットのツール軸8を180度回転
させるとハンド9の基準位置が点Cに示す位置にくる。
この点Cの位置から、同じように、ハンド9の基準位置
を教示装置10を用いてツール角度180度のまま点A
に移動させ、その時のX方向、Y方向の移動量からXY
平面上での点Aに対する点Cの位置を把握できる。
First, the position of the point B shown in FIG. 4 with respect to the point A is obtained. Point A indicating the handling position of the work 13
Then, the reference position of the hand 9 at the point B is moved by using the teaching device 10 while keeping the tool angle at 0 degree. X direction at that time,
The position of the point B with respect to the point A on the XY plane can be grasped from the amount of movement in the Y direction. Further, if the tool shaft 8 of the robot is rotated 180 degrees after the reference position of the hand 9 is returned to the position of the point B, the reference position of the hand 9 comes to the position indicated by the point C.
Similarly, from the position of this point C, the reference position of the hand 9 is kept at the tool angle of 180 degrees by using the teaching device 10.
To the X and Y directions, and then XY
The position of the point C with respect to the point A on the plane can be grasped.

【0014】ロボットのツール軸8の位置を示す点D
の、ワーク13のハンドリング位置を示す点Aに対する
位置は、点Bと点Cの中点として求められる。よって、
点Aの座標を(xA ,yA )とした時、点Bの座標を
(xB ,yB )、点Cの座標を(xC ,yC )とする
と、ツール軸8の中心を示す点D(座標(xD
D ))とワーク13のハンドリング位置を示す点Aと
の距離LDA、及びベクトルDAのX軸に対する角度θDA
は、数1より求められる。
Point D indicating the position of the tool axis 8 of the robot
The position with respect to the point A indicating the handling position of the workpiece 13 is obtained as the midpoint between the points B and C. Therefore,
When the coordinates of the point A are (x A , y A ), the coordinates of the point B are (x B , y B ), and the coordinates of the point C are (x C , y C ), the center of the tool axis 8 is Point D (coordinates (x D ,
y D)) and the distance between the point A indicating the handling position of the workpiece 13 L DA, and angle theta DA with respect to the X-axis of the vector DA
Is calculated from equation 1.

【0015】[0015]

【数1】 [Equation 1]

【0016】また、ツール軸8が角度0度の場合のハン
ド9の中心を示す点Bとツール軸8の中心を示す点Dと
の距離LBD、及びベクトルBDのX軸に対する角度θBD
は、数2より求められる。
Further, when the tool axis 8 has an angle of 0 degree, the distance L BD between the point B indicating the center of the hand 9 and the point D indicating the center of the tool axis 8 and the angle θ BD of the vector BD with respect to the X axis.
Is calculated from the equation 2.

【0017】[0017]

【数2】 [Equation 2]

【0018】カメラ手段7、及びカメラ画像位置演算手
段を介して得たパーツフィーダ12aの撮像領域中の任
意の姿勢をしたワークの吸着点をW(x,y)として、
そのワークを吸着する際のツール軸8の角度をθとする
と、ハンド9の基準位置をワークの吸着点Wに動作させ
るための補正演算式は数3で求められる。
Let W (x, y) be the suction point of the workpiece having an arbitrary posture in the image pickup area of the parts feeder 12a obtained through the camera means 7 and the camera image position calculation means.
Assuming that the angle of the tool shaft 8 at the time of sucking the work is θ, the correction calculation formula for moving the reference position of the hand 9 to the suction point W of the work can be obtained by Expression 3.

【0019】[0019]

【数3】 [Equation 3]

【0020】上記の補正演算式に用いるパラメータを、
前述した方法によって各撮像位置毎に求めておくこと
で、ロボットは、視覚センサより得たワークのハンドリ
ング位置によって、あらかじめ決められた領域中にある
任意のワークのハンドリング作業を正確に行えるように
なる。また、複数のワークに対してハンドを交換しなが
ら作業する場合には、ワーク別に補正演算式で用いるパ
ラメータを求めておくことで同じように正確なハンドリ
ング作業を実現できる。
The parameters used in the above correction arithmetic expression are
By obtaining for each imaging position by the method described above, the robot can accurately perform the work of handling any work in a predetermined area according to the work handling position obtained from the visual sensor. . Further, when working while exchanging hands with respect to a plurality of works, similarly accurate handling work can be realized by obtaining the parameters used in the correction calculation formula for each work.

【0021】上記の例では、カメラ手段をアーム先端に
取り付けた例を挙げたが、ロボットを動作させた際にカ
メラ手段の作業面に対する高さ及び角度が変化しない限
りはカメラ手段の取り付け位置は限定されず、視覚セン
サから得た位置データに対して同様の補正演算を行え
る。また、ツール軸に取り付けるハンドは、ハンドの基
準位置と作業対象のワークのハンドリング位置との関係
を把握できる限りは、本実施例によって制限されない。
In the above example, the camera means is attached to the tip of the arm. However, as long as the height and angle of the camera means with respect to the work surface do not change when the robot is operated, the mounting position of the camera means Without being limited, the same correction calculation can be performed on the position data obtained from the visual sensor. Further, the hand attached to the tool shaft is not limited by this embodiment as long as the relationship between the reference position of the hand and the handling position of the work to be worked can be grasped.

【0022】[0022]

【発明の効果】カメラ手段をロボット動作によって移動
可能な状態で使用する場合には、撮像可能領域を広くと
れるが、視覚センサの位置データをカメラ座標系からロ
ボット座標系に変換する際にロボットの各アーム長、及
びツール軸に対するカメラ取り付け距離が正確に把握で
きないとその位置データの精度を保証できなくなる。し
かし、視覚センサの位置情報の精度を、それらパラメー
タを正確に把握することでロボット可動範囲中の全てに
おいて保証するのは困難である。よって、本発明による
ハンドリング精度校正法では、あらかじめ決められた撮
像領域についての視覚センサの位置データに対して、ツ
ール軸に対するハンドのオフセット量も考慮に加えて補
正演算することで、その撮像領域中の任意のワークに対
するハンドリング作業の精度を保証することができる。
When the camera means is used so as to be movable by the robot operation, the imageable area can be widened, but when the position data of the visual sensor is converted from the camera coordinate system to the robot coordinate system, the robot's coordinate system is changed. If the length of each arm and the camera mounting distance to the tool axis cannot be accurately grasped, the accuracy of the position data cannot be guaranteed. However, it is difficult to guarantee the accuracy of the position information of the visual sensor in the entire robot movable range by accurately grasping those parameters. Therefore, in the handling accuracy calibration method according to the present invention, the position data of the visual sensor for the predetermined imaging area is corrected by taking into account the offset amount of the hand with respect to the tool axis and performing a correction calculation, thereby It is possible to guarantee the accuracy of the handling work for any work.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の実施例で引用する視覚センサ付き水平
多関節型ロボットの外観図である。
FIG. 1 is an external view of a horizontal articulated robot with a visual sensor cited in an embodiment of the present invention.

【図2】本発明の実施例で引用する視覚センサ付き水平
多関節型ロボットが行なうハンドリング作業の構成図で
ある。
FIG. 2 is a configuration diagram of handling work performed by a horizontal articulated robot with a visual sensor, which is cited in an embodiment of the present invention.

【図3】本発明の実施例で引用する視覚センサの座標系
のずれを示すモデルである。
FIG. 3 is a model showing the deviation of the coordinate system of the visual sensor cited in the example of the present invention.

【図4】本発明による視覚センサの位置データに対する
補正方法を示すモデルである。
FIG. 4 is a model showing a correction method for position data of a visual sensor according to the present invention.

【図5】従来技術例の視覚センサに対するロボット座標
系の教示を行なう構成図である。
FIG. 5 is a configuration diagram for teaching a robot coordinate system to a visual sensor of a conventional art example.

【符号の説明】[Explanation of symbols]

1 ロボットコントローラ 6 第2アーム 7 カメラ手段 8 ツール軸 9 ハンド 10 教示装置 13 ワーク 1 Robot Controller 6 Second Arm 7 Camera Means 8 Tool Axis 9 Hand 10 Teaching Device 13 Workpiece

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 ロボットアームにカメラ手段を作業面に
鉛直な向きに取り付けて、カメラ画像位置演算手段を介
してワーク位置を認識し、作業面に対してツール軸を鉛
直な姿勢に保ちながらワークのハンドリング作業をする
水平多関節型ロボットにおいて、カメラ画像位置演算手
段から得たワークの位置データにロボットのツール軸を
動作させる際に、ワークのハンドリング位置とロボット
のツール軸とで生じるずれ量と、ロボットのハンド基準
位置とロボットのツール軸とのオフセット量とを補正す
る補正値テーブルをカメラ画像撮像位置毎にもたせて、
カメラ画像位置演算手段から得るワークの位置データを
各撮像位置別の補正値テーブルで補正演算しながらロボ
ットを動作させることを特徴とする視覚センサ付き水平
多関節型ロボットのハンドリング精度校正法。
1. A robot arm is provided with a camera means in a vertical direction on a work surface, the work position is recognized through a camera image position calculation means, and the work axis is maintained in a vertical posture with respect to the work surface. In the horizontal articulated robot that performs the handling work of, when the tool axis of the robot is moved to the position data of the work obtained from the camera image position calculation means, the deviation amount between the handling position of the work and the tool axis of the robot , A correction value table for correcting the offset amount between the robot hand reference position and the robot tool axis is set for each camera image capturing position,
A method for calibrating the handling accuracy of a horizontal articulated robot with a visual sensor, characterized in that the robot is operated while correcting and calculating the position data of the work obtained from the camera image position calculation means using a correction value table for each imaging position.
【請求項2】 請求項1に記載のハンドリング精度校正
法において、補正値テーブルの作成に必要な任意のカメ
ラ画像撮像位置に対しての作業対象ワークのハンドリン
グ位置とロボットのツール軸との間で生じるずれ量と、
ロボットのハンド基準位置とロボットのツール軸とのオ
フセット量を、作業対象ワークに対するハンド基準位置
の教示作業により同時に計測することを特徴とする視覚
センサ付き水平多関節型ロボットのハンドリング精度校
正法。
2. The handling accuracy calibration method according to claim 1, wherein between a handling position of a work to be worked and a tool axis of a robot with respect to an arbitrary camera image capturing position necessary for creating a correction value table. The amount of deviation that occurs,
A method for calibrating the handling accuracy of a horizontal articulated robot with a visual sensor, characterized in that the offset amount between the robot hand reference position and the robot tool axis is measured simultaneously by the teaching work of the hand reference position for the work to be worked.
JP1919993A 1993-01-12 1993-01-12 Calibration of handling precision of horizontal articulated type robot equipped with visual sensor Pending JPH06206186A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1919993A JPH06206186A (en) 1993-01-12 1993-01-12 Calibration of handling precision of horizontal articulated type robot equipped with visual sensor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1919993A JPH06206186A (en) 1993-01-12 1993-01-12 Calibration of handling precision of horizontal articulated type robot equipped with visual sensor

Publications (1)

Publication Number Publication Date
JPH06206186A true JPH06206186A (en) 1994-07-26

Family

ID=11992690

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1919993A Pending JPH06206186A (en) 1993-01-12 1993-01-12 Calibration of handling precision of horizontal articulated type robot equipped with visual sensor

Country Status (1)

Country Link
JP (1) JPH06206186A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009277340A (en) * 2008-04-18 2009-11-26 Seiko Epson Corp Disk conveyance mechanism of disk processing apparatus, and disk processing apparatus
EP2767370A2 (en) 2013-02-14 2014-08-20 Canon Kabushiki Kaisha Robot system and method for controlling the same
WO2022118374A1 (en) * 2020-12-01 2022-06-09 株式会社Fuji Method for controlling scara robot

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009277340A (en) * 2008-04-18 2009-11-26 Seiko Epson Corp Disk conveyance mechanism of disk processing apparatus, and disk processing apparatus
EP2767370A2 (en) 2013-02-14 2014-08-20 Canon Kabushiki Kaisha Robot system and method for controlling the same
JP2014151427A (en) * 2013-02-14 2014-08-25 Canon Inc Robot system and control method therefor
US9221176B2 (en) 2013-02-14 2015-12-29 Canon Kabushiki Kaisha Robot system and method for controlling the same
WO2022118374A1 (en) * 2020-12-01 2022-06-09 株式会社Fuji Method for controlling scara robot

Similar Documents

Publication Publication Date Title
JP6966582B2 (en) Systems and methods for automatic hand-eye calibration of vision systems for robot motion
JP7207851B2 (en) Control method, robot system, article manufacturing method, program and recording medium
JP7153085B2 (en) ROBOT CALIBRATION SYSTEM AND ROBOT CALIBRATION METHOD
US9050728B2 (en) Apparatus and method for measuring tool center point position of robot
JP3946711B2 (en) Robot system
JP4021413B2 (en) Measuring device
JP3733364B2 (en) Teaching position correction method
JP6572262B2 (en) Teaching position correcting device and teaching position correcting method
US20150202776A1 (en) Data generation device for vision sensor and detection simulation system
JP4289619B2 (en) Tool position correction method for articulated robots
JP2008012604A (en) Measuring apparatus and method of its calibration
JP6869159B2 (en) Robot system
WO2018043524A1 (en) Robot system, robot system control device, and robot system control method
JP4274558B2 (en) Calibration method
JP6912529B2 (en) How to correct the visual guidance robot arm
WO2023013740A1 (en) Robot control device, robot control system, and robot control method
JP7057841B2 (en) Robot control system and robot control method
JPH06206186A (en) Calibration of handling precision of horizontal articulated type robot equipped with visual sensor
JPH09222913A (en) Teaching position correcting device for robot
JPH06785A (en) Correcting method for visual sensor coordinate system
JPH08118272A (en) Calibration of robot
JP7384653B2 (en) Control device for robot equipment that controls the position of the robot
JP4244705B2 (en) Calibration apparatus and method for laser processing head with rotating mechanism
JPH0727408B2 (en) Robot handling device with fixed 3D vision
WO2023013699A1 (en) Robot control device, robot control system, and robot control method