JPS6377678A - Method of controlling operation of robot - Google Patents

Method of controlling operation of robot

Info

Publication number
JPS6377678A
JPS6377678A JP21950486A JP21950486A JPS6377678A JP S6377678 A JPS6377678 A JP S6377678A JP 21950486 A JP21950486 A JP 21950486A JP 21950486 A JP21950486 A JP 21950486A JP S6377678 A JPS6377678 A JP S6377678A
Authority
JP
Japan
Prior art keywords
robot
work
coordinate system
relative relationship
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP21950486A
Other languages
Japanese (ja)
Inventor
安弘 橋本
徳久 三宅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP21950486A priority Critical patent/JPS6377678A/en
Publication of JPS6377678A publication Critical patent/JPS6377678A/en
Pending legal-status Critical Current

Links

Landscapes

  • Manipulator (AREA)
  • Numerical Control (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
(57) [Abstract] This bulletin contains application data before electronic filing, so abstract data is not recorded.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は、ロボットの動作制御方法に係り、特に作業対
象物との相対位置が変化しながら作業を行なうロボット
に好適な動作制御方法に関する。
DETAILED DESCRIPTION OF THE INVENTION [Field of Industrial Application] The present invention relates to a method of controlling the motion of a robot, and particularly to a method of controlling the motion of a robot that performs work while changing its relative position to a workpiece.

〔従来の技術〕 ロボットは一般的に固定設置されており、このロボット
の動作範囲内にセットされた作業対象物に対して作業を
行なっている。この場合、ロボットの作業に先たち、動
作内容を教示し、記憶して、この記憶内容を再生してロ
ボットに作業を行なわせる制御方式いわゆる教示再生制
御方式が採用されている。
[Prior Art] A robot is generally fixedly installed, and performs work on a workpiece set within the operating range of the robot. In this case, a so-called teaching/reproduction control method is employed, which is a control system in which the robot is taught and memorized the content of the motion prior to the robot's work, and the stored content is reproduced to cause the robot to perform the work.

一方、近年ではロボットの多様化に伴ない、大形掃造物
や、人間が介入できない原子カプラント等を作業対象と
してロボットの適用化が要求されている。この要求を満
すためには、ロボット自身が移動しながら作業を行う移
動型ロボットが不可欠である。しかしながら、移動型ロ
ボットは作業対象物との位置、姿勢の相対的関係が作業
実行中に変化する。このため、教示や設計データによる
数値等により、予め定められた所要の軌道に沿って作業
を行わせることは不可能であった。これに近い例として
は、例えば特開昭57−182205号公報や特開昭5
9−189415号公報に記載のように、ロボットと対
象物の相対関係を複数の代表点の教示により検出し、作
業内容を補正するものがある。
On the other hand, in recent years, with the diversification of robots, there has been a demand for the application of robots to work on large-scale sweepers, atomic couplants, etc. where human intervention is not possible. In order to meet this demand, mobile robots that perform work while moving themselves are essential. However, the position and posture of mobile robots change relative to the work object during the execution of the work. For this reason, it has been impossible to have the robot perform work along a predetermined trajectory based on numerical values based on teaching or design data. Examples close to this include JP-A-57-182205 and JP-A-57-182205.
As described in Japanese Patent No. 9-189415, there is a system that detects the relative relationship between a robot and an object by teaching a plurality of representative points and corrects the work content.

〔発明が解決しようとする問題点〕[Problem that the invention seeks to solve]

しかし、上記従来技術は1作業実行中にロボットと対象
物との相対的関係が変化するような状況には対応できな
かった。
However, the above-mentioned conventional technology cannot cope with a situation where the relative relationship between the robot and the object changes during execution of one task.

本発明の第1の目的は5作業対象物とロボットとの位置
、姿勢の相対的関係が作業実行中に変化しても、予め与
えられた作業内容をリアルタイムで実行させることがで
きるロボットの動作制御方法を提供することにある。
The first object of the present invention is 5. Operation of the robot that allows the robot to execute pre-given work contents in real time even if the relative relationship between the position and posture of the work object and the robot changes during the work execution. The objective is to provide a control method.

本発明の第2の目的は、作業対象物とロボットとの位置
、姿勢の相対関係が作業実行中に変化しても、予め与え
られた作業内容をリアルタイムで実行させることができ
るロボットの動作制御装置を提供することにある。
A second object of the present invention is to control the motion of a robot that can execute pre-given work contents in real time even if the relative relationship between the position and posture of the work object and the robot changes during the execution of the work. The goal is to provide equipment.

〔問題点を解決するための手段〕[Means for solving problems]

本発明の第1の目的は、予め与えられた作業内容を、対
象物に固定された座標系で表わし記憶し、センサ等によ
り検出したロボットと対象物の相対関係にもとづいて順
次補正し、所定の軌道に沿ってロボットを動作制御する
ことにより、達成される。
The first object of the present invention is to represent and memorize the work content given in advance in a coordinate system fixed to the target object, and to sequentially correct it based on the relative relationship between the robot and the target object detected by a sensor, etc. This is achieved by controlling the robot's movement along the trajectory of the robot.

本発明の第2の目的は、作業対象との位置、姿勢の相対
的関係が作業実行中に変化するような状況において作業
を行なうロボットにおいて、作業対象物とロボットとの
相対的関係を検出する検出手段と、ロボットの作業デー
タを記憶する手段と、対象物上の任意の作業点をロボッ
トの座標系に変換する手段と、この変換手段からの情報
によりロボットの作業データを倍圧する手段をInえる
ことにより達成されろ。
A second object of the present invention is to detect the relative relationship between a work object and the robot in a robot that performs work in a situation where the relative relationship of the position and posture of the work object to the work object changes during the execution of the work. A detection means, a means for storing the robot's work data, a means for converting an arbitrary work point on the object into the robot's coordinate system, and a means for doubling the robot's work data using information from the converting means are installed. Achieve it by doing.

〔作用〕[Effect]

ロボットの移動等により、対象物との位置、姿勢の相対
的関係が変化しても、センサ等により、その相対的関係
を検出する。この時の相対的関係にもとづいて、予め与
えられている作業内容を座標変換により、順次補正する
。ロボットをこの補正した作業内容によって動作させる
ことにより、対象物の予め定められた軌道に沿って動作
制御することができる。
Even if the relative relationship between the position and posture of the robot changes due to movement of the robot, etc., the relative relationship is detected by a sensor or the like. Based on the relative relationships at this time, the work contents given in advance are sequentially corrected by coordinate transformation. By operating the robot according to the corrected work content, the robot can be controlled to move along a predetermined trajectory of the object.

〔実施例〕〔Example〕

以下図面を参照して本発明の詳細な説明する。 The present invention will be described in detail below with reference to the drawings.

まず、本発明の詳細な説明するに、先立つて本発明の原
理を第2図によって説明する。
First, before giving a detailed explanation of the present invention, the principle of the present invention will be explained with reference to FIG.

作業中のある瞬間におけるロボットRの位置をP、次の
瞬間に移動した位置をQとする。いま、ロボットにより
作業される作業対象個所W^上に固定した座標系を、第
2図に示すように0^、XA。
Let P be the position of the robot R at a certain moment during work, and Q be the position it moves to the next moment. Now, the coordinate system fixed on the work target W^ to be worked by the robot is 0^, XA as shown in Fig. 2.

YA、ZAとし、Pの位置におけるロボット上の座標系
をOp r xp t yp +  zp とし、同様
にQの位置におけるロボット上の座標系をOe 、 X
Q 。
YA, ZA, the coordinate system on the robot at the position of P is Op r xp typ + zp, and similarly the coordinate system on the robot at the position of Q is Oe, X
Q.

yQ 、ZQとする。Let yQ and ZQ.

まず、作業内容については、予め教示したデータ、また
は、設計データを基にして、作業対象個所W^上に固定
した座標系0^、X^、Y^。
First, regarding the work content, a coordinate system 0^, X^, Y^ is fixed on the work target location W^ based on data taught in advance or design data.

ZA を基標として与えられている。It is given based on ZA.

次に、ロボットの位置Pにおいて作業を行なう場合は、
ロボットの座標系Op 9 XP + yP tzpで
作業内容のデータを表現する必要がある。
Next, when performing work at the robot position P,
It is necessary to express the data of the work content in the robot's coordinate system Op 9 XP + yP tzp.

同様に、ロボットが位置Qにおいて作業を行なう場合も
、ロボットの位置Qにおける座標系Oe。
Similarly, when the robot performs work at position Q, the coordinate system Oe at position Q of the robot.

XQ 、 yQ 、ZQで表現する必要がある。It needs to be expressed as XQ, yQ, and ZQ.

ここで、作業内容データの任意の作業点をAとし、座標
系OA、XA、YA、Z^における点Δの座標値を(X
a 、 Ya 、 Za )とする。また、ロボットの
位置Pにおける座標系Op + XPv 3’P+zp
における点A(7)座標値を(Xp 、 Yp 、 Z
p )とし、ロボットの位置Qにおける座標系Oe 。
Here, let A be an arbitrary work point in the work content data, and let the coordinate values of point Δ in the coordinate system OA, XA, YA, Z^ be (X
a, Ya, Za). Also, the coordinate system Op + XPv 3'P+zp at the robot position P
The coordinate values of point A (7) in (Xp, Yp, Z
p) and the coordinate system Oe at the robot position Q.

XQ v ye t ZQにおける点Aの座標値を(X
、t。
XQ v ye t The coordinate value of point A in ZQ is (X
, t.

Yq 、 Zq )とすれば(Xa 、 Ya 、Za
 )と(XP 、 Yp 、 ZP )及び(Xq 、
Yq 、 Zq )との変換を行う関係式を与えれば、
教示されたデータを変換しながらロボットに作業を行わ
せることができる。
Yq , Zq ) then (Xa , Ya , Za
) and (XP, Yp, ZP) and (Xq,
If we give the relational expression for converting Yq, Zq),
Robots can be made to perform tasks while converting taught data.

そこで、上述の座標変換関係を説明する。いま、第1図
に示す任意の点Aの1@標を座標系O^。
Therefore, the above-mentioned coordinate transformation relationship will be explained. Now, the 1@ mark of any point A shown in Fig. 1 is the coordinate system O^.

XA 、YA 、ZAで表わすと(Xa 、 Ya 、
 Za )となり、座標系OP * XP p 3’P
 t ZPで表わすと(Xp 、 Yp 、Zp )と
なるとする。この間の変換行列をT1とすれば の関係が成り立つ、ここで変換行列T1は、座標系0^
、XA、YA、ZA上の複数個の基準点を座標系Op 
、xp 、yp F zp上から表現することにより求
められる。よって、座標系Op 、 xp 。
When expressed by XA, YA, ZA, (Xa, Ya,
Za ), and the coordinate system OP * XP p 3'P
It is assumed that when expressed as tZP, it becomes (Xp, Yp, Zp). If the transformation matrix between these is T1, the relationship holds true, where the transformation matrix T1 is the coordinate system 0^
, XA, YA, ZA coordinate system Op
, xp , yp F zp is obtained by expressing it from above. Therefore, the coordinate system Op, xp.

yp 、zp上にある視覚センサ等により、座標系0^
、XA、YA、ZA上の複数個の基準点を検出すれば、
変換行列T1を求めることができる。
The coordinate system 0^ is determined by visual sensors on yp and zp.
, XA, YA, and ZA, if multiple reference points are detected,
A transformation matrix T1 can be obtained.

また、上記と同様の方法により、座標系O^。In addition, by the same method as above, the coordinate system O^.

XA 、YA 、ZAと座標系Oe 、 Xe 、YG
I 、Zeとの変換行列TZも求めることができる。
XA, YA, ZA and coordinate systems Oe, Xe, YG
A transformation matrix TZ with I and Ze can also be obtained.

以上の説明で明らかなように、ロボットと作業対象物と
の相対的関係がどのように変化しても、その時々におい
て、センサ情報により変換行列を求め、対象物上の任意
の作業点をロボットの座標系に変換し、所定の作業を行
なわせることができる。
As is clear from the above explanation, no matter how the relative relationship between the robot and the work object changes, the transformation matrix is determined from the sensor information at each time, and the robot moves any work point on the work object. It is possible to perform a predetermined work by converting the coordinate system into the coordinate system of

次に上述した本発明の動作制御の原理にもとづいて、本
発明の動作制御装置の一実施例を第1図によって説明す
る。この図において、Rは移動形のロボット、Sは作業
対象物を撮影するセンサ。
Next, an embodiment of the motion control device of the present invention will be described with reference to FIG. 1 based on the principle of motion control of the present invention described above. In this figure, R is a mobile robot, and S is a sensor that photographs the work object.

102は動作経路記憶装置で、この装置102は例えば
第2図に示す、ワーク座標系0^、XA。
102 is a motion path storage device, and this device 102 has a workpiece coordinate system 0^, XA as shown in FIG. 2, for example.

YA 、ZA上での作業データとして記憶しておく。Store it as work data on YA and ZA.

この基本的な作業データは、ロボットRの教示動作ある
いは設計データにもとづいて計算機等により求めた数値
データを記憶しておく設計データ記憶装置101から与
えられる。107は補正点データ記憶装置で、この装置
107は前述したワーク座標系と、ロボット座標系Op
 t XP ! yP rzpとの相対的な関係を与え
るための基準参照点データをセンサSにより検出し、記
憶している。
This basic work data is given from a design data storage device 101 that stores numerical data obtained by a computer or the like based on the teaching motion of the robot R or design data. 107 is a correction point data storage device, and this device 107 stores the aforementioned workpiece coordinate system and robot coordinate system Op.
tXP! Standard reference point data for giving a relative relationship with yP rzp is detected by the sensor S and stored.

基準参照点データは、ロボットRとワークAとの相対的
な関係の変化に伴ない、センサSにより検出し、データ
を書き換えることができる。この補正点データは、例え
ば第4図に示すように、ロボットとワークの相対的関係
の変化に伴ない、点Al l Ax v Asから点A
 I’  、 A2’  、 Aa’のように書き換え
られる。
The standard reference point data can be detected by the sensor S and rewritten as the relative relationship between the robot R and the workpiece A changes. For example, as shown in FIG. 4, this correction point data changes from point Al l Ax v As to point A as the relative relationship between the robot and workpiece changes.
It is rewritten as I', A2', Aa'.

106は、装置107からの補正点データによって変換
行列を演算する装置で、この装置106は前述した(1
)式にもとづいて変換行列TI を演算する。103は
、装置106の補正変換行列T1を用いて、装置102
からのロボットRの作業動作経路をロボット座標系のデ
ータとして演算する装置である。この演算装置103に
よって得られるロボットRの修正動作経路データは、ワ
ークW^とロボットRとの相対的関係の変化に伴い修正
される。このデータは記憶装置104に格納され、ロボ
ットRの動作指令発生装置105へ順次送出される。こ
の動作指令発生装置105は、前述したデータによりロ
ボットRを駆動し、ロボットRとワークW^との相対的
関係の変化にかかわらず、正しい作業を実行させる。
106 is a device that calculates a transformation matrix using the correction point data from the device 107;
) is used to calculate the transformation matrix TI. 103 uses the correction transformation matrix T1 of the device 106 to convert the device 102
This is a device that calculates the work movement path of the robot R from the robot R as data in the robot coordinate system. The corrected motion path data of the robot R obtained by the arithmetic unit 103 is corrected as the relative relationship between the work W^ and the robot R changes. This data is stored in the storage device 104 and sequentially sent to the motion command generation device 105 of the robot R. The operation command generating device 105 drives the robot R based on the data described above, and causes the robot R to perform the correct work regardless of changes in the relative relationship between the robot R and the workpiece W^.

なお、ロボットRとワークW^との相対的関係が時々刻
々変化する場合は、演算装置103での演算を高速でリ
アルタイムに行うため、記憶装置104を省略すること
ができる。
Note that when the relative relationship between the robot R and the workpiece W^ changes from time to time, the storage device 104 can be omitted because the calculations are performed by the calculation device 103 at high speed in real time.

次に本発明を移動形のロボットによる作業の一例に適用
した例を説明する。その作業例は第3図に示すようにロ
ボットRは、作業対象物であるドア11に移動しながら
接近し、手先ハンド13によりドア11を開け、ドア1
,1の内側に移動する例である。
Next, an example in which the present invention is applied to an example of work performed by a mobile robot will be described. As an example of the work, as shown in FIG.
, 1 is an example of moving inside.

上述のロボット作業において、ロボットRがドア11に
接近し移動しながら手先ハンド13を用いてノブ12を
把持し、開ける。ドア11を開ける場合、ドア11のノ
ブ12とロボットRの相対的関係はロボットRの移動に
ともない、時々刻々変化する。このため、ロボットRに
とりつけた視覚センサ14,15により、ドア11上の
基準参照点Ar 、A2.Asを検出し、この結果によ
りロボットRと対象物であるドア11の相対的関係を時
々刻々検出しながら1手先ハンド13を動作制御し、ノ
ブ12を移動させ、ドア11を開けるものである。
In the above-described robot work, the robot R approaches the door 11 and while moving, grasps the knob 12 using the hand 13 and opens it. When opening the door 11, the relative relationship between the knob 12 of the door 11 and the robot R changes from moment to moment as the robot R moves. For this reason, visual sensors 14 and 15 attached to the robot R detect reference points Ar, A2, and A2 on the door 11. As is detected, and based on the results, the relative relationship between the robot R and the object door 11 is detected moment by moment, and the first hand 13 is controlled, the knob 12 is moved, and the door 11 is opened.

この場合の基準参照点Ax 、Ax 、Asは黒色マー
クが一般的であるが、視覚センサ14,15が認識でき
るものであれば、その形状9種類は問わない。
In this case, the standard reference points Ax, Ax, and As are generally black marks, but as long as they can be recognized by the visual sensors 14 and 15, they can have nine different shapes.

第3図に示すロボットRによるドア開作業において、ロ
ボットRが第4図に示すように点αから点βに移動し、
その間にドア11は符号WBで示す位置から符号W B
 ’  で示す位置に移動する。ここで与め与えられて
いる作業データは、第3図に示すノブ12の軌道であり
、第3図においては点BからB′へ移動となる。以下、
第4図を用いて動作制御方法を説明する。
In the door opening operation by robot R shown in FIG. 3, robot R moves from point α to point β as shown in FIG.
In the meantime, the door 11 moves from the position indicated by the symbol WB to the symbol WB.
' Move to the position indicated by '. The work data given here is the trajectory of the knob 12 shown in FIG. 3, in which it moves from point B to B'. below,
The operation control method will be explained using FIG.

ロボットRの点αにおける座標系を0α、Xa。The coordinate system at point α of robot R is 0α, Xa.

Ya、Zαとし、その時の対象物であるドアWBの座標
系をOB 、XFI + YB+ ZBとする。次に、
ロボットRの点βにおける座標系を0β、XB。
Let Ya and Zα be the coordinate systems of the door WB, which is the object at that time, as OB and XFI + YB + ZB. next,
The coordinate system at point β of robot R is 0β, XB.

YB、Znとし、その時の対象物であるドアW B ’
の座標系をOR* XB’  + Ya’  l ZB
 とする。
YB and Zn, and the object at that time is the door W B'
OR the coordinate system of * XB' + Ya' l ZB
shall be.

ここでロボットの作業点Bは、座標系Oa 、 XB 
Here, the robot's work point B is in the coordinate system Oa, XB
.

Ya 、Znにより表わされており、B′は座標系OB
 + Xl:I’  HYa’  l Za’  ニよ
り表わされている。まず、点αにおいて、ロボットRは
、第2図に示す視覚センサ14,15により基準点AI
Ya, Zn, and B' is the coordinate system OB.
+ Xl: I'HYa' l Za' d. First, at point α, the robot R uses the visual sensors 14 and 15 shown in FIG.
.

A2.Asを検出する。このデータをもとに変換行列演
算装置1.06は座標系OB 、Xa t YB。
A2. Detect As. Based on this data, the transformation matrix calculation device 1.06 calculates the coordinate systems OB, Xa t YB.

zaから座標系Oα、Xα、Yα、Zαへの変換行列T
αを求め、点Bのデータを座標系0α。
Transformation matrix T from za to coordinate system Oα, Xα, Yα, Zα
Find α and set the data of point B to the coordinate system 0α.

Xa、Ya、Zα上のデータに変換する。同様に、点β
における変換行列Tβを基準点A 1 ’ HA 2 
’ +As’  の検出により求め、点B′のデータを
座標系Oβ、Xβ、Yβ、Zβ上のデータに変換する。
Convert to data on Xa, Ya, and Zα. Similarly, point β
The transformation matrix Tβ at the reference point A 1 ′ HA 2
It is obtained by detecting '+As' and converts the data at point B' into data on the coordinate system Oβ, Xβ, Yβ, Zβ.

上記と同様の方法を行うことにより、ロボットRの移動
にともなう、ロボットRと対象物であるドア11の作業
点ノブ12のデータをロボットの座標系で与えることが
でき1手先ハンド13を誘導し、作業が行なえる。
By performing the same method as above, the data of the working point knob 12 of the robot R and the target object, the door 11, can be given in the robot's coordinate system as the robot R moves, and the first hand 13 can be guided. , work can be done.

次に本発明の他の実施例を第5図及び第6図を用いて説
明する。
Next, another embodiment of the present invention will be described using FIGS. 5 and 6.

第5図の例は、ベルトコンベア4]上を鋼板部材44が
流れて来て、これにロボット40の手先につけたペン4
3により文字を書く例を示している。この例においては
、絶対空間に固定された視πセンサ42により部材44
のエツジ部を基準点として検出している。この例におけ
る動作制御方法を第6図を用いて説明する。ロボットは
点Eに設置されており、ロボットの座標系をOp、XE
In the example shown in FIG. 5, a steel plate member 44 is flowing on a belt conveyor 4, and a pen 4 attached to the tip of a robot 40 is attached to the steel plate member 44.
3 shows an example of writing characters. In this example, the member 44 is
The edge of the image is detected as a reference point. The operation control method in this example will be explained using FIG. 6. The robot is installed at point E, and the coordinate system of the robot is Op, XE.
.

Ya 、ZEとする。部材44の点Cにおける座標系を
Oc t Xc + Yc t Zcとし、点りにおけ
る座標系をOn 、 Xo t Yo e Zo Jニ
ーする。また、作業内容を表わすデータは作業対象物の
座標系で表わしである。
Let Ya, ZE. Let the coordinate system at point C of the member 44 be Oct Xc + Yc t Zc, and let the coordinate system at the point be On, Xo t Yo e Zo J knee. Further, the data representing the work contents is expressed in the coordinate system of the work object.

ここで第5図のセンサ42により0点における部材44
上の基準点AC11ACll、 ACllを検出し、座
標系Oc ? Xc + Yc * Zcと座標系OE
 t X F! yYE 、ZEとの変換行列TCが求
まる。この例においてはロボットが固定設置されている
ため、絶対空間に固定されているセンサ42は、ロボッ
トの座標系0+= + XE r YEt Za テ表
わせるにのことから、センサ42は、移動する部材44
の基準点のみを検出すれば、変換行列Tcを求めること
ができ1作業データをロボット座標系0EyXEr Y
p t Zpで表現でき、部材44上の所定の位置にロ
ボット40の手先につけたペン43を動作させ、きめら
れた作業が可能となる。
Here, the member 44 at the zero point is detected by the sensor 42 in FIG.
Detect the upper reference point AC11ACll, ACll and change the coordinate system Oc? Xc + Yc * Zc and coordinate system OE
tXF! A transformation matrix TC between yYE and ZE is determined. In this example, since the robot is fixedly installed, the sensor 42, which is fixed in absolute space, can be expressed as the robot's coordinate system 0 + = + XE r YEt Za te. 44
By detecting only the reference point of , the transformation matrix Tc can be obtained.
It can be expressed as p t Zp, and by moving the pen 43 attached to the tip of the robot 40 to a predetermined position on the member 44, a predetermined work can be performed.

以上の実施例では、基準点を3点としたが、ロボット及
び作業対象物の相対関係の変化する条件により、2点、
あるいは1点、または、直線等を検出しても同様に変換
行列を求めることができる。
In the above embodiment, the reference points were three points, but depending on the changing conditions of the relative relationship between the robot and the workpiece, two points,
Alternatively, even if one point, a straight line, etc. is detected, the transformation matrix can be obtained in the same way.

また、対象物に固定されたセンサによりロボット上の基
準点を検出しても逆変換行列を求めることによりロボッ
ト座標系に変換できることは自明である。
Furthermore, it is obvious that even if a reference point on the robot is detected by a sensor fixed to the object, it can be converted to the robot coordinate system by obtaining an inverse transformation matrix.

さらに、センサが絶対空間に固定され、ロボット及び対
象物がともに移動する場合を第7図を用いて説明する。
Furthermore, a case where the sensor is fixed in absolute space and the robot and the object move together will be explained using FIG.

センサが固定された絶対座標系をOo、Xo。The absolute coordinate system in which the sensor is fixed is Oo, Xo.

To、7.oとし、対象物の座標系をOw HXw g
Yw 、2wロボットの座標系をOR+ Xs v Y
RrZRとする、ここで、前述したように、センサによ
り対象物−ヒの基準点を検出することにより変換行列T
Vを求め、ロボット上の基準点を検出することにより変
換行列TFI−’を求める。ここでTR−”はロボット
座標系から絶対座標系への変換行列TRの逆座標変換行
列である。以上の結果をもとに対象物の座標系Ow 、
Xw 、Yw 、Zwからロボットの座標系OR、XR
、YR、ZFIへ変換する変換行列は T = T w−T R−”          −−
(2)により求まる。
To, 7. o, and the coordinate system of the object is Ow HXw g
Yw, OR the coordinate system of the 2w robot + Xs v Y
RrZR, where, as mentioned above, by detecting the reference point of the object-H with a sensor, the transformation matrix T
V is determined, and a transformation matrix TFI-' is determined by detecting a reference point on the robot. Here, TR-'' is the inverse coordinate transformation matrix of the transformation matrix TR from the robot coordinate system to the absolute coordinate system. Based on the above results, the coordinate system Ow of the object is
Robot coordinate system OR, XR from Xw, Yw, Zw
, YR, and the transformation matrix for converting to ZFI is T = T w−T R−” −−
Determined by (2).

ここで、ロボットのみが移動する場合は、TR−” を
求めるだけで変換行列Tが求まり、対象物のみが移動す
る場合はTwを求めるだけで変換行列Tが求まる。
Here, if only the robot moves, the transformation matrix T can be found by simply finding TR-'', and if only the object moves, the transformation matrix T can be found by just finding Tw.

以上の説明では、センサには視覚センサを用いて基準点
を検出したが、触覚センサ等による検出も可能である。
In the above description, a visual sensor is used to detect the reference point, but a tactile sensor or the like may also be used for detection.

また、対象物やロボットが回転移動する場合は、エンコ
ーダ等による検出も可能である。
Furthermore, if the object or robot rotates, detection using an encoder or the like is also possible.

なお、以上の説明については、ロボットの作業点におけ
る位置データの変換を示したが、ロボットの手先工具の
姿勢を対象物の座標系に対する角度成分(オイラー角)
や工具主軸と対象物の座標系の方向余弦などを用いて表
現することにより、位置データと同様変換行列により、
ロボット座標系のデータとして変換可能である。すなわ
ち、本発明は、ロボットと作業対象物の相対関係が変化
しても、手先の位置のみならず、作業対象物に対する手
先の姿勢をも正確に制御する必要のある場合に対しても
適用できる。
In addition, in the above explanation, the transformation of position data at the robot's work point was shown, but the posture of the robot's hand tool is transformed into an angular component (Euler angle) with respect to the coordinate system of the target object.
By expressing it using the direction cosine of the coordinate system of the tool principal axis and the object, etc., using a transformation matrix like position data,
It can be converted as robot coordinate system data. That is, the present invention can be applied to cases where it is necessary to accurately control not only the position of the hand but also the posture of the hand relative to the work object even if the relative relationship between the robot and the work object changes. .

また、以上の説明で明らかなように、作業内容のデータ
を作業対象物の座標系で予め与えることにより、センサ
情報より求めた変換行列により】度の変換を行うだけで
ロボット座標系における作業データに変換できるため、
演算時間の高速化が計れ、ロボットや作業対象物の移動
に供う相対関係の変化にリアルタイムで対応し、所定の
動作制御を達成させるに有利である。
In addition, as is clear from the above explanation, by providing the work content data in advance in the coordinate system of the work object, the work data in the robot coordinate system can be transformed by simply performing a transformation matrix obtained from sensor information. Because it can be converted to
This method is advantageous in that it can speed up calculation time, respond in real time to changes in relative relationships caused by movement of robots and work objects, and achieve predetermined motion control.

〔発明の効果〕〔Effect of the invention〕

本発明によれば1作業対象物とロボットの相対的関係が
時々刻々変化しても、予め記憶したデータを補正してロ
ボットの手先を予め定められた軌道に沿って動作制御す
ることが可能となる。
According to the present invention, even if the relative relationship between the work object and the robot changes from moment to moment, it is possible to correct the pre-stored data and control the movement of the robot's hands along a predetermined trajectory. Become.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明の装置の一実施例を示す回路構成図、第
2図は本発明の動作原理を説明するための図、第3図は
本発明を移動形のロボットによるドア開動作に適用した
例を示す斜視図、第4図はその動作説明図、第5図は本
発明の他の適用例を示す斜視図、第6図はその動作説明
図、第7図は本発明のさらに他の例における動作説明図
である。 11・・・ドア、14,15.42・・・視覚センサ、
R940・・・ロボット544・・・作業対象物。
Fig. 1 is a circuit configuration diagram showing one embodiment of the device of the present invention, Fig. 2 is a diagram for explaining the operating principle of the present invention, and Fig. 3 is a diagram showing the present invention in a door opening operation by a mobile robot. FIG. 4 is a perspective view showing an example of the application, FIG. 5 is a perspective view showing another example of application of the present invention, FIG. 6 is an illustration of the operation, and FIG. FIG. 7 is an explanatory diagram of operation in another example. 11...door, 14,15.42...visual sensor,
R940...Robot 544...Work object.

Claims (1)

【特許請求の範囲】 1、作業対象物との位置、姿勢の相対的関係が作業実行
中に変化するような状況において作業を行なうロボット
において、作業対象物とロボットとの相対的関係を検出
手段によって検出し、この検出結果にもとづいてロボッ
トの作業内容を順次補正し、もって作業対象物上に予め
定められた所要の軌道に沿って、ロボットの手先に固定
された作業工具を駆動制御することを特徴とするロボッ
トの動作制御方法。 2、相対的関係は、ロボットに対して固定されたセンサ
によって対象物を検出することにより求めることを特徴
とする特許請求の範囲第1項記載のロボットの動作制御
方法。 3、相対的関係は、絶対空間に固定されたセンサによっ
て、ロボットと対象物を検出することにより求めること
を特徴とする特許請求の範囲第1項記載のロボットの動
作制御方法。 4、相対的関係は、対象物に対して固定されたセンサに
よって、ロボットを検出することにより求めることを特
徴とする特許請求の範囲第1項記載のロボットの動作制
御方法。 5、ロボットのみが移動するとき、ロボットのみを検出
することを特徴とする特許請求の範囲第3項記載のロボ
ットの動作制御方法。 6、対象物のみが移動するとき、対象物のみを検出する
ことを特徴とする特許請求の範囲第3項記載のロボット
の動作制御方法。 7、ロボットの作業内容は、対象物に対して固定した座
標系によって表わしておき、相対関係検出結果にもとづ
いて補正を行うことを特徴とする特許請求の範囲第1項
記載のロボットの動作制御方法。 8、ロボットの作業内容は、対象物に対して固定した座
標系によって表わしておき、相対関係検出結果にもとづ
いて、これをロボット座標系に変換することによって補
正を行うことを特徴とした特許請求の範囲第1項記載の
ロボットの動作制御方法。 9、作業対象物との位置、姿勢の相対的関係が作業実行
中に変化するような状況において作業を行なうロボット
において、作業対象物とロボットとの相対的関係を検出
する検出手段と、ロボットの作業データを記憶する手段
と、対象物上の任意の作業点をロボットの座標系に変換
する手段と、この変換手段からの情報によりロボットの
作業データを修正する手段とを備えたことを特徴とする
ロボットの動作制御装置。
[Claims] 1. In a robot that performs work in a situation where the relative relationship between the position and posture of the work object changes during the execution of the work, means for detecting the relative relationship between the work object and the robot. Based on this detection result, the robot's work content is sequentially corrected, and the work tool fixed to the robot's hand is driven and controlled along a required trajectory predetermined on the work object. A robot motion control method characterized by: 2. The robot operation control method according to claim 1, wherein the relative relationship is determined by detecting the object with a sensor fixed to the robot. 3. The robot operation control method according to claim 1, wherein the relative relationship is determined by detecting the robot and the object using a sensor fixed in absolute space. 4. The robot operation control method according to claim 1, wherein the relative relationship is determined by detecting the robot with a sensor fixed to the object. 5. The robot motion control method according to claim 3, wherein only the robot is detected when only the robot moves. 6. The robot motion control method according to claim 3, wherein only the target object is detected when only the target object moves. 7. Operation control of the robot according to claim 1, characterized in that the work content of the robot is represented by a coordinate system fixed with respect to the object, and correction is performed based on the relative relationship detection result. Method. 8. A patent claim characterized in that the work content of the robot is represented by a coordinate system fixed to the object, and correction is performed by converting this into the robot coordinate system based on the relative relationship detection result. A method for controlling the motion of a robot according to item 1. 9. In a robot that performs work in a situation where the relative relationship between the position and posture of the work object changes during the execution of the work, a detection means for detecting the relative relationship between the work object and the robot; The present invention is characterized by comprising means for storing work data, means for converting an arbitrary work point on the object into the robot's coordinate system, and means for correcting the robot's work data using information from the converting means. robot motion control device.
JP21950486A 1986-09-19 1986-09-19 Method of controlling operation of robot Pending JPS6377678A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP21950486A JPS6377678A (en) 1986-09-19 1986-09-19 Method of controlling operation of robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP21950486A JPS6377678A (en) 1986-09-19 1986-09-19 Method of controlling operation of robot

Publications (1)

Publication Number Publication Date
JPS6377678A true JPS6377678A (en) 1988-04-07

Family

ID=16736487

Family Applications (1)

Application Number Title Priority Date Filing Date
JP21950486A Pending JPS6377678A (en) 1986-09-19 1986-09-19 Method of controlling operation of robot

Country Status (1)

Country Link
JP (1) JPS6377678A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016059990A (en) * 2014-09-17 2016-04-25 シャダイ株式会社 Door opening/closing robot and door opening/closing robot control system
JP2017523059A (en) * 2014-07-15 2017-08-17 コブラ カーボン グラインディング ベスローテン フェンノートシャップ Apparatus and method for grinding carbonaceous material
WO2022259387A1 (en) * 2021-06-08 2022-12-15 ファナック株式会社 Production system

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017523059A (en) * 2014-07-15 2017-08-17 コブラ カーボン グラインディング ベスローテン フェンノートシャップ Apparatus and method for grinding carbonaceous material
JP2016059990A (en) * 2014-09-17 2016-04-25 シャダイ株式会社 Door opening/closing robot and door opening/closing robot control system
WO2022259387A1 (en) * 2021-06-08 2022-12-15 ファナック株式会社 Production system

Similar Documents

Publication Publication Date Title
JP2512099B2 (en) Robot motion teaching method and control device
US20150321351A1 (en) Intuitive Motion Coordinate System for Controlling an Industrial Robot
JP4976883B2 (en) Manipulator system
Lippiello et al. A position-based visual impedance control for robot manipulators
US10507585B2 (en) Robot system that displays speed
WO2000015395A1 (en) Method of teaching robot with traveling axis off-line
JPS6377678A (en) Method of controlling operation of robot
US20230286143A1 (en) Robot control in working space
Lippiello et al. Robot interaction control using force and vision
Cheah et al. Adaptive Jacobian tracking control of robots based on visual task-space information
JP2004344998A (en) Robot control device
JPS59173805A (en) Industrial robot having instruction data converting function
Mut et al. Tracking adaptive impedance robot control with visual feedback
JPS6029288A (en) Robot device
Cai et al. 3D image-based dynamic visual servoing with uncalibrated stereo cameras
Dean-Leon et al. Global uncalibrated visual servoing for constrained robots working on an uncalibrated environments
JP2525227B2 (en) Robot tool shift method
JPS59142617A (en) Controller for robot
JPS63105893A (en) Automatic teaching method of robot
JPH01205206A (en) Industrial robot
Pudney Surface following for manipulators with proximity sensors
JPH02271405A (en) Controlling method for robot
Vieira et al. Fiducial markers applied for pose tracking of a robotic manipulator: application in visual servoing control
JPS6176291A (en) Method of controlling robot with visual sensor
JPS6228187A (en) Controller for industrial robot