JPS60252914A - Conversion system between visual sensor coordinate information and robot reference coordinate information - Google Patents
Conversion system between visual sensor coordinate information and robot reference coordinate informationInfo
- Publication number
- JPS60252914A JPS60252914A JP10989484A JP10989484A JPS60252914A JP S60252914 A JPS60252914 A JP S60252914A JP 10989484 A JP10989484 A JP 10989484A JP 10989484 A JP10989484 A JP 10989484A JP S60252914 A JPS60252914 A JP S60252914A
- Authority
- JP
- Japan
- Prior art keywords
- coordinate system
- visual sensor
- robot
- position information
- reference coordinate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/18—Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
- G05B19/408—Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by data handling or data format, e.g. reading, buffering or conversion of data
- G05B19/4086—Coordinate conversions; Other special calculations
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/36—Nc in input of data, input key till input tape
- G05B2219/36503—Adapt program to real coordinates, software orientation
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/37—Measurements
- G05B2219/37572—Camera, tv, vision
Landscapes
- Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Manufacturing & Machinery (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Numerical Control (AREA)
- Manipulator (AREA)
Abstract
Description
【発明の詳細な説明】
発明の技術分野
本発明は、視覚センサ座標系の位置情報をロボットの基
準座標系の位置情報に換算する座標情報の換算方式に関
する。TECHNICAL FIELD OF THE INVENTION The present invention relates to a coordinate information conversion method for converting position information in a visual sensor coordinate system to position information in a reference coordinate system of a robot.
発明の背景
視覚センサとロボットを組合せたシステムでは、視覚セ
ンサ1=よって認識された物体の位置情報全視覚センサ
からロボットに通知し、ロボットがその位置情報から物
体の位置を判別し、その物体に対して把持等の何等かの
操作を行なう。この場合、視覚センサからの物体の位置
情報は視覚センナの座標系でロボットに通知される。視
覚センサ座標系とロボット座標系とが同一である場合に
は視覚センサからの位置情報をそのまま使用しても差し
支えない。しかし、両座様系が原点、軸の方向が異なっ
ていると、何等かの換算をしなければロボットは自己の
座標系ζ二おける物体の位置を判別しえない。BACKGROUND OF THE INVENTION In a system that combines a visual sensor and a robot, the position information of an object recognized by visual sensor 1 is notified to the robot from all visual sensors, and the robot determines the position of the object from the position information and Some kind of operation such as gripping is performed on the object. In this case, the position information of the object from the visual sensor is notified to the robot in the coordinate system of the visual sensor. If the visual sensor coordinate system and the robot coordinate system are the same, the position information from the visual sensor may be used as is. However, if the origin and axes of the ambiguous system are different, the robot cannot determine the position of the object in its own coordinate system ζ2 without some kind of conversion.
発明の目的
本発明の目的は、比較的簡単な方法により視覚センサ座
標系の位置情報をロボットの基準座標系の位置情報に換
算Tる座標情報の換算方式を提供することにある。OBJECTS OF THE INVENTION An object of the present invention is to provide a coordinate information conversion method for converting position information in a visual sensor coordinate system into position information in a reference coordinate system of a robot using a relatively simple method.
発明の原理、構成
第1図に示すようにロボット基準座標系XYと視覚セン
サ座標系xyをとり、α、h、c5点の視覚センサ座標
系C:おける座標値f、(xa、ya)。Principle and Structure of the Invention As shown in FIG. 1, take the robot reference coordinate system XY and the visual sensor coordinate system xy, and calculate the coordinate values f, (xa, ya) in the visual sensor coordinate system C: of five points α, h, and c.
(”J+’/b) + (”c13’c)とし、ロボッ
ト基準座標系における座標値t (Xa 、Ya)、
(Xb 、Yb )、 (Xc 、Yc )とし、ロボ
ット基準座標系における視覚センサ座標系のX軸、y軸
方向基本ベクトルl −(1,、ly)。("J+'/b) + ("c13'c), and the coordinate value t (Xa, Ya) in the robot reference coordinate system,
(Xb, Yb), (Xc, Yc), and the basic vector l-(1,,ly) in the X-axis and y-axis directions of the visual sensor coordinate system in the robot reference coordinate system.
m=(m、、専y)と下ると、一般に次式が成立する。When m=(m,, exclusive y), the following equation generally holds true.
ここで、Oはロボット基準座標系の原点Oから視覚セン
サ座標系の原点Oまでのベクトル、乙はα、b、cであ
る。Here, O is a vector from the origin O of the robot reference coordinate system to the origin O of the visual sensor coordinate system, and O is α, b, and c.
(1)式と、α、b、c点のロボット基準座標系におけ
る座標値、視覚センサ座標系における座標値とから次式
が得られる。The following equation is obtained from equation (1), the coordinate values of points α, b, and c in the robot reference coordinate system and the coordinate values in the visual sensor coordinate system.
ここで、Xクー1番−Xノ、x、ノーx、、−xノ(幕
、ノーα+bH(:)である。Here, Xku No. 1 -Xノ, x, no x, , -xノ (curtain, no α+bH(:)).
(2)式より軸方向基本ベクトルl、mは次のようにな
る。From equation (2), the axial basic vectors l and m are as follows.
また、(1)式、(5)式から原点ベクトルOは、以上
から視覚センサ座標上の任意の点C%+ y2+z、)
のロボット基準座標系での座標値(XR2YR2ZR)
は次式よりまる。Also, from equations (1) and (5), the origin vector O is any point on the visual sensor coordinates C%+y2+z,)
Coordinate values in the robot reference coordinate system (XR2YR2ZR)
is obtained from the following equation.
ZB = Z +Zs ”’(61 ここでZはロボットのZ軸方向成分である。ZB = Z + Zs”’ (61 Here, Z is the Z-axis direction component of the robot.
以上は、視覚センナ座標系のxy平面とロボット基準座
標系のXY平面が一致する場合であるが、αl’l’の
3点の座標値fZ方向まで拡張丁れば、xy平面、XY
平面が相違する場合にも適用可能である。The above is a case where the xy plane of the visual sensor coordinate system and the
It is also applicable to cases where the planes are different.
本発明は上述のような原理を利用したもので、視覚セン
サ座標系の位置情報をロボットの基準座標系の位置情報
に換算する方式において、視覚センサの視野内の少なく
とも3点の視覚センサ座標系における位置情報とロボッ
ト基準座標系における位置情報をそれぞれロボットに教
示し、該教示情報からロボット座標系の原点から視覚セ
ンナ座標系の原点への原点ベクトル情報及びロボット基
準座標系における視覚センサ座標系の軸方向基本ベクト
ルを算出させ、前記原点ベクトル情報及び軸方向基本ベ
クトルに基づき視覚センナ座標系の位置情報をロボット
の基準座標系の位置情報に換算するようにしたものであ
る。従って、オペレータとしては上記3点の視覚センサ
座標系における位置情報とロボット基準座標系(二おけ
る位置情報をそれぞれロボットに教示する操作を行なう
だけで済み、教示方法を簡略化することができる。The present invention utilizes the principle described above, and in a method of converting position information in a visual sensor coordinate system to position information in a reference coordinate system of a robot, the visual sensor coordinate system of at least three points within the field of view of the visual sensor is converted into position information in a robot's reference coordinate system. and the position information in the robot reference coordinate system to the robot, and from the teaching information, the origin vector information from the origin of the robot coordinate system to the origin of the visual sensor coordinate system and the position information of the visual sensor coordinate system in the robot reference coordinate system. An axial basic vector is calculated, and position information in the visual sensor coordinate system is converted into position information in the robot's reference coordinate system based on the origin vector information and the axial basic vector. Therefore, the operator only needs to teach the robot the positional information in the visual sensor coordinate system of the three points and the positional information in the robot reference coordinate system (two points), thereby simplifying the teaching method.
発明の実施例
第2図は本発明方式を実施するシステムの一例を示す上
面構成図である。同図において、1はロボット本体で、
数値制御装置2によって制御される。ロボット本体1と
数値制御装置2でロボットを構成する。ロボット本体1
は台座6上にZ軸方向(紙面垂直方向)に伸縮自在で且
つθ方向に回転可能に設けられたアーム4と、アーム4
の先端部にα軸を中心に回転自在に奴付けられたハンド
5等から成る。アーム4はまたその長手方向(R方向)
に伸縮自在に構成されている。ハンド5の端部には把持
機構6があり、これに後述する標識7が把持されている
。この場合、標識7の上面の重心が把持機構6の把持中
心と一致するように把持させる。8はセンサ部であり、
その出力信号はセンサ制御装置9で処理される。このセ
ンサ制御装置9とセンサ部8で視覚センサが構成される
。Embodiment of the Invention FIG. 2 is a top configuration diagram showing an example of a system implementing the method of the present invention. In the figure, 1 is the robot body,
It is controlled by a numerical control device 2. A robot body 1 and a numerical control device 2 constitute a robot. Robot body 1
The arm 4 is provided on the pedestal 6 so as to be extendable and retractable in the Z-axis direction (perpendicular to the paper surface) and rotatable in the θ direction;
It consists of a hand 5 etc. which is rotatably attached to the tip of the hand 5 around the α axis. Arm 4 also has its longitudinal direction (R direction)
It is configured to be expandable and contractible. A gripping mechanism 6 is provided at the end of the hand 5, and a marker 7, which will be described later, is gripped by the gripping mechanism 6. In this case, the sign 7 is gripped so that the center of gravity of the upper surface of the sign 7 coincides with the gripping center of the gripping mechanism 6 . 8 is a sensor section;
The output signal is processed by the sensor control device 9. The sensor control device 9 and the sensor unit 8 constitute a visual sensor.
10は視覚センサ萼の視野である。また、XYは口ポッ
トの基準座標系、xyは視覚センサの座標系である。10 is the visual field of the visual sensor calyx. Further, XY is the reference coordinate system of the mouth pot, and xy is the coordinate system of the visual sensor.
第3図はロボットの制御を行なう数値制御装置2の要部
ブロック図であり、各種の指令やデータを入力する為の
操作盤21.センサ制御装置9とのインタフェイス回路
22.メモリ26.Z軸、θ軸、R軸、α軸制御回路2
4〜27等がマイクロコンピュータ20にデータバス、
アドレスバス、コントロールパスな含むパス28ヲ介し
て接続されている。また、29〜62は各軸対応のモー
タであり、これらはロボット本体1(二組込まれる。各
モータからは回転位置情報が各軸の制御回路にフィード
バックされており、マイクロコンピュータ20はその回
転位置情報からロボット1のハンド5の位置を知ること
ができる。また、インタフェイス回路22乞介して視覚
センサから位置情報が送られ、その情報に従った位置決
め動作等を実行する。FIG. 3 is a block diagram of the main parts of the numerical control device 2 that controls the robot, and shows an operation panel 21 for inputting various commands and data. Interface circuit 22 with sensor control device 9. Memory 26. Z-axis, θ-axis, R-axis, α-axis control circuit 2
4 to 27 etc. connect the data bus to the microcomputer 20,
They are connected via paths 28 including an address bus and a control path. Further, 29 to 62 are motors corresponding to each axis, and these are incorporated into the robot main body 1.Rotational position information from each motor is fed back to the control circuit of each axis, and the microcomputer 20 controls the rotational position. The position of the hand 5 of the robot 1 can be known from the information. Also, position information is sent from the visual sensor via the interface circuit 22, and positioning operations and the like are performed in accordance with the information.
第4図はセンサ制御装置9の構成例を示すブロック図で
あり、センサ部8の出力信号を2値化する2値化回路5
0の出力を記憶するフレームメモリ51と、数値制御装
置2とのインタフェイス回路52と、データ等を入力す
る為のキーボード53と、メモ954と、2値画像を表
示する為のCRT55とがパス56を介してマイクロコ
ンピュータ57に接続されている。また、視覚センサS
で捉えた画像をモニタする為のモニタテレビ58が視覚
センナへに接続されている。FIG. 4 is a block diagram showing an example of the configuration of the sensor control device 9, in which a binarization circuit 5 that binarizes the output signal of the sensor section 8 is shown.
A frame memory 51 for storing the output of 0, an interface circuit 52 for the numerical control device 2, a keyboard 53 for inputting data, etc., a memo 954, and a CRT 55 for displaying a binary image are connected to the path. It is connected to a microcomputer 57 via 56. In addition, visual sensor S
A monitor television 58 is connected to the visual sensor for monitoring images captured by the sensor.
次(二本実施例の動作を説明する。Next, the operation of the second embodiment will be explained.
先ず、ロボットの把持機構乙に標ji7fa:把持させ
る。この標識7は例えばs5図に示すように円形の上面
70と持手71とを有するもので、上面70は背景との
明暗差がでるように白く着色されている。また持手71
の軸中心と上面70の重心とは一致する。この上面70
がセンサ部8に対向するように把持させる。なお、標識
7の形状は上記のものだけでなく各種のものを採用する
ことができ、上面70は正方形、長方形等であっても良
く、色も白に限定されない。First, the robot's gripping mechanism B is made to grip the mark ji7fa. This sign 7 has, for example, a circular upper surface 70 and a handle 71, as shown in Figure s5, and the upper surface 70 is colored white to create a contrast with the background. Also handle 71
The axial center of the upper surface 70 coincides with the center of gravity of the upper surface 70. This upper surface 70
The sensor section 8 is held so that it faces the sensor section 8. Note that the shape of the sign 7 is not limited to the one described above, and various shapes can be adopted, and the upper surface 70 may be square, rectangular, etc., and the color is not limited to white.
次に、操作盤21を操作して手動送り等により標識7を
視覚センサの視野内の任意の位置例えば第6図のα点に
置く。なお、第6図の破線は視覚センサの視野を示す。Next, the marker 7 is placed at an arbitrary position within the field of view of the visual sensor, for example, at point α in FIG. 6, by operating the operation panel 21 and manually feeding it. Note that the broken line in FIG. 6 indicates the field of view of the visual sensor.
この操作が終了すると、操作盤21を操作してその点の
ロボット基準座標系における座標値(Xα、Ya)wロ
ボットに算出させ、これをメモリ26に記憶する。また
、センサ制御装置9のキーボード56を操作してセンサ
制御装置9に標識7の上面70の重心の視覚センサ座標
系における座標値(”a 、 y、 )を算出させる。When this operation is completed, the operation panel 21 is operated to cause the robot to calculate the coordinate values (Xα, Ya) of that point in the robot reference coordinate system, and these are stored in the memory 26. Further, the user operates the keyboard 56 of the sensor control device 9 to cause the sensor control device 9 to calculate the coordinate values ("a, y, ) of the center of gravity of the top surface 70 of the sign 7 in the visual sensor coordinate system.
この算出は、上面70の2値画像がフレームメモリ51
に記憶さnでいるので、それを読取ってマイクロコンピ
ュータ57により公知の重心算出アル−f9ズムを使用
して行なわれる。また、この重心の計算が終了すると、
キーボード56を操作してその座標値をインタフェイス
回路52 、22を介してロボットに通知し、メモリ2
6(二記憶させる。In this calculation, the binary image of the upper surface 70 is
Since n is stored in n, the microcomputer 57 reads it and calculates the center of gravity using the well-known gravity center calculation algorithm f9. Also, once this calculation of the center of gravity is completed,
Operate the keyboard 56 to notify the robot of the coordinate values via the interface circuits 52 and 22, and store them in the memory 2.
6 (2 memorize.
次に、操作盤21を操作してハンド5を移動させ、標識
7を視覚センサ視野内の前記とは別の位置例えば第6因
の6点に移動させる。そして、上述と同様な操作及び処
理により、標識7の重心のロボット基準座標系における
座標値<Xb、Yb)と視覚センサ座標系における座標
値<”b、yb’)’tメモリ261ユ記憶させる。Next, the operation panel 21 is operated to move the hand 5, and the marker 7 is moved to a different position within the field of vision of the visual sensor, for example, to the six points of the sixth factor. Then, through the same operations and processing as described above, the coordinate values of the center of gravity of the marker 7 in the robot reference coordinate system <Xb, Yb) and the coordinate values in the visual sensor coordinate system <"b, yb')'t memory 261 are stored. .
更に、操作盤21を操作して標識7を視覚センサ視野内
の更に異なる位置例えば第6図の0点の位置に標識7を
移動させ、そのときの標識7の重心のロボット基準座標
系における座標値(’Yc。Furthermore, by operating the operation panel 21, the marker 7 is moved to a different position within the field of view of the visual sensor, for example, the 0 point position in FIG. 6, and the coordinates of the center of gravity of the marker 7 at that time in the robot reference coordinate system are determined. Value ('Yc.
Yc)と視覚センサ座標系における座標値(xc。Yc) and the coordinate value (xc) in the visual sensor coordinate system.
yc)をメモリ26に記憶させる。yc) is stored in the memory 26.
以上のような教示が終了すると、操作盤21から換算指
令を入力する。マイクロコンピュータ20はメモリ26
に記憶されたαlb+’の6点のロボット基準座標系に
おける座標値および視覚センサ座標系における座標値を
使用し、前記f1+ 、 (2)から前記(3) 、
(4)式で示す軸方向基本ベクトルl、mと原点ベクト
ルOf算出し、これをメモリ26に記憶する。従って、
実行モードにおいて、視覚センサから物体の位置情報が
視覚センサ座標系の座標値としてロボットに通知された
場合、前記(5) 、 f6+式によりロボット基準座
標系での物体の座標値が判明することになる。When the above-mentioned teaching is completed, a conversion command is inputted from the operation panel 21. The microcomputer 20 has a memory 26
Using the coordinate values in the robot reference coordinate system and the coordinate values in the visual sensor coordinate system of the six points of αlb+' stored in , the f1+, (2) to (3),
The basic axial vectors l and m and the origin vector Of shown in equation (4) are calculated and stored in the memory 26. Therefore,
In the execution mode, when the position information of an object is notified to the robot from the visual sensor as coordinate values in the visual sensor coordinate system, the coordinate values of the object in the robot reference coordinate system can be determined by the f6+ formula in (5) above. Become.
以上の実施例は、少なくとも6点の視覚センチ座標系、
ロボット基準座標系における座標値をロボットに教示す
る方法として、標識7をロボットに把持させこれを視覚
センサ視野内に移動させて行なったが、それ以外の方法
を採用し得ることは勿論のことである。例えば、予め6
個の物体を視覚センサに見せ、その各々の重心の視覚セ
ンサ座標系での座標値を視覚センサで算出させ、これを
ロボットに通知すると共に、ロボットのハンドの把持中
心を手動モード等により上記6個の物体の重心(=一致
するように移動させ、そのときのロボット基本座標系に
おける座標値をロボットに教示させる方法等が採用可能
である。The above embodiments have a visual centimeter coordinate system of at least six points,
As a method of teaching the robot the coordinate values in the robot reference coordinate system, we had the robot hold the sign 7 and move it within the field of view of the visual sensor, but it is of course possible to adopt other methods. be. For example, 6
Show the object to the visual sensor, have the visual sensor calculate the coordinate value of each center of gravity in the visual sensor coordinate system, notify this to the robot, and set the grip center of the robot's hand in manual mode etc. It is possible to adopt a method such as moving the centers of gravity of the objects so that they coincide with each other and teaching the robot the coordinate values in the robot's basic coordinate system at that time.
発明の詳細
な説明したように、本発明によれば、少なくとも6点の
視覚センサ座標系における座標値と、そのロボット基本
座標系における座標値とを教示し、該教示情報からロボ
ット座標系の原点かり視覚センサ座標系の原点までの原
点ベクトル情報及びロボット基準座標系における視覚セ
ンサ座標系の軸方向基本ベクトルを算出させ、前記原点
ベクトル情報及び軸方向基本ベクトルに基づき視覚セン
サ座標系の位置情報をロボットの基準座標系の位置情報
に換算するようにしたものであり、比較的簡単な方法に
より視覚センサ座標系の位置情報をロボットの基準座標
系の位置情報に換算することができる。また、ロボット
のハンド座標系等と視覚センサ座標系とを結合するので
はなく、ロボットの基本座標系と視覚センサ座標系とを
直接納会させるので、従来より座標定義が6易となり、
視覚センナの方向がロボットの動作軸最終断の中心から
の垂線に平行でなくても良いという効果もある。As described in detail, according to the present invention, the coordinate values of at least six points in the visual sensor coordinate system and their coordinate values in the robot basic coordinate system are taught, and the origin of the robot coordinate system is determined from the teaching information. Calculate the origin vector information up to the origin of the visual sensor coordinate system and the axial basic vector of the visual sensor coordinate system in the robot reference coordinate system, and calculate the position information of the visual sensor coordinate system based on the origin vector information and the axial basic vector. The position information is converted into the position information of the robot's reference coordinate system, and the position information of the visual sensor coordinate system can be converted into the position information of the robot's reference coordinate system by a relatively simple method. In addition, instead of combining the robot's hand coordinate system and the visual sensor coordinate system, the robot's basic coordinate system and the visual sensor coordinate system are directly connected, making coordinate definition easier than before.
Another advantage is that the direction of the visual sensor does not have to be parallel to the perpendicular line from the center of the final cut of the robot's motion axis.
第1図は本党明の原理説明図、第2図は本発明はセンチ
制御装置9の構成例を示すブロック図、第5図は標識の
外観斜視図、第6図は実施例の説明図である。
1はロボット、2は数値制御装置、6は台座、4はアー
ム、5はハンド、6は把持機構、7は標識、8はセンサ
部、9はセンサ制御装置、xyは視覚センサ座標系、X
Yはロボット基準座標系である。
特許出願人 ファナック株式会社
代理人 弁理士 玉蟲久五部(外2名)第 1 図
第2図Fig. 1 is an explanatory diagram of the principle of the present invention, Fig. 2 is a block diagram showing an example of the configuration of the centimeter control device 9 of the present invention, Fig. 5 is an external perspective view of the sign, and Fig. 6 is an explanatory diagram of an embodiment. It is. 1 is a robot, 2 is a numerical control device, 6 is a pedestal, 4 is an arm, 5 is a hand, 6 is a gripping mechanism, 7 is a sign, 8 is a sensor section, 9 is a sensor control device, xy is a visual sensor coordinate system,
Y is the robot reference coordinate system. Patent Applicant Fanuc Co., Ltd. Agent Patent Attorney Gobe Tamamushi (2 others) Figure 1 Figure 2
Claims (1)
位置情報に換算する方式において、視覚センサの視野内
の少なくとも5点の視覚センサ座標系C:おける位置情
報とロボット基準座標系における位置情報をそれぞれロ
ボットに教示し、該教示情報からロボット座標系の原点
から視覚センナ座標系の原点までの原点ベクトル情報及
びロボット基準座標系における視覚センサ座標系の軸方
向基本ベクトルを算出させ、前記原点ベクトル情報及び
軸方向基本ベクトルに基づき視覚センサ座標系の位置情
報をロボットの基準座標系の位置情報に換算することを
特徴とする視覚センサ座標情報とロボット基準座標情報
の換算方式。In the method of converting position information in the visual sensor coordinate system to position information in the robot reference coordinate system, position information in the visual sensor coordinate system C: of at least five points within the field of view of the visual sensor and position information in the robot reference coordinate system are converted. The robot is taught respectively, and the origin vector information from the origin of the robot coordinate system to the origin of the visual sensor coordinate system and the axial basic vector of the visual sensor coordinate system in the robot reference coordinate system are calculated from the teaching information, and the origin vector information is calculated. A method for converting visual sensor coordinate information and robot reference coordinate information, characterized in that position information in a visual sensor coordinate system is converted into position information in a robot reference coordinate system based on an axial fundamental vector.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP10989484A JPS60252914A (en) | 1984-05-30 | 1984-05-30 | Conversion system between visual sensor coordinate information and robot reference coordinate information |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP10989484A JPS60252914A (en) | 1984-05-30 | 1984-05-30 | Conversion system between visual sensor coordinate information and robot reference coordinate information |
Publications (1)
Publication Number | Publication Date |
---|---|
JPS60252914A true JPS60252914A (en) | 1985-12-13 |
Family
ID=14521854
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP10989484A Pending JPS60252914A (en) | 1984-05-30 | 1984-05-30 | Conversion system between visual sensor coordinate information and robot reference coordinate information |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPS60252914A (en) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6396504A (en) * | 1986-09-29 | 1988-04-27 | アセア アクチーボラグ | Method and device of industrial robot for calibrating sensor |
JPS63104105A (en) * | 1986-10-22 | 1988-05-09 | Aisin Seiki Co Ltd | Conversion method for robot visual coordinate system |
JPS63180486A (en) * | 1987-01-20 | 1988-07-25 | 愛三工業株式会社 | Method of setting coordinate system of robot with visual sensor |
JPS63212491A (en) * | 1987-02-25 | 1988-09-05 | アイシン精機株式会社 | Coordinate conversion system of robot having visual sense |
WO1989001849A1 (en) * | 1987-08-22 | 1989-03-09 | Fanuc Ltd | Calibration system for visual sensor system |
EP0336174A2 (en) * | 1988-04-08 | 1989-10-11 | Abb Robotics Inc. | A method and apparatus for controlling a manipulator |
JPH02199582A (en) * | 1989-01-30 | 1990-08-07 | Omron Tateisi Electron Co | Image processor |
WO1992015838A1 (en) * | 1991-03-07 | 1992-09-17 | Fanuc Ltd | Detection position correction system |
JPH11203473A (en) * | 1998-01-12 | 1999-07-30 | Mitsutoyo Corp | Coordinate system setting method and image measuring device |
JP2013198965A (en) * | 2012-03-26 | 2013-10-03 | Daihen Corp | Substrate conveying device and method |
JP2018034272A (en) * | 2016-09-01 | 2018-03-08 | アイシン精機株式会社 | Palletizing device |
JP2019098409A (en) * | 2017-11-28 | 2019-06-24 | 東芝機械株式会社 | Robot system and calibration method |
-
1984
- 1984-05-30 JP JP10989484A patent/JPS60252914A/en active Pending
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6396504A (en) * | 1986-09-29 | 1988-04-27 | アセア アクチーボラグ | Method and device of industrial robot for calibrating sensor |
JPS63104105A (en) * | 1986-10-22 | 1988-05-09 | Aisin Seiki Co Ltd | Conversion method for robot visual coordinate system |
JPS63180486A (en) * | 1987-01-20 | 1988-07-25 | 愛三工業株式会社 | Method of setting coordinate system of robot with visual sensor |
JPS63212491A (en) * | 1987-02-25 | 1988-09-05 | アイシン精機株式会社 | Coordinate conversion system of robot having visual sense |
WO1989001849A1 (en) * | 1987-08-22 | 1989-03-09 | Fanuc Ltd | Calibration system for visual sensor system |
EP0336174A2 (en) * | 1988-04-08 | 1989-10-11 | Abb Robotics Inc. | A method and apparatus for controlling a manipulator |
JPH02199582A (en) * | 1989-01-30 | 1990-08-07 | Omron Tateisi Electron Co | Image processor |
WO1992015838A1 (en) * | 1991-03-07 | 1992-09-17 | Fanuc Ltd | Detection position correction system |
US5319443A (en) * | 1991-03-07 | 1994-06-07 | Fanuc Ltd | Detected position correcting method |
JPH11203473A (en) * | 1998-01-12 | 1999-07-30 | Mitsutoyo Corp | Coordinate system setting method and image measuring device |
JP2013198965A (en) * | 2012-03-26 | 2013-10-03 | Daihen Corp | Substrate conveying device and method |
JP2018034272A (en) * | 2016-09-01 | 2018-03-08 | アイシン精機株式会社 | Palletizing device |
JP2019098409A (en) * | 2017-11-28 | 2019-06-24 | 東芝機械株式会社 | Robot system and calibration method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JPH0772844B2 (en) | Robot teaching device | |
JPS60252914A (en) | Conversion system between visual sensor coordinate information and robot reference coordinate information | |
JPH05342310A (en) | Method and device for three-dimensional conversion of linear element data | |
US20240316756A1 (en) | Teaching devic18/270,398 | |
JP2667153B2 (en) | Direct teaching method for multiple arm device | |
JPH06131442A (en) | Three-dimensional virtual image modeling device | |
JPS62165213A (en) | Work environment teaching device | |
JPS58114892A (en) | Visual device for robot | |
JP2022163836A (en) | Method for displaying robot image, computer program, and method for displaying robot image | |
JPS61274853A (en) | Layout line follow-up device | |
JPS6097409A (en) | Operation teaching method of robot | |
CN116323115A (en) | Control device, robot arm system, and control method for robot arm device | |
JPS60171577A (en) | Graphic generator | |
JPH09323280A (en) | Control method and system of manupulator | |
JPH1177568A (en) | Teaching assisting method and device | |
JPH01283603A (en) | Robot off-line teaching system | |
JP3205183B2 (en) | Teaching device | |
JPS63104105A (en) | Conversion method for robot visual coordinate system | |
JPH0326482A (en) | Control device for industrial robot | |
JP2022084157A (en) | Computer program causing processor to execute teaching processing of robot and teaching method of teaching operation of robot | |
JPH07117403B2 (en) | Robot visual coordinate calibration method and system | |
JPS61214007A (en) | Method for converting visual sensor coordinate system into robot basic coordinate system | |
JP2573100B2 (en) | How to create reference position data for a robot | |
JPH08161025A (en) | Teaching device | |
Jin et al. | Vision guided homing for humanoid service robot |