JP2678002B2 - Coordinate system calibration method for a robot with vision - Google Patents

Coordinate system calibration method for a robot with vision

Info

Publication number
JP2678002B2
JP2678002B2 JP63027763A JP2776388A JP2678002B2 JP 2678002 B2 JP2678002 B2 JP 2678002B2 JP 63027763 A JP63027763 A JP 63027763A JP 2776388 A JP2776388 A JP 2776388A JP 2678002 B2 JP2678002 B2 JP 2678002B2
Authority
JP
Japan
Prior art keywords
robot
coordinate system
coordinate
recognition
visual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP63027763A
Other languages
Japanese (ja)
Other versions
JPH01205204A (en
Inventor
道長 河野
浩朗 古市
晃 宮川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP63027763A priority Critical patent/JP2678002B2/en
Publication of JPH01205204A publication Critical patent/JPH01205204A/en
Application granted granted Critical
Publication of JP2678002B2 publication Critical patent/JP2678002B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は、視覚付きロボットにおける視覚座標系とロ
ボット座標系との間の座標系較正方法に関するものであ
る。
The present invention relates to a method for calibrating a coordinate system between a visual coordinate system and a robot coordinate system in a vision robot.

〔従来の技術〕[Conventional technology]

従来、視覚付きロボットにおける視覚座標系とロボッ
ト座標系といった具合に、異なる座標系間での座標系較
正方法としては、特開昭61−131887号公報に記載のよう
に、基準となる認識対象を準備しておき、ロボットを手
動で、あるいは遠隔操縦で操作することによってロボッ
トの手先基準点をその認識対象と一致させ、その時の手
先の位置を読み取る一方、視覚装置によって同一認識対
象を認識しその位置を算出するようにし、これらの結果
から視覚座標系とロボット座標系とが関連付けされるよ
うになっている。
Conventionally, as a coordinate system calibration method between different coordinate systems such as a visual coordinate system and a robot coordinate system in a robot with vision, as described in JP-A-61-131887, a reference recognition target is used. Prepare and make the robot's hand reference point coincide with its recognition target by operating the robot manually or by remote control, and read the position of the hand at that time, while recognizing the same recognition target with a visual device. The position is calculated, and the visual coordinate system and the robot coordinate system are associated from these results.

〔発明が解決しようとする課題〕[Problems to be solved by the invention]

しかしながら、従来技術にあっては、ロボットの手先
基準点、即ち、対象物に実際に作用するハンドや工具な
どの特定位置を基準認識対象に導いて一致させる際に誤
差を生じ易く、また、個人差を生じることから、較正作
業の度に座標変換係数の精度が変動することになり、高
精度に、しかも安定に座標変換係数を求め得ないものと
なっている。これに加え較正作業に多くの時間を要して
おり、手先に画像入力手段が備えられている手先視覚付
きロボットに対する座標系較正方法としては不適当なも
のとなっている。
However, in the conventional technique, an error is likely to occur when guiding and matching the hand reference point of the robot, that is, a specific position such as a hand or a tool that actually acts on the object to the reference recognition target, and Since the difference is generated, the accuracy of the coordinate conversion coefficient varies each time calibration work is performed, and the coordinate conversion coefficient cannot be obtained with high accuracy and stability. In addition to this, a lot of time is required for the calibration work, which is unsuitable as a coordinate system calibration method for a robot with a fingertip vision having an image inputting means at the fingertip.

本発明の目的は、高精度に、しかも安定にして座標変
換係数を速やかに求め得る視覚付きロボットの座標系較
正方法を供するにある。
An object of the present invention is to provide a coordinate system calibrating method for a robot with a vision capable of obtaining coordinate conversion coefficients quickly with high accuracy and stability.

〔課題を解決するための手段〕[Means for solving the problem]

上記目的は、基本的には、対象物を撮像した上、該対
象物の位置と姿勢を認識する視覚装置における座標系
と、上記対象物に作用を施すロボットにおける座標系と
の間の相対的位置関係を較正するに際し、基準データに
もとづきロボットを、相異なる2方向にある移動開始点
からある移動終了点に所定量移動せしめることによっ
て、視覚装置の視野内に上記移動開始点および移動終了
点が基準認識対象として形成された状態で、該認識対象
についての相対的位置関係を上記視覚装置により該装置
における座標系上で認識した上、該認識対象についての
視覚装置による認識結果と、ロボットにおける座標系上
での、上記基準データから予め既知とされている上記基
準認識対象についての相対的位置関係とから、視覚装
置、ロボット各々における座標系が相互に座標変換係数
として関連付けされることで達成される。その較正に際
し、ロボットは、具体的には、ほぼ互いに直交する方向
として、かつロボットにおける座標系の座標軸に平行と
なるべく移動されるのが望ましく、また、視覚装置にお
ける各座標軸から、ロボットにおける各座標軸への座標
変換係数は独立に算出されればよく、更に、手先視覚付
きロボットへの適用を考慮の上、視覚装置における座標
系は、該装置がロボットに取付けされた状態で移動され
ることによって、ロボットにおける座標系との相対的位
置関係は可変可とされたものとなっている。ところで、
基準認識対象であるが、これは、具体的には、ロボット
によって、移動開始点、移動終了点各々に配置された認
識マーク、または、ロボットによって、移動開始点から
移動終了点まで描画された線分、あるいは移動開始点、
移動終了点各々に描画された点として容易に形成されれ
ばよいものである。
The above-mentioned purpose is basically a relative system between a coordinate system in a visual device that recognizes the position and orientation of an object after capturing an image of the object and a coordinate system in a robot that acts on the object. When calibrating the positional relationship, the robot is moved based on the reference data by a predetermined amount from the movement start point in two different directions to a movement end point, so that the movement start point and the movement end point are within the visual field of the visual device. Is formed as the reference recognition target, the relative positional relationship of the recognition target is recognized on the coordinate system of the device by the visual device, and the recognition result of the visual device by the visual device and the recognition result of the robot. Based on the relative positional relationship of the reference recognition target previously known from the reference data on the coordinate system, the visual device and the robot Target system is achieved by being associated as the coordinate transformation coefficients to each other. In the calibration, it is desirable that the robot be moved so as to be substantially orthogonal to each other and parallel to the coordinate axes of the coordinate system of the robot. Moreover, from the coordinate axes of the visual device to the coordinate axes of the robot. The coordinate conversion coefficient to the robot may be calculated independently, and in consideration of the application to the robot with a hand vision, the coordinate system in the visual device can be calculated by moving the device with the device attached to the robot. The relative positional relationship between the robot and the coordinate system is variable. by the way,
The reference recognition target is, specifically, a recognition mark placed at each of the movement start point and the movement end point by the robot, or a line drawn from the movement start point to the movement end point by the robot. Minutes, or starting point of movement,
It may be easily formed as a point drawn at each of the movement end points.

〔作用〕[Action]

対象物撮像用の視覚装置における座標系と、その対象
物に作用を施すロボットにおける座標系との間の相対的
位置関係を較正するに際し、先ずロボットは基準データ
にもとづき、相異なる2方向にある移動開始点からある
移動終了点に所定量移動せしめられるが、具体的には、
ほぼ互いに直交する方向として、かつロボットにおける
座標系の座標軸に平行となるべく移動せしめられるもの
となっている。この移動により視覚装置の視野内に上記
移動開始点および移動終了点が基準認識対象(具体的に
は、移動開始点、移動終了点各々に配置された認識マー
ク、または移動開始点から移動終了点まで描画された線
分、あるいは移動開始点、移動終了点各々に描画された
点)として形成されるが、この状態で、その認識対象に
ついての相対的位置関係が視覚装置によりその装置にお
ける座標系上でものとして容易に認識され得るものであ
る。一方、上記基準認識対象についての相対的位置関係
はロボットにおける座標系上でのものとして、別途予め
既知(認識)とされたものとなっている。よって、同一
認識対象についての視覚装置座標系上での認識結果と、
ロボット座標系上でのそれとからは、視覚装置、ロボッ
ト各々における座標系が、視覚装置における各座標軸か
らロボットにおける各座標軸への、独立に算出された座
標変換係数により容易に関連付けられるものである。視
覚装置における座標系とロボットにおけるそれとの相対
的位置関係が可変可とされている場合にはまた、ロボッ
ト自体の動作に伴い視野が変化する手先視覚付きロボッ
トにおける座標系間較正が容易に行えるものである。
In calibrating the relative positional relationship between the coordinate system in the visual device for imaging an object and the coordinate system in the robot that acts on the object, the robot is first in two different directions based on the reference data. It is possible to move a predetermined amount from the movement start point to a certain movement end point, but specifically,
The robots can be moved in directions substantially orthogonal to each other and as parallel as possible to the coordinate axes of the coordinate system of the robot. By this movement, the movement start point and the movement end point in the visual field of the visual device are the reference recognition objects (specifically, the recognition marks arranged at the movement start point and the movement end point, respectively, or the movement start point to the movement end point). Is formed as a line segment drawn up to, or a point drawn at each of the movement start point and the movement end point). In this state, the relative positional relationship of the recognition target is determined by the visual device to the coordinate system of the device. It can be easily recognized as above. On the other hand, the relative positional relationship with respect to the reference recognition target is previously known (recognized) separately on the coordinate system of the robot. Therefore, the recognition result on the visual device coordinate system for the same recognition target,
From that on the robot coordinate system, the coordinate system in each of the visual device and the robot is easily associated with the coordinate conversion coefficient calculated independently from each coordinate axis in the visual device to each coordinate axis in the robot. When the relative positional relationship between the coordinate system in the visual device and that in the robot is variable, the inter-coordinate system calibration can be easily performed in a robot with a hand-eye vision in which the field of view changes with the movement of the robot itself. Is.

〔実施例〕〔Example〕

以下、本発明を第1図から第6図により説明する。 Hereinafter, the present invention will be described with reference to FIGS. 1 to 6.

先ず本発明に係る視覚付きロボットについて説明すれ
ば、第2図は一例でのその視覚付きロボットの構成とそ
の周辺を示したものである。図示の如くロボット1自体
の他に、その周辺にはロボット1の手先部に備えられた
ツール2や視覚入力装置としてのカメラ3、カメラ3を
所定位置に固定するためのスタンド4、作業対象物5を
搬送するためのコンベア6などが配されたものとなって
いる。更にロボット1自体の動作を制御するロボット制
御装置21や、カメラ3によって撮像された画像データを
処理する画像認識装置22が具備されるようになってい
る。因みにロボット1自体はベース部7や旋回部8、上
腕部9、前腕部10、曲げ・ひねりの2自由度を有する手
首部11などからなる多関節形のものとされているが、一
定以上の自由度をもつものであれば、異なった構成のも
のでもロボット1として使用可となっている。
First, the visual robot according to the present invention will be described. FIG. 2 shows an example of the configuration of the visual robot and its periphery. As shown in the figure, in addition to the robot 1 itself, a tool 2 provided at the hand of the robot 1, a camera 3 as a visual input device, a stand 4 for fixing the camera 3 at a predetermined position, and an object to be worked around the robot 1 itself. A conveyor 6 for carrying 5 is arranged. Further, a robot control device 21 for controlling the operation of the robot 1 itself and an image recognition device 22 for processing the image data captured by the camera 3 are provided. Incidentally, the robot 1 itself is a multi-joint type including a base portion 7, a swivel portion 8, an upper arm portion 9, a forearm portion 10, a wrist portion 11 having two degrees of freedom of bending and twisting. Robots 1 having different configurations can be used as long as they have flexibility.

さて、第1図は座標系較正処理が行なわれる際での全
体的な概要フローを示すが、これによる場合先ず基準認
識対象が形成、あるいは作成されるようになっている。
基準認識対象の形成、あるいは作成に際しては、ロボッ
ト1はツール(本例では把持機構)2によってコンベア
6傍らのストッカ13より認識マーク12a〜12cを順次取り
出したうえ、停止状態にあるコンベア6上に所定に置く
ようになっている。認識マーク12a〜12cは円板形状とさ
れているが、これに限ることなくコンベア6上面とコン
トラストを有する色彩ものであれば任意の形状、組合せ
のものでよく、その高さはカメラ3による撮影像の拡大
率が作業対象物5のそれと同じになるべく作業対象物5
の作業面と同一になっている。
Now, FIG. 1 shows an overall outline flow when the coordinate system calibration process is performed. In this case, the reference recognition target is first formed or created.
When forming or creating the reference recognition target, the robot 1 sequentially takes out the recognition marks 12a to 12c from the stocker 13 beside the conveyor 6 by means of the tool (in this example, the gripping mechanism) 2 and then onto the conveyor 6 in the stopped state. It is designed to be put in place. Although the recognition marks 12a to 12c are disc-shaped, the recognition marks 12a to 12c are not limited to this, and may have any shape and combination as long as they have a color having a contrast with the upper surface of the conveyor 6, and the height thereof is taken by the camera 3. The work object 5 should have the same magnifying power as that of the work object 5.
It is the same as the work surface of.

以上のようにして認識マーク12a〜12cはコンベア6上
に載置されるが、その位置はロボット1に与えられた基
準データによるようになっている。本例では認識マーク
12aは任意基準位置に、また、他の認識マーク12b,12cは
それぞれその任意基準位置からロボット座標系14のX,Y
軸方向にΔX,ΔYだけ離れた所定位置に置かれるように
なっている。このような動作をロボット1に実行させる
ための動作制御プログラムの例を第3図に示すが、図中
“MOVE"は手先の移動命令を、また、それに続く“P01"
や“P02"などは手先の移動先の点の記号を示している。
更に“P01+(0,0,ΔZ1)”などは移動先の点からの、
ロボット座標系14でのX,Y,Z軸方向への手先の移動する
点を示しており、“P01+(0,0,ΔZ1)”に例を採った
場合、手先は点P01からZ軸方向にΔZ1分だけ移動され
ることを示すものとなっている。更に“CLOSE",“OPEN"
はそれぞれ手先ハンドの閉(把持)、開(解放)命令を
示している。したがって、本例では“P01"は認識マーク
12a〜12c取出位置(ストッカ13の位置)を示しており、
この位置で先ず把持された認識マーク12aは“P02+(0,
0,−ΔZ2)”でその把持が解かれ、この後は再び“P01"
で把持された認識マーク12bは“P02+(ΔX,0,−Δ
Z2)”でその把持が解かれるようになっている。認識マ
ーク12Cも同様にして“P02+(0,ΔY,−ΔZ2)”でその
把持が解かれるようになっているものである。
As described above, the recognition marks 12a to 12c are placed on the conveyor 6, and their positions are based on the reference data given to the robot 1. Recognition mark in this example
12a is at an arbitrary reference position, and other recognition marks 12b and 12c are from the arbitrary reference position, respectively, at X and Y of the robot coordinate system 14.
It is arranged at a predetermined position which is separated by ΔX and ΔY in the axial direction. An example of an operation control program for causing the robot 1 to execute such an operation is shown in FIG. 3, in which “MOVE” is a hand movement command and the subsequent “P01”.
And “P02” indicate the symbol of the point to which the hand moves.
Furthermore, "P01 + (0,0, ΔZ 1 )" etc. from the destination point,
It shows the point where the hand moves in the directions of the X, Y, and Z axes in the robot coordinate system 14. If "P01 + (0,0, ΔZ 1 )" is taken as an example, the hand is from the point P01 to the Z axis. It is shown that it is moved by ΔZ 1 minute in the direction. Furthermore, "CLOSE", "OPEN"
Indicate the closing (grasping) and opening (release) commands of the hand, respectively. Therefore, in this example, "P01" is the recognition mark.
12a to 12c shows the take-out position (position of stocker 13),
The recognition mark 12a first gripped at this position is “P02 + (0,
The grip is released at 0, -ΔZ 2 ) ", and then" P01 "again.
The recognition mark 12b gripped with "P02 + (ΔX, 0, -Δ
The grip is released by "Z 2 )". Similarly, the recognition mark 12C is also released by "P02 + (0, ΔY, -ΔZ 2 )".

さて、以上のようにしてコンベア6上に載置された認
識マーク12a〜12cは、ロボット1の手先が適当な位置に
移動された状態で何れもカメラ3視野内にあって、カメ
ラ3に定義された視覚座標系15でそれら位置が認識可能
となっている。第4図は認識マーク12a〜12cのロボット
座標系14、視覚座標系15各々での位置関係を平面的に示
したものである。図示のように視覚座標系15はロボット
座標系14の中に位置付けられているが、視覚座標系15で
の認識マーク12a〜12cの位置を求めることによって、視
覚座標系15とロボット座標系14との間の相対的位置関係
を規定する座標変換係数が求められるものである。
Now, the recognition marks 12a to 12c placed on the conveyor 6 as described above are all within the visual field of the camera 3 when the hand of the robot 1 is moved to an appropriate position, and are defined by the camera 3. The positions can be recognized by the visual coordinate system 15 that has been created. FIG. 4 is a plan view showing the positional relationship of the recognition marks 12a to 12c in the robot coordinate system 14 and the visual coordinate system 15, respectively. Although the visual coordinate system 15 is positioned in the robot coordinate system 14 as shown in the figure, by determining the positions of the recognition marks 12a to 12c in the visual coordinate system 15, the visual coordinate system 15 and the robot coordinate system 14 are The coordinate conversion coefficient that defines the relative positional relationship between the two is obtained.

先ず視覚座標系15での認識マーク12a〜12cの位置は、
カメラ3によって撮像された一画面としての認識マーク
12a〜12cの画像を2値化したうえ、画像認識装置22で画
像処理をすることによって求められるものとなってい
る。2値化画像中に含まれている認識マーク12a〜12c各
々の輪郭を明部、暗部の境界線として抽出したうえ、そ
れら輪郭内部について重心位置を求めることで、認識マ
ーク12a〜12cの位置が求られるものである。重心は具体
的には輪郭を構成する画素各々についての視覚座標系15
での座標値を、加算平均することで求められるようにな
っている。このようにして求められた単位認識マーク12
a〜12cの視覚座標系15での位置より認識マーク12a,12
b、12a,12c間の距離と方向とが知られるが、これらがロ
ボット1の所定方向へ所定移動量に対応するところとな
るものである。即ち、第4図に示すように、矢印で表示
された線分の長さΔX,ΔYはロボット座標系14ではロボ
ット1に与えられた所定方向への所定移動量であるが、
認識マーク12a,12bの中心位置間を結ぶ直線▲PV X▼は
ΔXを視覚で認識した線分であり、同様に認識マーク12
a,12cの中心位置間を結ぶ直線▲PV Y▼もΔYを視覚で
認識したものとなる。視覚座標系15では▲PV X▼,▲P
V Y▼はそれぞれX,Y軸成分として抽出され、これらとΔ
X,ΔYとの関係より座標系間の関係が求められるもので
ある。具体的には、視覚座標系15での認識マーク12a〜1
2cの座標値がロボット制御装置21に転送され、ロボット
制御装置21ではロボット移動量ΔX,ΔYとそれら座標値
とを対応させることで、座標変換係数が求められるもの
である。
First, the positions of the recognition marks 12a to 12c in the visual coordinate system 15 are
Recognition mark as one screen imaged by the camera 3
It is obtained by binarizing the images 12a to 12c and then performing image processing by the image recognition device 22. The positions of the recognition marks 12a to 12c are determined by extracting the contours of the recognition marks 12a to 12c included in the binarized image as boundaries between the bright and dark parts and determining the barycentric position inside the contours. It is what is sought. Specifically, the center of gravity is the visual coordinate system 15 for each pixel that makes up the contour.
The coordinate values at are calculated by averaging. Unit recognition mark 12 obtained in this way
Recognition marks 12a, 12 from the position of a to 12c in visual coordinate system 15
The distances and directions between b, 12a and 12c are known, and these correspond to the predetermined movement amount of the robot 1 in the predetermined direction. That is, as shown in FIG. 4, although the lengths ΔX and ΔY of line segments indicated by arrows are the predetermined movement amounts in the predetermined direction given to the robot 1 in the robot coordinate system 14,
A straight line ▲ P V X ▼ connecting the center positions of the recognition marks 12a and 12b is a line segment visually recognizing ΔX, and similarly, the recognition mark 12
A straight line ▲ P V Y ▼ connecting the center positions of a and 12c is also a visual recognition of ΔY. In visual coordinate system 15, ▲ P V X ▼, ▲ P
V Y ▼ is extracted as the X and Y axis components respectively, and these and Δ
The relationship between the coordinate systems is obtained from the relationship with X and ΔY. Specifically, the recognition marks 12a to 1 in the visual coordinate system 15
The coordinate value of 2c is transferred to the robot controller 21, and the robot controller 21 determines the coordinate conversion coefficient by associating the robot movement amounts ΔX and ΔY with the coordinate values.

この座標変換係数の求め方について具体的に説明すれ
ば、▲PV X▼の視覚座標系15のX軸成分を▲PV X▼、
Y軸成分を▲PV X▼として、▲PV X▼のロボット座
標系14のX、Y軸への写像はそれぞれ▲PV X▼・cos
α・AXX▲PV X▼sinα・AXY、同様に▲PV X▼に
ついていては▲PV X▼・sinα・AYX・AYX▲PV X
▼・cosα・AYYとして求められる。したがって、ΔXの
ロボット座標系14でのX,Y軸方向への成分がそれぞれΔ
X,0であることから、以下の関係が成立する。
To specifically explain how to obtain the coordinate conversion coefficient, the X-axis component of the visual coordinate system 15 of ▲ P V X ▼ is expressed as X ▲ P V X ▼,
The Y-axis component as Y ▲ P V X ▼, X ▲ P V X ▼ of X in the robot coordinate system 14, each mapping to Y-axis X ▲ P V X ▼ · cos
α ・ A XX , X ▲ P V X ▼ sin α ・ A XY , and Y ▲ P V X ▼ for Y ▲ P V X ▼ ・ sin α ・ A YX・ A YX , Y ▲ P V X
▼ ・ cos α ・ A YY is required. Therefore, the component of ΔX in the robot coordinate system 14 in the X and Y axis directions is Δ
Since X, 0, the following relationship holds.

ここでαは視覚座標系15がロボット座標系14に対して
なす角度(但し、反時計回りを正とする)を、AXX,AXY,
AYX,AYYはロボット座標系14と視覚座標系15との間のX,Y
軸の尺度比を示す係数であり、添字の第1字が視覚座標
系15の軸を、第2字がロボット座標系14の軸を示す。
Here, α is the angle formed by the visual coordinate system 15 with respect to the robot coordinate system 14 (provided that the counterclockwise direction is positive) is A XX , A XY ,
A YX , A YY is the X, Y between robot coordinate system 14 and visual coordinate system 15.
It is a coefficient indicating the scale ratio of the axes, and the first subscript indicates the axis of the visual coordinate system 15, and the second subscript indicates the axis of the robot coordinate system 14.

また、上記と同様にしてΔYの認識結果▲PV Y▼につ
いても以下の関係が成立する。
Further, in the same manner as described above, the following relationship holds for the recognition result ΔP V Y ▼ of ΔY.

よって、式(1)〜(4)より式(5)〜(8)が求
められる。
Therefore, the expressions (5) to (8) are obtained from the expressions (1) to (4).

更に、視覚座標系15においてX成分とY成分との比が
一定であるところから次式(9)が成立する。
Furthermore, since the ratio of the X component and the Y component is constant in the visual coordinate system 15, the following expression (9) is established.

AXX/AYX=AXY/AYY …(9) よって、式(5)〜(8)を式(9)に代入すること
で式(10)が得られる。
A XX / A YX = A XY / A YY (9) Therefore, the formula (10) is obtained by substituting the formulas (5) to (8) into the formula (9).

以上のようにして座標軸間の尺度比となす角度が求め
られるものである。このような座標変換係数の算出は、
ロボット制御装置21からのロボット移動量にもとづいて
画像認識装置22にて算出されるようにしてもよい。
As described above, the angle formed by the scale ratio between the coordinate axes is obtained. Calculation of such coordinate conversion coefficient
It may be calculated by the image recognition device 22 based on the robot movement amount from the robot control device 21.

次に第5図により他の例について説明する。本例での
ものはカメラ3′がロボット1′の手先部分に取付され
ており、ロボット1′の動作に伴いカメラ3′が移動す
ることで視野が変化するようにされた手先視覚付きロボ
ットについてのものである。この場合での座標系間の較
正処理手順は先の場合に同様である。即ち、ロボット
1′に所定の動作を実行させてコンベア6上に認識マー
ク12a〜12cを置く手順は先の例に同一であり、そのため
のロボット1′の制御プログラムとしては第3図に例示
したものを用い得るものとなっている。以上のようにし
て認識マーク12a〜12cが所定の位置に配置された後は、
ロボット1′の動作により手先に取付されたカメラ3′
が移動され、カメラ3′は認識マーク12a〜12cが視野内
にあって認識可能となる位置に停止されるようになって
いる。その際、認識マーク12a〜12cの位置は第4図に示
すようにカメラ3′に定義された視覚座標系15において
表わされることになる。本例での場合視覚座標系15はロ
ボット1′の動作によってロボット座標系14の中を移動
することになるが、ロボット1′へのカメラ3′の取付
位置関係は不変であるので、ロボット手先の現在位置を
知ることによって、ロボット座標系14における視覚座標
系15の原点0Vの座標値は知れることになる。これは、ロ
ボット1′の動作制御はロボット位置情報を帰還する位
置サーボ制御によっているため、その位置帰還情報より
ロボット手先の現在位置は容易に知れることになるから
である。以下、視覚座標系15における認識マーク12a〜1
2cの中心位置間距離とその方向、ロボット座標系14にお
けるロボット1′の所定移動量から、座標系間の関係を
導くが、この手順は既述の式(1)〜(10)によって行
なわれるものとなっている。
Next, another example will be described with reference to FIG. In this example, the camera 3'is attached to the hand part of the robot 1 ', and the field of view is changed by the movement of the camera 3'as the robot 1'moves. belongs to. The calibration procedure between coordinate systems in this case is the same as in the previous case. That is, the procedure for causing the robot 1'to perform a predetermined operation and placing the recognition marks 12a to 12c on the conveyor 6 is the same as the previous example, and a control program for the robot 1'for that purpose is illustrated in FIG. Things can be used. After the recognition marks 12a to 12c are arranged at the predetermined positions as described above,
The camera 3'attached to the hand by the operation of the robot 1 '
Is moved, and the camera 3'is stopped at a position where the recognition marks 12a to 12c are in the visual field and can be recognized. At that time, the positions of the recognition marks 12a to 12c are represented in the visual coordinate system 15 defined by the camera 3 ', as shown in FIG. In the case of this example, the visual coordinate system 15 moves in the robot coordinate system 14 according to the motion of the robot 1 ', but since the mounting positional relationship of the camera 3'to the robot 1'is unchanged, the robot hand does not change. By knowing the current position of, the coordinate value of the origin 0 V of the visual coordinate system 15 in the robot coordinate system 14 can be known. This is because the operation control of the robot 1'is based on the position servo control for returning the robot position information, so that the current position of the robot hand can be easily known from the position feedback information. Hereinafter, the recognition marks 12a to 1 in the visual coordinate system 15
The relationship between the coordinate systems is derived from the distance between the center positions of 2c and the direction thereof and the predetermined movement amount of the robot 1'in the robot coordinate system 14, and this procedure is performed by the above-mentioned equations (1) to (10). It has become a thing.

最後に更に他の例について第6図(a),(b)によ
り説明すれば、本例においては基準データとしての認識
対象は既述の認識マークとはされず、図示のようにロボ
ット1の手先に備えられた筆記具17を用い作業対象物載
置面としての基準面18上に線分16、あるいは点列19,1
9′を描くことで形成されるようになっている。これら
の線分16や点列19,19′を描く動作はロボット1をプロ
グラムすることにより自動的に実行されるが、基準面18
上にこれらのパターンを描いた後、カメラ3により線分
16の長さと方向、あるいは点列19,19′の間隔とその方
向が認識されることによって、第4図に示すΔX,ΔYを
求め得るものとなっている。本例ではカメラ3はスタン
ド4に固定されているが、第5図に示す如くカメラ3を
ロボット1の手先に取付け先の例に示すように、基準認
識対象を描画後にカメラ3を適当な位置に移動、停止せ
しめた後に、カメラ3によって撮像された基準認識対象
を認識処理することも可能となっている。
Finally, another example will be described with reference to FIGS. 6 (a) and 6 (b). In this example, the recognition target as the reference data is not the recognition mark described above, and as shown in the figure, Using the writing instrument 17 provided on the hand, the line segment 16 or the point sequence 19,1 on the reference surface 18 as the work object mounting surface.
It is formed by drawing 9 '. The operation of drawing the line segment 16 and the point sequence 19, 19 'is automatically executed by programming the robot 1, but the reference plane 18
After drawing these patterns on the top, the camera 3 draws a line
By recognizing the length and direction of 16 or the interval and the direction of the point sequences 19 and 19 ', ΔX and ΔY shown in FIG. 4 can be obtained. In this example, the camera 3 is fixed to the stand 4, but as shown in FIG. 5, the camera 3 is attached to the hand of the robot 1 as shown in the example of the attachment destination. It is also possible to perform the recognition process on the reference recognition target imaged by the camera 3 after moving to and stopping.

〔発明の効果〕〔The invention's effect〕

以上述べたように本発明によれば、視覚座標系とロボ
ット座標系との較正に用いる基準認識対象はロボット自
体がロボット座標系に沿って移動することで形成される
ため、基準にロボット座標系の誤差が含まれており、ロ
ボット座標系に沿ってロボットの位置補正を行なった際
にその誤差が相殺されることになる。また、基準認識対
象にロボットの手先基準を一致させる操作が不要とされ
ることから、位置合せ誤差や個人差を排除しつつ座標変
換係数が高精度に、しかも安定にして速やかに求められ
ることになる。更に、基準認識対象の形成はロボットの
動作プログラムの記述によって実行されるため、較正に
必要な動作を自動的に行ない得、手先視覚付きロボット
のように視野が常に変化し較正を頻繁に行なう必要があ
る場合でも有効なものとなっている。
As described above, according to the present invention, the reference recognition target used for calibration of the visual coordinate system and the robot coordinate system is formed by the robot itself moving along the robot coordinate system. Error is included, and the error is canceled when the position of the robot is corrected along the robot coordinate system. Further, since the operation of matching the robot hand reference to the reference recognition object is not required, the coordinate conversion coefficient can be obtained with high accuracy, stability, and promptly while eliminating alignment errors and individual differences. Become. Further, since the formation of the reference recognition object is executed by the description of the operation program of the robot, it is possible to automatically perform the operation required for the calibration, and it is necessary to frequently perform the calibration because the visual field is constantly changing like the robot with the hand vision. Even if there is a valid one.

【図面の簡単な説明】[Brief description of the drawings]

第1図は、本発明に係る座標系較正処理の全体的な概要
フローを示す図、第2図は、本発明に係る視覚付きロボ
ットとその周辺を示す図、第3図は、基準認識対象とし
ての複数の認識マークを所定の方向の位置におくための
ロボット動作制御プログラムの例を示す図、第4図は、
それら認識マークのロボット座標系、視覚座標系各々で
の位置関係を平面的に示す図、第5図は、本発明に係る
他の例での視覚付きロボットとその周辺を示す図、第6
図(a),(b)は、基準認識対象として、描画された
線分や点列を用いる場合での視覚付きロボットとその周
辺を示す図である。 1,1′……ロボット、3,3′……カメラ、12a〜12c……認
識マーク(基準認識対象)、14……ロボット座標系、15
……視覚座標系、16……線分(基準認識対象)、17……
筆記具、19,19′……点列(基準認識対象)、21……ロ
ボット制御装置、22……画像認識装置。
FIG. 1 is a diagram showing an overall outline flow of coordinate system calibration processing according to the present invention, FIG. 2 is a diagram showing a robot with vision according to the present invention and its surroundings, and FIG. 3 is a reference recognition target. Showing an example of a robot operation control program for placing a plurality of recognition marks as positions at positions in a predetermined direction, and FIG.
FIG. 5 is a plan view showing the positional relationship between the recognition marks in each of the robot coordinate system and the visual coordinate system. FIG. 5 is a view showing a robot with vision and its surroundings in another example according to the present invention.
(A) and (b) are diagrams showing a robot with vision and its surroundings when a drawn line segment or point sequence is used as a reference recognition target. 1,1 ′ …… Robot, 3,3 ′ …… Camera, 12a to 12c …… Recognition mark (reference recognition target), 14 …… Robot coordinate system, 15
…… Visual coordinate system, 16 …… Line segment (reference recognition target), 17 ……
Writing instruments, 19,19 '... Point sequence (reference recognition target), 21 ... Robot control device, 22 ... Image recognition device.

Claims (6)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】対象物を撮像した上、該対象物の位置と姿
勢を認識する視覚装置における座標系と、上記対象物に
作用を施すロボットにおける座標系との間の相対的位置
関係を較正するための座標系較正方法であって、基準デ
ータにもとづきロボットを、相異なる2方向にある移動
開始点からある移動終了点に所定量移動せしめることに
よって、視覚装置の視野内に上記移動開始点および移動
終了点が基準認識対象として形成された状態で、該認識
対象についての相対的位置関係を上記視覚装置により該
装置における座標系上で認識した上、該認識対象につい
ての視覚装置による認識結果と、ロボットにおける座標
系上での、上記基準データから予め既知とされている上
記基準認識対象についての相対的位置関係とから、視覚
装置、ロボット各々における座標系が相互に座標変換係
数として関連付けされるようにした視覚付きロボットの
座標系較正方法。
1. A relative positional relationship between a coordinate system in a visual device for recognizing the position and orientation of an object after capturing an image of the object and a coordinate system in a robot acting on the object is calibrated. A method of calibrating a coordinate system for moving a robot based on reference data by moving a predetermined amount from a movement start point in two different directions to a movement end point in the visual field of the visual device. And the movement end point is formed as a reference recognition target, the relative positional relationship of the recognition target is recognized on the coordinate system of the device by the visual device, and the recognition result of the recognition target by the visual device is obtained. And the relative positional relationship of the reference recognition target previously known from the reference data on the coordinate system of the robot, the visual device, the robot Coordinate system calibration method of vision with a robot which is adapted coordinate system is associated as the coordinate transformation coefficients to each other in.
【請求項2】請求項1において、基準データにもとづき
相異なる2方向に、ある移動開始点からある移動終了点
に移動されるに際して、ほぼ互いに直交する方向とし
て、かつロボットにおける座標系の座標軸に平行となる
べく、ロボットが移動される視覚付きロボットの座標系
較正方法。
2. When moving from a certain movement start point to a certain movement end point in two different directions based on the reference data, the directions are substantially orthogonal to each other and the coordinate axes of the coordinate system of the robot are used. A method for calibrating the coordinate system of a robot with a vision in which the robot is moved so as to be parallel.
【請求項3】請求項1,2の何れかにおいて、視覚装置に
おける各座標軸から、ロボットにおける各座標軸への座
標変換係数は独立に算出される視覚付きロボットの座標
系較正方法。
3. The coordinate system calibration method for a robot with vision according to claim 1, wherein the coordinate conversion coefficient from each coordinate axis in the visual device to each coordinate axis in the robot is independently calculated.
【請求項4】請求項1〜3の何れかにおいて、視覚装置
における座標系は、該装置がロボットに取付けされた状
態で移動されることによって、ロボットにおける座標系
との相対的位置関係が可変とされる視覚付きロボットの
座標系較正方法。
4. The coordinate system of the visual device according to claim 1, wherein a relative positional relationship with the coordinate system of the robot is changed by moving the coordinate system of the visual device while being attached to the robot. A method for calibrating the coordinate system of a robot with vision.
【請求項5】請求項1〜4の何れかにおいて、基準認識
対象は、ロボットによって、移動開始点、移動終了点各
々に配置された認識マークによって形成される視覚付き
ロボットの座標系較正方法。
5. The coordinate system calibrating method for a robot with vision according to claim 1, wherein the reference recognition target is formed by recognition marks which are arranged at a movement start point and a movement end point by the robot.
【請求項6】請求項1〜4の何れかにおいて、基準認識
対象は、ロボットによって、移動開始点から移動終了点
まで描画された線分、あるいは移動開始点、移動終了点
各々に描画された点として形成される視覚付きロボット
の座標系較正方法。
6. The reference recognition object according to claim 1, wherein the reference recognition target is drawn by a robot at a line segment drawn from a movement start point to a movement end point, or at each of a movement start point and a movement end point. A coordinate system calibration method for a robot with vision formed as points.
JP63027763A 1988-02-10 1988-02-10 Coordinate system calibration method for a robot with vision Expired - Lifetime JP2678002B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP63027763A JP2678002B2 (en) 1988-02-10 1988-02-10 Coordinate system calibration method for a robot with vision

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63027763A JP2678002B2 (en) 1988-02-10 1988-02-10 Coordinate system calibration method for a robot with vision

Publications (2)

Publication Number Publication Date
JPH01205204A JPH01205204A (en) 1989-08-17
JP2678002B2 true JP2678002B2 (en) 1997-11-17

Family

ID=12230047

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63027763A Expired - Lifetime JP2678002B2 (en) 1988-02-10 1988-02-10 Coordinate system calibration method for a robot with vision

Country Status (1)

Country Link
JP (1) JP2678002B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003014662A1 (en) * 2001-08-08 2003-02-20 Technowave, Ltd. Apparatus for measuring shape of article
CN105965495A (en) * 2016-05-12 2016-09-28 英华达(上海)科技有限公司 Mechanical arm positioning method and system

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2839386B2 (en) * 1991-04-08 1998-12-16 ファナック株式会社 How to limit the compensation amount of the robot
JP4491687B2 (en) * 2005-04-21 2010-06-30 パルステック工業株式会社 Coordinate transformation function correction method
JP2007263899A (en) * 2006-03-30 2007-10-11 Toppan Printing Co Ltd Device for measuring pattern shape, and pattern shape measuring method
JP2010082189A (en) * 2008-09-30 2010-04-15 Olympus Corp Calibration method of manipulator in surgical manipulator system
JP6848269B2 (en) * 2016-09-01 2021-03-24 アイシン精機株式会社 Palletizing device
JP6506375B2 (en) * 2017-11-20 2019-04-24 ファナック株式会社 Work transfer system
CN110281238B (en) * 2019-06-17 2022-05-17 深圳视觉龙智能传感器有限公司 Assembly line multi-manipulator calibration method and device, computer equipment and storage medium

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6171184A (en) * 1984-09-14 1986-04-12 Toyota Motor Corp Automatic arc welding method
JP2680298B2 (en) * 1986-02-19 1997-11-19 神鋼電機 株式会社 Position correction method for robot equipped with automatic guided vehicle

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003014662A1 (en) * 2001-08-08 2003-02-20 Technowave, Ltd. Apparatus for measuring shape of article
CN105965495A (en) * 2016-05-12 2016-09-28 英华达(上海)科技有限公司 Mechanical arm positioning method and system

Also Published As

Publication number Publication date
JPH01205204A (en) 1989-08-17

Similar Documents

Publication Publication Date Title
JP6966582B2 (en) Systems and methods for automatic hand-eye calibration of vision systems for robot motion
JP3946711B2 (en) Robot system
JP4265088B2 (en) Robot apparatus and control method thereof
CN110977931A (en) Robot control device and display device using augmented reality and mixed reality
US20040266276A1 (en) Connector gripping device, connector inspection system comprising the device, and connector connection system
CN110936378B (en) Robot hand-eye relation automatic calibration method based on incremental compensation
CN105598987A (en) Determination of object-related gripping regions using robot
JP4289619B2 (en) Tool position correction method for articulated robots
JP2678002B2 (en) Coordinate system calibration method for a robot with vision
US10607337B2 (en) Object inspection system and object inspection method
JP2006082170A (en) Calibration method
JP2013173191A (en) Robot apparatus, robot control apparatus, robot control method, and robot control program
JP2004009209A (en) Teaching device for robot
WO2023013740A1 (en) Robot control device, robot control system, and robot control method
JPH0847881A (en) Method of remotely controlling robot
WO2021210456A1 (en) Device for obtaining position of visual sensor in control coordinate system of robot, robot system, method, and computer program
JP2016203282A (en) Robot with mechanism for changing end effector attitude
US20230249341A1 (en) Robot teaching method and robot working method
JP2616225B2 (en) Relative positioning method
CN110977950B (en) Robot grabbing and positioning method
US11826919B2 (en) Work coordinate generation device
WO2023203747A1 (en) Robot teaching method and device
CN116100562B (en) Visual guiding method and system for multi-robot cooperative feeding and discharging
EP4286107A1 (en) Calibration method and robot system
CN113524147B (en) Industrial robot teaching system and method based on 3D camera