JPH01177615A - Offline programming method for robot - Google Patents

Offline programming method for robot

Info

Publication number
JPH01177615A
JPH01177615A JP198288A JP198288A JPH01177615A JP H01177615 A JPH01177615 A JP H01177615A JP 198288 A JP198288 A JP 198288A JP 198288 A JP198288 A JP 198288A JP H01177615 A JPH01177615 A JP H01177615A
Authority
JP
Japan
Prior art keywords
robot
point
distance
image
intermediate point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP198288A
Other languages
Japanese (ja)
Inventor
Shinsuke Sakakibara
伸介 榊原
Mitsuo Hiraizumi
平泉 満男
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Priority to JP198288A priority Critical patent/JPH01177615A/en
Publication of JPH01177615A publication Critical patent/JPH01177615A/en
Pending legal-status Critical Current

Links

Landscapes

  • Numerical Control (AREA)
  • Manipulator (AREA)

Abstract

PURPOSE:To program a robot action path with an offline by obtaining a variable-density image from the same viewpoint to measure a distance image, automatically preparing the robot action path from a work starting point up to a completing point on a variable-density screen, and preparing a three- dimensional action path corresponding to the action path on the variable-density screen from the distance image. CONSTITUTION:A distance image 12 of a work object 11 is measured, it is stored into a picture memory MEM, simultaneously, a variable-density image 13 is obtained from the same viewpoint to measure the distance image, and it is plotted on a display screen CRT. The work starting point and work completing point are indicated by a cursor 14 on the variable-density image, simultaneously, a proceeding direction is instructed, and thereafter, a robot action path 15 is automatically prepared on the variable-density image 13 from the work starting point in the proceeding direction. Thereafter, a three-dimensional robot action path 16 corresponding to the action path 15 on the variable-density image 13 is prepared from the distance image 12. Thus, by a small-sized system constitution and, moreover, even when the work object has a complex shape, the robot action path can be programmed with the offline.

Description

【発明の詳細な説明】 〈産業上の利用分野〉 本発明はロボット用オフラインプログラミング方法に係
り、特に視覚センサを利用してロボット動作経路をオフ
ライン制御により生成することができるオフラインプロ
グラミレグ方法に関する。
DETAILED DESCRIPTION OF THE INVENTION <Field of Industrial Application> The present invention relates to an offline programming method for a robot, and more particularly to an offline programming method that can generate a robot motion path by offline control using a visual sensor.

〈従来技術〉 従来のロボット用のオフラインプログラミングシステム
は内部的に簡単なモデラを持っているため、作業対象物
の形状が簡単な場合には該モデラを用いて形状定義やロ
ボットの動作経路の定義ができる。
<Prior art> Conventional offline programming systems for robots have a simple internal modeler, so if the shape of the workpiece is simple, this modeler can be used to define the shape and the robot's motion path. Can be done.

また、大規模なオフラインプログラミングシステムにお
いてはCADシステムと結合が図られ、該CADシステ
ムで定義された対象物モデルをもらって使用することが
できるため、作業対象物が複雑な形状を有する場合であ
っても該モデル形状に一致している場合には動作経路を
オフラインで定義できる。
In addition, large-scale offline programming systems are connected to CAD systems, and the object model defined in the CAD system can be obtained and used, so even if the object to be worked on has a complex shape, If the motion path also matches the model shape, the motion path can be defined off-line.

〈発明が解決しようとしている課題〉 しかし、CADシステムと結合された大規模なオフライ
ンプログラミングシステムは高価となると共に、作業対
象物がCADシステムで設計された対象物(モデル)と
一致していなければロボット動作経路をオフラインでプ
ログラミングてきないという問題がある。特に、アーク
溶接、レーザ溶接、シーリング等で扱う対象物の形状に
は自由曲面を含むものが少なくなく、シかも板金加工に
よるものはCADで設計されないものが多く、かかる作
業対象物には大規模なシステムでも、なかなかオフライ
ンでロボット動作経路をプログラミングするのが困難で
あった。
<Problem to be solved by the invention> However, a large-scale offline programming system combined with a CAD system is expensive, and if the workpiece does not match the object (model) designed with the CAD system, There is a problem that the robot movement path cannot be programmed offline. In particular, the shapes of objects handled in arc welding, laser welding, sealing, etc. often include free-form surfaces, and many of the objects processed by sheet metal processing are not designed using CAD, and such work objects require large scale. Even with advanced systems, it has been difficult to program robot movement paths offline.

又、小規模なオフラインシステムはコスト的に問題無い
が、作業対象物が複雑な形状を有している場合にはロボ
ット動作経路をオフラインでプログラミングできないと
いう問題がある。
Further, although a small-scale offline system has no problem in terms of cost, there is a problem in that the robot movement path cannot be programmed offline if the object to be worked on has a complicated shape.

以上から本発明の目的は、小規模なシステム構成で、し
かも作業対象物が複雑な形状を有する場合であってもオ
フラインでロボット動作経路のプログラミングができる
方法を提供することである。
From the above, it is an object of the present invention to provide a method that allows offline programming of a robot motion path with a small-scale system configuration, even when the workpiece has a complicated shape.

〈課題を解決するための手段〉 第1図は本発明の説明図である。〈Means for solving problems〉 FIG. 1 is an explanatory diagram of the present invention.

11はアーク溶接される作業対象物であり部材11a、
llb間がアーク溶接される。12は距離画像、13は
デイスプレィ画面CRTに描画された対象物の濃淡画像
、15はロボット動作経路、16は三次元ロボット動作
経路である。
Reference numeral 11 denotes a workpiece to be arc welded, which includes members 11a,
Arc welding is performed between llb and llb. 12 is a distance image, 13 is a grayscale image of the object drawn on the display screen CRT, 15 is a robot movement path, and 16 is a three-dimensional robot movement path.

〈作用〉 作業対象物11の距離画像12を計測して画面、ノモI
JMEMに記憶すると共に、距離画像を計測した同一視
点から濃淡画像13を得てデイスプレィ画面CRTに描
画する。そして、濃淡画像上においてカーソル14で作
業開始点と作業終了点を指示すると共に進行方向を指示
し、以後作業開始点から進行方向にロボット動作経路1
5を自動的に濃淡画像13上に生成する。しかる後、濃
淡画像13上の動作経路15に対応する三次元のロボッ
ト動作径Fi!616を距離画像12から生成する。
<Operation> The distance image 12 of the work object 11 is measured and the screen, Nomo I
At the same time as storing it in JMEM, a grayscale image 13 is obtained from the same viewpoint from which the distance image was measured and drawn on the display screen CRT. Then, use the cursor 14 to indicate the work start point and work end point on the gray scale image, as well as the direction of movement.
5 is automatically generated on the grayscale image 13. After that, the three-dimensional robot motion diameter Fi! corresponding to the motion path 15 on the grayscale image 13 is determined. 616 is generated from the distance image 12.

〈実施例〉 第1図及び第2図;よ本発明にかかろロボットオフライ
ンゴログラミング方法を説明するための説明図であり、
11はアーク溶接される作業対象物であり、部材11a
、llb間がアーク溶接される。12は画面メモリME
Mに記憶された距離画像、13はデイスプレィ画面CR
Tに描画された対象物の濃淡画像である。また、14は
カーソル、15は濃淡画像上のロボット動作経路、16
はロボッl−の三次元動作経路、P、、 PE(第2図
)はそれぞれカーソル14て指定された作業開始点及び
作業終了点、p m 、 p +iは中間点、TDS−
TD。
<Example> FIGS. 1 and 2 are explanatory diagrams for explaining the offline robot programming method according to the present invention,
11 is a workpiece to be arc welded, and a member 11a
, llb are arc welded. 12 is screen memory ME
Distance image stored in M, 13 is display screen CR
This is a grayscale image of the object drawn on T. In addition, 14 is a cursor, 15 is a robot movement path on the grayscale image, and 16 is a cursor.
are the three-dimensional movement path of the robot l-, P, PE (Fig. 2) are the work start and end points specified by the cursor 14, p m and p +i are the intermediate points, and TDS-
T.D.

はロボットに把持された1〜−チ等の工具方向である。is the direction of tools such as 1 to 1 held by the robot.

第3図は本発明方法を実現するオフラインプログラミン
グシステムのブロック図である。
FIG. 3 is a block diagram of an offline programming system implementing the method of the present invention.

1は作業対象物11 (第1図)の距離画像12及び濃
淡画像13を生成する画像生成装置、2は制御プログラ
ムに従ってオフラインプログラミング処理を実行するメ
インプロセッサ、3は主記憶装置(RAM) 、4はグ
ラフィックディスプし・イ装置であり、ブラウン管(C
RT)4a及びデイスプレィコントローラ4bを有し、
デイスプレィコントローラ4bには濃淡画像を記憶する
画面メモリが設けられている。
1 is an image generation device that generates a distance image 12 and a gray scale image 13 of the work object 11 (FIG. 1); 2 is a main processor that executes offline programming according to a control program; 3 is a main memory (RAM); 4 is a graphic display device, and a cathode ray tube (C
RT) 4a and a display controller 4b,
The display controller 4b is provided with a screen memory for storing grayscale images.

5はキーボード、6はディスクコントローラ、7は生成
されたロボット動作経路等を記憶するハードディスク、
8はX−Yプロッタである。尚、図示しないが適宜必要
な入出力装置がバス線に接続されてロボット用オフライ
ンプログラミングンステムが構成される。
5 is a keyboard, 6 is a disk controller, 7 is a hard disk that stores generated robot movement paths, etc.
8 is an X-Y plotter. Although not shown, necessary input/output devices are connected to the bus line to constitute a robot offline programming system.

画像生成装置1は投光器1aとカメラ1bと画像処理ゴ
ロセッサ1cを備え、作業対象物のの距離画像と濃淡画
像を出力するようになっている。
The image generation device 1 includes a projector 1a, a camera 1b, and an image processing processor 1c, and is configured to output a distance image and a grayscale image of a work object.

尚、距離画像の各画素は視点から対象物までの距離を表
わし、以下の(il〜(iiilの手法により生成され
る。すなわち、 (1)グL−イコードパターン光を投光器1aで投影し
て空間をコード化して表わし、その画像をカメラ1bで
撮影して三角測量の原理により対象物の三次元情報を得
ることにより、あるいは(11)スリット光を投影して
同様に三角測量の原理で光の当たっている部分の三次元
位置を求め、スリット光を回転ミラーで走査して、1画
面分の三次元情報を得ることにより、あるいは (iiil振幅変調を掛けたレーザポット光の送信波と
反射波の位相差から対象物迄の距離を計算し、乙のレー
ザ光を2次元的に走査して1画面分の三次元情報ie得
ることにより生成されろ。
It should be noted that each pixel of the distance image represents the distance from the viewpoint to the object, and is generated by the following methods (il to (iii). Namely, (1) Projecting the G-L-ecode pattern light with the projector 1a. (11) By projecting slit light and expressing the space as a code, and capturing the image with camera 1b to obtain three-dimensional information of the object using the principle of triangulation, or (11) projecting slit light and similarly using the principle of triangulation. By determining the three-dimensional position of the part illuminated by the light and scanning the slit light with a rotating mirror to obtain three-dimensional information for one screen, It is generated by calculating the distance to the object from the phase difference of the reflected waves and scanning the laser beam two-dimensionally to obtain three-dimensional information for one screen.

第4図は本発明にかかるオフラインプログラミノブ方法
の流れ図であり、第5図はロボットに把持される1・−
チ(工具)の向き(姿勢)を決定ずろための処理の流れ
図、第6図はロボット動作経路を折れ線近似する方法の
説明図である。以下、アーク溶接用のオフラインプログ
ラミングについて第4図及び第5図の流れ図に従って説
明するが、本発明はその他レーザ溶接、シーリング等に
も適用できるものである。
FIG. 4 is a flowchart of the offline programming knob method according to the present invention, and FIG.
FIG. 6 is a flowchart of a process for determining the orientation (posture) of a tool. Off-line programming for arc welding will be described below in accordance with the flowcharts of FIGS. 4 and 5, but the present invention can also be applied to other processes such as laser welding and sealing.

(81画像生成装置1(第3図)により作業対象物11
 (第1図)の距離画像12と濃淡画像13を生成する
(81 Image generation device 1 (Fig. 3)
A distance image 12 and a grayscale image 13 shown in FIG. 1 are generated.

すなわち、まず作業対象物11の溶接を行う面を含むシ
ーンの距離画像12を画像生成装置1て生成して主記憶
装置3に記憶する。
That is, first, the image generation device 1 generates a distance image 12 of a scene including the surface of the workpiece 11 to be welded, and stores it in the main storage device 3.

ついて、距離画像を生成したと同一のカメラ位置で同一
シーンの濃淡画像13を生成して主記憶袋@3に記憶す
る。濃淡画像13は、またグラフィ・ツクデイスプレィ
装置(モニタテレビ)4に送られてデイスプレィ画面C
RTに表示される(第1図参照)。
Then, a gray scale image 13 of the same scene is generated at the same camera position where the distance image was generated and is stored in the main memory bag @3. The grayscale image 13 is also sent to a graphics display device (monitor television) 4 and displayed on a display screen C.
RT (see Figure 1).

ここで、濃淡画像を使用するのは、該濃淡画像をデイス
プレィ画面に表示し、動作経路をそれに重畳して表示す
る時オペレータに分かり易くするためてあり、距離画像
では、溶接部位にカメラ光軸方向の段差があるなどの場
合でないと、オペレータに視覚的に分かりにくい。
Here, the reason why the gray scale image is used is to make it easier for the operator to understand when displaying the gray scale image on the display screen and displaying the motion path superimposed on it. Unless there is a step in the direction, it is difficult for the operator to visually understand.

(bl濃淡画像13がデイスプL−、イ画面CRTIこ
表示されている状態において、十字カーソル14(第1
図参照)をキーボード5上のカーソルシフトキー等を操
作して移動させ、溶接開始点p、 (第2図(a))、
溶接終了点PEを入力する。
(In a state where the BL grayscale image 13 is displayed on the screen L-, the screen CRTI), the cross cursor 14 (first
(see figure) by operating the cursor shift key on the keyboard 5, welding starting point p, (Figure 2 (a)),
Enter the welding end point PE.

又、溶接開始点P5における溶接線(動作経路)の進行
方向を、画面上の2次元座標軸に従って、たとえば−1
−X、−X、+Y、−Yのように入力する。
Also, the traveling direction of the welding line (operation path) at the welding start point P5 is set, for example, by −1 according to the two-dimensional coordinate axes on the screen.
Enter -X, -X, +Y, -Y.

更に、(1)ロボットに把持される工具()・−チ)の
姿勢を決める基準となる面が溶接進行方向の右側である
か左側であるか、(ii) I−−チと溶接線(ロボ?
/ )動作経路)の接線がなす角度a 、 (iiil
工具と基樵面のなず角度βを入力する。
Furthermore, (1) whether the plane that serves as a reference for determining the posture of the tools () and -chi) held by the robot is on the right or left side in the direction of welding progress; robot?
/) The angle a, (iii
Enter the angle β between the tool and the base milling surface.

(c)シかる後、濃淡画像13上で作業開始点P、から
進行方向に作業終了点PE迄溶接線(ロボッ1−動作経
路)15を追跡し、得られた溶接線15を濃淡画像13
上に描画する(第2図(bl参照)。
(c) After the welding line 15 is traced on the grayscale image 13 from the work start point P to the work end point PE in the advancing direction, the obtained welding line 15 is traced on the grayscale image 13.
(see Figure 2 (bl)).

尚、溶接線の追跡(よ以下のうように行う。ずなわち、
一般に溶接線などは金属板が重ね合わされた所であるの
で、濃淡画像上ては周囲に比へて暗い線(曲線)になっ
ている。そこで、開始点P!、から終了点P5まで、濃
淡画像上で明度が極小になっている所を追跡する。
In addition, tracing of the welding line (carry out as follows, i.e.,
Generally, a weld line is a place where metal plates are overlapped, so on a grayscale image, it is a darker line (curve) than the surrounding area. So, starting point P! , to the end point P5, the location where the brightness is minimum on the grayscale image is tracked.

具体的には、例えば溶接線の進行方向が+Xであったと
すると、追跡してきた最新の画素の+X側の隣接画素と
それを中心とするY軸方向の上下各3画素、合計7画素
を取り出して明度が極小になっている画素を溶接線上の
画素として記憶し、以後同様の処理を繰り返して溶接線
15を生成する。ただし、溶接線の進行方向は、例えば
5画素前の溶接点の座標と1画素前の座標とから進行方
向+x、−x、+y、 −yのいずれであるかを決定す
る。
Specifically, for example, if the welding line's advancing direction is +X, we will extract a total of 7 pixels, including the adjacent pixel on the +X side of the latest tracked pixel and 3 pixels above and below it in the Y-axis direction. The pixels whose brightness is minimal are stored as pixels on the welding line, and the same process is repeated thereafter to generate the welding line 15. However, the advancing direction of the welding line is determined, for example, from the coordinates of the welding point 5 pixels before and the coordinates of 1 pixel before, which is the advancing direction +x, -x, +y, or -y.

(dl Ju上により、濃淡画像上の溶接線(ロボν1
・動作経路)]5が求まれば、該濃淡画像上の溶接点列
(溶接線)の座標に基づいて、距離画像12から三次元
の溶接点列(三次元口ボッ1−動作経路)16 (第1
図)を求める。
(By dl Ju, the welding line on the grayscale image (Robo ν1
・Operation route)] 5 is determined, a three-dimensional welding point array (three-dimensional mouth button 1-operation route) 16 is calculated from the distance image 12 based on the coordinates of the welding point array (welding line) on the grayscale image. (1st
Figure).

すなわち、濃淡画像のm行n列における画素に表示され
ている対象物の三次元座標値は距離画像12におけろm
行n列の画素に対応して記憶されているから、三次元の
溶接点列(三次元ロボット動作経路)16は容易に求め
る乙とがてきる。
That is, the three-dimensional coordinate values of the object displayed at the pixels in m rows and n columns of the grayscale image are m in the distance image 12.
Since the data is stored in correspondence with the pixels in rows and n columns, the three-dimensional welding point sequence (three-dimensional robot motion path) 16 can be easily determined.

三次元溶接線16が求まれば、これを折れ線近似して教
示点とすへく溶接点を抽出する(第6図参照)。すなわ
ち、まず、ロホット動作経路16の開始点P、、と終了
点P6を結ぶ直線LL(第6図(a))迄の距離が最大
となる中間点′P11を求め、該最大距離d が許容値
以上かチエ・ツク(7、以上であれば中間点P11を教
示点として記憶する。
Once the three-dimensional welding line 16 is determined, it is approximated by a polygonal line to extract the teaching point and the welding point (see FIG. 6). That is, first, find the intermediate point 'P11 where the distance to the straight line LL (FIG. 6(a)) connecting the starting point P, . . . If the value is greater than or equal to 7, the intermediate point P11 is stored as the teaching point.

しかる後、開始点P、と中間点p ++及び終点PEを
順に結んだ折れ線L2(第6図(b))を生成し、該折
れ線迄の距離が最大の中間点pHを求め、該最大距Rd
9が許容値以上かチエツクし、以上てあれば中間点PI
Iを教示点として記憶する。
After that, a polygonal line L2 (Fig. 6(b)) is generated that connects the starting point P, the intermediate point p++, and the end point PE in order, and the intermediate point pH with the maximum distance to the polygonal line is determined, and the maximum distance is Rd
Check if 9 is above the allowable value, if it is above, intermediate point PI
Store I as a teaching point.

ついで、同様に開始点、各中間点、終了点を結んだ折れ
線T−3(第6図(C))を生成し、折れ線迄の最大距
離が許容値以上となる中間点が存在しなくなる迄同様の
処理を行う。そして、最終的に開始点P5、各中間点p
、、pN1終了点PEが教示すべき溶接点となる(第2
図(c))、。
Next, similarly generate a polygonal line T-3 (Fig. 6 (C)) connecting the start point, each intermediate point, and the end point until there is no intermediate point where the maximum distance to the polygonal line is greater than or equal to the allowable value. Perform similar processing. Finally, the starting point P5, each intermediate point p
,, pN1 end point PE becomes the welding point to be taught (second
Figure (c)).

tel折れ近似が終了すれば、得られた各教示点P 。When the tel fold approximation is completed, each teaching point P obtained.

p、、、 p、、、 p−とおけるトーチの姿勢を決定
する(尚、a−90°、β−45°とする)。第5図は
1・〜チの姿勢を決定するルーチンの流れ図である。
Determine the posture of the torch at p, , p, , p- (assumed to be a-90° and β-45°). FIG. 5 is a flowchart of a routine for determining the postures of 1.

(il教示点の前後の三次元溶接点列から溶接isを示
す三次元の直線を求めろ。
(Find the three-dimensional straight line that indicates welding is from the three-dimensional welding point array before and after the il teaching point.

尚、教示点を含め前後7個の溶接点列を用いて最小自乗
法(こより溶接線を示す直線を求めろ。教示点が開始点
や終了点などの場合のように、前後一方に3点以上の溶
接点が存在しない場合には、例えば開始点ては該開始点
を含めてそれに続く6点をとる。
In addition, use the least squares method (using the seven welding point arrays in front and back including the teaching point) to find a straight line that indicates the welding line.As in the case where the teaching point is the start point or end point, three points in the front and back. If the above welding points do not exist, for example, the starting point is taken to include the starting point and the following six points.

最小自乗法による直線の当てはめ 直線は座標平面に垂直な2つの平面の交線として表わせ
る。従って、ここでは三次元の点列に、座標平面に垂直
な2つの平面を当てはめろことによりその交線として直
線を求める。さて、(1)点列の始点と終点を比べてX
成分の変化幅がX成分の変化幅より大きい場合に(よ 2つの平面を次のように表現する。
Fitting a straight line using the method of least squares A straight line can be expressed as an intersection line of two planes perpendicular to the coordinate plane. Therefore, here, by fitting two planes perpendicular to the coordinate plane to the three-dimensional point sequence, a straight line is found as the intersection line. Now, (1) Compare the starting point and ending point of the point sequence and
When the width of change in the component is larger than the width of change in the X component, the two planes are expressed as follows.

前者はxy平面に垂直な平面、後者はzx平面に垂直な
平面である。
The former is a plane perpendicular to the xy plane, and the latter is a plane perpendicular to the zx plane.

(2)点列の始点と終点を比べてX成分の変化幅がX成
分の変化幅」゛す大きい場合には 2つの平面を次のように表現する。
(2) If the width of change in the X component is greater than the width of change in the X component when comparing the start point and end point of the point sequence, the two planes are expressed as follows.

さて、(1)の場合に(よ平面方程式 %式% の最小自乗法による正規方程式は Σy□=gΣX□十に−p  い=1〜lOΣx、y、
=gΣx ”、 + pΣX1  い= 1〜IOとな
る。但し、1c(=7)は使用する点列数である。上式
をガウス記号を用いて表わすと[x]g+k・p= [
yl [xx  コ  g+  [xl   p=  [xy
]これをgtT’について解くと g−([xl [yl −1c Cxyl)/ ([x
l”−k [xx]lp−([Xコ  Exy]   
 [yl   [xxコ )  /  +  [X] 
 2−1c  [XXコ )となる。そして、平面方程
式 %式% についても同様に h−([X]  [y、コ −k  [Z X]  )
  /  +  [X]  2−k  [XX]  )
q−([Xコ  [xxコ −[Zl   [xx] 
 )/  +  [X]  ”−k  [XX]  1
となる。
Now, in the case of (1), the normal equation by the method of least squares of the plane equation% is
= g Σ
yl [xx g+ [xl p= [xy
] Solving this for gtT' gives g-([xl [yl -1c Cxyl)/([x
l”-k [xx]lp-([X co Exy]
[yl [xx] / + [X]
2-1c [XXko]. And similarly for the plane equation % formula % h-([X] [y, co-k [Z X] )
/ + [X] 2-k [XX])
q-([X ko [xx ko - [Zl [xx]
)/ + [X] ”-k [XX] 1
becomes.

(11)溶接線を示す三次元直線が求まれば、教示点を
通り該直線に直交する平面を求める。
(11) Once the three-dimensional straight line indicating the welding line is found, a plane passing through the teaching point and perpendicular to the straight line is found.

1点を通り1つの直線に直交する平面の算出点(x、、
Y、p  Zl)を通り、ベクトルN (A。
Calculated point (x, ,
Y, p Zl) through the vector N (A.

B、C)の方向に垂直な平面は次のように表わされろ。The plane perpendicular to the directions B and C) can be expressed as follows.

A (x−x、) +B (y−y、) +C(z−z
、) −〇  (11直線が最小自乗法による三次元の
点列への直線の当て嵌めによって得られたものとすると
、この直線は例えば次のように表わされる。
A (x-x,) +B (y-y,) +C(zz-z
, ) -〇 (11) Assuming that the straight line is obtained by fitting the straight line to a three-dimensional point sequence using the method of least squares, this straight line can be expressed as follows, for example.

この直線は x−(y−p)/g−(z−q)/h のように表わせるから、この直線のベクトルは(1,g
、h)と表わせる。これを(1)式に代入すると (x−x、) +g (y−y、) +h (z−zl
) −0となる。
This straight line can be expressed as x-(y-p)/g-(z-q)/h, so the vector of this straight line is (1, g
, h). Substituting this into equation (1), (x-x,) +g (y-y,) +h (z-zl
) becomes −0.

(iiilついで、1・−チの姿勢を決めるための基準
となる平面の平面方程式を求める。
(iii) Next, find the plane equation of the plane that will be the reference for determining the posture of 1.-chi.

教示点近傍の基準となる平面上の数十点を距離画像から
取り出して、それらの点に最小自乗法により平面を当て
嵌める。
Several tens of points on a reference plane near the teaching point are extracted from the distance image, and a plane is fitted to these points using the least squares method.

平面を最小自乗法により求めるために用いる点、−15
− の取り出し方は例えば以下のように行う。すなわち、(
1)で取り出した点列の始点と終点の二次元座標から、
溶接の進行方向(十X、−X、+Y、−Y)を求める。
The point used to find the plane by the least squares method, -15
− is extracted as follows, for example. That is, (
From the two-dimensional coordinates of the starting point and ending point of the point sequence extracted in 1),
Find the welding direction (10X, -X, +Y, -Y).

例えば、進行方向が+Xて、基準となる平面が進行方向
の左側であれば、(1)で取り出した7個の点の2次元
の点列を+Y力方向2画素から8画素までシフトシた、
合計7X7=49の点に相当する三次元の点を取り出す
For example, if the traveling direction is +X and the reference plane is on the left side of the traveling direction, shift the two-dimensional point sequence of the 7 points extracted in (1) from 2 pixels to 8 pixels in the +Y force direction.
Three-dimensional points corresponding to a total of 7×7=49 points are extracted.

最小自乗法による点前への平面の当てはめ平面の方程式
を A−x+B −y+C−z+D=0 z=−A −x/C−B −y/C−D/C(C≠0)
で表現する。尚、C=OはZ軸に平行な平面を意味し、
従って上式で表現される平面はZ軸に平行でないものと
する。ことて、 −A/C=a1.−B/C=b1.−D/C=d、とす
ると平面方程式は z=a、 ・x+b、 −vld。
Fitting the plane to the front point using the least squares method The equation of the plane is A-x+B -y+C-z+D=0 z=-A -x/C-B -y/C-D/C (C≠0)
Expressed as In addition, C=O means a plane parallel to the Z axis,
Therefore, it is assumed that the plane expressed by the above formula is not parallel to the Z axis. That is, -A/C=a1. -B/C=b1. -D/C=d, then the plane equation is z=a, x+b, -vld.

と変形できる。この結果、最小二乗法の正規方程式(よ
次のようになる。尚、k(−49)は小領域の画素数、
(X、、yl、Zl)は第1画素の座標値である。
It can be transformed into As a result, the normal equation of the least squares method is as follows. Note that k (-49) is the number of pixels in the small area,
(X, , yl, Zl) are the coordinate values of the first pixel.

Σz、=a、Σx、+b、Σy、+に−d、    (
i=1−k)Σx、z、−a、Σx”、+b、Σx、y
、+d、Σx 、  (i = 1〜k)Σy 、 z
 、= a 、Σx、y、+b、Σy?+a、Σy 、
  (i = 1〜k)ガウス記号を用いて表わすと(
ΣX 、 y 、−1−[X y ]等)以下のように
なる。
Σz, = a, Σx, +b, Σy, + to -d, (
i=1-k) Σx, z, -a, Σx'', +b, Σx, y
, +d, Σx, (i = 1~k)Σy, z
, = a, Σx, y, +b, Σy? +a,Σy,
(i = 1~k) Expressed using Gauss symbols, (
ΣX, y, -1-[X y ], etc.) as follows.

[Xコ a、+  [yl  b、+k −d、=  
[zl[xxコ a、+ [xy]  b、+  [x
l  dl−[zx][xy] a、+ [yy] b
、+ [yl d1= [yz]この連立方程式をa、
、 b、、  dlについて解くと、a、=(u、、・
uZX−uXy□u 、、、) / ’/ 。
[X a, + [yl b, +k - d, =
[zl[xxko a, + [xy] b, + [x
l dl-[zx][xy] a, + [yy] b
, + [yl d1= [yz] This simultaneous equation is a,
, b,, dl, we get a,=(u,,・
uZX-uXy□u,,,)/'/.

b、= (uxx ・uyz−uyy ” 2X) /
 vld、−([zl −[xl a、−[yl b、
) /にとなり、平面が求まる。ただし、 t     xx     yl    ×yu、、y
。[xl 2−k [xx] 、  u、、−[xl 
[yl −k [xy] 、 etc。
b, = (uxx ・uyz-uyy ” 2X) /
vld, −([zl −[xl a, −[yl b,
) / to find the plane. However, t xx yl ×yu,,y
. [xl 2-k [xx] , u, , -[xl
[yl-k[xy], etc.

EX]−Σx、、 [xx] =Σx?、 [xy]−
Σx、y、 e t c。
EX]-Σx,, [xx] =Σx? , [xy]−
Σx, y, et c.

(iv) h−チの姿勢を決めるための基準となる平面
(基準平面)が求まれば該基準平面と溶接線に直交する
平面(ステップ(11)で求まっている)との交線を求
める。
(iv) Once the reference plane (reference plane) for determining the posture of the h-chi is found, find the line of intersection between the reference plane and the plane perpendicular to the welding line (determined in step (11)). .

(v)ついで、交線な溶接線に直交する平面内で、トー
チの姿勢を決めるための基準となる平面から遠ざかる方
向にβ(−45°)回転した直線を求めれば、該直線が
1・−チの姿勢を表わす直線となる。
(v) Next, if we find a straight line rotated by β (-45°) in the direction away from the plane that is the reference for determining the torch posture in a plane perpendicular to the intersecting welding line, we can find that the straight line is 1. - It becomes a straight line that represents the posture of Chi.

すなわち、該直線方向が1−−チの向く方向(第2図(
d)のTDS−TDE参照)となる。ただし、基準面は
溶接線より進行方向に向がって左側の面BS1、BS2
とする。
That is, the straight line direction is the direction in which 1--chi faces (Fig. 2 (
(See TDS-TDE in d)). However, the reference planes are the planes BS1 and BS2 on the left side of the welding line in the direction of travel.
shall be.

以上により、l・−チの方向が求まれば該方向を教示点
と共に出力し、以後全教示点について1・−千の方向を
求めて教示点と共に出力すればオフラインプログラミン
グが終了する。尚、真の教示点は(■)で求めた直線方
向に対象物から一定値離れた点となる。
As described above, if the direction of l·-chi is determined, this direction is output together with the teaching point, and thereafter, the direction of 1·−1,000 is determined for all the teaching points and outputted together with the teaching point, and the off-line programming is completed. Note that the true teaching point is a point that is a certain distance away from the object in the straight line direction determined by (■).

以上では、l・−チの姿勢を求めるに際して、a−90
°、β−45°の場合について説明したがこれ(よ特別
の場合てあり、a=90’、β−458でなくてもよい
。そして、この場合には1・−チの姿勢を決定するには
、溶接線(三次元ロボット動作経路)を含み基準面と角
度βをなす平面を求め、しかろ後該平面上で溶接線と角
度aをなす直線を求め、該直線方向を1・−チの方向と
するようにしてもよい。
In the above, when finding the posture of l・-chi, a-90
Although we have explained the case of a = 90' and β-45°, this is a special case, and it is not necessary that a = 90' and β-458.In this case, the attitude of 1. To do this, find a plane that includes the welding line (three-dimensional robot motion path) and makes an angle β with the reference plane, then find a straight line on this plane that makes an angle a with the welding line, and set the direction of the straight line to 1. It may also be set in the direction of .

〈発明の効果〉 シ、上木発明によれば、作業対象物の距離画像を計測ず
ろと共に、距離画像を計測した同一視点から濃淡画像を
得、濃淡画像上において指示された作業開始点から作業
終了点迄の溶接線(ロボット動作経路)を自動的に濃淡
画像上に生成し、しかる後濃淡画像上の溶接線(動作経
路)に対応する三次元の動作経路を距離画像から生成す
るように構成したから、作業対象物が複雑な形状を有す
る場合であってもオフラインてロボット動作経路のプロ
グラミングができるようになった。
<Effects of the Invention> According to the Ueki invention, a distance image of the work object is obtained along with a measurement distance, and a grayscale image is obtained from the same viewpoint from which the distance image was measured, and the work is performed from the work start point indicated on the grayscale image. The welding line (robot motion path) up to the end point is automatically generated on the grayscale image, and then a three-dimensional motion path corresponding to the welding line (motion path) on the grayscale image is generated from the distance image. With this configuration, it is now possible to program the robot motion path offline even when the workpiece has a complicated shape.

又、本発明によれば画像生成装置が従来のオフライシン
ステムに付加されるだけであるから、小規模で安価なロ
ボット用のオフラインプログラミングンステムを提供で
きる。
Further, according to the present invention, since the image generation device is simply added to the conventional off-line programming system, it is possible to provide a small-scale and inexpensive off-line programming system for robots.

=19− 更に、本発明においては1・−チ等工具の位置を教示す
るだけてなく工具の姿勢も自動計算できるため非常に有
用である。
=19-Furthermore, the present invention is very useful because it not only teaches the positions of tools such as 1 and 1 but also automatically calculates the orientation of the tools.

又、求めた溶接線は折れ線近似して教示点を少なくした
から、姿勢を算出すべきポイント数が少なくなり処理時
間を短縮することができろ。
In addition, since the obtained welding line is approximated by a polygonal line and the number of teaching points is reduced, the number of points at which the posture should be calculated is reduced, and the processing time can be shortened.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図及び第2図は本発明の説明図、 第3図は本発明を実現するロボット用オフう、インプロ
グラミングシステムのブロック図、第4図は本発明の処
理の流れ図、 第5図は1・−チの姿勢決定ルーチンの流れ図、第6図
は折れ線近似の説明図である。 11・・アーク溶接される作業対象物、12・・距離画
像、13・・濃淡画像、14・・カーゝノル、 15・・溶接線(動作経#!I)、 16・・三次元溶接線(三次元ロボット動作経f?a 
)特許出願人        ファナック株式会社代理
人          弁理士  齋藤千幹第5図 第6図
Figures 1 and 2 are explanatory diagrams of the present invention, Figure 3 is a block diagram of a robot in-programming system that implements the present invention, Figure 4 is a flowchart of the processing of the present invention, and Figure 5 is a FIG. 6 is a flowchart of the posture determination routine of steps 1 and 1. 11... Work object to be arc welded, 12... Distance image, 13... Grayscale image, 14... Carnol, 15... Welding line (motion history #!I), 16... Three-dimensional welding line (Three-dimensional robot movement history f?a
) Patent Applicant Fanuc Co., Ltd. Agent Patent Attorney Chiki Saito Figure 5 Figure 6

Claims (5)

【特許請求の範囲】[Claims] (1)作業対象物の距離画像を計測すると共に、距離画
像を計測した同一視点から濃淡画像を得る第1工程と、
濃淡画面上において指示された作業開始点から作業終了
点迄のロボット動作経路を自動的に濃淡画面上に生成す
る第2工程と、濃淡画面上の動作経路に対応する三次元
の動作経路を距離画像から生成する第3工程とを有する
ことを特徴とするロボット用オフラインプログラミング
方法。
(1) A first step of measuring a distance image of the work object and obtaining a gray scale image from the same viewpoint from which the distance image was measured;
The second step is to automatically generate the robot movement path from the specified work start point to the work end point on the grayscale screen, and to create a three-dimensional movement path corresponding to the movement path on the grayscale screen by distance. 1. An offline programming method for a robot, comprising a third step of generating data from an image.
(2)ロボットに把持される工具と動作経路のなす角度
αと、工具と基準面のなす角度βを設定しておき、動作
経路を含み基準面と角度βをなす平面を求めると共に、
該平面上で動作経路と角度αをなす直線方向を工具方向
とする第4工程を有することを特徴とする特許請求の範
囲第1項記載のロボット用オフラインプログラミング方
法。
(2) Set the angle α between the tool gripped by the robot and the motion path, and the angle β between the tool and the reference plane, find a plane that includes the motion path and forms an angle β with the reference plane, and
2. The offline programming method for a robot according to claim 1, further comprising a fourth step in which the tool direction is a linear direction forming an angle α with the motion path on the plane.
(3)前記第2工程は、ロボット動作経路上の既知の画
素に対して進行方向において隣接する画素と、該隣接画
素に進行垂直方向において隣接する上下いくつかの画素
のうち明度が極小となる画素が動作経路上の画素である
として該動作経路を生成することを特徴とする特許請求
の範囲第1項または第2項記載のロボット用オフライン
プログラミング方法。
(3) In the second step, the brightness of a pixel adjacent in the traveling direction to a known pixel on the robot motion path and several pixels above and below adjacent to the adjacent pixel in the traveling direction is minimized. 3. The offline programming method for a robot according to claim 1, wherein the motion path is generated assuming that each pixel is a pixel on the motion path.
(4)前記第3工程において、ロボット動作経路始点と
終点を結ぶ直線迄の距離が最大となる中間点を求め、該
最大距離が許容値以上の時該中間点を記憶し、しかる後
始点と中間点及び終点を順次結んだ折れ線迄の距離が最
大となる中間点を求め、該最大距離が許容値以上の時該
中間点を記憶し、以後折れ線迄の最大距離が許容値以上
となる中間点が存在しなくなる迄折れ線近似処理を行っ
てロボット動作経路を折れ線近似することを特徴とする
特許請求の範囲第3項記載のロボット用オフラインプロ
グラミング方法。
(4) In the third step, find the intermediate point where the distance to the straight line connecting the robot movement path start point and end point is maximum, and when the maximum distance is greater than or equal to the allowable value, store the intermediate point, and then Find the intermediate point where the distance to the polygonal line that connects the intermediate point and the end point in sequence is the maximum, and when the maximum distance is greater than or equal to the allowable value, store the intermediate point; 4. The offline programming method for a robot according to claim 3, wherein the robot motion path is approximated by a polygonal line by performing polygonal line approximation processing until no points exist.
(5)前記第3工程において、ロボット動作経路始点と
終点を結ぶ直線迄の距離が最大となる中間点を求め、該
最大距離が許容値以上の時該中間点を記憶し、しかる後
始点と中間点及び終点を順次結んだ折れ線迄の距離が最
大となる中間点を求め、該最大距離が許容値以上の時該
中間点を記憶し、以後折れ線迄の最大距離が許容値以上
となる中間点が存在しなくなる迄折れ線近似処理を行っ
てロボット動作経路を折れ線近似し、前記第4工程にお
いて近似点のみにおける工具方向を求めることを特徴と
する特許請求の範囲第2項記載のロボット用オフライン
プログラミング方法。
(5) In the third step, find the intermediate point where the distance to the straight line connecting the robot movement path start point and end point is maximum, and when the maximum distance is greater than or equal to the allowable value, store the intermediate point, and then Find the intermediate point where the distance to the polygonal line that connects the intermediate point and the end point in sequence is the maximum, and when the maximum distance is greater than or equal to the allowable value, store the intermediate point; 2. The robot offline offline method according to claim 2, wherein the robot motion path is approximated by a polygonal line by performing polygonal line approximation processing until no points exist, and in the fourth step, the tool direction is determined only at the approximate points. programming method.
JP198288A 1988-01-08 1988-01-08 Offline programming method for robot Pending JPH01177615A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP198288A JPH01177615A (en) 1988-01-08 1988-01-08 Offline programming method for robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP198288A JPH01177615A (en) 1988-01-08 1988-01-08 Offline programming method for robot

Publications (1)

Publication Number Publication Date
JPH01177615A true JPH01177615A (en) 1989-07-13

Family

ID=11516716

Family Applications (1)

Application Number Title Priority Date Filing Date
JP198288A Pending JPH01177615A (en) 1988-01-08 1988-01-08 Offline programming method for robot

Country Status (1)

Country Link
JP (1) JPH01177615A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2020194448A1 (en) * 2019-03-25 2020-10-01
WO2021181929A1 (en) * 2020-03-09 2021-09-16 リンクウィズ株式会社 Information processing method, information processing system, and program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2020194448A1 (en) * 2019-03-25 2020-10-01
WO2021181929A1 (en) * 2020-03-09 2021-09-16 リンクウィズ株式会社 Information processing method, information processing system, and program
JP2021137940A (en) * 2020-03-09 2021-09-16 リンクウィズ株式会社 Information processing method, information processing system and program
CN113905856A (en) * 2020-03-09 2022-01-07 凌威新科技有限公司 Information processing method, information processing system, and program
CN113905856B (en) * 2020-03-09 2024-08-09 凌威新科技有限公司 Information processing method, information processing system, and program
US12066812B2 (en) 2020-03-09 2024-08-20 Linkwiz Incorporated Information processing method, information processing system, and program

Similar Documents

Publication Publication Date Title
Ong et al. Augmented reality-assisted robot programming system for industrial applications
CN112122840B (en) Visual positioning welding system and welding method based on robot welding
EP1043126B1 (en) Teaching model generating method
US6044308A (en) Method and device for robot tool frame calibration
JP3343682B2 (en) Robot operation teaching device and operation teaching method
EP1847359A2 (en) Robot simulation apparatus
JP3045753B2 (en) Remote monitoring system and remote monitoring method
Solyman et al. Perceptive augmented reality-based interface for robot task planning and visualization
Pachidis et al. Vision-based path generation method for a robot-based arc welding system
Erceg et al. Stereo vision based robot welding
JPH01177615A (en) Offline programming method for robot
Reinhart et al. A projection-based user interface for industrial robots
EP4177837A1 (en) Marker detection apparatus and robot teaching system
JPS62165213A (en) Work environment teaching device
JPH1177568A (en) Teaching assisting method and device
JPH07129231A (en) Noncontact point teaching device
Ozguner et al. Design and implementation of a binocular-vision system for locating footholds of a multi-legged walking robot
US20230143710A1 (en) Marker Detection Apparatus and Robot Teaching System
US20240066701A1 (en) Simulation device using three-dimensional position information obtained from output from vision sensor
JP2582215B2 (en) 3D position and orientation measurement method
WO2023073959A1 (en) Work assistance device and work assistance method
JPH01188255A (en) Working
JPH07200875A (en) Display position changing method for three-dimensional model
JPS6053803A (en) Three-dimensional position measuring system
Deshmukh Kinematic modeling of an automated laser line scanning system