JPS61279480A - Method of teaching operation point of robot - Google Patents

Method of teaching operation point of robot

Info

Publication number
JPS61279480A
JPS61279480A JP60119831A JP11983185A JPS61279480A JP S61279480 A JPS61279480 A JP S61279480A JP 60119831 A JP60119831 A JP 60119831A JP 11983185 A JP11983185 A JP 11983185A JP S61279480 A JPS61279480 A JP S61279480A
Authority
JP
Japan
Prior art keywords
robot
monitor screen
teaching
work
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP60119831A
Other languages
Japanese (ja)
Inventor
勝 酒井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nachi Fujikoshi Corp
Original Assignee
Nachi Fujikoshi Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nachi Fujikoshi Corp filed Critical Nachi Fujikoshi Corp
Priority to JP60119831A priority Critical patent/JPS61279480A/en
Publication of JPS61279480A publication Critical patent/JPS61279480A/en
Pending legal-status Critical Current

Links

Landscapes

  • Numerical Control (AREA)
  • Manipulator (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
(57) [Summary] This bulletin contains application data before electronic filing, so abstract data is not recorded.

Description

【発明の詳細な説明】 (産業上の利用分野) 本発明は、ロボットに作業を教示するシステムに係シ、
対象ワークftTVカメラで撮像しモニター画面上にワ
ーク図形を表示し、モニター画面上で位置を指定する事
により、動作点を教示するロボット動作教示方法に関す
る。
[Detailed Description of the Invention] (Industrial Application Field) The present invention relates to a system for teaching work to a robot.
The present invention relates to a robot motion teaching method in which a target workpiece is imaged with an ftTV camera, a workpiece shape is displayed on a monitor screen, and an operating point is taught by specifying a position on the monitor screen.

(従来の技術) 従来のティーチング・プレイバック式のロボットにおい
て教示を行う場合、ティーチングボックスからの指令に
よってロボットのアームヲ容動させるか、アーム全直接
人間の手で移動させ各位置を記憶させる方法が採用され
ている。この方法は、操作が面倒であり、作業にきわめ
て多くの手数及び時間を要し、しかも危険が伴なうとい
う欠点がある。これを克服するために種々の提案がなさ
れておシ、例えば特開昭59−216210号では08
1画面で投影図を表示し、タフレットあるいはデジタイ
ザをライトペンで押下して、対応するCRT画面上の点
を指定する方法であるが、081画面に表示する投影図
をどの様に作成するかが明確にされていない。さらに特
開昭60−16384号では、デジタイザとスタイラス
ペンを用いて位置情報を入力する手段を述べているが、
まずロボットアーム先端部を作動させたい軌跡を描き、
その原画を使い、デジタイザ上で軌跡をなぞることによ
り、座標値を求め、ロボッ)K教示する方法である。こ
の方法では、1変態画を作成して、その後、デジタイズ
するという2段階の工程を経な−ければならずやはり問
題があっ九。
(Prior art) When teaching a conventional teaching/playback type robot, the robot's arm is moved by commands from a teaching box, or the entire arm is moved directly by a human hand, and each position is memorized. It has been adopted. This method has the disadvantage that it is cumbersome to operate, requires an extremely large amount of effort and time, and is also dangerous. Various proposals have been made to overcome this problem, for example, Japanese Patent Application Laid-Open No. 59-216210
The method is to display the projection map on one screen and press the tuplet or digitizer with a light pen to specify the corresponding point on the CRT screen, but how to create the projection map to be displayed on the 081 screen is difficult. Not made clear. Furthermore, JP-A-60-16384 describes a means of inputting position information using a digitizer and a stylus pen.
First, draw the trajectory where you want the tip of the robot arm to operate.
This method uses the original drawing to trace the trajectory on a digitizer to find the coordinate values and then teaches the robot. With this method, you have to go through a two-step process of creating one hentai image and then digitizing it, which is still problematic.

(本発明が解決しようとする問題点) 本発明は特別なロボッi言語を用いずにロボットの動作
軌跡’i C!RT画面上との対話方式で容易に入力し
、CRT画面上にはスタイラスペン、ディジタイザとい
った特別なワーク図形を必要とせず単にTVカメラでワ
ーク図形を撮像するだけでワーク図形を表示する事によ
り、ロボットの動作をロボットに教示し、かつ動作の確
認を容易に行ないうるロボットの作業点教示方法を提供
する事にある。
(Problems to be Solved by the Present Invention) The present invention provides the robot's motion trajectory 'iC!' without using a special robot i language. By easily inputting information by interacting with the RT screen, and displaying the workpiece shape on the CRT screen by simply capturing an image of the workpiece shape with a TV camera, without requiring a special workpiece shape such as a stylus pen or digitizer, To provide a method for teaching a robot's work points by which the robot can be taught its movements and its movements can be easily confirmed.

(問題点を解決するための手段) 少なくとも1台以上のTVカメラと、少なくとも1台以
上のCRTモニターと画像処理装置、計算機とからなる
教示装置において、CRTモニター画面上にTVカメラ
にて撮像されたワーク図形を表示し、ライトペンを押下
するか又はキーボードよりカ−ツル操作する事によりモ
ニター画面上ワークの教示すべき点を指定し、モニター
画面上で指定された点の2次元空間座標値より、計算機
によりロボットの2次元空間座標値を求め、これをロボ
ットの作業点として記憶するという操作を繰シ返す事に
よりロボットの作業点を教示する事を特徴とするロボッ
トの作業点教示方法としたものである。
(Means for Solving the Problem) In a teaching device comprising at least one TV camera, at least one CRT monitor, an image processing device, and a computer, an image is captured by the TV camera on the CRT monitor screen. Display the work figure, specify the point of the work to be taught on the monitor screen by pressing the light pen or operating the cursor from the keyboard, and calculate the two-dimensional space coordinate value of the specified point on the monitor screen. A method for teaching a robot's working point, characterized in that the robot's working point is taught by repeatedly calculating the two-dimensional space coordinate values of the robot using a computer and storing these as the robot's working point. This is what I did.

(作用効果) かかる構成によフ、測定器で教示点の位置を求めること
なく、テレビカメラから入力される映像をディジタル化
し、画像表示画面上での座標位置全変換処理して、教示
点の位置を求めるため、机上での教示が可能。ディジタ
ル化画像と、生画像とを重ねて画面表示するため、ディ
ジタル化画像だに案内して教示するといったわずられし
い操作が全く不要であシ、又CRTモニター上での対話
方式でプロゲラ“ム作成する場合のワーク図形入力の面
倒さが無く単KTVカメラでワーク図形を表示し、モニ
ター上のワーク図形上の位置を教示するのみでプログラ
ム作成が可能である。
(Effects) With this configuration, the image input from the television camera is digitized and the coordinate position on the image display screen is fully converted, and the position of the taught point can be determined without using a measuring device. Since the position is determined, teaching can be done on a desk. Since the digitized image and the raw image are superimposed and displayed on the screen, there is no need for complicated operations such as guiding and teaching the digitized image. There is no need to input the work figure when creating a program, and programs can be created by simply displaying the work figure with a single KTV camera and teaching the position on the work figure on the monitor.

(実施例) 欠如本発明の実施例につき図面を参照して説明すると、
第1図に本発明を実施するシステムの構成を示し、■カ
メラ(11、画像処理装置(212計算5機(3)CR
Tモニター(4)からなり他に、モニター画面上の位置
を入力するライトペン(5)又はキーボード(6)が有
る。画像処理装置(2)はモニター画面上の位置全決定
するX、Yアドレス発生部(7)及び該アドレス発生部
(7)からの信号を受け、TVカメラ(1)及びモニタ
ー(4)を動作させる同期信号発生部(8)、モニター
画面上のワーク映像に重ねて位置を表示するカーソルマ
ークを表示した多動作軌跡を表示したり、モニター画面
上で対話方式で作業を進めるメツセージ表示という用途
に用いる画像メモリ(9)、画像ね合わせてモニター画
面に表示する加算回路力・らへ なる。X、Yアドレス発生部(7)ではライトペン(5
)から入力信号が有った時のX、Yアドレスを記憶し、
ントロール回路も含まれている。計算乳はライトペン(
5)で指定された位置’i X、Yアドレス発生部(7
)から読み出したシ、キーボード(6)ヲ介して指定さ
れた位置f、jX、Yアドレス発生部(7発生弁して画
像メモリ(9)上にカーソルマークとして書き込む他、
画像処理装置(2)より得られたモニター画面上の二次
元座標値より座標変換計算によりロボッ)C1υの座標
値を得、ロボットαルの作業点として記憶する事を行な
う。計算機(3)にて作成されたロボットαυの作業プ
ログラムはテープ又はフロッピーディスケットといった
磁気記憶媒体を通じて取り出し、ロボット制御装置(2
)に供給したり通信回線全通じてロボット制御装置(6
)に転送する事により、ロボット制御装置(2)に格納
する。
(Example) An example of the present invention will be described with reference to the drawings.
Figure 1 shows the configuration of a system that implements the present invention.
It consists of a T-monitor (4), and also has a light pen (5) or a keyboard (6) for inputting the position on the monitor screen. The image processing device (2) receives an X, Y address generator (7) that determines the entire position on the monitor screen and a signal from the address generator (7), and operates the TV camera (1) and monitor (4). The synchronization signal generator (8) can be used to display a multi-movement trajectory with a cursor mark superimposed on the work image on the monitor screen to display the position, or to display a message to proceed with the work interactively on the monitor screen. The image memory (9) used, and the addition circuit power that combines the images and displays them on the monitor screen. The light pen (5) is used in the X, Y address generation section (7).
), memorizes the X and Y addresses when there is an input signal,
It also includes a control circuit. Calculation milk is a light pen (
5) Position 'i X, Y address generation section (7
), the position f, jX, Y address specified via the keyboard (6) is written as a cursor mark on the image memory (9) using the generation valve (7).
From the two-dimensional coordinate values on the monitor screen obtained from the image processing device (2), the coordinate values of the robot C1υ are obtained by coordinate transformation calculations and stored as the working point of the robot α. The work program for the robot αυ created on the computer (3) is retrieved from a magnetic storage medium such as a tape or floppy diskette, and then transferred to the robot control device (2).
) and all communication lines are connected to the robot control device (6
), it is stored in the robot control device (2).

第2図に示す様にワークα3=zTVカメラ(1)にて
撮像する。映像は第3図に示すごとくモニター画面αφ
上に得られる。第3図に示す+マークの位置全ライトペ
ン(5)で押下した場合、画像処理装置(2)は、計算
機(3)にそのX、Yアドレスを出力する。キーボード
(6)より第3図に示す+マークを操作・移動させて指
定し几場合、画像処理装置(2)は計算機(3)によっ
て指定されるX、Yアドレスにカーソルマークを表示す
る動作を行なう。こうして得られたX、Yアドレスから
、座標変換計算にようロボットの二次元座標に変換し、
それを作業点として記憶する。こうして上記作業を次々
と繰返す事により一連の作業プログラム全作成する。一
台のカメラにワークの全景が入らない場合は複数個のカ
メラを用い、次々とカメラを切換えてワークを局部的に
撮像するか1台のカメラを次々と移動させて教示を行な
う。
As shown in FIG. 2, the work α3=z is imaged by the TV camera (1). The image is displayed on the monitor screen αφ as shown in Figure 3.
Get above. When all positions of the + mark shown in FIG. 3 are pressed with the light pen (5), the image processing device (2) outputs the X and Y addresses to the computer (3). If the + mark shown in Figure 3 is specified using the keyboard (6), the image processing device (2) will display a cursor mark at the X and Y addresses specified by the computer (3). Let's do it. From the X and Y addresses obtained in this way, convert them to the two-dimensional coordinates of the robot as shown in the coordinate conversion calculation,
Store it as a work point. In this way, by repeating the above operations one after another, a complete series of work programs is created. If one camera cannot capture the entire view of the workpiece, a plurality of cameras are used and the cameras are switched one after another to locally image the workpiece, or one camera is moved one after another to perform teaching.

たワーク図形の得られるモニター画面上で1点の作業点
fCついて、それぞれのモニター画面上で位置を指定す
ることにより2つの2次元座標値を得、これらのデータ
から座標変換計算によりロボットの3次元座標を得、こ
れ全作業点として記憶してゆく事により作業プログラム
を作成する事も可能である。
For one work point fC on the monitor screen where the work figure is obtained, two two-dimensional coordinate values are obtained by specifying the position on each monitor screen, and from these data, the robot's three-dimensional coordinate value is calculated by coordinate transformation calculation. It is also possible to create a work program by obtaining dimensional coordinates and storing them as all work points.

移動するワーク等の教示においては第1図に示した映像
信号をモニター画面に表示するかわりに該映像信号を2
値化あるいは多値化ディジタル画像として一旦画像メモ
リに記憶し、画像メモリ内の映像をモニター上に表示し
前記方法により作業プログラムを作成する事も可能であ
る。
When teaching moving workpieces, etc., instead of displaying the video signal shown in Figure 1 on the monitor screen, the video signal is displayed on the monitor screen.
It is also possible to temporarily store the image in an image memory as a value-coded or multivalue-coded digital image, display the image in the image memory on a monitor, and create a work program using the method described above.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明全実施するシステムの構成を示すブロッ
ク図、第2図は第1図に示すTVカメラを使用してワー
クを撮影する状態を示す概略側面図、第3図は第2図に
よって撮影したモニター画面を示す正面図、第4図は第
2図と異る2台のTVカメラを使用した別の実施例を示
す概略側面図である。 1・・・TVカメラ   2・・・画像処理装置3・・
・計算機     4・・・CRTモニター5・・・ラ
イトペン   6・・・キーボード11・・・ロボット
    13・・・ワーク14・・・モニター画面 代理人 弁理士  河 内 潤 二 第1 図 2図 4図
Fig. 1 is a block diagram showing the configuration of a system that fully implements the present invention, Fig. 2 is a schematic side view showing a state in which a workpiece is photographed using the TV camera shown in Fig. FIG. 4 is a front view showing a monitor screen photographed by , and FIG. 4 is a schematic side view showing another embodiment using two TV cameras different from FIG. 1...TV camera 2...Image processing device 3...
・Calculator 4...CRT monitor 5...Light pen 6...Keyboard 11...Robot 13...Work 14...Monitor screen Agent Patent attorney Jun Kawachi 2nd 1 Figure 2 Figure 4

Claims (2)

【特許請求の範囲】[Claims] (1)少なくとも1台以上のTVカメラと少なくとも1
台以上のCRTモニターと画像処理装置、計算機とから
なる教示装置において、ORTモニター画面上にTVカ
メラにて撮像されたワーク図形を表示し、ライトペンを
押下するか又はキーボードよりカーソル操作する事によ
りモニター画面上ワークの教示すべき点を指定し、モニ
ター画面上で指定された点の2次元空間座標値より、計
算機により、ロボットの2次元空間座標値を求めこれを
ロボットの作業点として記憶するという操作を繰り返す
事により、ロボットの作業点を教示する事を特徴とする
、ロボットの作業点教示方法。
(1) At least one TV camera and at least one
In a teaching device consisting of one or more CRT monitors, an image processing device, and a computer, a work figure imaged by a TV camera is displayed on the ORT monitor screen, and by pressing the light pen or operating the cursor from the keyboard. Specify the point of the workpiece to be taught on the monitor screen, and use the computer to calculate the two-dimensional space coordinate value of the robot from the two-dimensional space coordinate value of the point specified on the monitor screen, and store this as the robot's work point. A method for teaching a robot's work point, which is characterized by teaching the robot's work point by repeating the following operations.
(2)特許請求の範囲第1項に記載の方法において二方
向よりワークを撮像し、同一ワークを異なる方向から見
たワーク図形がモニター画面上に得る場合において1つ
の作業点について異なる方向より見た2つのモニター画
面上でそれぞれ対応する位置を指定し、各モニター画面
上の2つの2次元空間座標値より計算機によりロボット
の3次元空間座標値を求めこれをロボットの作業点とし
て記憶する事を特徴とするロボットの作業点教示方法。
(2) When a workpiece is imaged from two directions in the method described in claim 1, and workpiece figures of the same workpiece viewed from different directions are obtained on the monitor screen, one work point is viewed from different directions. Specify the corresponding positions on the two monitor screens, and use the computer to calculate the robot's three-dimensional spatial coordinates from the two two-dimensional spatial coordinates on each monitor screen, and store this as the robot's work point. Characteristic robot work point teaching method.
JP60119831A 1985-06-04 1985-06-04 Method of teaching operation point of robot Pending JPS61279480A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP60119831A JPS61279480A (en) 1985-06-04 1985-06-04 Method of teaching operation point of robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP60119831A JPS61279480A (en) 1985-06-04 1985-06-04 Method of teaching operation point of robot

Publications (1)

Publication Number Publication Date
JPS61279480A true JPS61279480A (en) 1986-12-10

Family

ID=14771338

Family Applications (1)

Application Number Title Priority Date Filing Date
JP60119831A Pending JPS61279480A (en) 1985-06-04 1985-06-04 Method of teaching operation point of robot

Country Status (1)

Country Link
JP (1) JPS61279480A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63255706A (en) * 1987-04-14 1988-10-24 Fanuc Ltd Program generating method for vision system
WO1990000109A1 (en) * 1988-07-01 1990-01-11 Fanuc Ltd Nominal data automatic setting method of visual sensor system
JPH06110544A (en) * 1992-09-25 1994-04-22 Mitsubishi Heavy Ind Ltd Remote manipulator for robot
JPH07132475A (en) * 1993-11-09 1995-05-23 Matsushita Electric Ind Co Ltd Robot position teaching device
WO2017037931A1 (en) * 2015-09-03 2017-03-09 株式会社安川電機 Processing-trajectory editing device, robot, article processing system, and article production method
JP2017148908A (en) * 2016-02-25 2017-08-31 セイコーエプソン株式会社 Control device, robot, and robot system

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63255706A (en) * 1987-04-14 1988-10-24 Fanuc Ltd Program generating method for vision system
WO1990000109A1 (en) * 1988-07-01 1990-01-11 Fanuc Ltd Nominal data automatic setting method of visual sensor system
JPH06110544A (en) * 1992-09-25 1994-04-22 Mitsubishi Heavy Ind Ltd Remote manipulator for robot
JPH07132475A (en) * 1993-11-09 1995-05-23 Matsushita Electric Ind Co Ltd Robot position teaching device
WO2017037931A1 (en) * 2015-09-03 2017-03-09 株式会社安川電機 Processing-trajectory editing device, robot, article processing system, and article production method
JPWO2017037931A1 (en) * 2015-09-03 2018-04-26 株式会社安川電機 Processing locus editing apparatus, robot, article processing system, and article manufacturing method
JP2017148908A (en) * 2016-02-25 2017-08-31 セイコーエプソン株式会社 Control device, robot, and robot system
US10857675B2 (en) 2016-02-25 2020-12-08 Seiko Epson Corporation Control device, robot, and robot system

Similar Documents

Publication Publication Date Title
US6225978B1 (en) Video processing system for movement simulation
JP2003533817A (en) Apparatus and method for pointing a target by image processing without performing three-dimensional modeling
US5463729A (en) Image generation device
JP3608940B2 (en) Video search and display method and video search and display apparatus
JP3501456B2 (en) 3D figure editing device
CN210361314U (en) Robot teaching device based on augmented reality technology
JPS61279480A (en) Method of teaching operation point of robot
CN113888723A (en) Ultrahigh-definition diagnosis-level medical data MR panoramic display system and method
JPH0342780A (en) Three-dimensional graphic input system
Liu et al. COMTIS: Customizable touchless interaction system for large screen visualization
CN112181135B (en) 6-DOF visual and tactile interaction method based on augmented reality
US20220172324A1 (en) Image processing method and device for panorama image
JPH0498367A (en) Three-dimensional shape generation system
JP2714100B2 (en) How to make a video
JPH0142427B2 (en)
JP4787681B2 (en) Image composition apparatus and image composition program
KR20000026404A (en) System for controlling virtual reality character at real time
JPH07146501A (en) Camera work input device
JPS59182077A (en) Instructing device for environment of work
JPS63241625A (en) Line drawing input device
JPH03175526A (en) Graphic processor
JPH08235382A (en) Three-dimensional computer graphics editing device
JPH0344350B2 (en)
JPH0697388B2 (en) Image display device
JPS59201156A (en) Address restoring circuit of memory