JPH0699378A - Method for teaching robot track - Google Patents

Method for teaching robot track

Info

Publication number
JPH0699378A
JPH0699378A JP25286492A JP25286492A JPH0699378A JP H0699378 A JPH0699378 A JP H0699378A JP 25286492 A JP25286492 A JP 25286492A JP 25286492 A JP25286492 A JP 25286492A JP H0699378 A JPH0699378 A JP H0699378A
Authority
JP
Japan
Prior art keywords
information
robot
trajectory
teaching
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP25286492A
Other languages
Japanese (ja)
Inventor
Kazunari Kubota
一成 久保田
Minori Kamio
視教 神尾
Takashi Sakai
高志 酒井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP25286492A priority Critical patent/JPH0699378A/en
Publication of JPH0699378A publication Critical patent/JPH0699378A/en
Pending legal-status Critical Current

Links

Landscapes

  • Manipulator (AREA)
  • Numerical Control (AREA)

Abstract

PURPOSE:To provide a method for teaching a robot track of efficiently producing track information of small error by reducing a burden as small as possible of a user in the case of inputting the information edited relating to the robot track. CONSTITUTION:Workpiece shape information, tool contact point locus information and robot track information are converted into a visual image and simultaneously displayed (step 1) in a display unit of a computer system, the shape information, contact point locus information and the robot track information having a crossing point in a display picture plane with arbitrarily pointed two points are selected (step 2), and the selected information is displayed by changing its brightness (step 3).

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、ロボット軌道を教示す
るための方法に係り、特に、ロボットに作業を教示する
ロボット教示技術分野、ロボット・マニピュレータの制
御技術分野、及び人間と機械の対話に関するヒューマン
インターフェース技術分野に属し、具体的には、ロボッ
ト使用者がロボットに実行してもらいたい作業をロボッ
トに効率的に伝えるためにロボット作業教示装置(情報
入力インタフェース装置)により、対象とするワークの
形状にならった軌道をもつ加工作業一般の軌道情報をコ
ンピュータの表示に基づいて効率的に生成するために改
良されたロボット軌道を教示するための方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for teaching a robot trajectory, and more particularly to a robot teaching technology field for teaching a robot to work, a robot manipulator control technology field, and human-machine interaction. It belongs to the field of human interface technology. Specifically, the robot work teaching device (information input interface device) is used to efficiently convey the work that the robot user wants the robot to perform to the robot. TECHNICAL FIELD The present invention relates to a method for teaching an improved robot trajectory to efficiently generate trajectory information of a machining operation having a contoured trajectory based on a computer display.

【0002】[0002]

【従来の技術】従来、ロボットの軌道教示には位置・姿
勢情報を教示するダイレクトティーチ法、リモートティ
ーチ法、間接ティーチ法及びオフラインティーチ法があ
る(引用文献:「ロボット工学ハンドブック」、日本ロ
ボット学会編、1990年コロナ社発行pp519-529 )。
2. Description of the Related Art Conventionally, there are a direct teach method, a remote teach method, an indirect teach method, and an offline teach method for teaching position / orientation information as a robot trajectory teaching (cited document: "Robot Engineering Handbook", The Robotics Society of Japan). Ed., Issued by Corona in 1990, pp519-529).

【0003】上記従来の第1の方法であるダイレクトテ
ィーチ法は、ロボットのアーム部を直接動かす方法であ
る。上記従来の第2の方法であるリモートティーチ法
は、ロボット本体から離れた場所において、ティーチン
グペンダントと呼ばれる教示装置でロボットアームに直
接触れることなく、教示を行う方法である。上記従来の
第3の方法である間接ティーチ法は、教示専用のマニピ
ュレーションアームを用意し、このアームの手先部が所
要の経路に沿って動作するように操作し、この時のアー
ム位置・姿勢を規則させることにより教示を行う方法で
ある。上記従来の第4の方法であるオフラインティーチ
法は実際に作業を行うロボットを用いることなく、実作
業環境から離れて教示する方法である。この方法では、
すでに形状設計されたワークの幾何形状情報を利用して
ロボットの軌道を生成することができるため、作業者の
負担を大きく軽減できるという長所をもっている。
The above-mentioned first conventional direct teach method is a method of directly moving the arm portion of the robot. The above-mentioned second conventional method, the remote teach method, is a method of teaching at a location away from the robot body without directly touching the robot arm with a teaching device called a teaching pendant. In the above-mentioned third conventional method, the indirect teach method, a manipulation arm dedicated to teaching is prepared, and the hand portion of this arm is operated so as to move along a required path. This is a method of teaching by making the rules. The above-mentioned fourth conventional method, the offline teach method, is a method of teaching away from the actual work environment without using a robot that actually performs the work. in this way,
Since the trajectory of the robot can be generated by using the geometrical shape information of the work whose shape has been already designed, it has an advantage that the burden on the operator can be greatly reduced.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、上記従
来の第1〜第3の方法はいずれも入力された軌道情報を
先ず表示し、変更作業を行うためには、数値で表現され
た軌道情報を文字表示装置に表示し、利用者はその表示
された行を指定してその数値を変更する必要がある。利
用者はそのために数値で表現された教示点の情報により
所望の位置の教示点を発見しなければならず、使用者に
熟練を強いるという欠点がある。また、教示点を所望の
位置・姿勢に修正するには、直接その数値を変更する
か、または、上記の教示方法を用いて再度その点の新し
いデータを取り込む必要があり、操作の繁雑さを招き、
教示作業の効率を低下させることがある。
However, in any of the above-mentioned first to third conventional methods, the entered trajectory information is first displayed, and in order to carry out the changing work, the trajectory information represented by numerical values is used. It is displayed on the character display device, and the user needs to specify the displayed line and change the numerical value. Therefore, the user has to discover the teaching point at a desired position from the information of the teaching point expressed by a numerical value, which has a disadvantage of compelling the user. In order to correct the teaching point to the desired position / orientation, it is necessary to change the numerical value directly or to retrieve new data of the point again by using the above teaching method, which complicates the operation. Beckoning
This may reduce the efficiency of teaching work.

【0005】また、上記従来の第4の方法であるオフラ
インティーチ法は、教示にはCAD等によりすでに生成
されたワークの幾何形状情報を前提としているため、C
ADによるワークの形状情報をしづらい加工作業には適
用が困難である。
Further, since the above-mentioned fourth conventional method, the offline teach method, is premised on the geometrical shape information of the work already generated by CAD or the like in the teaching, C
It is difficult to apply it to a machining operation in which it is difficult to obtain the work shape information by AD.

【0006】オフラインティーチ法で生成された軌道を
実作業環境で動作させようとすると、マニピュレータ、
治具、ワーク等の実環境での誤差要因により誤差が生じ
ることが多い。誤差を減少させるためにマニピュレータ
のキャリブレーションを綿密に行う等の対処が行われる
が、マニピュレータの繰り返し精度に比べキャリブレー
ションで追い込んだ絶対精度は一般に大きく、現物合わ
せが必要である。現物合わせによる軌道の修正は、上記
のダイレクトティーチ法と同様に繁雑な操作が必要とな
る。
When the trajectory generated by the off-line teach method is operated in an actual work environment, the manipulator,
Errors often occur due to error factors in the actual environment such as jigs and workpieces. In order to reduce the error, measures such as meticulous calibration of the manipulator are taken, but the absolute accuracy driven by the calibration is generally larger than the repeat accuracy of the manipulator, and actual matching is necessary. The correction of the orbit by matching the actual products requires a complicated operation as in the above direct teach method.

【0007】さらに、新しい製品に対応するために製造
ラインの更新サイクルが短くなるほど、ロボットの軌道
教示の駆動コストの示す割合が大きくなり、軌道教示の
効率が問題となる。上記の実環境の誤差の問題で最初に
入力された軌道を最終的な軌道に編集する編集・調整作
業が軌道教示全体に占める割合が大きく、この部分での
ヒューマンインタフェースの改善の及ぼす影響は大き
い。
Furthermore, the shorter the update cycle of the manufacturing line to accommodate a new product, the larger the ratio of the drive cost of the trajectory teaching of the robot becomes, and the efficiency of the trajectory teaching becomes a problem. Due to the above error in the real environment, the editing / adjustment work that edits the first input trajectory into the final trajectory occupies a large proportion of the entire trajectory teaching, and the improvement of the human interface in this part has a large impact. .

【0008】また、軌道教示に限らず、軌道に代表され
るような3次元の情報を2次元の表示装置に表示するた
めの技術としては、従来、コンピュータグラフィックス
の分野で主に扱われている。しかしながら、マウス等の
2次元デバイスで3次元空間に存在するオブジェクトの
選択・移動・変更等の操作においては、単一オブジェク
トを扱うものであり、複数オブジェクトを同時に操作す
る技術はない。
In addition to the teaching of trajectories, as a technique for displaying three-dimensional information represented by trajectories on a two-dimensional display device, conventionally, it has been mainly treated in the field of computer graphics. There is. However, in operations such as selection, movement, and modification of objects existing in a three-dimensional space with a two-dimensional device such as a mouse, a single object is handled, and there is no technique for operating a plurality of objects simultaneously.

【0009】一方、2次元のグラフィカル・ユーザイン
ターフェースの技術分野では複数のオブジェクトを同時
に選択するためにはマウスのボタン押下とドローの組み
合わせにより押下位置とドロー位置を対角とする長方形
領域に含まれるオブジェクトを全て選択する「輪ゴム」
メタファーを用いた指定方式がある。この指定方式は、
3次元のオブジェクトを2次元表示した表示装置に対
し、「輪ゴム」メタファー方式により選択させるように
すると、不要なオブジェクトを多数含むことになり、使
い勝手が悪いという問題がある。
On the other hand, in the technical field of a two-dimensional graphical user interface, in order to select a plurality of objects at the same time, a combination of a mouse button press and a draw is included in a rectangular area having the press position and the draw position as diagonals. "Rubber band" to select all objects
There is a designation method using a metaphor. This specification method is
If a display device that displays a three-dimensional object in a two-dimensional manner is selected by the "rubber band" metaphor method, a large number of unnecessary objects are included, and there is a problem that usability is poor.

【0010】本発明は、上記の点に鑑みなされたもので
あり、ロボット軌道に関わる情報を入力・編集する際に
使用者の負担をできるだけ軽減し、誤差の少ない軌道情
報を効率的に生成するロボット軌道を教示するための方
法を提供することを目的とする。
The present invention has been made in view of the above points, and reduces the user's burden as much as possible when inputting / editing the information related to the robot trajectory, and efficiently generates trajectory information with few errors. It is an object to provide a method for teaching a robot trajectory.

【0011】[0011]

【課題を解決するための手段】図1は本発明の原理説明
図を示す。
FIG. 1 shows the principle of the present invention.

【0012】本発明は、表示装置及びポインティング装
置を有するコンピュータ・システムを利用してロボット
の軌道を作成する方法において、コンピュータ・システ
ムの表示装置内にワークの形状情報と工具の接触点軌跡
情報とロボット軌道情報を視覚的イメージに変換して同
時に表示し(ステップ1)、任意にポイントされた2点
と表示画面状で交点を持つ形状情報、接触点軌跡情報、
ロボット軌道情報を選択し(ステップ2)、選択された
情報の輝度を変化させて表示させる。
According to the present invention, in a method of creating a trajectory of a robot by using a computer system having a display device and a pointing device, work shape information and tool contact point trajectory information are displayed in the display device of the computer system. The robot trajectory information is converted into a visual image and displayed simultaneously (step 1), shape information having two points arbitrarily pointed and intersection points on the display screen, contact point trajectory information,
Robot trajectory information is selected (step 2), and the brightness of the selected information is changed and displayed.

【0013】[0013]

【作用】本発明は、ディスプレイの画面上に2点を指定
し、その2点と交点をもつ形状情報、接触点軌跡情報及
びロボット軌道情報を選択することにより、2次元デバ
イスである表示画面とマウスを利用して、画面上に2点
を指定し、その2点間と画面上で交点をもつ表示オブジ
ェクト全てを選択し、表示することにより、利用者は複
数のオブジェクトを容易にかつ正確に選択することがで
きる。これにより、3次元空間中の情報を複数同時に選
択して編集することができ、軌道の修正作業の負担が軽
減し、総合的な選択オブジェクトに対しての操作効率を
向上させる。
According to the present invention, by designating two points on the screen of the display and selecting shape information, contact point trajectory information and robot trajectory information having an intersection with the two points, a display screen as a two-dimensional device is obtained. By using the mouse to specify two points on the screen and selecting and displaying all display objects that have an intersection between the two points and the screen, the user can easily and accurately select multiple objects. You can choose. As a result, a plurality of pieces of information in the three-dimensional space can be selected and edited at the same time, the work of correcting the trajectory is reduced, and the overall operation efficiency for the selected object is improved.

【0014】[0014]

【実施例】以下、本発明の軌道教示の方法と、システム
の図面を参照して詳細に説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The trajectory teaching method and system of the present invention will now be described in detail with reference to the drawings.

【0015】図2は本発明の一実施例のコンピュータシ
ステムとロボットシステムの構成を示す。同図におい
て、ロボットシステムはロボットマニピュレータ1、セ
ンサー固定治具2、レーザーレンジスキャナ3、照射レ
ーザ光4により構成され、コンピュータシステム5は、
表示装置6、キーボード7、キーボード接続ケーブル
8、マウス9、マウス接続ケーブル10、処理装置1
1、マニピュレータ・コントローラ12、コンピュータ
接続ケーブル13により構成される。
FIG. 2 shows the configurations of a computer system and a robot system according to an embodiment of the present invention. In the figure, the robot system comprises a robot manipulator 1, a sensor fixing jig 2, a laser range scanner 3 and an irradiation laser beam 4, and a computer system 5
Display device 6, keyboard 7, keyboard connection cable 8, mouse 9, mouse connection cable 10, processing device 1
1, a manipulator / controller 12, and a computer connection cable 13.

【0016】コンピュータ・システム5の処理装置11
は、グラフィックプロセッサ、記憶装置、中央演算処理
装置(図示せず)を含むことが望ましく、本実施例では
ワークステーションを利用する。処理装置11には、表
示装置6、キーボード7及びグラフィック・ポインティ
ング装置であるマウス9が接続されている。表示装置6
は当技術分野で周知のように、カラーモニタまたは、白
黒モニタを利用して実施できる。キーボード7は標準の
コンピュータキーボードとすることが望ましく、ケーブ
ル8により処理装置11に結合されている。
Processing unit 11 of computer system 5
Preferably includes a graphic processor, a storage device, and a central processing unit (not shown), and a workstation is used in this embodiment. A display device 6, a keyboard 7, and a mouse 9 which is a graphic pointing device are connected to the processing device 11. Display device 6
Can be implemented using a color monitor or a black and white monitor, as is well known in the art. The keyboard 7 is preferably a standard computer keyboard and is connected to the processing unit 11 by a cable 8.

【0017】なお、本実施例ではグラフィック・ポイン
ティング装置としてマウス9を用いるが、この例に限定
されることなく、ライトペンやタッチ画面、トラックボ
ール、ダイアルボタン等、どのようなグラフィックポイ
ンティング装置を用いてもよい。
Although the mouse 9 is used as the graphic pointing device in the present embodiment, the present invention is not limited to this example, and any graphic pointing device such as a light pen, a touch screen, a trackball, a dial button or the like can be used. May be.

【0018】ロボット・マニピュレータ1の先端にはレ
ーザ・レンジスキャナ3が結合されている。ロボット・
マニピュレータ1は各関節軸にエンコーダ(図示せず)
を含むことが望ましい。エンコーダーにより、ロボット
・マニピュレータ1の位置・姿勢をキネマティック演算
により求めることができる。ロボット・マニピュレータ
1はダンパーモードで制御されることによって、作業者
は、レーザレンジスキャナ3を把持して、ロボット・マ
ニピュレータ1の可操作域内の自由な位置・姿勢にレー
ザレンジスキャナ3を移動することができる。レーザレ
ンジスキャナ3を加工作業の軌道に沿って移動させ、移
動中にレーザ光を照射することによって、加工ワーク台
15上のワーク14の形状を計測する。
A laser range scanner 3 is connected to the tip of the robot manipulator 1. robot·
The manipulator 1 has an encoder (not shown) for each joint axis.
It is desirable to include. With the encoder, the position / orientation of the robot manipulator 1 can be obtained by kinematic calculation. The robot manipulator 1 is controlled in the damper mode, so that the operator holds the laser range scanner 3 and moves the laser range scanner 3 to any position / posture within the operable range of the robot manipulator 1. You can The shape of the work 14 on the work table 15 is measured by moving the laser range scanner 3 along the trajectory of the working operation and irradiating the laser light during the movement.

【0019】一回のレーザ光照射によって得られるワー
ク14の形状を表す情報をフレーム情報という。レーザ
光を照射したときのレーザレンジスキャナ3の位置・姿
勢はその時のロボット・マニピュレータ1に含まれるエ
ンコーダの値によって求められる。測定されたセンサ情
報とレーザ・レンジスキャナ3の位置・姿勢情報はコン
ピュータ・システム5に転送される。
The information indicating the shape of the work 14 obtained by one laser irradiation is called frame information. The position / orientation of the laser range scanner 3 when the laser light is emitted is determined by the value of the encoder included in the robot manipulator 1 at that time. The measured sensor information and the position / orientation information of the laser range scanner 3 are transferred to the computer system 5.

【0020】コンピュータ・システム5は測定されたフ
レーム情報とレーザレンジスキャナ3の位置・姿勢情報
とを演算することにより、世界座標系におけるワーク1
4の形状の表面の位置情報を算出する。このワーク14
の表面の位置情報はサーフェスモデルと呼ばれる。
The computer system 5 calculates the measured frame information and the position / orientation information of the laser range scanner 3 to calculate the work 1 in the world coordinate system.
The position information of the surface having the shape of 4 is calculated. This work 14
The position information of the surface of is called a surface model.

【0021】本発明では、ワーク14形状のサーフェス
モデルを得るために、ロボット・マニピュレータ1とレ
ーザレンジスキャナ3を使用するが、CAD(Computer
Aided Design)システムや、3次元レーザデジタイジン
グシステム等どんなサーフェスモデル生成装置を利用し
て本発明の方法を実施してもよい。
In the present invention, the robot manipulator 1 and the laser range scanner 3 are used in order to obtain the surface model of the shape of the work 14, but the CAD (Computer)
Any surface model generation device such as an Aided Design) system or a three-dimensional laser digitizing system may be used to implement the method of the present invention.

【0022】ロボット・マニピュレータ1はマニピュレ
ータ・コントローラ12に接続されており、マニピュレ
ータ・コントローラ12は、コンピュータ・システム5
から転送されたロボットの位置・姿勢目標値をもとに目
標位置姿勢となるようロボット・マニピュレータ1を制
御する。
The robot manipulator 1 is connected to a manipulator controller 12, and the manipulator controller 12 is connected to the computer system 5.
The robot manipulator 1 is controlled based on the position / orientation target values of the robot transferred from

【0023】本実施例では、ロボット・マニピュレータ
1は、6自由度垂直多関節型ロボットが使用されている
が、目標位置・姿勢に手首を制御できるどんなロボット
・マニピュレータを用いてもよい。
In this embodiment, the robot manipulator 1 is a 6-degree-of-freedom vertical articulated robot, but any robot manipulator capable of controlling the wrist at a target position / posture may be used.

【0024】図3は、本発明の一実施例の動作を説明す
るための図を示す。
FIG. 3 is a diagram for explaining the operation of one embodiment of the present invention.

【0025】同図にはコンピュータ表示画面16が表示
されている。このコンピュータ表示画面16には、主表
示ウィンドウ17、メニューバー18、プルダウンメニ
ュー19、マウス・カーソル20、座標アイコン21、
工具編集サブウィンンドウ23、フレーム編集サブウィ
ンドウ24、形状編集サブウィンドウ25、選択ボタン
26、選択ボタン群27、フレーム情報28、接触点軌
跡29、ロボット軌道30、複数オブジェクト選択線分
40、アンカーポイント41、複数オブジェクト選択線
分指定ポイント42が示される。
A computer display screen 16 is displayed in FIG. On this computer display screen 16, a main display window 17, a menu bar 18, a pull-down menu 19, a mouse cursor 20, a coordinate icon 21,
Tool editing sub window 23, frame editing sub window 24, shape editing sub window 25, selection button 26, selection button group 27, frame information 28, contact point trajectory 29, robot trajectory 30, multiple object selection line segment 40, anchor point 41, A multiple object selection line segment designation point 42 is shown.

【0026】表示画面16の主表示ウィンドウ17には
対象とするワーク14から得られた多数のフレーム情報
とそれぞれのフレーム情報のなかで定められた接触点を
結んだ接触的軌跡29及びロボット軌道30が表示され
ている。フレーム情報はサーフェスモデルに含まれる観
測点群により構成され、このフレーム情報に含まれる観
測点群は順に接続されている。この実施例ではフレーム
情報のなかでワーク14のエッジを構成する点が接触点
であり、接触点軌跡29は、接触点が順次接続されて表
示されたものである。
In the main display window 17 of the display screen 16, a large number of frame information obtained from the target work 14 and a contact trajectory 29 and a robot trajectory 30 connecting the contact points defined in each frame information. Is displayed. The frame information is composed of observation point groups included in the surface model, and the observation point groups included in this frame information are connected in order. In this embodiment, points constituting the edge of the work 14 in the frame information are contact points, and the contact point locus 29 is displayed by sequentially connecting the contact points.

【0027】なお、ワーク14のサーフェスモデルの表
示は、本実施例のような複数のフレーム情報による表示
の他に三角パッチ等の平面パッチ法のようなどのような
表示法を利用して実施してもよい。
The surface model of the work 14 is displayed by using any display method such as a plane patch method such as a triangular patch in addition to the display by a plurality of frame information as in the present embodiment. May be.

【0028】次に、メニューバー18をマウスカーソル
20でクリックすることによりプルダウンメニュー19
が表示される。利用者は、プルダウンメニュー19に含
まれるコマンドをマウスカーソル20で選択することに
より、コマンドを指定することができる。
Then, by clicking the menu bar 18 with the mouse cursor 20, a pull-down menu 19 is displayed.
Is displayed. The user can specify a command by selecting the command included in the pull-down menu 19 with the mouse cursor 20.

【0029】なお、コマンドの選択法は、本実施例のよ
うなプルダウンメニューの他のグラフィカルユーザイン
ターフェースに基づく指定法を利用して本発明を実施し
てもよい。
As a command selecting method, the present invention may be carried out by utilizing a specification method based on another graphical user interface of the pull-down menu as in this embodiment.

【0030】なお、上記のことから、コマンド選択法は
いわゆるグラフィカルインターフェース標準、例えば、
アップル社の提唱するツールボックス或いは、オープン
ソフトウェア社の提唱するOSF/Motif などを利用し
て本発明を実施してもよい。
From the above, the command selection method is a so-called graphical interface standard, for example,
The present invention may be implemented using a tool box proposed by Apple Inc. or an OSF / Motif proposed by Open Software Inc.

【0031】選択ボタン群27は、複数の選択ボタン2
6によって構成される。選択ボタン26は例えばフレー
ム情報を表示するかしないかのオン・オフを指定するた
めに用いられる。表示のオン・オフの指定には選択ボタ
ンのほかにもメニューダイアログボックス等どのような
ユーザインターフェースを用いてもよい。
The selection button group 27 includes a plurality of selection buttons 2.
It is composed of 6. The selection button 26 is used, for example, to specify whether to display frame information or not. In addition to the selection button, any user interface such as a menu dialog box may be used to specify the display on / off.

【0032】次に動作について説明する。Next, the operation will be described.

【0033】利用者は、ダンパー制御されたマニピュレ
ータの先端部を持ち、レーザレンジスキャナ3をワーク
14上での接触点軌跡となるべき軌跡をレーザレンジス
キャナ3のスキャン領域の中に常に含むようにしてマニ
ピュレータ1を移動させる。レーザレンジスキャナ3は
移動中、一定間隔あるいは、利用者の指定したタイミン
グでワーク14の形状を計測する。レーザレンジスキャ
ナ3が1回に計測した情報をフレーム情報(図示せず)
と呼ぶ。フレーム情報を計測した時点のレーザレンジス
キャナ3の世界座標系における位置・姿勢情報をマニピ
ュレータの各関節に設置されたエンコーダ(図示せず)
をもとに生成する。この位置・姿勢情報をロボット位置
姿勢情報と呼ぶ。計測したフレーム情報とロボット位置
・姿勢情報は逐次コンピュータ・システム5に転送され
るか、あるいは、移動中の情報を蓄えておいて、運動終
了後にコンピュータ・システム5に一括転送される。
The user holds the tip of the damper-controlled manipulator so that the laser range scanner 3 always includes a locus to be a contact point locus on the work 14 in the scan area of the laser range scanner 3. Move 1 The laser range scanner 3 measures the shape of the work 14 at regular intervals or at a timing designated by the user while moving. The information measured by the laser range scanner 3 at one time is frame information (not shown)
Call. Encoders (not shown) installed at each joint of the manipulator to obtain position / orientation information in the world coordinate system of the laser range scanner 3 at the time of measuring the frame information.
It is generated based on. This position / orientation information is called robot position / orientation information. The measured frame information and the robot position / orientation information are sequentially transferred to the computer system 5, or the information during movement is stored and collectively transferred to the computer system 5 after the end of exercise.

【0034】コンピュータ・システム5は転送されたフ
レーム情報とロボット位置・姿勢情報をもとにフレーム
情報を世界座標系に変換し、主表示ウィンドウ17にフ
レーム情報28として表示する。主表示ウィンドウ17
に表示されたフレーム群はワーク14の形状を表す形状
情報として利用者に利用させることができる。フレーム
情報28には接触点が含まれている。ユーザインターフ
ェースを通じて利用者がそれぞれのフレーム情報に対し
1点の接触点を定める。さらに、接触点情報の連鎖を接
触点軌跡として、主表示ウィンドウ17に表示する。こ
の接触点軌跡に対し、利用者はその接触点軌跡をもとに
軌道の軌跡をユーザインターフェースを用いて入力す
る。
The computer system 5 converts the frame information into the world coordinate system based on the transferred frame information and the robot position / orientation information, and displays it in the main display window 17 as frame information 28. Main display window 17
The frame group displayed in can be used by the user as shape information representing the shape of the work 14. The frame information 28 includes contact points. The user defines one contact point for each frame information through the user interface. Further, the chain of contact point information is displayed in the main display window 17 as a contact point trajectory. With respect to this contact point trajectory, the user inputs the trajectory of the trajectory based on the contact point trajectory using the user interface.

【0035】形状点軌跡及び軌道はそれぞれ形状点及び
教示点で構成されている。表示画面16中ではフレーム
情報28、形状点、形状軌跡29、教示点、軌道30等
が選択対象となる。選択はマウス9の操作によって、画
面中を移動するマウス・カーソル20を選択対象上に持
ってきた後、マウス9のボタンをクリックすることによ
り行う。選択された対象の位置・姿勢はマウスを操作す
ることにより行う。位置・姿勢の操作は、マウス以外の
多次元データの入力装置を用いて行ってもよい。
The shape point locus and the trajectory are composed of a shape point and a teaching point, respectively. In the display screen 16, the frame information 28, the shape points, the shape locus 29, the teaching point, the trajectory 30, and the like are selection targets. The selection is performed by operating the mouse 9 to bring the mouse cursor 20 moving on the screen over the selection target and then clicking the button of the mouse 9. The position / orientation of the selected target is operated by operating the mouse. The position / orientation operation may be performed using a multidimensional data input device other than a mouse.

【0036】利用者は、主表示ウィンドウ17に含まれ
るオフジェクトを選択するときには、マウス・カーソル
20を該当オブジェクトの表示位置に移動させ、マウス
9のボタンをクリックする。本実施例では、主表示ウィ
ンドウ17が軌道編集ウィンドウであるときには教示
点、軌道要素、軌道等軌道を表現するオブジェクトのみ
が選択可能である。フレーム情報、或いは形状情報を選
択し、操作したい場合にはそれぞれサブウィンドウに表
示されているフレーム情報窓、形状編集窓をマウス9で
クリックすることにより主表示ウィンドウ17に呼び出
してから操作を行う。
When selecting an object included in the main display window 17, the user moves the mouse cursor 20 to the display position of the corresponding object and clicks the button of the mouse 9. In this embodiment, when the main display window 17 is a trajectory editing window, only objects that represent trajectories such as teaching points, trajectory elements, orbits can be selected. When the frame information or the shape information is selected and desired to be operated, the frame information window and the shape editing window respectively displayed in the sub windows are clicked with the mouse 9 to call the main display window 17, and then the operation is performed.

【0037】マウスクリックによるオブジェクト選択操
作により単一のオブジェクトを選択することができる
が、複数のオブジェクトを同時選択したいときには、マ
ウスカーソル20を画面上のオブジェクトがない位置に
移動させてマウスボタンをクリックし、その位置をアン
カーポイント41と定めた後、ボタンをクリックしなが
ら移動するドロー操作を行う。ドロー操作中、画面には
アンカーポイント41とマウス・カーソル20を結んだ
線分が表示される。
A single object can be selected by an object selecting operation by mouse click. However, when it is desired to select a plurality of objects at the same time, the mouse cursor 20 is moved to a position where there is no object on the screen and the mouse button is clicked. Then, after the position is set as the anchor point 41, the draw operation of moving while clicking the button is performed. During the drawing operation, a line segment connecting the anchor point 41 and the mouse cursor 20 is displayed on the screen.

【0038】利用者は、選択したい複数のオブジェクト
が全てアンカーポイント41とマウス・カーソル20を
結ぶ線分と画面上で重なり部分を持つようにマウス・カ
ーソル20を移動させて適当と思われる位置に来たとき
にマウスボタンをはなすことにより、その時点でのマウ
ス・カーソル位置を複数オブジェクト選択線分指定ポイ
ント42として定める。
The user moves the mouse cursor 20 so that a plurality of objects to be selected have an overlapping portion on the screen with the line segment connecting the anchor point 41 and the mouse cursor 20 to a position that is considered appropriate. When the mouse button is released, the position of the mouse cursor at that time is determined as the plural object selection line segment designation point 42.

【0039】複数オブジェクト選択線分はこのようにし
てアンカーポイント41と複数オブジェクト選択線分指
定ポイントの2点を結んだ線分として決定される。この
複数オブジェクト選択線分40と表示画面上での交点を
もつ選択可能なオブジェクトが選択される。
The plural object selection line segment is thus determined as the line segment connecting the anchor point 41 and the plural object selection line segment designation point. A selectable object having an intersection point on the display screen with the multiple object selection line segment 40 is selected.

【0040】利用者が複数オブジェクト選択線分40と
交点をもつオブジェクト以外のオブジェクトも選択した
い、或いは選択したオブジェクトのうちの一部のオブジ
ェクトを選択から外したい、と望むような場合は、Open
Software Foundation著「OSF/Motif スタイルガイドリ
リース1.1」トッパン、1991の第3章3.1節選
択モデルに示されるような不連続選択の手法を用いれば
よい。
If the user wants to select objects other than the object having the intersection with the multiple object selection line segment 40, or wants to deselect some of the selected objects, Open
The discontinuous selection method as shown in the selection model of Chapter 3, Section 3.1 of Toppan, 1991, "OSF / Motif Style Guide Release 1.1" by Software Foundation may be used.

【0041】図4は本発明の一実施例の一連の動作を示
す高水準流れ図を示す。
FIG. 4 shows a high level flow chart showing the sequence of operation of one embodiment of the present invention.

【0042】同図に示すフローチャートは本発明に上記
の不連続選択の手法を適用したものである。
The flowchart shown in the figure is an application of the above discontinuous selection method to the present invention.

【0043】ステップ10:表示画面上の編集するオブ
ジェクトを含むウィンドウを選択する。
Step 10: Select the window containing the object to be edited on the display screen.

【0044】ステップ11:マウス9をクリックするこ
とによりアンカーポイントを得る。
Step 11: Anchor points are obtained by clicking the mouse 9.

【0045】ステップ12:複数のオブジェクト選択線
分指定ポイントを得る。
Step 12: Obtain a plurality of object selection line segment designation points.

【0046】ステップ13:ディスプレイ管面に垂直で
アンカと指定ポイントを含む平面Aを求める。
Step 13: Obtain a plane A perpendicular to the display screen and including the anchor and the designated point.

【0047】ステップ14:各要素に対して以下のステ
ップ15、16、17を実行し、平面Aと交差する要素
を求める。
Step 14: The following steps 15, 16 and 17 are executed for each element to find the element intersecting the plane A.

【0048】ステップ15:要素上の始点を平面Aを表
す式に代入した値をaとする。
Step 15: Let a be a value obtained by substituting the starting point on the element into the equation representing the plane A.

【0049】ステップ16:始点を除いた要素上の各点
に対して以下のステップ17を行う。
Step 16: The following step 17 is performed for each point on the element except the start point.

【0050】ステップ17:要素上の点を平面の式に代
入し、その値をbとし、axb<0であれば、平面Aと
交差する要素として記憶する。
Step 17: Substitute the points on the element into the equation of the plane, set the value as b, and if axb <0, store it as an element intersecting the plane A.

【0051】ステップ18:平面Aに垂直でアンカと指
定ポイントを含む平面Bを求める。
Step 18: Obtain a plane B which is perpendicular to the plane A and includes the anchor and the designated point.

【0052】ステップ19:線分ABの中心をOとす
る。
Step 19: The center of the line segment AB is set to O.

【0053】ステップ20:交差する要素として記憶さ
れた各要素に対して以下のステップ21、22を実行し
要素を返却する。
Step 20: The following steps 21 and 22 are executed for each element stored as the intersecting element and the element is returned.

【0054】ステップ21:平面Aと要素の交差する点
のBへの投影点をXとする。
Step 21: Let X be the projection point on B of the intersection of the plane A and the element.

【0055】ステップ22:OA間の距離>=OX間の
距離であれば、選択すべき要素として返却する。但し、
OAは中心OとAの線分であり、OXは中心Oと投影点
Xの線分である。
Step 22: If the distance between OA> = the distance between OX, it is returned as an element to be selected. However,
OA is a line segment between the center O and A, and OX is a line segment between the center O and the projection point X.

【0056】上記のように本発明は、ワーク14の形状
をフレーム情報を入力し、このフレーム情報を処理し
て、接触点軌跡、軌道情報及びフレーム情報によりワー
ク14の空間位置関係を把握する。
As described above, according to the present invention, the frame information of the shape of the work 14 is input, the frame information is processed, and the spatial positional relationship of the work 14 is grasped by the contact point trajectory, the trajectory information and the frame information.

【0057】なお、本実施例では、ワークステーション
及びマウスを用いてたが、上記の要件を満たす装置であ
れば、上記の例に限定されない。
Although the workstation and the mouse are used in this embodiment, the invention is not limited to the above example as long as the device satisfies the above requirements.

【0058】[0058]

【発明の効果】上述のように、本発明の方法を適用する
ことにより、利用者は軌道生成に必要なワークの形状を
フレーム情報の形式で容易に入力することができ、ま
た、形状情報だけでなく、フレームの順序という形式で
開始点から終点までへの方向の情報も同時に入力するこ
とができる。ま、フレーム情報に基づいてマニピュレー
タの軌跡を生成しているために、利用者は正確なロボッ
トの位置を保って入力しなくとも、たかだか、レーザレ
ンジスキャナの測定領域のなかに接触点が入るように移
動させればよいため、利用者の軌道教示を大幅に簡易化
することができる。
As described above, by applying the method of the present invention, the user can easily input the shape of the work required for trajectory generation in the form of frame information, and only the shape information can be input. Alternatively, information on the direction from the start point to the end point can be simultaneously input in the form of frame order. In addition, since the trajectory of the manipulator is generated based on the frame information, the user can enter the contact point in the measurement area of the laser range scanner at the most, even if the user does not input the robot position accurately. Therefore, it is possible to greatly simplify the user's trajectory teaching.

【0059】また、利用者は、表示画面に表示されたフ
レーム情報によって、ワークの形状を理解することがで
き、フレーム情報を処理して得られる接触点軌跡、及び
接触点軌跡に基づいて作成された軌道情報の3種類の情
報を同時に表示画面の中でその位置・姿勢を比較しなが
ら確認することができる。これにより、利用者は、3種
類の情報の空間位置関係を把握しやすく、最終的な出力
情報である軌道情報を効率良く作成することができる。
Further, the user can understand the shape of the work from the frame information displayed on the display screen, and the contact point locus obtained by processing the frame information and the contact point locus are created. It is possible to simultaneously check the three types of orbit information on the display screen while comparing their positions and orientations. As a result, the user can easily understand the spatial positional relationship of the three types of information, and can efficiently create the trajectory information that is the final output information.

【0060】次に、本実施例では、2次元デバイスであ
る表示画面とマウスを利用して、画面上に2点を指定し
てその2点間と画面上で交点を持つ表示オブジェクトを
全てを選択して表示する手段を提供したため、利用者は
複数のオブジェクトを容易にかつ正確に選択することが
できる。これにより、選択オブジェクトに対しての操作
効率を総合的に向上させるロボット教示装置を提供する
ことが可能となる。
Next, in this embodiment, by using a display screen which is a two-dimensional device and a mouse, two points are designated on the screen and all display objects having an intersection between the two points and on the screen are displayed. Since the means for selecting and displaying is provided, the user can easily and accurately select a plurality of objects. This makes it possible to provide a robot teaching device that comprehensively improves the operation efficiency for the selected object.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の原理説明図である。FIG. 1 is a diagram illustrating the principle of the present invention.

【図2】本発明の一実施例のコンピュータシステムとロ
ボットシステムの構成図である。
FIG. 2 is a configuration diagram of a computer system and a robot system according to an embodiment of the present invention.

【図3】本発明の一実施例の動作を説明するための図で
ある。
FIG. 3 is a diagram for explaining the operation of the embodiment of the present invention.

【図4】本発明の一実施例の一連の動作を示す高水準流
れ図である。
FIG. 4 is a high level flow chart showing a series of operations of one embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1 ロボット・マニピュレータ 2 センサ固定治具 3 レーザレンジスキャナ 4 照射レーザ光 5 コンピュータ・システム 6 表示装置 7 キーボード 8 キーボード接続ケーブル 9 マウス 10 マウス接続ケーブル 11 処理装置 12 マニピュレータ・コントローラ 13 コンピュータ接続ケーブル 14 加工ワーク 15 加工ワーク台 16 コンピュータ表示画面 17 主表示ウィンドウ 18 メニューバー 19 プルダウンメニュー 20 マウス・カーソル 21 座標アイコン 23 工具編集サブウィンドウ 24 フレーム編集サブウィンドウ 25 形状編集サブウィンドウ 26 選択ボタン 27 選択ボタン群 28 フレーム情報 29 接触点軌跡 30 ロボット軌道 40 複数オブジェクト選択線分 41 アンカーポイント 42 複数オブジェクト選択線分指定ポイント 1 Robot Manipulator 2 Sensor Fixture 3 Laser Range Scanner 4 Irradiation Laser Light 5 Computer System 6 Display 7 Keyboard 8 Keyboard Connection Cable 9 Mouse 10 Mouse Connection Cable 11 Processor 12 Manipulator Controller 13 Computer Connection Cable 14 Workpiece 15 Machining worktable 16 Computer display screen 17 Main display window 18 Menu bar 19 Pulldown menu 20 Mouse cursor 21 Coordinate icon 23 Tool edit subwindow 24 Frame edit subwindow 25 Shape edit subwindow 26 Select button 27 Select button group 28 Frame information 29 Contact point Trajectory 30 Robot trajectory 40 Multiple object selection line segment 41 Anchor point 42 Multiple objects択線 amount specified point

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 表示装置及びポインティング装置を有す
るコンピュータ・システムを利用してロボットの軌道を
作成する方法において、 該コンピュータ・システムの表示装置内にワークの形状
情報と工具の接触点軌跡情報とロボット軌道情報を視覚
的イメージに変換して同時に表示し、 任意にポイントされた2点と表示画面上で交点を持つ形
状情報、接触点軌跡情報、ロボット軌道情報を選択し、 選択された情報の輝度を変化させて表示させることを特
徴とするロボット軌道を教示するための方法。
1. A method of creating a trajectory of a robot using a computer system having a display device and a pointing device, comprising: a workpiece shape information, a tool contact point trajectory information, and a robot in the display device of the computer system. The trajectory information is converted into a visual image and displayed simultaneously, and the shape information, the contact point trajectory information, and the robot trajectory information that have two arbitrarily pointed points and the intersection on the display screen are selected, and the brightness of the selected information is selected. A method for teaching a robot trajectory, characterized by changing and displaying.
JP25286492A 1992-09-22 1992-09-22 Method for teaching robot track Pending JPH0699378A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP25286492A JPH0699378A (en) 1992-09-22 1992-09-22 Method for teaching robot track

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP25286492A JPH0699378A (en) 1992-09-22 1992-09-22 Method for teaching robot track

Publications (1)

Publication Number Publication Date
JPH0699378A true JPH0699378A (en) 1994-04-12

Family

ID=17243231

Family Applications (1)

Application Number Title Priority Date Filing Date
JP25286492A Pending JPH0699378A (en) 1992-09-22 1992-09-22 Method for teaching robot track

Country Status (1)

Country Link
JP (1) JPH0699378A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014097569A (en) * 2012-11-14 2014-05-29 Fanuc Robotics America Inc Teaching point program selection method for robot simulator
JP2018176372A (en) * 2017-04-17 2018-11-15 ファナック株式会社 Offline teaching device for robot
KR101969727B1 (en) * 2017-10-24 2019-04-17 주식회사 로보스타 Apparatus for manipulating multi-joint robot and method thereof
US11839971B2 (en) 2020-07-22 2023-12-12 Seiko Epson Corporation Teaching control method for robot, robot system, and computer program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014097569A (en) * 2012-11-14 2014-05-29 Fanuc Robotics America Inc Teaching point program selection method for robot simulator
JP2018176372A (en) * 2017-04-17 2018-11-15 ファナック株式会社 Offline teaching device for robot
US10599135B2 (en) 2017-04-17 2020-03-24 Fanuc Corporation Offline teaching device for robot
KR101969727B1 (en) * 2017-10-24 2019-04-17 주식회사 로보스타 Apparatus for manipulating multi-joint robot and method thereof
CN109693250A (en) * 2017-10-24 2019-04-30 罗普伺达机器人有限公司 For operating the devices and methods therefor of articulated robot
US11839971B2 (en) 2020-07-22 2023-12-12 Seiko Epson Corporation Teaching control method for robot, robot system, and computer program

Similar Documents

Publication Publication Date Title
US9731419B2 (en) System and method for programming robots
JP4621641B2 (en) Robot teaching CAD apparatus and robot teaching method
US20070242073A1 (en) Robot simulation apparatus
KR20150044812A (en) Teaching system and teaching method
JPWO2004085120A1 (en) Robot simulation apparatus and simulation program
JP2004094399A (en) Control process for multi-joint manipulator and its control program as well as its control system
JPH06102919A (en) Method for teaching robot orbit
JPH0699378A (en) Method for teaching robot track
JPH0699377A (en) Method for teaching robot track
JPH06134684A (en) Teaching method of robot track
JPH0699376A (en) Method and system for teaching robot track
JPH11272892A (en) Device and method for moving and arranging object in three-dimensional space display system
CN114290330B (en) Calibration method and calibration device for robot, and readable storage medium
JPS62165213A (en) Work environment teaching device
CN109773581B (en) Method for applying robot to reappear machining
JPH01316804A (en) Contour shape defining method
JP2517553B2 (en) Robot offline teaching method
JP2889429B2 (en) Offline teaching method for robots
Suh et al. A prototype integrated robotic painting system: software and hardware development
WO2023144892A1 (en) Control device
JP2937918B2 (en) Image measuring device
JP2792842B2 (en) Robot work teaching method and device
JPH07108478A (en) Robot posture conversion instructing device
JP2742959B2 (en) Laser processing equipment
JP2868343B2 (en) Off-line teaching method of 3D laser beam machine