JPH06102919A - Method for teaching robot orbit - Google Patents

Method for teaching robot orbit

Info

Publication number
JPH06102919A
JPH06102919A JP25286192A JP25286192A JPH06102919A JP H06102919 A JPH06102919 A JP H06102919A JP 25286192 A JP25286192 A JP 25286192A JP 25286192 A JP25286192 A JP 25286192A JP H06102919 A JPH06102919 A JP H06102919A
Authority
JP
Japan
Prior art keywords
robot
trajectory
point
teaching
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP25286192A
Other languages
Japanese (ja)
Inventor
Kazunari Kubota
一成 久保田
Minori Kamio
視教 神尾
Takashi Sakai
高志 酒井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP25286192A priority Critical patent/JPH06102919A/en
Publication of JPH06102919A publication Critical patent/JPH06102919A/en
Pending legal-status Critical Current

Links

Landscapes

  • Numerical Control (AREA)
  • Manipulator (AREA)

Abstract

PURPOSE:To efficiently generate orbit information with less errors by reducing the burden of a user at the time of inputting/editing information on a robot orbit. CONSTITUTION:Shape information on a work, contact point information connecting contact points constituting the edge of the work and robot orbit information are converted into visual images and are displayed in the display device of a computer system. Then, the visual image of robot orbit information which is altered based on an alteration operation designated by the user on the display screen of the display device is displayed. Then, the contact point or a teaching point teaching the orbit of the robot is selected from the display screen, and an approximate curve representating the positions is generated based on the positions of a point group having the preceding/subsequent orders of the contact point or the display point. Then, the altered position is generated on the approximate curve based on the alteration input of the position, and the altered position is displayed.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、ロボット軌道を教示す
るための方法及びシステムに係り、特に、ロボット教示
技術分野、ロボット・マニピュレータの制御技術分野、
及び人間と機械の対話に関するヒューマンインターフェ
ース技術分野に属するもので、具体的にはロボット使用
者がロボットに実行して貰いたい作業をロボットに効率
的に伝えるロボット作業教示装置(情報入力インタフェ
ース装置)を用いたロボット軌道を教示するための方法
に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method and system for teaching a robot trajectory, and more particularly to a robot teaching technical field, a robot manipulator control technical field,
Also, it belongs to the field of human interface technology related to human-machine interaction, and specifically, a robot work teaching device (information input interface device) that efficiently conveys to the robot the work that the robot user wants the robot to perform. A method for teaching a used robot trajectory.

【0002】さらに詳しくは、対象とするワークの形状
にならった軌道をもつ加工作業一般の軌道情報をコンピ
ュータの表示に基づいて効率的に生成するために改良さ
れた方法に関する。
More specifically, the present invention relates to an improved method for efficiently generating trajectory information of a general machining operation having a trajectory that conforms to the shape of a target workpiece based on the display of a computer.

【0003】[0003]

【従来の技術】従来、ロボットの軌道教示には位置・姿
勢情報を教示するダイレクトティーチ法、リモートティ
ーチ法、間接ティーチ法及びオフラインティーチ法があ
る(引用文献:「ロボット工学ハンドブック」、日本ロ
ボット学会編、1990年コロナ社発行、pp.519-52
9)。
2. Description of the Related Art Conventionally, there are a direct teaching method, a remote teaching method, an indirect teaching method, and an offline teaching method for teaching position / orientation information in robot trajectory teaching (cited document: "Robot Engineering Handbook", The Robotics Society of Japan). Edited by 1990, published by Corona Publishing Co., pp.519-52
9).

【0004】上記従来の第1の方法であるダイレクトテ
ィーチ法は、ロボットのアーム部を直接動かす方法であ
る。上記従来の第2の方法であるリモートティーチ法
は、ロボット本体から離れた場所において、ティーチン
グペンダントと呼ばれる教示装置でロボットアームに直
接触れることなく、教示を行う方法である。上記従来の
第3の方法である間接ティーチ法は、教示専用のマニピ
ュレーションアームを用意し、このアームの手先部が所
要の経路に沿って動作するように操作し、この時のアー
ム位置・姿勢を記憶させることにより教示を行う方法で
ある。上記従来の第4の方法であるオフラインティーチ
法は実際に作業を行うロボットを用いることなく、実作
業環境から離れて教示する方法である。この方法では、
既に形状設計されたワークの幾何形状情報を利用してロ
ボットの軌道を生成することができるため、作業者の負
担を大きく軽減できるという長所をもっている。
The above-mentioned first conventional direct teach method is a method of directly moving the arm portion of the robot. The above-mentioned second conventional method, the remote teach method, is a method of teaching at a location away from the robot body without directly touching the robot arm with a teaching device called a teaching pendant. In the above-mentioned third conventional method, the indirect teach method, a manipulation arm dedicated to teaching is prepared, and the hand portion of this arm is operated so as to move along a required path. This is a method of teaching by storing. The above-mentioned fourth conventional method, the offline teach method, is a method of teaching away from the actual work environment without using a robot that actually performs the work. in this way,
Since the trajectory of the robot can be generated by using the geometrical shape information of the already shape-designed work, it has an advantage that the burden on the operator can be greatly reduced.

【0005】[0005]

【発明が解決しようとする課題】しかしながら、上記従
来の第1〜第3の方法はいずれも入力された軌道情報を
先ず表示し、変更作業を行うためには、数値で表現され
た軌道情報を文字表示装置に表示し、利用者はその表示
された行を指定してその数値を変更する必要がある。利
用者はそのために数値で表現された教示点の情報により
所望の位置の教示点を発見しなければならず、利用者に
熟練を強いるという欠点がある。また、教示点を所望の
位置・姿勢に修正するには、直接その数値を変更する
か、または、上記の教示方法を用いて再度その点の新し
いデータを取り込む必要があり、操作の繁雑さを招き、
教示作業の効率を低下させることがある。
However, in any of the above-mentioned first to third conventional methods, the entered trajectory information is first displayed, and in order to carry out the changing work, the trajectory information represented by numerical values is used. It is displayed on the character display device, and the user needs to specify the displayed line and change the numerical value. Therefore, the user has to find a teaching point at a desired position from the information of the teaching point expressed by a numerical value, which has a drawback of compelling the user. In order to correct the teaching point to the desired position / orientation, it is necessary to change the numerical value directly or to retrieve new data of the point again by using the above teaching method, which complicates the operation. Beckoning
This may reduce the efficiency of teaching work.

【0006】また、上記従来の第4の方法であるオフラ
インティーチ法は、軌道教示にはCAD等によりすでに
生成されたワークの幾何形状情報を前提としているた
め、CADによるワークの形状情報を利用しづらい加工
作業には適用が困難である。
Further, since the above-mentioned fourth conventional method, the offline teach method, presupposes the geometrical shape information of the work already generated by CAD or the like in the trajectory teaching, the shape information of the work by CAD is used. It is difficult to apply to difficult work.

【0007】オフラインティーチ法で生成された軌道を
実作業環境で動作させようとすると、マニピュレータ、
治具、ワーク等の実環境での誤差要因により誤差が生じ
ることが多い。誤差を減少させるためにマニピュレータ
のキャリブレーションを綿密に行う等の対処が行われる
が、マニピュレータの繰り返し精度に比べ、キャリブレ
ーションで追い込んだ絶対精度は一般に大きく、現物合
わせが必要である。現物合わせによる軌道の修正は、上
記のダイレクトティーチ法と同様に繁雑な操作が必要と
なる。
When the trajectory generated by the off-line teach method is operated in a real work environment, the manipulator,
Errors often occur due to error factors in the actual environment such as jigs and workpieces. In order to reduce the error, measures such as meticulous calibration of the manipulator are taken, but the absolute accuracy driven by the calibration is generally large compared with the repeat accuracy of the manipulator, and actual matching is necessary. The correction of the orbit by matching the actual products requires a complicated operation as in the above direct teach method.

【0008】さらに、新しい製品に対応するために製造
ラインの更新サイクルが短くなるほど、ロボットの軌道
教示の駆動コストの示す割合が大きくなり、軌道教示の
効率が問題となる。また、上記の実環境の誤差の問題で
最初に入力された軌道を最終的な軌道に編集する編集・
調整作業が軌道教示全体に占める割合が大きく、この部
分でのヒューマンインタフェースの改善の及ぼす影響は
大きい。
Furthermore, the shorter the update cycle of the manufacturing line to accommodate a new product, the larger the ratio of the drive cost of the robot trajectory teaching becomes, and the efficiency of the trajectory teaching becomes a problem. In addition, editing the trajectory entered first due to the error of the actual environment described above to the final trajectory
The adjustment work occupies a large proportion of the entire trajectory teaching, and the improvement of the human interface in this portion has a great influence.

【0009】また、軌道教示に限らず、軌道に代表され
るような3次元の情報を2次元の表示装置に表示するた
めの技術としては、従来コンピュータグラフィックスの
分野で扱われている。しかし、マウス等の2次元デバイ
スで3次元空間に存在するオブジェクトの選択・移動・
変更等の操作においては単一オブジェクトを扱うもので
あり、複数オブジェクトを同時に操作する技術はない。
In addition to the teaching of trajectories, a technique for displaying three-dimensional information represented by trajectories on a two-dimensional display device has been conventionally handled in the field of computer graphics. However, using a 2D device such as a mouse, you can select / move objects that exist in 3D space.
In operations such as modification, only a single object is handled, and there is no technique for operating multiple objects at the same time.

【0010】本発明は上記の点に鑑みなされたもので、
上記問題点を解決し、ロボット軌道に関わる情報を入力
・編集する時の利用者の負担をできるだけ軽減し、誤差
の少ない軌道情報を効率的に生成するロボット軌道を教
示する方法を提供することを目的とする。
The present invention has been made in view of the above points,
It is an object of the present invention to provide a method for teaching a robot trajectory that solves the above problems, reduces the burden on the user when inputting / editing information related to the robot trajectory, and efficiently generates trajectory information with few errors. To aim.

【0011】[0011]

【課題を解決するための手段】図1は本発明の第1の原
理説明図を示す。
FIG. 1 shows a diagram for explaining the first principle of the present invention.

【0012】本発明は、表示装置を有するコンピュータ
・システムを利用して、ロボットの軌道を作成する方法
であって、コンピュータ・システムの該表示装置内にワ
ークの形状情報と形状情報の中でワークのエッジを構成
する接触点を結んだ接触点軌道情報とロボット軌道情報
を同時に視覚的イメージに変換して(ステップ100)
表示し(ステップ101)、表示装置の表示画面上で利
用者により指定されたロボット軌道情報に対する変更操
作に基づいて編集された(ステップ102)ロボット軌
道情報の視覚的イメージを表示し(ステップ103)、
表示画面より接触点またはロボットの軌道を教示する教
示点を選択し、接触点または、教示点の前後の順位を持
つ点群の位置に基づいて、それらの位置を代表する近似
曲線を生成し(ステップ104)、位置の変更量を使用
者に入力させる変更入力を行い(ステップ105)、そ
の変更操作に基づいて近似曲線上に変更位置を生成し
(ステップ106)、変更された位置を表示する(ステ
ップ107)。
The present invention is a method for creating a trajectory of a robot by using a computer system having a display device, wherein the shape information of the work and the work among the shape information are stored in the display device of the computer system. The contact point trajectory information connecting the contact points forming the edge of the robot and the robot trajectory information are simultaneously converted into a visual image (step 100).
Display (step 101), and display a visual image of the robot trajectory information edited on the display screen of the display device based on a change operation for the robot trajectory information designated by the user (step 102) (step 103). ,
Select a contact point or a teaching point that teaches the trajectory of the robot from the display screen, and generate an approximate curve representing these positions based on the positions of the contact point or the point group having the order before and after the teaching point ( In step 104, a change input is made to allow the user to input the change amount of the position (step 105), the changed position is generated on the approximate curve based on the changing operation (step 106), and the changed position is displayed. (Step 107).

【0013】また、本発明は、接触点または教示点を選
択した点の直前または、直後に追加し、接触点または教
示点の位置が近似曲線上となるように位置を定める。
Further, according to the present invention, the contact point or the teaching point is added immediately before or after the selected point, and the position of the contact point or the teaching point is determined so as to be on the approximate curve.

【0014】図2は本発明の第2の原理説明図を示す。FIG. 2 shows a second principle explanatory diagram of the present invention.

【0015】本発明は、表示装置を有するコンピュータ
・システムを利用して、ロボットの軌道を作成する方法
であって、コンピュータ・システムの表示装置内にワー
クの形状情報と、形状情報のなかでワークのエッジを構
成する接触点を結んだ接触点軌道情報とロボット軌道情
報を同時に視覚点イメージに変換して(ステップ20
0)表示し(ステップ201)、表示画面上で利用者に
より指定されたロボット軌道情報に対する変更操作に基
づいて編集された(ステップ202)ロボット軌道情報
の視覚的イメージを表示し(ステップ203)、表示画
面より接触点またはロボットの軌道を教示する教示点を
選択し、ロボットの教示点の位置・姿勢の変更入力を受
け付け(ステップ204)、変更入力により変更された
位置・姿勢を生成し(ステップ205)、変更された位
置・姿勢がロボットの移動可能領域内にあるかを判別し
(ステップ206)、判別結果を表示画面上に表示する
(ステップ207)。
The present invention is a method for creating a trajectory of a robot using a computer system having a display device, wherein the shape information of the work is stored in the display device of the computer system, and the work is included in the shape information. The contact point trajectory information connecting the contact points forming the edges of the robot and the robot trajectory information are simultaneously converted into visual point images (step 20).
0) is displayed (step 201), and a visual image of the robot trajectory information edited based on the change operation for the robot trajectory information designated by the user on the display screen (step 202) is displayed (step 203), A touch point or a teaching point that teaches the trajectory of the robot is selected from the display screen, a change input of the position / orientation of the robot teaching point is accepted (step 204), and the position / orientation changed by the change input is generated (step 205), it is determined whether or not the changed position / orientation is within the movable area of the robot (step 206), and the determination result is displayed on the display screen (step 207).

【0016】[0016]

【作用】本発明は、表示画面より選択した接触点また
は、教示点の前後の点群の位置を代表する近似曲線を生
成し、その近似曲線上に拘束して、選択した点を移動さ
せる利用者インタフェースを提供することにより3次元
空間中での点の移動を2次元あるいは1次元の情報入力
装置によって行うことができ、作業に理想的な軌道が滑
らかな曲線であるときに、教示によって与えた教示点群
から一つ一つの位置・姿勢を修正することなく、一度の
操作により概ね利用者が望むような曲線を生成すること
ができる。これにより、利用者の3次元空間把握を容易
にし、点位置の編集作業の負担を軽減する。
According to the present invention, an approximate curve representing the positions of a contact point selected from a display screen or a point group before and after a teaching point is generated, and the selected point is moved by constraining it on the approximate curve. By providing a user interface, it is possible to move a point in a three-dimensional space by a two-dimensional or one-dimensional information input device, and when the ideal trajectory for work is a smooth curve, the instruction is given. It is possible to generate a curve that a user generally desires by a single operation without modifying each position / orientation from the taught point group. This facilitates the user's grasp of the three-dimensional space and reduces the burden of point position editing work.

【0017】また、本発明は、追加した接触点または、
教示点の前後の点群の位置を代表する近似曲線を生成
し、その近似曲線上を拘束して、追加した点の位置を定
めることにより3次元空間中での点の追加を2次元ある
いは1次元の情報入力装置によって行うことができ、3
次元空間中での位置決め作業を大幅に簡略化でき、近似
曲線中の前後の位置を定めるための一次元の入力デバイ
スで指定可能にし、装置も簡略化できる。
The present invention also provides an additional contact point or
The addition of points in the three-dimensional space is performed in two-dimensional or one-dimensional by generating an approximate curve representing the position of the point group before and after the teaching point, constraining the approximate curve, and determining the position of the added point. 3D information input device
The positioning work in the dimensional space can be greatly simplified, and the position can be specified by a one-dimensional input device for determining the front and rear positions in the approximate curve, and the apparatus can be simplified.

【0018】また、教示点の位置、姿勢にロボットが移
動可能かを教示点の位置・姿勢を変更する都度その位置
・姿勢の妥当性を判別し、軌道を編集しながら教示点位
置の変更の妥当性を利用者が知ることができるため、実
マニピュレータを動作させる前に不具合を発見すること
ができ、総合的な軌道生成稼働を小さくすることができ
る。
Further, each time the position / orientation of the teaching point is changed, it is determined whether or not the robot can move to the position / orientation of the teaching point, and the validity of the position / orientation is determined. Since the user can know the validity, it is possible to detect a defect before operating the real manipulator, and it is possible to reduce the total trajectory generation operation.

【0019】[0019]

【実施例】以下、本発明の軌道教示の方法について図面
と共に説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS A trajectory teaching method of the present invention will be described below with reference to the drawings.

【0020】図3は本発明の一実施例のコンピュータ・
システムとロボットシステムの構成を示す。同図におい
て、ロボットシステムはロボットマニピュレータ1、セ
ンサー固定治具2、レーザーレンジスキャナ3、照射レ
ーザ光4により構成され、コンピュータ・システム5
は、表示装置6、キーボード7、キーボード接続ケーブ
ル8、マウス9、マウス接続ケーブル10、処理装置1
1、マニピュレータ・コントローラ12、コンピュータ
接続ケーブル13により構成される。
FIG. 3 shows a computer according to an embodiment of the present invention.
The configuration of the system and robot system is shown. In the figure, the robot system comprises a robot manipulator 1, a sensor fixing jig 2, a laser range scanner 3, and an irradiation laser beam 4, and a computer system 5
Is a display device 6, a keyboard 7, a keyboard connection cable 8, a mouse 9, a mouse connection cable 10, a processing device 1
1, a manipulator / controller 12, and a computer connection cable 13.

【0021】コンピュータ・システム5の処理装置11
は、グラフィックプロセッサ、記憶装置、中央演算処理
装置(図示せず)を含むことが望ましく、本実施例では
ワークステーションを利用する。処理装置11には、表
示装置6、キーボード7及びグラフィック・ポインティ
ング装置であるマウス9が接続されている。表示装置6
はカラーモニタまたは、白黒モニタを利用してもよい。
キーボード7は標準のコンピュータキーボードとするこ
とが望ましく、キーボード接続ケーブル8により処理装
置11に結合される。
Processor 11 of computer system 5
Preferably includes a graphic processor, a storage device, and a central processing unit (not shown), and a workstation is used in this embodiment. A display device 6, a keyboard 7, and a mouse 9 which is a graphic pointing device are connected to the processing device 11. Display device 6
May use a color monitor or a black and white monitor.
The keyboard 7 is preferably a standard computer keyboard and is connected to the processing unit 11 by a keyboard connection cable 8.

【0022】なお、本実施例ではグラフィック・ポイン
ティング装置としてマウス9を用いるが、この例に限定
されることなく、ライトペンやタッチ画面、トラックボ
ール、ダイアルボタン等、どのようなグラフィックポイ
ンティング装置を用いてもよい。
Although the mouse 9 is used as the graphic pointing device in the present embodiment, the present invention is not limited to this example, and any graphic pointing device such as a light pen, a touch screen, a trackball, a dial button or the like can be used. May be.

【0023】ロボット・マニピュレータ1の先端にはレ
ーザ・レンジスキャナ3が結合されている。ロボット・
マニピュレータ1は各関節軸にエンコーダ(図示せず)
を含むことが望ましい。エンコーダにより、ロボット・
マニピュレータ1の位置・姿勢をキネマティック演算に
より求めることができる。ロボット・マニピュレータ1
はダンパーモードで制御されることによって、作業者
は、レーザレンジスキャナ2を把持して、ロボット・マ
ニピュレータ1の可操作域内の自由な位置・姿勢にレー
ザレンジスキャナ2を移動することができる。レーザレ
ンジスキャナ2を加工作業の軌道に沿って移動させ、移
動中にレーザ光を照射することによって、加工ワーク台
15上のワーク14の形状を計測する。
A laser range scanner 3 is connected to the tip of the robot manipulator 1. robot·
The manipulator 1 has an encoder (not shown) for each joint axis.
It is desirable to include. Robot by encoder
The position / orientation of the manipulator 1 can be obtained by kinematic calculation. Robot manipulator 1
By being controlled in the damper mode, the operator can grip the laser range scanner 2 and move the laser range scanner 2 to any position / orientation within the operable range of the robot manipulator 1. The shape of the workpiece 14 on the workpiece table 15 is measured by moving the laser range scanner 2 along the trajectory of the machining operation and irradiating laser light during the movement.

【0024】一回のレーザ光照射によって得られるワー
ク14の形状を表す情報をフレーム情報という。レーザ
光を照射したときのレーザレンジスキャナ2の位置・姿
勢はその時のロボット・マニピュレータ1に含まれるエ
ンコーダの値によって求められる。測定されたセンサ情
報とレーザ・レンジスキャナ2の位置・姿勢情報はコン
ピュータ・システム5に転送される。
The information indicating the shape of the work 14 obtained by one laser irradiation is called frame information. The position / orientation of the laser range scanner 2 when the laser light is emitted is determined by the value of the encoder included in the robot manipulator 1 at that time. The measured sensor information and the position / orientation information of the laser range scanner 2 are transferred to the computer system 5.

【0025】コンピュータ・システム5は、レーザ光照
射によって測定されたフレーム情報とレーザレンジスキ
ャナ2の位置・姿勢情報とを演算することにより、世界
座標系におけるワークの形状の表面の位置情報を算出す
る。このワーク14の表面の位置情報はサーフェスモデ
ルと呼ばれる。
The computer system 5 calculates the position information of the surface of the shape of the work in the world coordinate system by calculating the frame information measured by laser light irradiation and the position / orientation information of the laser range scanner 2. . The positional information on the surface of the work 14 is called a surface model.

【0026】本発明では、ワーク形状のサーフェスモデ
ルを得るために、ロボット・マニピュレータ1とレーザ
レンジスキャナ2を使用するが、本発明を実現するため
には、CAD(Computer Aided Design)システムや、3
次元レーザデジタイジングシステム等のどのようなサー
フェスモデル生成装置を利用して本発明の方法を実施し
てもよい。
In the present invention, the robot manipulator 1 and the laser range scanner 2 are used to obtain the surface model of the work shape. However, in order to realize the present invention, a CAD (Computer Aided Design) system or 3 is used.
Any surface model generator, such as a two-dimensional laser digitizing system, may be utilized to implement the method of the present invention.

【0027】ロボット・マニピュレータ1はマニピュレ
ータ・コントローラ12に接続されており、マニピュレ
ータ・コントローラ12は、コンピュータ・システム5
から転送されたロボットの位置・姿勢目標値に基づいて
目標位置姿勢となるようロボット・マニピュレータ1を
制御する。
The robot manipulator 1 is connected to a manipulator controller 12, and the manipulator controller 12 is a computer system 5.
The robot manipulator 1 is controlled so as to attain the target position / orientation based on the position / orientation target value of the robot transferred from.

【0028】また、本実施例では、ロボット・マニピュ
レータ1は、6自由度垂直多関節型ロボットが使用され
ているが、目標位置・姿勢に手首を制御できるどのよう
なロボット・マニピュレータを用いてもよい。
Further, in the present embodiment, the robot manipulator 1 is a 6-DOF vertical articulated robot, but any robot manipulator capable of controlling the wrist at a target position / posture can be used. Good.

【0029】図4は、本発明の一実施例の動作を説明す
るための図を示す。同図にはコンピュータ表示画面16
が表示されている。このコンピュータ表示画面16に
は、主表示ウィンドウ17、メニューバー18、プルダ
ウンメニュー19、マウス・カーソル20、座標アイコ
ン21、工具編集サブウィンドウ23、フレーム編集サ
ブウィンドウ24、形状編集サブウィンドウ25、選択
ボタン26、選択ボタン群27、フレーム情報28、接
触点軌跡29、ロボット軌道30が示される。
FIG. 4 is a diagram for explaining the operation of one embodiment of the present invention. A computer display screen 16 is shown in FIG.
Is displayed. The computer display screen 16 includes a main display window 17, a menu bar 18, a pull-down menu 19, a mouse cursor 20, a coordinate icon 21, a tool editing subwindow 23, a frame editing subwindow 24, a shape editing subwindow 25, a selection button 26, and a selection button. A button group 27, frame information 28, a contact point trajectory 29, and a robot trajectory 30 are shown.

【0030】コンピュータ表示画面16の主表示ウィン
ドウ17には対象とするワーク14から得られた多数の
フレーム情報と、それぞれのフレーム情報のなかで定め
られた接触点を結んだ接触点軌跡29及びロボット軌道
30が表示されている。フレーム情報はサーフェスモデ
ルに含まれる観測点群により構成され、このフレーム情
報に含まれる観測点群は順に接続されている。この実施
例ではフレーム情報のなかでワーク14のエッジを構成
する点が接触点であり、接触点軌跡29は、接触点が順
次接続されて表示されたものである。
In the main display window 17 of the computer display screen 16, a large number of frame information obtained from the target work 14 and a contact point locus 29 connecting the contact points defined in each frame information and the robot are shown. The orbit 30 is displayed. The frame information is composed of observation point groups included in the surface model, and the observation point groups included in this frame information are connected in order. In this embodiment, points constituting the edge of the work 14 in the frame information are contact points, and the contact point locus 29 is displayed by sequentially connecting the contact points.

【0031】なお、ワーク14のサーフェスモデルの表
示は、本実施例のような複数のフレーム情報による表示
の他に三角パッチ等の平面パッチ法のようなどのような
表示法を利用して実施してもよい。
The surface model of the work 14 is displayed by using any display method such as a plane patch method such as a triangular patch in addition to the display by a plurality of frame information as in the present embodiment. May be.

【0032】次に、メニューバー18をマウスカーソル
20でクリックすることによりプルダウンメニュー19
が表示される。利用者は、プルダウンメニュー19に含
まれるコマンドをマウスカーソル20で選択することに
より、コマンドを指定する。
Next, by clicking on the menu bar 18 with the mouse cursor 20, a pull-down menu 19 is displayed.
Is displayed. The user specifies a command by selecting the command included in the pull-down menu 19 with the mouse cursor 20.

【0033】なお、コマンドの選択法は、本実施例のよ
うなプルダウンメニュー19の他のグラフィカルユーザ
インタフェースに基づく指定法を利用して本発明を実施
してもよい。
As a method of selecting a command, the present invention may be implemented by using a designation method based on another graphical user interface of the pull-down menu 19 as in this embodiment.

【0034】なお、上記のことから、コマンド選択法は
いわゆるグラフィカルインターフェース標準、例えば、
アップル社の提唱するツールボックス或いは、オープン
ソフトウェア社の提唱するOSF/Motif などを利用し
て本発明を実施してもよい。
From the above, the command selection method is a so-called graphical interface standard, for example,
The present invention may be implemented using a tool box proposed by Apple Inc. or an OSF / Motif proposed by Open Software Inc.

【0035】選択ボタン群27は、複数の選択ボタン2
6によって構成される。選択ボタン26は例えばフレー
ム情報を表示するかしないかのオン・オフを指定するた
めに用いられる。表示のオン・オフの指定には選択ボタ
ンの他にもメニューダイアログボックス等どのようなユ
ーザインタフェースを用いてもよい。
The selection button group 27 includes a plurality of selection buttons 2.
It is composed of 6. The selection button 26 is used, for example, to specify whether to display frame information or not. In addition to the selection button, any user interface such as a menu dialog box may be used to specify the display on / off.

【0036】次に動作について説明する。Next, the operation will be described.

【0037】利用者は、ダンパー制御されたロボット・
マニピュレータの選択部を持ち、レーザレンジスキャナ
3をワーク14上での接触点軌跡となるべき軌跡をレー
ザレンジスキャナ3のスキャン領域の中に常に含むよう
にしてロボット・マニピュレータ1を移動させる。な
お、ロボット・マニピュレータ1の移動については、利
用者が設定した概略軌道上をロボット・マニピュレータ
1を移行させるようにしてもよい。
The user is a damper-controlled robot.
The robot manipulator 1 is moved so as to have a manipulator selection unit so that the locus which should be the locus of the contact point on the work 14 is always included in the scanning area of the laser range scanner 3. Regarding the movement of the robot / manipulator 1, the robot / manipulator 1 may be moved on a rough trajectory set by the user.

【0038】レーザレンジスキャナ3は移動中、一定間
隔あるいは、利用者の指定したタイミングでワーク14
の形状を計測する。レーザレンジスキャナ3が1回に計
測する情報をフレーム情報(図示せず)と呼ぶ。フレー
ム情報を計測した時点のレーザレンジスキャナ3の世界
座標系における位置・姿勢情報はロボット・マニピュレ
ータ1の各関節に設置されたエンコーダ(図示せず)に
基づいて生成される。この位置・姿勢情報をロボット位
置・姿勢情報と呼ぶ。計測したフレーム情報とロボット
位置・姿勢情報は逐次コンピュータ・システム5に転送
されるか、あるいは、移動中の情報を蓄えておいて、運
動終了後にコンピュータ・システム5に一括転送され
る。
While the laser range scanner 3 is moving, the work 14 is moved at a constant interval or at a timing specified by the user.
Measure the shape of. The information measured by the laser range scanner 3 at one time is called frame information (not shown). The position / orientation information in the world coordinate system of the laser range scanner 3 at the time when the frame information is measured is generated based on an encoder (not shown) installed in each joint of the robot manipulator 1. This position / orientation information is called robot position / orientation information. The measured frame information and the robot position / orientation information are sequentially transferred to the computer system 5, or the information during movement is stored and collectively transferred to the computer system 5 after the end of exercise.

【0039】コンピュータ・システム5は転送されたフ
レーム情報とロボット位置・姿勢情報をもとにフレーム
情報を世界座標系に変換し、主表示ウィンドウ17にフ
レーム情報28として表示する。主表示ウィンドウ17
に表示されたフレーム群はワーク14の形状を表す形状
情報として利用者が利用することができる。フレーム情
報28には接触点が含まれている。ユーザインタフェー
スを通じて利用者がそれぞれのフレーム情報に対し1点
の接触点を定め、さらに、接触点情報の連鎖を接触点軌
跡として、主表示ウィンドウ17に表示する。この接触
点軌跡に対し、利用者はその接触点軌跡をもとに軌道の
軌跡をユーザインタフェースを用いて入力する。
The computer system 5 converts the frame information into the world coordinate system based on the transferred frame information and the robot position / orientation information, and displays it in the main display window 17 as frame information 28. Main display window 17
The frame group displayed in can be used by the user as shape information representing the shape of the work 14. The frame information 28 includes contact points. The user defines one contact point for each frame information through the user interface, and further displays a chain of contact point information as a contact point trajectory in the main display window 17. For this contact point trajectory, the user inputs the trajectory of the trajectory based on the contact point trajectory using the user interface.

【0040】形状点軌跡及び軌道はそれぞれ形状点及び
教示点で構成されている。表示画面16中ではフレーム
情報28、形状点、形状軌跡29、教示点、軌道30等
が選択対象となる。この場合の選択はマウス9の操作に
よって、画面中を移動するマウス・カーソルを上記の選
択対象上に持ってきた後、マウス9のボタンをクリック
することにより行う。選択された対象の位置・姿勢の操
作はマウス9を操作することにより行う。位置・姿勢の
操作は、マウス9以外の多次元データの入力装置を用い
て行ってもよい。
The shape point locus and the trajectory are composed of a shape point and a teaching point, respectively. In the display screen 16, the frame information 28, the shape points, the shape locus 29, the teaching point, the trajectory 30, and the like are selection targets. In this case, the selection is performed by operating the mouse 9 to bring the mouse cursor moving on the screen over the selection target and then clicking the button of the mouse 9. The position / orientation of the selected object is operated by operating the mouse 9. The position / orientation operation may be performed using a multidimensional data input device other than the mouse 9.

【0041】利用者は主表示ウィンドウ17に含まれる
オブジェクトを選択するときには、マウス・カーソル2
0を該当オブジェクトの表示位置に移動させ、マウス9
のボタンを押下する。本実施例において、主表示ウィン
ドウ17が軌道編集ウィンドウであるときには、教示
点、軌道要素、軌道等軌道を表現するオブジェクトのみ
が選択可能である。フレーム情報、あるいは、形状情報
を選択し、操作したい場合には、それぞれサブウィンド
ウに表示されているフレーム編集ウィンドウ24、形状
編集ウィンドウ25をマウス9でクリックすることによ
り、主表示ウィンドウ17に呼び出してから操作を行
う。
When the user selects an object included in the main display window 17, the mouse cursor 2
Move 0 to the display position of the corresponding object, and press the mouse 9
Press the button. In the present embodiment, when the main display window 17 is a trajectory editing window, only objects that represent trajectories such as teaching points, trajectory elements, and trajectories can be selected. To select and operate frame information or shape information, click the frame edit window 24 and shape edit window 25 displayed in the sub-windows with the mouse 9 to call up the main display window 17, respectively. Do the operation.

【0042】本実施例では、マウス9を操作して、主表
示ウィンドウ17に表示されている複数の教示点あるい
は、作用点などの複数の点オブジェクトを選択した状態
で、メニューバー18の内の例えば「編集」というメニ
ューをマウスボタンを押下して選択し、押下したままプ
ルダウンメニュー19の中で「近似」というコマンドを
クリックして選択した場合に、軌道編集システムは3次
元空間における点群の位置を例えば、最小自乗近似を用
いたスプライン曲線等の近似曲線を求めて表示し、それ
ぞれの点群の位置を近似曲線上の最近接点位置を求め
て、置き換えて表示する。
In the present embodiment, the mouse 9 is operated to select a plurality of point objects such as a plurality of teaching points or action points displayed in the main display window 17 in the menu bar 18. For example, when the menu "Edit" is selected by pressing the mouse button and then the command "Approximation" is clicked in the pull-down menu 19 while the mouse is pressed, the trajectory editing system selects the point cloud in the three-dimensional space. For example, the position is displayed by calculating an approximate curve such as a spline curve using least square approximation, and the position of each point group is displayed by replacing the nearest contact position on the approximate curve.

【0043】図5は本発明の一実施例の入力軌道を示
す。同図の表示画面16の主表示ウィンドウ17には軌
道30、座標アイコン21が示されている。軌道30上
の円は、教示点の位置を示す。同図においては、教示点
は近似曲線上になるため、やや円滑さに欠けている。
FIG. 5 shows an input trajectory according to an embodiment of the present invention. A trajectory 30 and a coordinate icon 21 are shown in the main display window 17 of the display screen 16 of FIG. The circle on the track 30 indicates the position of the teaching point. In the figure, since the teaching point is on the approximate curve, it is somewhat lacking in smoothness.

【0044】図6は本発明の一実施例の近似操作の適用
例を示す。同図は、図5で示した軌道に近似操作を適用
した例である。
FIG. 6 shows an application example of the approximation operation according to the embodiment of the present invention. This figure is an example in which an approximate operation is applied to the trajectory shown in FIG.

【0045】さらに、図7は本発明の一実施例の教示点
追加操作の画面を示す。同図中、主教示ウィンドウ17
には追加教示点40、追加教示点の位置情報の入出力ボ
ックス41、アップダウンボタン42、加速型アップダ
ウンボタン43、及び教示点移動ダイアログボックス4
4がある。
Further, FIG. 7 shows a screen for a teaching point addition operation according to an embodiment of the present invention. In the figure, the main teaching window 17
Includes an additional teaching point 40, an input / output box 41 for position information of the additional teaching point, an up / down button 42, an acceleration type up / down button 43, and a teaching point movement dialog box 4.
There is 4.

【0046】これを動作させるには、マウス9を操作し
て、主表示ウィンドウ17に表示されている教示点を選
択した状態で、メニューバー18の「編集」というメニ
ューをマウスボタンを押下して選択し、押下したままメ
ニューの中で例えば「複製」というコマンドをクリック
し、サブメニューの中から「拘束追加」コマンドを選択
した場合に、軌道編集システムは選択された表示点の近
傍に追加する教示点を表示すると同時に、教示点移動ダ
イアログボックス44を主表示ウィンドウ17中に表示
する。
To operate this, with the mouse 9 operated, the teaching point displayed in the main display window 17 is selected, and the mouse button is pressed on the menu "Edit" in the menu bar 18. If you select and hold down, click the command such as "Duplicate" in the menu, and select "Add constraint" command from the submenu, the trajectory editing system adds it near the selected display point. At the same time as displaying the teaching point, the teaching point moving dialog box 44 is displayed in the main display window 17.

【0047】利用者はアップダウンボタン42をマウス
9でクリックして、移動量を軌道編集システムに入力す
る。追加教示点40は、軌道の近似曲線上を入力に従っ
て移動し、表示される。利用者は自分が最適と思う位置
にきたところでアップダウンボタン42の操作を終了す
る。
The user clicks the up / down button 42 with the mouse 9 to input the movement amount into the trajectory editing system. The additional teaching point 40 moves and is displayed according to the input on the approximate curve of the trajectory. The user terminates the operation of the up / down button 42 when he / she finds himself / herself at the optimum position.

【0048】図8は本発明の一実施例の動作可能範囲の
指定エラー表示例を示す。同図において、主表示ウィン
ドウ17にはエラー表示ダイアログ44が表示される。
本実施例の示した追加点の位置の指定インタフェース
や、教示点の位置・姿勢の変更操作において、変更操作
がなされる度に、軌道教示システムは指定されたマニピ
ュレータの運動学パラメータを用いて、変更された教示
点の位置・姿勢にマニピュレータが移動可能かをチェッ
クする。位置・姿勢のチェックの方法は、当業者間で公
知である運動学を用いる。
FIG. 8 shows an example of display of an error indicating the operable range according to an embodiment of the present invention. In the figure, an error display dialog 44 is displayed in the main display window 17.
In the interface for designating the position of the additional point shown in the present embodiment, or in the operation of changing the position / orientation of the teaching point, the trajectory teaching system uses the kinematics parameter of the designated manipulator every time the changing operation is performed, Check if the manipulator can move to the changed position and orientation of the teaching point. The method of checking the position / orientation uses kinematics known to those skilled in the art.

【0049】軌道教示システムはチェックした結果、移
動が不可能であることを検出したときには、エラー表示
ダイアログ44により利用者に表示することにより認識
させる。
As a result of checking, when the trajectory teaching system detects that the movement is impossible, the trajectory teaching system displays the error display dialog 44 to the user so that the user can recognize the movement.

【0050】図9は本発明の一実施例の一連の動作を示
すフローチャートを示す。 ステップ90:表示画面よりフレーム情報を得る。 ステップ91:フレーム情報収集時のマニピュレータの
位置・姿勢情報を得る。 ステップ92:フレーム情報とロボット位置・姿勢情報
から形状表面の世界座標をエンコーダの値に基づいて算
出する。 ステップ93:表示画面をみてマウス9により接触点を
選択する。 ステップ94:接触点を結んで接触点軌跡を得る。 ステップ95:マウス9により接触点軌跡を選択する。 ステップ96:工具モデルを選択する。 ステップ97:接触点軌跡と工具モデルからマニピュレ
ータ1の軌道を算出する。 ステップ98:教示点の位置・姿勢の変更操作毎に変更
された位置・姿勢にマニピュレータ軌道が可動範囲内か
を判断し、可動範囲外であればステップ99に移行す
る。このチェックは運動学パラメータを用いて行われ
る。 ステップ99:ステップ98で可動範囲外であれば、エ
ラー表示を行う。 ステップ100:軌道の近似処理または、位置・姿勢情
報変更処理の2つのイベント(ステップ101又はステ
ップ104)に振り分けを行う。 ステップ101:軌道の近似処理を行う。 ステップ102:マニピュレータ軌道の位置・姿勢が可
動範囲内であれば、ステップ100に移行し、可動範囲
外であれば、エラー表示を行う。 ステップ104:マニピュレータ1の位置・姿勢情報変
更処理を行う。 ステップ105:マニピュレータ軌道の位置・姿勢が可
動範囲内であるかを判断し、範囲内である場合にはステ
ップ100に移行し、範囲外であれば、エラー表示を行
う。
FIG. 9 is a flow chart showing a series of operations according to an embodiment of the present invention. Step 90: Obtain frame information from the display screen. Step 91: Obtain position / orientation information of the manipulator at the time of frame information collection. Step 92: Calculate world coordinates of the surface of the shape from the frame information and the robot position / orientation information based on the encoder values. Step 93: Looking at the display screen, select a contact point with the mouse 9. Step 94: Connect the contact points to obtain the contact point trajectory. Step 95: Select the contact point locus with the mouse 9. Step 96: Select a tool model. Step 97: Calculate the trajectory of the manipulator 1 from the contact point trajectory and the tool model. Step 98: It is judged whether or not the manipulator trajectory is within the movable range at the position / orientation changed for each operation of changing the position / orientation of the teaching point. This check is done using kinematic parameters. Step 99: If it is out of the movable range in Step 98, an error display is displayed. Step 100: Allocate to two events (step 101 or step 104) of the trajectory approximation process or the position / orientation information change process. Step 101: Approximate the trajectory. Step 102: If the position / orientation of the manipulator trajectory is within the movable range, the process proceeds to step 100, and if outside the movable range, an error is displayed. Step 104: The position / orientation information changing process of the manipulator 1 is performed. Step 105: It is determined whether the position / orientation of the manipulator trajectory is within the movable range, and if it is within the range, the process proceeds to step 100, and if it is outside the range, an error display is displayed.

【0051】[0051]

【発明の効果】上述のように、本発明によれば、利用者
は、滑らかな軌道をロボットに与えよるとするとき、教
示によって与えた教示点群の一つ一つの教示点の位置・
姿勢を修正するのではなく、一度の操作によって近似曲
線として滑らかな軌道を得ることができ、滑らかな軌道
生成を容易にすることができる。
As described above, according to the present invention, when the user gives a smooth trajectory to the robot, the position of each teaching point of the teaching point group given by teaching is
It is possible to obtain a smooth trajectory as an approximate curve by a single operation instead of correcting the posture, and it is possible to easily generate a smooth trajectory.

【0052】また、既に与えた軌道に対して教示点を追
加して、その位置・姿勢を正しく与えようとするとき、
及び既に教示した教示点の位置・姿勢を修正しようとす
るとき、軌道編集システムが軌道の近似曲線上に着目教
示点の位置を拘束して変化させることにより、利用者
は、その近似曲線上の前後の自由度に関しての指定をす
るだけでよく、位置の3自由度全てを指定することに比
べて、指定が大幅に簡単化される。
When a teaching point is added to an already given trajectory and its position / orientation is to be given correctly,
Also, when trying to correct the position / orientation of the teaching point that has already been taught, the trajectory editing system restricts the position of the teaching point of interest on the approximate curve of the trajectory and changes it, so that the user It is only necessary to specify the front and rear degrees of freedom, and the specification is greatly simplified as compared with the case of specifying all three degrees of freedom of the position.

【0053】指定の自由度が1自由度でよいため、例え
ば、マウスのような2変数入力装置を利用して入力する
ことができ、入力装置は、マウス、トラックボール等2
自由度入力装置、ダイアル等の1自由度入力装置などを
利用することができる。
Since the designated degree of freedom may be one degree of freedom, for example, a two-variable input device such as a mouse can be used for input, and the input device is a mouse, a trackball, or the like.
A degree-of-freedom input device, a one-degree-of-freedom input device such as a dial can be used.

【0054】教示点位置入力時にマニピュレータの可動
範囲のチェックを行うことにより、入力誤りが減少し、
また、実機を使用しなくとも、誤りに気付くことができ
るため、軌道入力時間全体を短縮することができる。
By checking the movable range of the manipulator at the teaching point position input, the input error is reduced,
Moreover, since the error can be noticed without using the actual machine, it is possible to shorten the entire trajectory input time.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第1の原理説明図である。FIG. 1 is a diagram illustrating the first principle of the present invention.

【図2】本発明の第2の原理説明図である。FIG. 2 is a diagram illustrating a second principle of the present invention.

【図3】本発明の一実施例のコンピュータシステムとロ
ボットシステムの構成図である。
FIG. 3 is a configuration diagram of a computer system and a robot system according to an embodiment of the present invention.

【図4】本発明の一実施例の動作を説明するための図で
ある。
FIG. 4 is a diagram for explaining the operation of the embodiment of the present invention.

【図5】本発明の一実施例の入力軌道を示す図である。FIG. 5 is a diagram showing an input trajectory according to an embodiment of the present invention.

【図6】本発明の一実施例の近似操作の適用例を示す図
である。
FIG. 6 is a diagram showing an application example of an approximation operation according to an embodiment of the present invention.

【図7】本発明の一実施例の教示点追加操作の画面を示
す図である。
FIG. 7 is a diagram showing a screen for a teaching point addition operation according to an embodiment of the present invention.

【図8】本発明の一実施例の動作可能範囲の指定エラー
表示例を示す図である。
FIG. 8 is a diagram showing an example of display of a designation error of an operable range according to an embodiment of the present invention.

【図9】本発明の一実施例の一連の動作を示すフローチ
ャートである。
FIG. 9 is a flowchart showing a series of operations according to an embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1 ロボット・マニピュレータ 2 センサ固定治具 3 レーザレンジスキャナ 4 照射レーザ光 5 コンピュータ・システム 6 表示装置 7 キーボード 8 キーボード接続ケーブル 9 マウス 10 マウス接続ケーブル 11 処理装置 12 マニピュレータ・コントローラ 13 コンピュータ接続ケーブル 14 加工ワーク 15 加工ワーク台 16 コンピュータ表示画面 17 主表示ウィンドウ 18 メニューバー 19 プルダウンメニュー 20 マウス・カーソル 21 座標アイコン 23 工具編集サブウィンドウ 24 フレーム編集サブウィンドウ 25 形状編集サブウィンドウ 26 選択ボタン 27 選択ボタン群 28 フレーム情報 29 接触点軌道 30 ロボット軌道 40 追加教示点 41 追加教示点の位置情報の入出力ボックス 42 アップダウンボタン 43 加速型アップダウンボタン 44 教示点移動ダイアログボックス 45 エラー表示ダイアログ 1 Robot Manipulator 2 Sensor Fixture 3 Laser Range Scanner 4 Irradiation Laser Light 5 Computer System 6 Display 7 Keyboard 8 Keyboard Connection Cable 9 Mouse 10 Mouse Connection Cable 11 Processing Device 12 Manipulator Controller 13 Computer Connection Cable 14 Workpiece 15 Machining worktable 16 Computer display screen 17 Main display window 18 Menu bar 19 Pulldown menu 20 Mouse cursor 21 Coordinate icon 23 Tool edit subwindow 24 Frame edit subwindow 25 Shape edit subwindow 26 Select button 27 Select button group 28 Frame information 29 Contact point Trajectory 30 Robot trajectory 40 Additional teaching point 41 Input / output box for position information of additional teaching point 42 Updow Button 43 accelerated up-down buttons 44 taught points move dialog box 45 error display dialog

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 表示装置を有するコンピュータ・システ
ムを利用して、ロボットの軌道を作成する方法であっ
て、 該コンピュータ・システムの該表示装置内にワークの形
状情報と該形状情報の中で該ワークのエッジを構成する
接触点を結んだ接触点軌道情報とロボット軌道情報を同
時に視覚的イメージに変換して表示し、 該表示装置の表示画面上で利用者により指定されたロボ
ット軌道情報に対する変更操作に基づいて編集されたロ
ボット軌道情報の視覚的イメージを表示し、 該表示画面より該接触点または該ロボットの軌道を教示
する教示点を選択し、 該接触点または、該教示点の前後の順位を持つ点群の位
置に基づいて、それらの位置を代表する近似曲線を生成
し、 該位置の変更量を使用者に入力させる変更入力を行い、 該変更入力に基づいて該近似曲線上に変更位置を生成
し、 変更された位置を表示することを特徴とするロボット軌
道を教示するための方法。
1. A method for creating a trajectory of a robot by using a computer system having a display device, comprising the shape information of a workpiece in the display device of the computer system and the shape information among the shape information. The contact point trajectory information connecting the contact points that form the edge of the work and the robot trajectory information are simultaneously converted into a visual image and displayed, and the robot trajectory information specified by the user on the display screen of the display device is changed. A visual image of the robot trajectory information edited based on the operation is displayed, a teaching point that teaches the contact point or the trajectory of the robot is selected from the display screen, and the contact point or the points before and after the teaching point are selected. Based on the positions of the point groups having ranks, an approximate curve representative of those positions is generated, a change input is made to cause the user to input the change amount of the position, and the change input A method for teaching a robot trajectory, which is characterized in that a changed position is generated based on the approximate curve and the changed position is displayed.
【請求項2】 前記接触点または前記教示点を選択した
点の直前または、直後に追加し、 前記接触点または前記教示点の位置が前記近似曲線上と
なるように位置を定める請求項1記載のロボット軌道を
教示するための方法。
2. The contact point or the teaching point is added immediately before or after the selected point, and the position is determined so that the position of the contact point or the teaching point is on the approximate curve. For teaching robot trajectories of robots.
【請求項3】 表示装置を有するコンピュータ・システ
ムを利用して、ロボットの軌道を作成する方法であっ
て、 該コンピュータ・システムの該表示装置内にワークの形
状情報と該形状情報のなかで、該ワークのエッジを構成
する接触点を結んだ接触点軌道情報とロボット軌道情報
を同時に視覚点イメージに変換して表示し、 該表示画面上で利用者により指定されたロボット軌道情
報に対する変更操作に基づいて編集されたロボット軌道
情報の視覚的イメージを表示し、 該表示画面より該接触点または該ロボットの軌道を教示
する教示点を選択し、ロボットの該教示点の位置・姿勢
の変更入力を受け付け、 該変更入力により変更された位置・姿勢を生成し、 変更された位置・姿勢がロボットの移動可能領域内にあ
るかを判別し、 判別結果を該表示画面に表示することを特徴とするロボ
ット軌道を教示するための方法。
3. A method of creating a trajectory of a robot by using a computer system having a display device, wherein the shape information of a workpiece and the shape information in the display device of the computer system, The contact point trajectory information connecting the contact points forming the edge of the work and the robot trajectory information are simultaneously converted into a visual point image and displayed, and the operation for changing the robot trajectory information specified by the user on the display screen is performed. A visual image of the robot trajectory information edited based on the display is displayed, a teaching point that teaches the contact point or the trajectory of the robot is selected from the display screen, and the position and orientation of the robot teaching point is changed and input. The position / orientation changed by receiving the change input is generated, it is determined whether or not the changed position / orientation is within the movable area of the robot, and the determination result is displayed. A method for teaching a robot trajectory, which is displayed on the display screen.
JP25286192A 1992-09-22 1992-09-22 Method for teaching robot orbit Pending JPH06102919A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP25286192A JPH06102919A (en) 1992-09-22 1992-09-22 Method for teaching robot orbit

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP25286192A JPH06102919A (en) 1992-09-22 1992-09-22 Method for teaching robot orbit

Publications (1)

Publication Number Publication Date
JPH06102919A true JPH06102919A (en) 1994-04-15

Family

ID=17243190

Family Applications (1)

Application Number Title Priority Date Filing Date
JP25286192A Pending JPH06102919A (en) 1992-09-22 1992-09-22 Method for teaching robot orbit

Country Status (1)

Country Link
JP (1) JPH06102919A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008020993A (en) * 2006-07-11 2008-01-31 Tookin:Kk Teaching data preparation device for working robot
JP2010182210A (en) * 2009-02-06 2010-08-19 Fanuc Ltd Robot teaching program correction apparatus
JP2014136275A (en) * 2013-01-16 2014-07-28 Yaskawa Electric Corp Robot teaching system, robot teaching program generation method, and teaching tool
WO2016151668A1 (en) * 2015-03-20 2016-09-29 富士機械製造株式会社 Teaching device and method for generating control information
WO2016151667A1 (en) * 2015-03-20 2016-09-29 富士機械製造株式会社 Teaching device and method for generating control information
JP2021070065A (en) * 2019-10-29 2021-05-06 ファナック株式会社 Robot system
JP2023130675A (en) * 2022-03-08 2023-09-21 株式会社安川電機 Robot controller and control method
US11839971B2 (en) 2020-07-22 2023-12-12 Seiko Epson Corporation Teaching control method for robot, robot system, and computer program

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008020993A (en) * 2006-07-11 2008-01-31 Tookin:Kk Teaching data preparation device for working robot
JP2010182210A (en) * 2009-02-06 2010-08-19 Fanuc Ltd Robot teaching program correction apparatus
JP2014136275A (en) * 2013-01-16 2014-07-28 Yaskawa Electric Corp Robot teaching system, robot teaching program generation method, and teaching tool
US9104981B2 (en) 2013-01-16 2015-08-11 Kabushiki Kaisha Yaskawa Denki Robot teaching system and method using imaging based on training position
WO2016151668A1 (en) * 2015-03-20 2016-09-29 富士機械製造株式会社 Teaching device and method for generating control information
WO2016151667A1 (en) * 2015-03-20 2016-09-29 富士機械製造株式会社 Teaching device and method for generating control information
JPWO2016151667A1 (en) * 2015-03-20 2018-02-15 富士機械製造株式会社 Teaching apparatus and control information generation method
JPWO2016151668A1 (en) * 2015-03-20 2018-02-15 富士機械製造株式会社 Teaching apparatus and control information generation method
US10754307B2 (en) 2015-03-20 2020-08-25 Fuji Corporation Teaching device and control information generation method
JP2021070065A (en) * 2019-10-29 2021-05-06 ファナック株式会社 Robot system
US11839971B2 (en) 2020-07-22 2023-12-12 Seiko Epson Corporation Teaching control method for robot, robot system, and computer program
JP2023130675A (en) * 2022-03-08 2023-09-21 株式会社安川電機 Robot controller and control method

Similar Documents

Publication Publication Date Title
EP2862678A2 (en) Teaching system and teaching method
US9731419B2 (en) System and method for programming robots
US5675229A (en) Apparatus and method for adjusting robot positioning
JP6553552B2 (en) Numerical controller with function to automate measurement operation using camera
CN110434856B (en) Welding control method and device, storage medium and welding robot
JP2006293826A (en) Apparatus for correcting robot program
KR20140104914A (en) Teaching system and teaching method
JP2004094399A (en) Control process for multi-joint manipulator and its control program as well as its control system
JP2008020993A (en) Teaching data preparation device for working robot
JPH06102919A (en) Method for teaching robot orbit
JP7259860B2 (en) ROBOT ROUTE DETERMINATION DEVICE, ROBOT ROUTE DETERMINATION METHOD, AND PROGRAM
JPH06110543A (en) Direct teaching device
JPH0699377A (en) Method for teaching robot track
JPH06134684A (en) Teaching method of robot track
CN112958974A (en) Interactive automatic welding system based on three-dimensional vision
JPH0699376A (en) Method and system for teaching robot track
JPH11272892A (en) Device and method for moving and arranging object in three-dimensional space display system
JPH0699378A (en) Method for teaching robot track
JPH05257522A (en) Offline teaching method for working robot
JPS62165213A (en) Work environment teaching device
JPH08286722A (en) Off-line teaching method using cad data and its system
CN109773581B (en) Method for applying robot to reappear machining
EP0573657B1 (en) Robot controller
JP2675200B2 (en) robot
JPH05303425A (en) Direct teaching type robot