JPH06134684A - Teaching method of robot track - Google Patents

Teaching method of robot track

Info

Publication number
JPH06134684A
JPH06134684A JP25286292A JP25286292A JPH06134684A JP H06134684 A JPH06134684 A JP H06134684A JP 25286292 A JP25286292 A JP 25286292A JP 25286292 A JP25286292 A JP 25286292A JP H06134684 A JPH06134684 A JP H06134684A
Authority
JP
Japan
Prior art keywords
tool
trajectory
robot
information
contact point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP25286292A
Other languages
Japanese (ja)
Inventor
Kazunari Kubota
一成 久保田
Minori Kamio
視教 神尾
Takashi Sakai
高志 酒井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP25286292A priority Critical patent/JPH06134684A/en
Publication of JPH06134684A publication Critical patent/JPH06134684A/en
Pending legal-status Critical Current

Links

Landscapes

  • Numerical Control (AREA)
  • Manipulator (AREA)

Abstract

PURPOSE:To provide a method to efficiently teach a robot track for generating track information with less error by way of lightening burden of a user at the time of inputting and editing information concerning the robot track. CONSTITUTION:By displaying a visual image of three-dimensional positional relation of a holding point and a working point of a tool in a display device of a computer system (S100-S101), and by displaying a visual image by way of changing the threedimensional positional relation in accordance with optional changing operation against the three-dimensional positional relation designated on a screen of the display device, a robot track is created from a contact point locus in accordance with the three-dimensional positional relation.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、ロボット軌道を教示す
るための方法及びシステムに係り、特に、ロボット教示
技術分野、ロボット・マニピュレータの制御技術分野、
及び人間と機械の対話に関するヒューマンインタフェー
ス技術分野に属するもので、具体的にはロボット使用者
がロボットに実行して貰いたい作業をロボットに効率的
に伝えるロボット作業教示装置(情報入力インタフェー
ス装置)を用いたロボット軌道を教示するための方法に
関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method and system for teaching a robot trajectory, and more particularly to a robot teaching technical field, a robot manipulator control technical field,
Also, it belongs to the field of human interface technology related to human-machine interaction, and specifically, a robot work teaching device (information input interface device) that efficiently conveys to the robot the work that the robot user wants the robot to perform. A method for teaching a used robot trajectory.

【0002】さらに詳しくは、対象とするワークの形状
にならった軌道をもつ加工作業一般の軌道情報をコンピ
ュータの表示に基づいて効率的に生成するために改良さ
れた方法に関する。
More specifically, the present invention relates to an improved method for efficiently generating trajectory information of a general machining operation having a trajectory that conforms to the shape of a target workpiece based on the display of a computer.

【0003】[0003]

【従来の技術】従来、ロボットの軌道教示には位置・姿
勢情報を教示するダイレクトティーチ法、リモートティ
ーチ法、間接ティーチ法及びオフラインティーチ法があ
る(引用文献:「ロボット工学ハンドブック」、日本ロ
ボット学会編、1990年コロナ社発行pp519-529 )。
2. Description of the Related Art Conventionally, there are a direct teach method, a remote teach method, an indirect teach method, and an offline teach method for teaching position / orientation information as a robot trajectory teaching (cited document: "Robot Engineering Handbook", The Robotics Society of Japan). Ed., Issued by Corona in 1990, pp519-529).

【0004】上記従来の第1の方法であるダイレクトテ
ィーチ法は、ロボットのアーム部を直接動かす方法であ
る。上記従来の第2の方法であるリモートティーチ法
は、ロボット本体から離れた場所において、ティーチン
グペンダントと呼ばれる教示装置でロボットアームに直
接触れることなく、教示を行う方法である。上記従来の
第3の方法である間接ティーチ法は、教示専用のマニピ
ュレーションアームを用意し、このアームの手先部が所
要の経路に沿って動作するように操作し、この時のアー
ム位置・姿勢を記憶させることにより教示を行う方法で
ある。上記従来の第4の方法であるオフラインティーチ
法は実際に作業を行うロボットを用いることなく、実作
業環境から離れて教示する方法である。この方法では、
すでに形状設計されたワークの幾何形状情報を利用して
ロボットの軌道を生成することができるため、作業者の
負担を大きく軽減できるという長所をもっている。
The above-mentioned first conventional direct teach method is a method of directly moving the arm portion of the robot. The above-mentioned second conventional method, the remote teach method, is a method of teaching at a location away from the robot body without directly touching the robot arm with a teaching device called a teaching pendant. In the above-mentioned third conventional method, the indirect teach method, a manipulation arm dedicated to teaching is prepared, and the hand portion of this arm is operated so as to move along a required path. This is a method of teaching by storing. The above-mentioned fourth conventional method, the offline teach method, is a method of teaching away from the actual work environment without using a robot that actually performs the work. in this way,
Since the trajectory of the robot can be generated by using the geometrical shape information of the work whose shape has been already designed, it has an advantage that the burden on the operator can be greatly reduced.

【0005】[0005]

【発明が解決しようとする課題】しかしながら、上記従
来の第1〜第3の方法はいずれも入力された軌道情報を
先ず表示し、変更作業を行うためには、数値で表現され
た軌道情報を文字表示装置に表示し、利用者はその表示
された行を指定してその数値を変更する必要がある。利
用者はそのために数値で表現された教示点の情報により
所望の位置の教示点を発見しなければならず、使用者に
熟練を強いるという欠点がある。また、教示点を所望の
位置・姿勢に修正するには、直接その数値を変更する
か、または、上記の教示方法を用いて再度その点の新し
いデータを取り込む必要があり、操作の繁雑さを招き、
教示作業の効率を低下させることがある。
However, in any of the above-mentioned first to third conventional methods, the entered trajectory information is first displayed, and in order to carry out the changing work, the trajectory information represented by numerical values is used. It is displayed on the character display device, and the user needs to specify the displayed line and change the numerical value. Therefore, the user has to discover the teaching point at a desired position from the information of the teaching point expressed by a numerical value, which has a disadvantage of compelling the user. In order to correct the teaching point to the desired position / orientation, it is necessary to change the numerical value directly or to retrieve new data of the point again by using the above teaching method, which complicates the operation. Beckoning
This may reduce the efficiency of teaching work.

【0006】また、上記従来の第4の方法であるオフラ
インティーチ法は、軌道教示にはCAD等によりすでに
生成されたワークの幾何形状情報を前提としているた
め、CADによるワークの形状情報を利用しづらい加工
作業には適用が困難である。
Further, since the above-mentioned fourth conventional method, the offline teach method, presupposes the geometrical shape information of the work already generated by CAD or the like in the trajectory teaching, the shape information of the work by CAD is used. It is difficult to apply to difficult work.

【0007】オフラインティーチ法で生成された軌道を
実作業環境で動作させようとすると、マニピュレータ、
治具、ワーク等の実環境での誤差要因により誤差が生じ
ることが多い。誤差を減少させるためにマニピュレータ
のキャリブレーションを綿密に行う等の対処が行われる
が、マニピュレータの繰り返し精度に比べ、キャリブレ
ーションで追い込んだ絶対精度は一般に大きく、現物合
わせが必要である。現物合わせによる軌道の修正は、上
記のダイレクトティーチ法と同様に繁雑な操作が必要と
なる。
When the trajectory generated by the off-line teach method is operated in a real work environment, the manipulator,
Errors often occur due to error factors in the actual environment such as jigs and workpieces. In order to reduce the error, measures such as meticulous calibration of the manipulator are taken, but the absolute accuracy driven by the calibration is generally large compared with the repeat accuracy of the manipulator, and actual matching is necessary. The correction of the orbit by matching the actual products requires a complicated operation as in the above direct teach method.

【0008】さらに、新しい製品に対応するために製造
ラインの更新サイクルが短くなるほど、ロボットの軌道
教示の駆動コストの示す割合が大きくなり、軌道教示の
効率が問題となる。また、上記の実環境の誤差の問題で
最初に入力された軌道を最終的な軌道に編集する編集・
調整作業が軌道教示全体に占める割合が大きく、この部
分でのヒューマンインタフェースの改善の及ぼす影響は
大きい。
Furthermore, the shorter the update cycle of the manufacturing line to accommodate a new product, the larger the ratio of the drive cost of the robot trajectory teaching becomes, and the efficiency of the trajectory teaching becomes a problem. In addition, editing the trajectory entered first due to the error of the actual environment described above to the final trajectory
The adjustment work occupies a large proportion of the entire trajectory teaching, and the improvement of the human interface in this portion has a great influence.

【0009】また、上記の従来の方法は、いづれもマニ
ピュレータの位置・姿勢情報を教示するものであり、ロ
ボットの作業の位置・姿勢以外に力の目標及びマニピュ
レータとワークのあいだの相対的な柔らかさに関する設
定のためのコンプライアンス・マトリックス等の運動に
付随した情報を直接与えることができない。
In addition, the above-mentioned conventional methods teach the position / orientation information of the manipulator in any case, and in addition to the position / orientation of the work of the robot, the target of force and the relative softness between the manipulator and the work. It is not possible to directly give the information associated with the exercise such as the compliance matrix for setting the height.

【0010】また、いずれの方法でも教示点の位置・姿
勢を与えるコマンドの前後でパラメータ設定のコマンド
を挿入したり、あるいは、教示点を与えるコマンドの引
き数として与えるしかない。このような運動に付随した
情報を編集するには一般にテキスト編集エディタを用い
て、そのコマンド行を選択し、その行を書き換えること
によって行うため、コマンド行のサーチ・選択に労力が
かかる。さらに、同様なコマンドが多箇所に出現するた
め、本当に修正すべきコマンドの発見に手間取る、ある
いは、誤りが多い等の問題点がある。
In any of the methods, there is no choice but to insert a parameter setting command before or after the command for giving the position / orientation of the teaching point, or to give it as an argument of the command giving the teaching point. Editing the information associated with such exercise is generally performed by selecting the command line using a text editing editor and rewriting the line, which requires labor to search and select the command line. Further, since similar commands appear in many places, there is a problem that it takes time to find a command to be really corrected, or there are many errors.

【0011】本発明は上記の点に鑑みなされたもので、
上記問題点を解決し、ロボット軌道に関わる情報を入力
・編集する時の利用者の負担をできるだけ軽減し、誤差
の少ない軌道情報を効率的に生成するロボット軌道を教
示する方法を提供することを目的とする。
The present invention has been made in view of the above points,
It is an object of the present invention to provide a method for teaching a robot trajectory that solves the above problems, reduces the burden on the user when inputting / editing information related to the robot trajectory, and efficiently generates trajectory information with few errors. To aim.

【0012】[0012]

【課題を解決するための手段】図1は本発明の第1の原
理説明図を示す。
FIG. 1 shows a diagram for explaining the first principle of the present invention.

【0013】本発明は、表示装置を有するコンピュータ
・システムを利用してロボット軌道を作成する方法であ
って、コンピュータ・システムの表示装置内に工具の把
持点と作用点の3次元位置関係の視覚的イメージを表示
し(ステップ101)、表示装置の画面上で利用者によ
り指定された3次元位置関係に対する任意の変更操作に
基づいて3次元位置関係を変更して(ステップ102)
視覚的イメージを表示し(ステップ103)、3次元位
置関係に基づいて接触点軌跡からロボット軌道を生成す
る(ステップ104)。
The present invention is a method for creating a robot trajectory using a computer system having a display device, wherein a visual representation of a three-dimensional positional relationship between a gripping point of a tool and an action point is provided in the display device of the computer system. The dynamic image (step 101), and changes the three-dimensional positional relationship based on an arbitrary change operation for the three-dimensional positional relationship designated by the user on the screen of the display device (step 102).
A visual image is displayed (step 103), and a robot trajectory is generated from the contact point trajectory based on the three-dimensional positional relationship (step 104).

【0014】また、本発明は、ロボット軌道上で工具情
報を含むロボット軌道情報中のロボットが把持する工具
を交換する位置を検出し、検出した工具名の変化位置に
工具交換機の位置までの軌道、及び工具交換機が工具を
交換して戻る位置までの軌道を付加し、付加された軌道
の視覚的イメージを表示する。
Further, according to the present invention, a position on the robot trajectory in which the tool held by the robot is replaced in the robot trajectory information including the tool information is detected and the detected tool name change position is the trajectory up to the position of the tool changer. , And the tool changer replaces the tool and adds a trajectory to the returning position, and a visual image of the added trajectory is displayed.

【0015】図2は本発明の第2の原理説明図を示す。FIG. 2 shows a diagram for explaining the second principle of the present invention.

【0016】本発明は、ワークの形状を入力する形状入
力装置と表示装置を有するコンピュータ・システムを利
用してロボットの軌道を作成する方法であって、ロボッ
ト軌道の順にワーク上のロボットの工具との接触点の軌
跡を含む局部形状情報を入力し(ステップ200)、入
力された局部形状情報に基づいて工具がワークに接触す
べき接触点の正確な位置を接触点位置情報として認識し
(ステップ201)、接触点位置情報とロボット軌道の
進行方向とワークの局部形状情報に基づいてワーク上の
工具との接触点位置における局部座標系を生成し(ステ
ップ202)、コンピュータ・システムの表示装置内に
入力されたワークの局部形状情報と工具の接触点軌跡情
報と接触点位置における局部座標を同時に視覚的イメー
ジに変換して(ステップ203)表示し(ステップ20
4)、表示画面上で指定されたロボット軌道情報に対す
る変更操作に基づいて編集し(ステップ205)し、ロ
ボット軌道情報の視覚的イメージを表示装置上に表示す
る(ステップ206)。
The present invention is a method for creating a trajectory of a robot by using a computer system having a shape input device for inputting the shape of a work and a display device. The local shape information including the locus of the contact point is input (step 200), and the accurate position of the contact point where the tool should contact the work is recognized as the contact point position information based on the input local shape information (step 200). 201), based on the contact point position information, the traveling direction of the robot trajectory, and the local shape information of the work, a local coordinate system at the position of the contact point with the tool on the work is generated (step 202), and in the display device of the computer system. The local shape information of the workpiece, the contact point trajectory information of the tool, and the local coordinates at the contact point position input at the same time are converted into a visual image at the same time. -Up 203) display (step 20
4) Edit based on the change operation for the robot trajectory information designated on the display screen (step 205), and display a visual image of the robot trajectory information on the display device (step 206).

【0017】[0017]

【作用】本発明は、ロボットの工具の形状定義のための
パラメータ(工具上の接触点と把持点の空間位置関係)
を利用者から取り込み、取り込んだパラメータをグラフ
ィカル・ユーザインタフェースにより3次元情報を視覚
的に表示・修正し、その空間位置関係と接触点軌跡を演
算し、自動的にロボットの軌道を生成することにより、
工具上の接触点と把持点の空間位置関係の理解が容易に
なる。
The present invention is a parameter for defining the shape of a robot tool (the spatial positional relationship between the contact point and the grip point on the tool).
By capturing the parameters from the user, visually displaying and modifying the captured parameters using a graphical user interface, calculating the spatial positional relationship and contact point trajectory, and automatically generating the robot trajectory. ,
It becomes easy to understand the spatial positional relationship between the contact point and the grip point on the tool.

【0018】また、本発明は、軌道情報に工具種別の情
報を含み工具を交換する位置に工具交換器により工具を
交換して戻ってくるまでの軌道を自動的に付加すること
により、利用者はワークを加工するための軌道の認識に
集中できる。
Further, according to the present invention, by automatically adding the trajectory until the tool is exchanged and returned to the position where the tool is exchanged by including the information of the tool type in the trajectory information. Can concentrate on the recognition of trajectories for machining workpieces.

【0019】また、本発明は、ワークの形状情報に基づ
いて接触点軌跡を認識し、接触点とそのまわりの形状及
び接触点軌跡の進行方向に基づいて接触点に局部座標系
を一意に定める局部座標系を生成することにより、ロボ
ットの工具とワークとの接触点と把持点の空間的な位置
関係が与えられれば、ロボットの手首軌道を生成するこ
とができる。
Further, according to the present invention, the contact point locus is recognized based on the shape information of the work, and the local coordinate system is uniquely set at the contact point based on the shape of the contact point and its surroundings and the traveling direction of the contact point locus. By generating the local coordinate system, the wrist trajectory of the robot can be generated if the spatial positional relationship between the contact point between the tool and the work of the robot and the gripping point is given.

【0020】[0020]

【実施例】以下、本発明の軌道教示の方法について図面
と共に説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS A trajectory teaching method of the present invention will be described below with reference to the drawings.

【0021】図3は本発明の一実施例のコンピュータ・
システムとロボットシステムの構成を示す。同図におい
て、ロボットシステムはロボットマニピュレータ1、セ
ンサー固定治具2、レーザーレンジスキャナ3、照射レ
ーザ光4により構成され、コンピュータ・システム5
は、表示装置6、キーボード7、キーボード接続ケーブ
ル8、マウス9、マウス接続ケーブル10、処理装置1
1、マニピュレータ・コントローラ12、コンピュータ
接続ケーブル13により構成される。
FIG. 3 shows a computer according to an embodiment of the present invention.
The configuration of the system and robot system is shown. In the figure, the robot system comprises a robot manipulator 1, a sensor fixing jig 2, a laser range scanner 3, and an irradiation laser beam 4, and a computer system 5
Is a display device 6, a keyboard 7, a keyboard connection cable 8, a mouse 9, a mouse connection cable 10, a processing device 1
1, a manipulator / controller 12, and a computer connection cable 13.

【0022】コンピュータ・システム5の処理装置11
は、グラフィックプロセッサ、記憶装置、中央演算処理
装置(図示せず)を含むことが望ましく、本実施例では
ワークステーションを利用する。処理装置11には、表
示装置6、キーボード7及びグラフィック・ポインティ
ング装置であるマウス9が接続されている。表示装置6
はカラーモニタまたは、白黒モニタを利用してもよい。
キーボード7は標準のコンピュータキーボードとするこ
とが望ましく、キーボード接続ケーブル8により処理装
置11に結合される。
Processor 11 of computer system 5
Preferably includes a graphic processor, a storage device, and a central processing unit (not shown), and a workstation is used in this embodiment. A display device 6, a keyboard 7, and a mouse 9 which is a graphic pointing device are connected to the processing device 11. Display device 6
May use a color monitor or a black and white monitor.
The keyboard 7 is preferably a standard computer keyboard and is connected to the processing unit 11 by a keyboard connection cable 8.

【0023】なお、本実施例ではグラフィック・ポイン
ティング装置としてマウス9を用いるが、この例に限定
されることなく、ライトペンやタッチ画面、トラックボ
ール、ダイアルボタン等、どのようなグラフィックポイ
ンティング装置を用いてもよい。
Although the mouse 9 is used as the graphic pointing device in the present embodiment, the present invention is not limited to this example, and any graphic pointing device such as a light pen, a touch screen, a trackball, a dial button or the like can be used. May be.

【0024】ロボット・マニピュレータ1の先端にはレ
ーザ・レンジスキャナ3が結合されている。ロボット・
マニピュレータ1は各関節軸にエンコーダ(図示せず)
を含むことが望ましい。エンコーダにより、ロボット・
マニピュレータ1の位置・姿勢をキネマティック演算に
より求めることができる。ロボット・マニピュレータ1
はダンパーモードで制御されることによって、作業者
は、レーザレンジスキャナ3を把持して、ロボット・マ
ニピュレータ1の可操作域内の自由な位置・姿勢にレー
ザレンジスキャナ3を移動することができる。レーザレ
ンジスキャナ3を加工作業の軌道に沿って移動させ、移
動中にレーザ光を照射することによって、加工ワーク台
15上のワーク14の形状を計測する。
A laser range scanner 3 is connected to the tip of the robot manipulator 1. robot·
The manipulator 1 has an encoder (not shown) for each joint axis.
It is desirable to include. Robot by encoder
The position / orientation of the manipulator 1 can be obtained by kinematic calculation. Robot manipulator 1
By being controlled in the damper mode, the operator can grasp the laser range scanner 3 and move the laser range scanner 3 to any position and orientation within the operable range of the robot manipulator 1. The shape of the work 14 on the work table 15 is measured by moving the laser range scanner 3 along the trajectory of the working operation and irradiating the laser light during the movement.

【0025】一回のレーザ光照射によって得られる加工
ワーク14の形状を表す情報をフレーム情報という。レ
ーザ光を照射したときのレーザレンジスキャナ3の位置
・姿勢はその時のロボット・マニピュレータ1に含まれ
るエンコーダの値によって求められる。測定されたセン
サ情報とレーザ・レンジスキャナ3の位置・姿勢情報は
コンピュータ・システム5に転送される。
Information indicating the shape of the work 14 obtained by one laser irradiation is called frame information. The position / orientation of the laser range scanner 3 when the laser light is emitted is determined by the value of the encoder included in the robot manipulator 1 at that time. The measured sensor information and the position / orientation information of the laser range scanner 3 are transferred to the computer system 5.

【0026】コンピュータ・システム5は、レーザ光照
射によって測定されたフレーム情報とレーザレンジスキ
ャナ3の位置・姿勢情報とを演算することにより、世界
座標系におけるワークの形状の表面の位置情報を算出す
る。このワーク14の表面の位置情報はサーフェスモデ
ルと呼ばれる。
The computer system 5 calculates the position information of the surface of the shape of the work in the world coordinate system by calculating the frame information measured by laser light irradiation and the position / orientation information of the laser range scanner 3. . The positional information on the surface of the work 14 is called a surface model.

【0027】本発明では、ワーク形状のサーフェスモデ
ルを得るために、ロボット・マニピュレータ1とレーザ
レンジスキャナ3を使用するが、本発明を実現するため
には、CAD(Computer Aided Design)システムや、3
次元レーザデジタイジングシステム等のどのようなサー
フェスモデル生成装置を利用して本発明の方法を実施し
てもよい。
In the present invention, the robot manipulator 1 and the laser range scanner 3 are used to obtain the surface model of the work shape. To realize the present invention, a CAD (Computer Aided Design) system or 3 is used.
Any surface model generator, such as a two-dimensional laser digitizing system, may be utilized to implement the method of the present invention.

【0028】ロボット・マニピュレータ1はマニピュレ
ータ・コントローラ12に接続されており、マニピュレ
ータ・コントローラ12は、コンピュータ・システム5
から転送されたロボットの位置・姿勢目標値に基づいて
目標位置姿勢となるようロボット・マニピュレータ1を
制御する。
The robot manipulator 1 is connected to a manipulator controller 12, and the manipulator controller 12 is a computer system 5.
The robot manipulator 1 is controlled so as to attain the target position / orientation based on the position / orientation target value of the robot transferred from.

【0029】また、本実施例では、ロボット・マニピュ
レータ1は、6自由度垂直多関節型ロボットが使用され
ているが、目標位置・姿勢に手首を制御できるどのよう
なロボット・マニピュレータを用いてもよい。
Further, in the present embodiment, the robot manipulator 1 is a 6-DOF vertical articulated robot, but any robot manipulator capable of controlling the wrist to a target position / posture can be used. Good.

【0030】図4は、本発明の一実施例の動作を説明す
るための図を示す。同図にはコンピュータ表示画面16
が表示されている。このコンピュータ表示画面16に
は、主表示ウィンドウ17、メニューバー18、プルダ
ウンメニュー19、マウス・カーソル20、座標アイコ
ン21、工具編集サブウィンンドウ23、フレーム編集
サブウィンドウ24、形状編集サブウィンドウ25、選
択ボタン26、選択ボタン群27、フレーム情報28、
接触点軌跡29、ロボット軌道30が示される。
FIG. 4 is a diagram for explaining the operation of one embodiment of the present invention. A computer display screen 16 is shown in FIG.
Is displayed. The computer display screen 16 includes a main display window 17, a menu bar 18, a pull-down menu 19, a mouse cursor 20, a coordinate icon 21, a tool editing subwindow 23, a frame editing subwindow 24, a shape editing subwindow 25, and a selection button 26. , Selection button group 27, frame information 28,
A contact point trajectory 29 and a robot trajectory 30 are shown.

【0031】表示画面16の主表示ウィンドウ17には
対象とするワーク14から得られた多数のフレーム情報
と、それぞれのフレーム情報のなかで定められた接触点
を結んだ接触点軌跡29及びロボット軌道30が表示さ
れている。フレーム情報はサーフェスモデルに含まれる
観測点群により構成され、このフレーム情報に含まれる
観測点群は順に接続されている。この実施例ではフレー
ム情報のなかでワーク14のエッジを構成する点が接触
点であり、接触点軌跡29は、接触点が順次接続されて
表示されたものである。
In the main display window 17 of the display screen 16, a large number of frame information obtained from the target work 14, a contact point locus 29 connecting the contact points defined in each frame information, and a robot trajectory. 30 is displayed. The frame information is composed of observation point groups included in the surface model, and the observation point groups included in this frame information are connected in order. In this embodiment, points constituting the edge of the work 14 in the frame information are contact points, and the contact point locus 29 is displayed by sequentially connecting the contact points.

【0032】なお、ワーク14のサーフェスモデルの表
示は、本実施例のような複数のフレーム情報による表示
の他に三角パッチ等の平面パッチ法のようなどのような
表示法を利用して実施してもよい。
The surface model of the work 14 is displayed by using any display method such as a plane patch method such as a triangular patch in addition to the display by a plurality of frame information as in this embodiment. May be.

【0033】次に、メニューバー18をマウスカーソル
20でクリックすることによりプルダウンメニュー19
が表示される。利用者は、プルダウンメニュー19に含
まれるコマンドをマウスカーソル20で選択することに
より、コマンドを指定する。
Then, by clicking the menu bar 18 with the mouse cursor 20, the pull-down menu 19 is displayed.
Is displayed. The user specifies a command by selecting the command included in the pull-down menu 19 with the mouse cursor 20.

【0034】なお、コマンドの選択法は、本実施例のよ
うなプルダウンメニュー19の他のグラフィカルユーザ
インタフェースに基づく指定法を利用して本発明を実施
してもよい。
As a method of selecting a command, the present invention may be carried out by using a designation method based on another graphical user interface of the pull-down menu 19 as in this embodiment.

【0035】なお、上記のことから、コマンド選択法は
いわゆるグラフィカルインターフェース標準、例えば、
アップル社の提唱するツールボックス或いは、オープン
ソフトウェア社の提唱するOSF/Motif などを利用し
て本発明を実施してもよい。
From the above, the command selection method is a so-called graphical interface standard, for example,
The present invention may be implemented using a tool box proposed by Apple Inc. or an OSF / Motif proposed by Open Software Inc.

【0036】選択ボタン群27は、複数の選択ボタン2
6によって構成される。選択ボタン26は例えばフレー
ム情報を表示するかしないかのオン・オフを指定するた
めに用いられる。表示のオン・オフの指定には選択ボタ
ンのほかにもメニューダイアログボックス等どのような
ユーザインタフェースを用いてもよい。
The selection button group 27 includes a plurality of selection buttons 2.
It is composed of 6. The selection button 26 is used, for example, to specify whether to display frame information or not. In addition to the selection button, any user interface such as a menu dialog box may be used to specify the display on / off.

【0037】次に動作について説明する。Next, the operation will be described.

【0038】利用者は、ダンパー制御されたロボット・
マニピュレータの選択部を持ち、レーザレンジスキャナ
3をワーク14上での接触点軌跡となるべき軌跡をレー
ザレンジスキャナ3のスキャン領域の中に常に含むよう
にしてロボット・マニピュレータ1を移動させる。な
お、ロボット・マニピュレータ1の移動については、利
用者が設定した概略軌道上をロボット・マニピュレータ
1を移行させるようにしてもよい。
The user is a robot controlled by a damper.
The robot manipulator 1 is moved so as to have a manipulator selection unit so that the locus which should be the locus of the contact point on the work 14 is always included in the scanning area of the laser range scanner 3. Regarding the movement of the robot / manipulator 1, the robot / manipulator 1 may be moved on a rough trajectory set by the user.

【0039】レーザレンジスキャナ3は移動中、一定間
隔あるいは、利用者の指定したタイミングでワーク14
の形状を計測する。レーザレンジスキャナ3が1回に計
測する情報をフレーム情報(図示せず)と呼ぶ。フレー
ム情報を計測した時点のレーザレンジスキャナ3の世界
座標系における位置・姿勢情報はロボット・マニピュレ
ータ1の各関節に設置されたエンコーダ(図示せず)に
基づいて生成される。この位置・姿勢情報をロボット位
置・姿勢情報と呼ぶ。計測したフレーム情報とロボット
位置・姿勢情報は逐次コンピュータ・システム5に転送
されるか、あるいは、移動中の情報を蓄えておいて、運
動終了後にコンピュータ・システム5に一括転送され
る。
The laser range scanner 3 moves the work 14 at a constant interval or at a timing designated by the user while moving.
Measure the shape of. The information measured by the laser range scanner 3 at one time is called frame information (not shown). The position / orientation information in the world coordinate system of the laser range scanner 3 at the time when the frame information is measured is generated based on an encoder (not shown) installed in each joint of the robot manipulator 1. This position / orientation information is called robot position / orientation information. The measured frame information and the robot position / orientation information are sequentially transferred to the computer system 5, or the information during movement is stored and collectively transferred to the computer system 5 after the end of exercise.

【0040】コンピュータ・システム5は転送されたフ
レーム情報とロボット位置・姿勢情報をもとにフレーム
情報を世界座標系に変換し、主表示ウィンドウ17にフ
レーム情報28として表示する。主表示ウィンドウ17
に表示されたフレーム群はワーク14の形状を表す形状
情報として利用者が利用することができる。フレーム情
報28には接触点が含まれている。ユーザインタフェー
スを通じて利用者がそれぞれのフレーム情報に対し1点
の接触点を定め、さらに、接触点情報の連鎖を接触点軌
跡として、主表示ウィンドウ17に表示する。この接触
点軌跡に対し、利用者はその接触点軌跡をもとに軌道の
軌跡をユーザインタフェースを用いて入力する。
The computer system 5 converts the frame information into the world coordinate system based on the transferred frame information and the robot position / orientation information, and displays it in the main display window 17 as frame information 28. Main display window 17
The frame group displayed in can be used by the user as shape information representing the shape of the work 14. The frame information 28 includes contact points. The user defines one contact point for each frame information through the user interface, and further displays a chain of contact point information as a contact point trajectory in the main display window 17. For this contact point trajectory, the user inputs the trajectory of the trajectory based on the contact point trajectory using the user interface.

【0041】形状点軌跡及び軌道はそれぞれ形状点及び
教示点で構成されている。表示画面16中ではフレーム
情報28、形状点、形状軌跡29、教示点、軌道30等
が選択対象となる。この場合の選択はマウス9の操作に
よって、画面中を移動するマウス・カーソルを上記の選
択対象上に持ってきた後、マウス9のボタンをクリック
することにより行う。選択された対象の位置・姿勢はマ
ウスを操作することにより行う。位置・姿勢の操作は、
マウス以外の多次元データの入力装置を用いて行っても
よい。
The shape point locus and the trajectory are composed of a shape point and a teaching point, respectively. In the display screen 16, the frame information 28, the shape points, the shape locus 29, the teaching point, the trajectory 30, and the like are selection targets. In this case, the selection is performed by operating the mouse 9 to bring the mouse cursor moving on the screen over the selection target and then clicking the button of the mouse 9. The position / orientation of the selected target is operated by operating the mouse. Position and posture operations
You may perform using the input device of multidimensional data other than a mouse.

【0042】図5は本発明の一実施例のツール定義ウィ
ンドウの側を示す。同図において、コンピュータ表示画
面16内のダイアログウィンドウ枠38内に、属性指定
・表示枠31、アップダウンボタン32、加速側アップ
ダウンボタン33、コントロールバー34、スライダ3
5があり、ツール定義ウィンドウ53には、工具把持座
標51、工具作業座標52が表示される。
FIG. 5 shows the tool definition window side of one embodiment of the present invention. In the figure, in a dialog window frame 38 in the computer display screen 16, an attribute designation / display frame 31, an up / down button 32, an acceleration side up / down button 33, a control bar 34, a slider 3 are shown.
5, the tool definition window 53 displays the tool gripping coordinates 51 and the tool work coordinates 52.

【0043】同図において、利用者が軌道編集システム
を用いてツール定義を行う場合にはツール定義ウィンド
ウ53をクリックしてツール定義ウィンドウ53を主表
示ウィンドウ17にスワップさせることにより、ツール
定義ウィンドウ53を表示する。但し、ツール定義がす
でに行われている場合にはメニュー(選択ボタン群2
7)よりツール表示を選択し、「ツールライブラリ」コ
マンドを起動させ、ツールライブラリから目的とする工
具を選択してツール定義ウィンドウ53に表示する。
In the figure, when the user defines a tool by using the trajectory editing system, the tool definition window 53 is clicked to swap the tool definition window 53 with the main display window 17, thereby creating the tool definition window 53. Is displayed. However, if the tool definition has already been performed, the menu (selection button group 2
Select the tool display from 7), activate the "tool library" command, select the target tool from the tool library, and display it in the tool definition window 53.

【0044】利用者が工具を新たに定義する場合には、
メニューから「新ツール定義」コマンドを起動させる
と、システムは工具把持座標51を画面に表示すると同
時に、工具の接触点位置・姿勢を入力するためのダイア
ログウィンドウ枠38を画面に表示させる。利用者は、
工具把持座標に対する接触点位置をダイアログウィンド
ウ枠38のX,Y,Zの入力ボックスを用いて指定を行
う。これによって画面には接触点位置が表示され、接触
点と把持点とは直線で結ばれて表示される。
When a user newly defines a tool,
When the "define new tool" command is activated from the menu, the system displays the tool gripping coordinates 51 on the screen and at the same time displays the dialog window frame 38 for inputting the contact point position / orientation of the tool on the screen. The user is
The contact point position with respect to the tool gripping coordinate is specified using the X, Y, and Z input boxes of the dialog window frame 38. As a result, the contact point position is displayed on the screen, and the contact point and the grip point are connected by a straight line and displayed.

【0045】工具の加工対象であるワーク14にも接触
点が存在するため、そのワーク14の接触点の周りに接
触点座標が規定されている。ワーク14の接触点座標は
後述する形状からの認識によって与えられる。また、認
識をせずに利用者が軌道教示システムを利用して形状情
報として、接触点座標を与えることも可能である。
Since a contact point also exists on the work 14 which is the machining target of the tool, contact point coordinates are defined around the contact point of the work 14. The coordinates of the contact point of the work 14 are given by recognition from the shape described later. It is also possible for the user to give the contact point coordinates as shape information using the trajectory teaching system without recognition.

【0046】ツール定義の利用者は、ワーク14に対す
るロボットの工具の接触姿勢を定義するために接触点で
の工具の接触点座標の姿勢をダイアログウィンドウ枠3
8のO,A,Tを用いて指定する。O,A,Tはオイラ
ー角を表している。利用者の接触姿勢定義により工具作
業座標52が表示される。利用者が接触姿勢を変更する
都度、表示された工具作業座標52の表示も変化する。
The user of the tool definition defines the attitude of the tool contact point coordinates at the contact point in order to define the contact attitude of the robot tool with respect to the work 14 in the dialog window frame 3
Designate using O, A, and T of 8. O, A and T represent Euler angles. Tool work coordinates 52 are displayed according to the contact attitude definition of the user. Each time the user changes the contact attitude, the displayed tool work coordinate 52 also changes.

【0047】形状点軌跡上の接触点は、その属性とし
て、接触点座標を持つ。この接触点座標を与えるために
本実施例ではフレーム情報をもとにした接触点座標の計
算を行う。
The contact point on the shape point locus has contact point coordinates as its attribute. In order to provide the contact point coordinates, in this embodiment, the contact point coordinates are calculated based on the frame information.

【0048】図6は本発明の一実施例の接触座標処理の
フローチャートを示す。
FIG. 6 shows a flow chart of the contact coordinate processing of one embodiment of the present invention.

【0049】ステップ10:利用者はマウス9を用い
て、座標を与える接触点軌跡を選択する。
Step 10: The user uses the mouse 9 to select the locus of the contact point which gives the coordinates.

【0050】ステップ11:接触点軌跡を選択した状態
で、例えばマウス9を操作してメニューバー18の中の
例えば「編集」というメニューをマウスボタンを押下し
て選択し、押下したままメニューの中で例えば「姿勢計
算」というコマンドをクリックすると“左(L)”、
“右(R)”、“中央(C)”の3個のサブメニューが
表示されるので、対象とする作業に従ってそのいずれか
を選択する。
Step 11: With the contact point locus selected, the mouse 9 is operated, for example, to select a menu such as "Edit" in the menu bar 18 by pressing the mouse button, and the menu is kept pressed. Then, for example, if you click the command "posture calculation", "left (L)",
Since three submenus of "right (R)" and "center (C)" are displayed, one of them is selected according to the target work.

【0051】このような3個のサブメニューから
“左”、“右”、“中央”のいずれかを選択することを
本実施例ではLRC選択と呼ぶ。LRC選択は接触点上
の座標を決定する3種のルールのいずれかを選択するた
めのものである。3種のルールを以下に説明する。
Selection of any one of "left", "right" and "center" from such three submenus is called LRC selection in this embodiment. The LRC selection is for selecting any of the three rules that determine the coordinates on the contact point. The three types of rules are described below.

【0052】「Lルール」:接触点の進行方向をX方向
とし、進行方向の左の面に含まれてX方向に直角な方向
をZ方向として座標を決定する。
"L rule": The direction of travel of the contact point is defined as the X direction, and the direction perpendicular to the X direction included in the left surface of the travel direction is defined as the Z direction to determine the coordinates.

【0053】「Rルール」:接触点の進行方向をX方向
とし、進行方向の右の面に含まれ、X方向に直角な方向
をZ方向として座標を決定する。
"R rule": The coordinate of the contact point is determined with the X direction as the traveling direction and the Z direction as a direction included in the right surface of the traveling direction and perpendicular to the X direction.

【0054】「Cルール」:接触点の進行方向をX方向
とし、X方向に垂直な面上で進行方向の左右の面との交
線の中心線でワーク14の外側に向かう方向をZ方向と
して座標を決定する。
"C rule": The traveling direction of the contact point is defined as the X direction, and the direction toward the outside of the work 14 at the center line of the intersection line with the left and right surfaces in the traveling direction on the plane perpendicular to the X direction is the Z direction To determine the coordinates.

【0055】ステップ12:ワーク14から得られた接
触点を含むフレーム情報を取り出す。
Step 12: The frame information including the contact points obtained from the work 14 is taken out.

【0056】ステップ13:取り出されたフレーム情報
より接触点を決定する。
Step 13: The contact point is determined from the extracted frame information.

【0057】ステップ14:コマンド実行により、接触
点軌跡に含まれる全ての接触点について接触点の進行方
向をX方向として定める。これにより接触点の進行方向
ベクトルの決定が行われる。
Step 14: By executing the command, the traveling direction of the contact points is determined as the X direction for all the contact points included in the contact point trajectory. Thereby, the traveling direction vector of the contact point is determined.

【0058】ステップ15:選択されたLRCルールに
従い、接触点が含まれるフレーム情報からフレームの方
向ベクトルを定める。
Step 15: According to the selected LRC rule, the frame direction vector is determined from the frame information including the contact point.

【0059】ステップ16:選択されたルールがLルー
ルまたはRルールの場合にはステップ18に移行する。
Step 16: If the selected rule is the L rule or the R rule, the process proceeds to step 18.

【0060】ステップ17:選択されたルールがCルー
ルの場合には、X方向に垂直な面上で進行方向の左右の
面との交線の中心線でワーク14の外側に向かう方向を
Z方向と決定する。ステップ19に移行する。
Step 17: When the selected rule is the C rule, the direction toward the outside of the work 14 is the Z direction with respect to the center line of the intersection line with the left and right surfaces in the traveling direction on the surface perpendicular to the X direction. To decide. Go to step 19.

【0061】ステップ18:選択されたルールがLルー
ルまたはRルールの場合には、方向とフレーム方向ベク
トルのなす面上でX方向に直角なベクトル方向をZ方向
として決定する。
Step 18: When the selected rule is the L rule or the R rule, the vector direction perpendicular to the X direction on the plane formed by the direction and the frame direction vector is determined as the Z direction.

【0062】ステップ19:X方向とZ方向が決定され
れば、座標系の姿勢が決定されるのでY方向も決まる。
この座標系決定操作を全ての接触点について行うとコマ
ンド実行は終了する。この時、各接触点の姿勢が表示さ
れていれば、表示姿勢は新しいものが表示される。
Step 19: If the X and Z directions are determined, the attitude of the coordinate system is also determined, so the Y direction is also determined.
When this coordinate system determination operation is performed for all contact points, command execution ends. At this time, if the attitude of each contact point is displayed, the new display attitude is displayed.

【0063】本実施例では、利用者は軌道生成コマンド
を選択することにより、ツール定義により入力したワー
ク14の接触点座標をワーク14の接触点における接触
点座標と一致するようにツールの位置・姿勢を求めるこ
とにより、ツールの把持座標が決定され、マニピュレー
タ1の手首軌道を自動的に算出して表示する。
In this embodiment, the user selects the trajectory generation command to position the tool so that the contact point coordinates of the work 14 input by the tool definition match the contact point coordinates at the contact point of the work 14. The grip coordinates of the tool are determined by obtaining the posture, and the wrist trajectory of the manipulator 1 is automatically calculated and displayed.

【0064】本実施例では、利用者が軌道を選択した状
態で、例えば、マウスを操作して、メニューバー18内
の「編集」というメニューをマウスボタンを押下して選
択し、マウスボタンを押下したままメニューのなかで
「工具交換軌道追加」というコマンドをクリックする
と、予め定められたツールチェンジャのデータ構造をも
とに作成されたツールチェンジャへマニピュレータ1の
手首が移動してツールを交換し、もとの教示点に復帰す
るまでの一連の動作の軌道が姿勢され、もとの軌道に付
加されて表示される。
In the present embodiment, with the user selecting a trajectory, for example, by operating the mouse, the menu "Edit" in the menu bar 18 is selected by pressing the mouse button and the mouse button is pressed. If you click the command "Add tool change path" in the menu as it is, the wrist of the manipulator 1 moves to the tool changer created based on the predetermined data structure of the tool changer, and the tool is changed. The trajectory of a series of motions until returning to the original teaching point is postured, added to the original trajectory, and displayed.

【0065】本実施例では各教示点の属性にはその教示
点を通過するときに保持している工具名が与えられてい
る。上記の「工具交換軌道追加」コマンドでは以下の処
理が行われる。
In this embodiment, the attribute of each teaching point is given the name of the tool held when the teaching point is passed. The following processing is performed by the above-mentioned "tool change trajectory addition" command.

【0066】図7は本発明の一実施例の工具交換軌道付
加処理を表すフローチャートを示す。
FIG. 7 is a flow chart showing the tool change trajectory adding process of the embodiment of the present invention.

【0067】ステップ70:利用者がコンピュータ表示
画面16より軌道の選択を行う。
Step 70: The user selects a trajectory on the computer display screen 16.

【0068】ステップ71:コンピュータ表示画面16
のメニューバー18より「編集」を選択し、「工具交換
軌道追加」コマンドを選択する。
Step 71: Computer display screen 16
Select "Edit" from the menu bar 18 of and then select the "Add Tool Change Trajectory" command.

【0069】ステップ72:ここで、追加位置の前の工
具の有無、追加位置の後の工具の有無等工具交換軌道追
加の位置におけるその前後の教示点の工具名属性に従っ
て処理を選択する。追加位置の前に工具がない場合で工
具を新たに付加する場合にはステップ79に移行し、追
加位置の前に工具があり、この工具を取り外す場合には
ステップ80に移行する。
Step 72: Here, the processing is selected according to the tool name attribute of the teaching point before and after the tool replacement trajectory addition position such as the presence or absence of the tool before the addition position and the presence or absence of the tool after the addition position. If there is no tool before the additional position and a new tool is added, the process proceeds to step 79, and if there is a tool before the additional position and the tool is removed, the process proceeds to step 80.

【0070】ステップ73:工具を交換する場合には最
終教示点から工具取り外し接近点への軌道の生成を行
う。
Step 73: When the tool is replaced, a trajectory from the final teaching point to the tool removal approach point is generated.

【0071】ステップ74:コンピュータ表示画面16
より取外し点への軌道を生成する。
Step 74: Computer display screen 16
Generate a trajectory to a more detached point.

【0072】ステップ75:取外し離脱点への軌道を生
成する。
Step 75: Generate a trajectory to the detaching / separating point.

【0073】ステップ76:撞着接近点への軌道を生成
する。
Step 76: Generate a trajectory to the adhesion approach point.

【0074】ステップ77:工具の装着点への軌道を生
成する。
Step 77: Generate a trajectory to the mounting point of the tool.

【0075】ステップ78:装着離脱点へのロボット軌
道を生成する。ステップ83に移行する。
Step 78: Generate a robot trajectory to the attachment / detachment point. Control goes to step 83.

【0076】ステップ79:工具を装着する場合には、
最終教示点から装着接近点への軌道を生成する。ステッ
プ83に移行する。 ステップ80:工具を取り外す場合には、最終教示点か
ら工具取外し接近点への軌道を生成する。
Step 79: When mounting a tool,
A trajectory from the final teaching point to the mounting approach point is generated. Control goes to step 83. Step 80: When removing the tool, generate a trajectory from the final teaching point to the tool removal approach point.

【0077】ステップ81:工具取外し点への軌道を生
成する。
Step 81: Generate a trajectory to the tool removal point.

【0078】ステップ82:取外し離脱点への軌道生成
を行う。
Step 82: Removal A trajectory is generated to the departure point.

【0079】ステップ83:現在の教示点への軌道を生
成する。
Step 83: Generate a trajectory to the current teaching point.

【0080】上記のフローチャートにおいて、工具交換
軌道追加の位置におけるその前後の教示点の工具名属性
に従って、3通りの方法がある。工具を追加する位置の
前に工具が無い場合には、後の教示点で利用する工具を
ツールチェンジャで把持して元の教示点位置に復帰す
る。本実施例ではツールチェンジャは、ツールチェンジ
ャが保有する工具毎に工具の装着点、装着接近点、装着
離脱点、取外し点、取外し接近点、取外し離脱点の位置
及び手首姿勢等のデータが格納されている。軌道編集シ
ステムでは、図7に示したフローチャートに基づいて工
具交換軌道を生成し、ロボット軌道に付加して表示装置
に表示する。
In the above flow chart, there are three methods according to the tool name attribute of the teaching point before and after the position where the tool change trajectory is added. When there is no tool before the position where the tool is added, the tool used at the later teaching point is grasped by the tool changer and returned to the original teaching point position. In this embodiment, the tool changer stores data such as tool attachment point, attachment approach point, attachment detachment point, detachment point, detachment approach point, detachment detachment point position and wrist posture for each tool held by the tool changer. ing. The trajectory editing system generates a tool exchange trajectory based on the flowchart shown in FIG. 7, adds it to the robot trajectory, and displays it on the display device.

【0081】[0081]

【発明の効果】上述のように本発明によれば、利用者
は、工具定義のためのコマンドを選択し、工具の把持座
標に対する接触点の位置と工具姿勢の両方を同時に表す
接触点座標を工具の形状定義のためのパラメータとして
容易に入力することができ、取り込んだパラメータをグ
ラフィカル・ユーザインターフェースにより3次元情報
を視覚的に表示することのより、工具上の接触点と把持
点の空間位置関係の理解が容易になり、正確な情報入力
までの利用者の手間を大幅に削減できる。
As described above, according to the present invention, the user selects a command for defining a tool and displays the contact point coordinates that represent both the position of the contact point and the tool posture with respect to the gripping coordinates of the tool at the same time. It can be easily input as a parameter for defining the shape of the tool, and the captured parameter can be displayed graphically as three-dimensional information using a graphical user interface, so that the spatial positions of the contact point and the grip point on the tool can be determined. It becomes easier to understand the relationship, and the time and effort of the user to enter accurate information can be greatly reduced.

【0082】また、ワークの形状情報をもとに接触点軌
跡を認識することにより、接触点とそのまわりの形状及
び接触点軌跡の進行方向をもとにその接触点に局部座標
系を一意に定める局部座標系を生成し、ツール定義によ
る工具の接触点と把持点の空間的な位置関係を定義する
ことによりロボットの手首軌道を自動的に生成すること
ができる。
Further, by recognizing the contact point trajectory based on the shape information of the work, the local coordinate system is uniquely set at the contact point based on the contact point and the shape around the contact point and the traveling direction of the contact point trajectory. By generating a local coordinate system to be defined and defining the spatial positional relationship between the contact point and the grip point of the tool by the tool definition, the wrist trajectory of the robot can be automatically generated.

【0083】また、工具交換のため工具のモデルと工具
交換器のモデルを保有し、それらの情報に基づいて軌道
を生成することにより、軌道情報に工具種別の情報を含
む工具が変化する位置まで工具交換器が移動し、工具を
交換して戻ってくるまでの軌道を自動的に付加すること
ができる。
Further, a tool model and a tool changer model are held for tool exchange, and a trajectory is generated on the basis of these pieces of information, so that a tool including the tool type information in the trajectory information can be used up to a position where the tool changes. It is possible to automatically add a path for the tool changer to move, change tools, and return.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第1の原理説明図である。FIG. 1 is a diagram illustrating the first principle of the present invention.

【図2】本発明の第2の原理説明図である。FIG. 2 is a diagram illustrating a second principle of the present invention.

【図3】本発明の一実施例のコンピュータ・システムと
ロボットシステムの構成図である。
FIG. 3 is a configuration diagram of a computer system and a robot system according to an embodiment of the present invention.

【図4】本発明の一実施例の動作を説明するための図で
ある。
FIG. 4 is a diagram for explaining the operation of the embodiment of the present invention.

【図5】本発明の一実施例のツール定義ウィンドウの例
を示す図である。
FIG. 5 is a diagram showing an example of a tool definition window according to an embodiment of the present invention.

【図6】本発明の一実施例の接触座標処理のフローチャ
ートである。
FIG. 6 is a flowchart of contact coordinate processing according to an embodiment of the present invention.

【図7】本発明の一実施例の工具交換軌道付加処理のフ
ローチャートである。
FIG. 7 is a flowchart of a tool change trajectory adding process according to an embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1 ロボット・マニピュレータ 2 センサ固定治具 3 レーザレンジスキャナ 4 照射レーザ光 5 コンピュータ・システム 6 表示装置 7 キーボード 8 キーボード接続ケーブル 9 マウス 10 マウス接続ケーブル 11 処理装置 12 マニピュレータ・コントローラ 13 コンピュータ接続ケーブル 14 ワーク 15 加工ワーク台 16 コンピュータ表示画面 17 主表示ウィンドウ 18 メニューバー 19 プルダウンメニュー 20 マウス・カーソル 21 座標アイコン 23 工具編集サブウィンドウ 24 フレーム編集サブウィンドウ 25 形状編集サブウィンドウ 26 選択ボタン 27 選択ボタン群 28 フレーム情報 29 接触点軌道 30 ロボット軌道 31 属性指定・表示枠 32 アップダウンボタン 33 加速型アップダウンボタン 34 コントロールバー 35 スライダー 38 ダイアログウィンドウ枠 51 工具把持座標 52 工具作業座標 53 ツール定義ウィンドウ 1 Robot Manipulator 2 Sensor Fixture 3 Laser Range Scanner 4 Irradiation Laser Light 5 Computer System 6 Display 7 Keyboard 8 Keyboard Connection Cable 9 Mouse 10 Mouse Connection Cable 11 Processing Device 12 Manipulator Controller 13 Computer Connection Cable 14 Work 15 Machining worktable 16 Computer display screen 17 Main display window 18 Menu bar 19 Pulldown menu 20 Mouse cursor 21 Coordinate icon 23 Tool edit subwindow 24 Frame edit subwindow 25 Shape edit subwindow 26 Select button 27 Select button group 28 Frame information 29 Contact point trajectory 30 Robot trajectory 31 Attribute designation / display frame 32 Up / down button 33 Acceleration type up / down button 3 4 Control bar 35 Slider 38 Dialog window frame 51 Tool gripping coordinate 52 Tool working coordinate 53 Tool definition window

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 表示装置を有するコンピュータ・システ
ムを利用してロボット軌道を作成する方法であって、 該コンピュータ・システムの表示装置内に工具の把持点
と作用点の3次元位置関係の視覚的イメージを表示し、 該表示装置の画面上で利用者により指定された3次元位
置関係に対する任意の変更操作に基づいて3次元位置関
係を変更して視覚的イメージを表示し、 3次元位置関係に基づいて接触点軌跡からロボット軌道
を生成することを特徴とするロボット軌道を教示するた
めの方法。
1. A method for creating a robot trajectory using a computer system having a display device, comprising visually displaying a three-dimensional positional relationship between a gripping point of a tool and an action point in the display device of the computer system. An image is displayed, a three-dimensional positional relationship is changed based on an arbitrary change operation for the three-dimensional positional relationship designated by the user on the screen of the display device, and a visual image is displayed to display the three-dimensional positional relationship. A method for teaching a robot trajectory, which comprises generating a robot trajectory from a contact point trajectory based on the method.
【請求項2】 ロボット軌道上で工具情報を含むロボッ
ト軌道情報中のロボットが把持する工具を交換する位置
を検出し、 検出した該位置に工具交換機の位置までの軌道、及び該
工具交換機が該工具を交換して戻る位置までの軌道を付
加し、 付加された該軌道の視覚的イメージを表示する請求項1
記載のロボット軌道を教示するための方法。
2. A position on the robot trajectory in which the tool held by the robot in the robot trajectory information including tool information is to be replaced is detected, and the trajectory to the position of the tool changer at the detected position, and the tool changer 5. A track to the position where the tool is replaced and returned is added, and a visual image of the added track is displayed.
A method for teaching a robot trajectory as described.
【請求項3】 ワークの形状を入力する形状入力装置と
表示装置を有するコンピュータ・システムを利用してロ
ボットの軌道を作成する方法であって、 ロボット軌道の順に該ワーク上の該ロボットの工具との
接触点の軌跡を含む局部形状情報を入力し、 該局部形状情報に基づいて該工具が接触すべき接触点の
正確な位置を接続位置情報として認識し、 該接触点位置情報とロボット軌道の進行方向と該ワーク
の該局部形状情報に基づいて該ワーク上の該工具との接
触点位置における局部座標系を生成し、 該コンピュータ・システムの表示装置内に入力された該
ワークの局部形状情報と該工具の接触点軌跡情報と該接
触点位置における局部座標を同時に視覚的イメージに変
換して表示し、 該表示画面上で指定されたロボット軌道情報に対する変
更操作に基づいて編集し、 ロボット軌道情報の視覚的イメージを表示することを特
徴とするロボット軌道を教示するための方法。
3. A method of creating a trajectory of a robot using a computer system having a shape input device for inputting the shape of a work and a display device, comprising: a tool of the robot on the work in the order of the robot trajectory. The local shape information including the locus of the contact point of the tool is input, and the accurate position of the contact point to be touched by the tool is recognized as the connection position information based on the local shape information. A local coordinate system at the contact point position with the tool on the work is generated based on the traveling direction and the local shape information of the work, and the local shape information of the work input in the display device of the computer system. And the contact point trajectory information of the tool and the local coordinates at the contact point position are simultaneously converted into a visual image and displayed, and a change is made to the robot trajectory information specified on the display screen. Edit based on the operation, a method for teaching a robot trajectory and displaying a visual image of the robot path information.
JP25286292A 1992-09-22 1992-09-22 Teaching method of robot track Pending JPH06134684A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP25286292A JPH06134684A (en) 1992-09-22 1992-09-22 Teaching method of robot track

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP25286292A JPH06134684A (en) 1992-09-22 1992-09-22 Teaching method of robot track

Publications (1)

Publication Number Publication Date
JPH06134684A true JPH06134684A (en) 1994-05-17

Family

ID=17243203

Family Applications (1)

Application Number Title Priority Date Filing Date
JP25286292A Pending JPH06134684A (en) 1992-09-22 1992-09-22 Teaching method of robot track

Country Status (1)

Country Link
JP (1) JPH06134684A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006142480A (en) * 2006-02-23 2006-06-08 Fanuc Ltd Teaching operation panel of robot
JP2010094777A (en) * 2008-10-16 2010-04-30 Fuji Electric Systems Co Ltd Remote control support device
JP2010205215A (en) * 2009-03-06 2010-09-16 Kreuz:Kk Nc working device
JP2014065107A (en) * 2012-09-26 2014-04-17 Denso Wave Inc Device for correcting robot operation program
JPWO2015097828A1 (en) * 2013-12-26 2017-03-23 株式会社牧野フライス製作所 Machine tool controller
US10532460B2 (en) 2017-06-07 2020-01-14 Fanuc Corporation Robot teaching device that sets teaching point based on motion image of workpiece
KR102403568B1 (en) * 2021-06-16 2022-06-10 주식회사 뉴로메카 Robot teaching apparatus and method for teaching robot using the same

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006142480A (en) * 2006-02-23 2006-06-08 Fanuc Ltd Teaching operation panel of robot
JP2010094777A (en) * 2008-10-16 2010-04-30 Fuji Electric Systems Co Ltd Remote control support device
JP2010205215A (en) * 2009-03-06 2010-09-16 Kreuz:Kk Nc working device
JP2014065107A (en) * 2012-09-26 2014-04-17 Denso Wave Inc Device for correcting robot operation program
JPWO2015097828A1 (en) * 2013-12-26 2017-03-23 株式会社牧野フライス製作所 Machine tool controller
US10532460B2 (en) 2017-06-07 2020-01-14 Fanuc Corporation Robot teaching device that sets teaching point based on motion image of workpiece
DE102018004326B4 (en) * 2017-06-07 2020-10-01 Fanuc Corporation Robot teaching device for setting teaching points based on a moving image of a workpiece
KR102403568B1 (en) * 2021-06-16 2022-06-10 주식회사 뉴로메카 Robot teaching apparatus and method for teaching robot using the same

Similar Documents

Publication Publication Date Title
CN108453702B (en) Robot simulator, robot system, and simulation method
US6587752B1 (en) Robot operation teaching method and apparatus
US10279476B2 (en) Method and system for programming a robot
US9311608B2 (en) Teaching system and teaching method
US9731419B2 (en) System and method for programming robots
CN110434856B (en) Welding control method and device, storage medium and welding robot
JP6469159B2 (en) Offline programming apparatus and method with work position detection program generation function by contact sensor
JP2006293826A (en) Apparatus for correcting robot program
Fang et al. Robot path and end-effector orientation planning using augmented reality
JP2004094399A (en) Control process for multi-joint manipulator and its control program as well as its control system
JP2009190113A (en) Robot simulation device
JP7259860B2 (en) ROBOT ROUTE DETERMINATION DEVICE, ROBOT ROUTE DETERMINATION METHOD, AND PROGRAM
JPH06134684A (en) Teaching method of robot track
JPH06102919A (en) Method for teaching robot orbit
JPH10124130A (en) Assembling device
JPH0699377A (en) Method for teaching robot track
JPH0699376A (en) Method and system for teaching robot track
JPH08286722A (en) Off-line teaching method using cad data and its system
JP2015100874A (en) Robot system
JPS62165213A (en) Work environment teaching device
JPH0699378A (en) Method for teaching robot track
JP2517553B2 (en) Robot offline teaching method
JP2000112510A (en) Robot teaching method and its device
JP3378738B2 (en) Welding robot teaching device
WO2023144892A1 (en) Control device