JPH0319004A - Off-line teaching method for robot - Google Patents
Off-line teaching method for robotInfo
- Publication number
- JPH0319004A JPH0319004A JP15482189A JP15482189A JPH0319004A JP H0319004 A JPH0319004 A JP H0319004A JP 15482189 A JP15482189 A JP 15482189A JP 15482189 A JP15482189 A JP 15482189A JP H0319004 A JPH0319004 A JP H0319004A
- Authority
- JP
- Japan
- Prior art keywords
- data
- robot
- target point
- work model
- displayed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 9
- 230000033001 locomotion Effects 0.000 claims description 14
- 230000036544 posture Effects 0.000 description 18
- 238000010586 diagram Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000003466 welding Methods 0.000 description 3
- 238000004088 simulation Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000008054 signal transmission Effects 0.000 description 1
Landscapes
- Numerical Control (AREA)
- Manipulator (AREA)
Abstract
Description
【発明の詳細な説明】
〔産業上の利用分野〕
本発明はロボットのオフラインティーチングにおける動
作データ作成方法に関するものである。DETAILED DESCRIPTION OF THE INVENTION [Field of Industrial Application] The present invention relates to a method for creating motion data in offline teaching of a robot.
オフラインティーチングにおける動作データ作成は、次
のような手順で行われている。Creation of motion data in offline teaching is performed in the following steps.
■ ワークモデルの作成 ■ ロボット及び周辺要素の配置 ■ ワークの配置 ■ ロボットの位置・姿勢の決定 ■ 動作データの登録 ■ 作業条件の登録 ■ ■〜■を繰り返す。■ Creation of work model ■ Placement of robot and peripheral elements ■ Work placement ■ Determination of robot position and posture ■ Registration of operation data ■ Registration of work conditions ■ Repeat ■~■.
すなわち、ワークモデルの作成と、動作データの作成は
別の作業であった(例えば特開昭62−269205)
。In other words, creating a work model and creating motion data were separate tasks (for example, Japanese Patent Application Laid-open No. 62-269205).
.
また、■のロボットの位置・姿勢の決定は、ジョグ操作
により希望する位置・姿勢にロボットを誘導する方法が
とられていた。Furthermore, in determining the position and orientation of the robot in (2), a method was used in which the robot was guided to the desired position and orientation by a jog operation.
ジョグ操作とは、グラフィック画面上で、ロボットの各
軸をマウスにより、所定の距離や角度を指示して動作さ
せるものである。The jog operation is to move each axis of the robot by specifying a predetermined distance or angle using a mouse on a graphic screen.
従来技術では、ロボットの位置・姿勢を決定するために
、グラフィク表示されたロボットとワークの相対位置な
どを見ながらロボットをジョグ操作にて誘導する必要が
あり、労力と時間が必要である。In the conventional technology, in order to determine the position and orientation of the robot, it is necessary to guide the robot through a jog operation while looking at the graphically displayed relative positions of the robot and the workpiece, which requires labor and time.
また、正確な位置・姿勢が必要な場合や、教示ポイント
が多ければ多いほど労力と時間が増大することは明かで
ある。Furthermore, it is clear that the more precise positions and postures are required, or the more teaching points there are, the more labor and time will be required.
また、位置や姿勢とは別に作業条件データ(例えば溶接
作業の場合は溶接電流など)も教示する必要があり教示
に長時間を要する。Furthermore, apart from the position and posture, it is also necessary to teach work condition data (for example, welding current in the case of welding work), and it takes a long time to teach.
本発明では、このような事情に鑑みてなされたもので簡
単な操作で正確な位置・姿勢・作業条件データ等を素早
く教示できる手段を提供することを目的とするものであ
る。The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a means that can quickly teach accurate position, posture, work condition data, etc. with a simple operation.
本発明では、上記目的を達成するために、ワークモデル
データの属性データとして、ロボット動作教示に使用す
る目標点データを設ける。In order to achieve the above object, the present invention provides target point data used for teaching robot motion as attribute data of workpiece model data.
そして、その目標点を、ワークモデルをグラフィック画
面に表示させる際に同時に表示し、その表示された目標
点を指示することにより、ロボットの動作の教示を行う
ようにしたものである。The target point is displayed at the same time as the work model is displayed on the graphic screen, and the displayed target point is instructed to teach the robot's motion.
この目標点には、位置データ、姿勢データ、及びロボッ
トの作業条件データのいずれかひとつ、または複数又は
その全てからなるものである。This target point includes one or more of position data, posture data, and robot work condition data, or all of them.
ロボットの動作データ作成の際に、この目標点をマウス
にて指示することにより、ロボットを自動的にその位置
に移動させることにより希望する位置を決定する。When creating motion data for the robot, the desired position is determined by specifying this target point with the mouse and automatically moving the robot to that position.
姿勢データや作業条件データが設定されておれば、その
姿勢や作業条件も決定する。If posture data and work condition data are set, the posture and work conditions are also determined.
以下、本発明の実施に必要な装置の例を第1図に示し、
実際の作業手順を第2図から第5図に示して説明する。Below, an example of the apparatus necessary for carrying out the present invention is shown in FIG.
The actual work procedure will be explained with reference to FIGS. 2 to 5.
オペレータは、x、y、zの3次元座標データからなる
ワークモデルデータ1を第2図に示すようにCR7画面
2に表示させながら作成する。The operator creates workpiece model data 1 consisting of three-dimensional coordinate data of x, y, and z while displaying it on the CR7 screen 2 as shown in FIG.
次に、ワークモデルデータの属性データとして、x、y
、zの3次元座標データと、姿勢データ、作業条件デー
タからなる目標点データを作成する。Next, as the attribute data of the work model data, x, y
, z, target point data consisting of three-dimensional coordinate data, posture data, and work condition data is created.
例えば溶接作業の場合は、第3図に示すXの点を入力す
ることになる。For example, in the case of welding work, the point X shown in FIG. 3 is input.
具体的には、まず、位置の設定を行う。Specifically, first, the position is set.
位置は、ワークモデルを構成する線分上や線分の端点な
どに簡単な操作で設定できる。The position can be set on the line segments that make up the work model or at the end points of the line segments with simple operations.
また、ワークモデルの座標系の任意の位置にも設定でき
る。It can also be set at any position in the coordinate system of the work model.
次に姿勢の設定を行う。Next, set the posture.
姿勢は、設定された位置をマウスにて指示するとツール
座標が表示され(第4図)、その座標を各軸回りに回転
することにより希望の姿勢を設定する。For the posture, when the set position is indicated with the mouse, the tool coordinates are displayed (FIG. 4), and the desired posture is set by rotating the coordinates around each axis.
なお、ツール座標でなくその時実際に使用するツールモ
デルを表示させてもよい。Note that the tool model actually used at that time may be displayed instead of the tool coordinates.
最後に作業条件の設定を行う。Finally, set the working conditions.
上記で指定した位置、姿勢で特有の作業があれば、その
作業条件も入力する。If there is any work specific to the position and posture specified above, enter the work conditions as well.
以上の操作を繰り返し、目標点となりうるような点を多
数人力しておくものとする。By repeating the above operations, a large number of points that can be used as target points are manually marked.
このようにして入力された目標点のデータは、ワークモ
デルのデータと関連付けられてセーブされる。The data of the target point input in this way is saved in association with the data of the workpiece model.
これを概念的に表したのが第1図の101である。101 in FIG. 1 conceptually represents this.
以上が準備手順である。The above is the preparation procedure.
さて、セーブされたワークモデルの情報と目標点の情報
はロボット教示モジュールが起動されると仮想通境上に
ロードされ、CR7画面2に表示される。Now, when the robot teaching module is activated, the saved work model information and target point information are loaded onto the virtual crossing and displayed on the CR7 screen 2.
そして任意の目標点をマウス103にて指示することに
より、指定した目標点位置にロボットモデルがCR7画
面2上でその位置に動作する。By specifying an arbitrary target point using the mouse 103, the robot model moves to the specified target point position on the CR7 screen 2.
この様子を示したのが第5図である。FIG. 5 shows this situation.
この時、姿勢や作業条件もその位置に付随しておれば、
そのまま指定される。At this time, if the posture and working conditions are also associated with the position,
It is specified as is.
ただし、目標点を指示するときに目標点の位置のみを利
用し、姿勢はその時グラフィク表示されているロボット
の姿勢(ロボットをジョグ操作にて動かした希望の姿勢
でも可)をとらせたり、作業条件は別途指定するように
してもよい。However, when specifying the target point, only the position of the target point is used, and the posture is the posture of the robot that is displayed graphically at that time (the desired posture by moving the robot with a jog operation is also possible), or the posture of the robot is The conditions may be specified separately.
この目標点はワーク座標系でのデータであり、このデー
タをベース座標系のデータに変換し、そのデータを逆変
換によりロボットの各軸のパルス値を求めることにより
、目標点におけるロボットの位置、姿勢を決定すること
ができる。This target point is data in the workpiece coordinate system, and by converting this data to data in the base coordinate system and inversely converting the data to obtain the pulse values of each axis of the robot, the position of the robot at the target point, Posture can be determined.
・・ン
一 以上のように目標点をマウスにて指示し、動作デー
タを登録する操作を繰り返し行う。. . . 1. Indicate the target point with the mouse and repeat the operation of registering the motion data as described above.
これを繰り返して、必要な目標点を登録していく。Repeat this to register the necessary target points.
動作データの作成が完了したら、シミュレーションを行
い、ロボットの動きをCRT上で再現する。Once the motion data has been created, a simulation is performed to reproduce the robot's movements on a CRT.
シミュレーション結果に問題があれば動作データを修正
するが、問題なければ、登録された動作データはロボッ
ト制御装置が作動できるロボット言語に変換されフロッ
ピーディスクや信号伝送の形でロボット制御装置へ送ら
れる。If there is a problem with the simulation results, the motion data is corrected, but if there is no problem, the registered motion data is converted into a robot language that can be operated by the robot control device and sent to the robot control device in the form of a floppy disk or signal transmission.
以上述べたように本発明によれば、簡単な操作で正確な
動作データの作成ができるという大きな効果がある。As described above, according to the present invention, there is a great effect that accurate motion data can be created with a simple operation.
第1図は本発明のブロック図、第2図、第3図、第4図
、第5図は本発明の詳細な説明する図である。
1・・・ワークモデル
2・・・CRT画面
3・・・目標点
4・・・ツール座標
1・・・ワークモデルデータ
3・・・マウス
第
図
第
図
第
4
図
CRT画面
第
図FIG. 1 is a block diagram of the present invention, and FIGS. 2, 3, 4, and 5 are diagrams explaining the present invention in detail. 1...Work model 2...CRT screen 3...Target point 4...Tool coordinates 1...Work model data 3...Mouse diagram Figure 4 Figure CRT screen diagram
Claims (3)
タとして蓄積し、グラフィックディスプレイ上に表示し
、その図面上のロボットが動作すべき所望の点を指示し
てテイーチングデータを作成するロボットのオフライン
ティーチング方法において、 ワークモデルデータの属性データとして、ロボット動作
教示に使用する目標点データを予めワークモデルに付加
しておき、 その目標点をワークモデルを表示させる際に同時に表示
し、 その表示された目標点を指示することにより、ロボット
の動作の教示を行うようにしたことを特徴としたロボッ
トのオフラインティーチング方法。(1) At least in an offline teaching method for a robot in which teaching data is created by accumulating a robot and a work model as drawing data, displaying it on a graphic display, and instructing desired points on the drawing at which the robot should operate. , Target point data used for robot motion teaching is added to the work model in advance as attribute data of the work model data, and the target point is displayed at the same time as the work model is displayed, and the displayed target point is A robot offline teaching method characterized in that the robot's movements are taught by giving instructions.
びロボットの作業条件データのいずれかひとつ、または
複数又はその全てを含むことを特徴とする請求項1記載
のロボットのオフラインティーチング方法。(2) The robot offline teaching method according to claim 1, wherein the target point data includes one or more of position data, posture data, and robot working condition data, or all of them.
め記憶されたデータを採用するか否か選択できるように
したことを特徴とする請求項1または2記載のロボット
のオフラインティーチング方法。(3) The robot offline teaching method according to claim 1 or 2, wherein even when the target point is specified, it is possible to select whether or not to use data stored in advance for the target point.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP1154821A JPH077304B2 (en) | 1989-06-16 | 1989-06-16 | Robot offline teaching method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP1154821A JPH077304B2 (en) | 1989-06-16 | 1989-06-16 | Robot offline teaching method |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH0319004A true JPH0319004A (en) | 1991-01-28 |
JPH077304B2 JPH077304B2 (en) | 1995-01-30 |
Family
ID=15592612
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP1154821A Expired - Lifetime JPH077304B2 (en) | 1989-06-16 | 1989-06-16 | Robot offline teaching method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH077304B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08314527A (en) * | 1995-05-22 | 1996-11-29 | Ricoh Elemex Corp | Operation teaching system for robot |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5542233B1 (en) * | 2013-05-31 | 2014-07-09 | 日東精工株式会社 | Orthogonal robot teaching device and teaching method therefor |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS62274404A (en) * | 1986-05-23 | 1987-11-28 | Kobe Steel Ltd | Off-line teaching system for robot |
JPH0194405A (en) * | 1987-10-06 | 1989-04-13 | Fanuc Ltd | Off-line teaching system |
-
1989
- 1989-06-16 JP JP1154821A patent/JPH077304B2/en not_active Expired - Lifetime
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS62274404A (en) * | 1986-05-23 | 1987-11-28 | Kobe Steel Ltd | Off-line teaching system for robot |
JPH0194405A (en) * | 1987-10-06 | 1989-04-13 | Fanuc Ltd | Off-line teaching system |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08314527A (en) * | 1995-05-22 | 1996-11-29 | Ricoh Elemex Corp | Operation teaching system for robot |
Also Published As
Publication number | Publication date |
---|---|
JPH077304B2 (en) | 1995-01-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11440179B2 (en) | System and method for robot teaching based on RGB-D images and teach pendant | |
KR101876845B1 (en) | Robot control apparatus | |
JPH02262982A (en) | Setting method for tool center point | |
JPS59229619A (en) | Work instructing system of robot and its using | |
JPS62274404A (en) | Off-line teaching system for robot | |
JPH0319004A (en) | Off-line teaching method for robot | |
JPS6097409A (en) | Operation teaching method of robot | |
JPS60195613A (en) | Robot teaching device with verifying function | |
EP0455817A1 (en) | Three-dimensional cursor and off-line programming system using the same | |
JPH06134684A (en) | Teaching method of robot track | |
JP2517553B2 (en) | Robot offline teaching method | |
JPH0699377A (en) | Method for teaching robot track | |
JP2006343975A (en) | Robot instruction device | |
JPS62274307A (en) | Off-line teaching system for robot | |
JP2919127B2 (en) | Off-line teaching method of 3D laser beam machine | |
JP3351912B2 (en) | Work robot work program creation device | |
JPS63273907A (en) | Production system for teaching data on industrial robot | |
JP2559081B2 (en) | Teaching data creation method and device | |
JPH01237703A (en) | Robot teaching device | |
JPH01111208A (en) | Robot teaching device | |
JPS63303405A (en) | Program display system for checking mutual interference of robot | |
JPS621005A (en) | Robot teaching method | |
JPH02300902A (en) | Interference check device for robot | |
JPS61177578A (en) | Graphic teaching device of robot | |
JPS63273906A (en) | Production system for teaching data on industrial robot |