JPH03288209A - Off-line teaching system for handling robot - Google Patents

Off-line teaching system for handling robot

Info

Publication number
JPH03288209A
JPH03288209A JP8985990A JP8985990A JPH03288209A JP H03288209 A JPH03288209 A JP H03288209A JP 8985990 A JP8985990 A JP 8985990A JP 8985990 A JP8985990 A JP 8985990A JP H03288209 A JPH03288209 A JP H03288209A
Authority
JP
Japan
Prior art keywords
robot
model
workpiece
data
work
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP8985990A
Other languages
Japanese (ja)
Other versions
JPH0776882B2 (en
Inventor
Hideaki Fukuda
英明 福田
Tsudoi Murakami
村上 集
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kobe Steel Ltd
Original Assignee
Kobe Steel Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kobe Steel Ltd filed Critical Kobe Steel Ltd
Priority to JP2089859A priority Critical patent/JPH0776882B2/en
Publication of JPH03288209A publication Critical patent/JPH03288209A/en
Publication of JPH0776882B2 publication Critical patent/JPH0776882B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PURPOSE:To simplify the off-line teaching of a handling robot by actuating a robot model combined with a work model, deciding that a robot holds a work based on the matching state secured between the data on the work and robot models, and storing these matched data. CONSTITUTION:A combination means 6 obtains the data on a 1st robot model including no work model and the data on a 2nd robot model kept in a state where the data on the shapes of the work model are connected to each other and the work model is combined with the 1st robot model in a single body. Meanwhile a means 6 decides that a work is held by a handling robot based on the matching state secured between the data on the 2nd robot model and the work models after actuating the combined 2nd robot model. Then the data obtained when a fact that the work is held by the robot is decided is stored as the teaching data. Thus the off-line teaching is simplified to the handling robot.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は、ロボットモデルとワークモデルとを画像出力
装置に表示させ、該画像出力装置上で上記ロボットモデ
ルを操作してハンドリングロボットの動作データを作成
するハンドリングロボットのオフライン教示システムに
関するものである。
[Detailed Description of the Invention] [Industrial Application Field] The present invention displays a robot model and a workpiece model on an image output device, operates the robot model on the image output device, and obtains motion data of the handling robot. The present invention relates to an offline teaching system for handling robots.

〔発明の背景〕[Background of the invention]

今日、製造業をはじめ様々な分野でロボットが利用され
、生産の自動化及び省力化に貢献している。
Today, robots are used in various fields including the manufacturing industry, contributing to production automation and labor savings.

これらロボットに作業動作を教示する方法は、生産ライ
ンを停止することな(教示を行える点で、オンラインの
教示よりもオフラインの教示が望ましい。
Off-line teaching is preferable to online teaching in that the robots can be taught work operations without stopping the production line.

上記のようなオフラインの教示システムとじては、例え
ば特開昭61−113099号公報、特開昭61−11
8081号公報、特開昭61−120029号公報等に
開示のものが提案されている。
Examples of the above-mentioned offline teaching systems include Japanese Patent Application Laid-Open No. 61-113099 and Japanese Patent Application Laid-open No. 61-11.
The methods disclosed in Japanese Patent Application Laid-open No. 8081, Japanese Patent Application Laid-open No. 120029/1980, and the like have been proposed.

上記各公報に開示のシステムでは、CRTデイスプレィ
上に表示されたロボットアームの先端のポイントを移動
させて、これを教示点として動作データが教示される。
In the systems disclosed in the above-mentioned publications, motion data is taught by moving a point at the tip of the robot arm displayed on a CRT display and using this as a teaching point.

従って、上記システムは、上記ロボットアームの先端に
代わるツールを一体的に具備したロボット、例えばスプ
レーガンや溶接トーチ等のツールを具備して塗装、シー
リング、溶接等の作業を行うロボットに好適であって、
ロボット本体から分離された要素、即ちワークの移動や
組立の際に用いられるハンドリングロボットには好適と
はいえない。
Therefore, the above system is suitable for a robot that is integrally equipped with a tool in place of the tip of the robot arm, for example, a robot that is equipped with tools such as a spray gun and a welding torch and performs work such as painting, sealing, and welding. hand,
This method is not suitable for handling robots used for moving or assembling elements separated from the robot body, ie, workpieces.

これは、上記従来技術では、ワークのハンドリングに伴
うロボットの動作の概念がシステム的に具現化されてい
ないことによる。
This is because, in the above-mentioned conventional technology, the concept of robot movement accompanying handling of a workpiece is not systematically realized.

そこで、本発明の目的とするところは、ハンドリングロ
ボットに対するオフライン教示を簡便に行い得る教示シ
ステムを提供することである。
SUMMARY OF THE INVENTION Therefore, an object of the present invention is to provide a teaching system that can easily teach a handling robot off-line.

〔課題を解決するための手段〕[Means to solve the problem]

上記目的を達成するために、本発明が採用する主たる手
段は、その要旨とするところが、ロボットモデルとワー
クモデルとを画像出力装置に表示させ、該画像出力装置
上で上記ロボットモデルを操作してハンドリングロボッ
トの動作データを作成するハンドリングロボットのオフ
ライン教示システムにおいて、ワークモデルを含まない
第1のロボットモデル及び上記ワークモデルのそれぞれ
の形状に関するデータを結合して、該ワークモデルを上
記第1のロボットモデルに一体的に組合せた状態の第2
のロボットモデルに関するデータを得る組合せ手段と、
上記組合せ手段により組合せられた上記第2のロボット
モデルを動作させ、該第2のロボットモデルに関するデ
ータと作業空間内の任意の位置に載置されたワークに対
応するワークモデルに関するデータとの整合状態から当
該ハンドリングロボットにより上記ワークが把持された
と判断する判断手段とを具備してなる点に係るハンドリ
ングロボットのオフライン教示システムである。
In order to achieve the above object, the main means adopted by the present invention is to display a robot model and a workpiece model on an image output device, and operate the robot model on the image output device. In an off-line teaching system for a handling robot that creates motion data for a handling robot, a first robot model that does not include a workpiece model and data regarding the respective shapes of the workpiece model are combined, and the workpiece model is transferred to the first robot. The second one that is integrally combined with the model.
a combination means for obtaining data regarding a robot model;
The second robot model combined by the combination means is operated, and the data regarding the second robot model is consistent with the data regarding the workpiece model corresponding to the workpiece placed at an arbitrary position in the work space. This is an off-line teaching system for a handling robot, comprising: determining means for determining that the workpiece has been gripped by the handling robot.

〔作用〕[Effect]

本発明に係るハンドリングロボットのオフライン教示シ
ステムにおいては、まず、ワークモデルを含まない第1
のロボットモデル及び上記ワークモデルのそれぞれの形
状に関するデータを結合して、該ワークモデルを上記第
1のロボットモデルに一体的に組み合わせた状態の第2
のロボットモデルに関するデータが作成される。即ち、
ワークがハンドリングロボットの一構成部品として定義
付けられる。
In the off-line teaching system for a handling robot according to the present invention, first, a first
A second robot model in which the workpiece model is integrally combined with the first robot model by combining data regarding the respective shapes of the robot model and the workpiece model.
Data regarding the robot model is created. That is,
A workpiece is defined as a component of a handling robot.

引き続き、上記のようにして組み合わせられた第2のロ
ボットモデルが画像出力装置上で動作させられ、該第2
のロボットモデルに関するデータと作業空間内の任意の
位置に載置されたワークに対応するワークモデルに関す
るデータとが略整合した時点で、当該ハンドリングロボ
ットにより上記ワークが把持されたと判断される。
Subsequently, the second robot model combined as described above is operated on the image output device, and the second robot model is operated on the image output device.
When the data regarding the robot model and the data regarding the workpiece model corresponding to the workpiece placed at an arbitrary position in the work space substantially match, it is determined that the workpiece has been gripped by the handling robot.

この時のデータが教示データ(動作データ)として記憶
される。
The data at this time is stored as teaching data (operation data).

[実施例] 以下添付図面を参照して、本発明を具体化した実施例に
つき説明し、本発明の理解に供する。尚、以下の実施例
は、本発明を具体化した一例であって、本発明の技術的
範囲を限定する性格のものではない。
[Examples] Examples embodying the present invention will be described below with reference to the accompanying drawings to provide an understanding of the present invention. It should be noted that the following examples are examples embodying the present invention, and are not intended to limit the technical scope of the present invention.

ここに、第1図は本発明の一実施例に係るハンドリング
ロボットのオフライン教示システムの外観図、第2図は
上記ハンドリングロボットの一例の概念的な分解斜視図
、第3図は上記ハンドリングロボットを構成するハンド
の概略構成を示すものであって、同図(樽は分解した状
態での斜視図。
Here, FIG. 1 is an external view of an offline teaching system for a handling robot according to an embodiment of the present invention, FIG. 2 is a conceptual exploded perspective view of an example of the handling robot, and FIG. 3 is an illustration of the handling robot. This figure shows a schematic configuration of the constituent hands (a perspective view with the barrel disassembled).

同図(b)は組み立てた状態での斜視図、同図(C)は
ワークを把持した状態での斜視図、第4図は上記ハンド
リングロボットのワークを把持した状態での模式的構成
図、第5図は上記オフライン教示システムにおける処理
手順を模式的に示すフローチャート、第6図及び第7図
はそれぞれ上記ハンドリングロボットに対する動作教示
を説明するための該ハンドリングロボットの模式的構成
図である。
Figure (b) is a perspective view of the assembled state, Figure (C) is a perspective view of the handling robot gripping a workpiece, and Figure 4 is a schematic configuration diagram of the handling robot gripping a workpiece. FIG. 5 is a flowchart schematically showing the processing procedure in the offline teaching system, and FIGS. 6 and 7 are schematic configuration diagrams of the handling robot for explaining motion teaching to the handling robot, respectively.

第1図において、当該ハンドリングロボットのオフライ
ン教示システム1は、デジタイザー2と、キーボード3
と、CRTデイスプレィ4(画像出力装置)と、フロッ
ピィディスク装置5と、コンピュータ6とを有して基本
的に構成されている。
In FIG. 1, an offline teaching system 1 for the handling robot includes a digitizer 2 and a keyboard 3.
It basically consists of a CRT display 4 (image output device), a floppy disk device 5, and a computer 6.

ハードウェア的観点から見れば、これらは、所謂パーソ
ナルコンピュータシステム(パソコン)と同様であって
、特異な構成要素を有していないことから設備的負担は
比較的小さい。
From a hardware standpoint, these systems are similar to so-called personal computer systems (PCs) and do not have any unique components, so the burden on equipment is relatively small.

上記オフライン教示システム1は、ワークをハンドリン
グする際のオフライン教示を行うシステムであって、■
ワーク図面入力に関する処理機能。
The offline teaching system 1 is a system that performs offline teaching when handling a workpiece, and includes:
Processing functions related to inputting work drawings.

■ロボット及び周辺装置入力に関する処理機能。■Processing functions related to robot and peripheral device input.

■ロボットの動作教示に関するデータを作成する処理機
能、■動作シミュレーションに関する処理機能、■教示
データ出力に関する処理機能、■補助に関する処理機能
等の処理機能を有している。
It has processing functions such as ■Processing function to create data related to robot motion teaching, ■Processing function related to motion simulation, ■Processing function related to teaching data output, and ■Processing function related to assistance.

これらの各処理機能は、始めに処理メニューとして上記
CRTデイスプレィ4上に表示されるので、オペレータ
は任意に選択することができる。
Each of these processing functions is first displayed on the CRT display 4 as a processing menu, so that the operator can select it as desired.

以下に上記各処理機能を順次説明する。Each of the above processing functions will be explained in sequence below.

■ワーク図面入力に関する処理機能 ワーク図面入力処理は、ワークの形状を図面を用いて入
力する処理である。
■Processing function related to workpiece drawing input Workpiece drawing input processing is a process of inputting the shape of a workpiece using a drawing.

まず、オペレータは、ワークの図面をデジタイザー2に
セットし、ペン2.で図面をなぞることにより線図を入
力する。係る図面から線図を入力する処理自体は、既に
CAD等の分野で公知の技術を応用することができる。
First, the operator sets the drawing of the workpiece on the digitizer 2, and the pen 2. Enter the line diagram by tracing the drawing with . For the process itself of inputting line diagrams from such drawings, techniques already known in the field of CAD and the like can be applied.

平面図、正面図、側面図の三面図を入力されると、コン
ヒユータロは、3次元サーフェイスモデルを作成し、C
RTデイスプレィ4上に三面図と斜視図を表示する。
When three-dimensional views (plan, front, and side views) are input, Conhiutaro creates a three-dimensional surface model and converts it to C.
A three-sided view and a perspective view are displayed on the RT display 4.

オペレータは、画面を見ながら、入力ミスがあればキー
ボード3からコマンドを入力して修正し、表示された三
面図及び斜視図がワークを的確に表していると最終的に
確認したならば、上記キーボード3からコマンドを入力
し、そのワークデータをファイルに格納させる。
While looking at the screen, if there is an input error, the operator inputs a command from the keyboard 3 to correct it, and after finally confirming that the displayed three-sided view and perspective view accurately represent the workpiece, the operator A command is input from the keyboard 3 and the work data is stored in a file.

■ロボット及び周辺装置入力に関する処理機能ロボット
及び周辺装置入力処理は、ロボット及びワークの寸法(
座標データ等)や周辺装置の定義等を行う処理であって
、ロボットモデル(第1のロボットモデル)及びワーク
モデルの三面図と斜視図とが上記CRTデイスプレィ4
上に表示される。
■Processing functions related to robot and peripheral device input Processing of robot and peripheral device input is based on robot and workpiece dimensions (
coordinate data, etc.) and peripheral devices, the three-sided view and perspective view of the robot model (first robot model) and workpiece model are displayed on the CRT display 4.
displayed above.

そこで、オペレータは、ロボットやワークの寸法等に変
更があれば、上記CRTデイスプレィ4上のロボットモ
デルやワークモデルを修正して、或いは数値入力によっ
て実際のロボットやワークの形状を表すようにする。
Therefore, if there is a change in the dimensions of the robot or workpiece, the operator modifies the robot model or workpiece model on the CRT display 4 or inputs numerical values to represent the actual shape of the robot or workpiece.

そして、ロボットやワーク及び周辺装置のデータの入力
が終了すると、ファイルに格納される。
When the input of data for the robot, workpiece, and peripheral devices is completed, the data is stored in a file.

■ロボットの動作教示に関するデータを作成する処理機
能 この処理機能は、当該オフライン教示システムにおいて
最も特徴的な要素であって、その処理手順の概略は、先
ず、ワークモデルを含まない第1のロボットモデル及び
上記ワークモデルのそれぞれの形状に関するデータを結
合して、該ワークモデルを上記第1のロボットモデルに
一体的に組み合わせた状態の第2のロボットモデルに関
するデータが作成される。即ち、ワークがハンドリング
ロボットの一構成部品として定義付けられる。
■Processing function to create data related to robot motion teaching This processing function is the most characteristic element in the offline teaching system, and the outline of the processing procedure is as follows: Data regarding the shape of each of the workpiece models and the workpiece model are combined to create data regarding a second robot model in which the workpiece model is integrally combined with the first robot model. That is, the workpiece is defined as one component of the handling robot.

引き続き、上記のようにして組み合わせられた第2のロ
ボットモデルがCRTデイスプレィ4上で動作させられ
、該第2のロボットモデルに関するデータと作業空間内
の任意の位置に載置されたワークに対応するワークモデ
ルに関するデータとが略整合した時点で、当該ハンドリ
ングロボットにより上記ワークが把持されたと判断され
る。
Subsequently, the second robot model combined as described above is operated on the CRT display 4, and data regarding the second robot model and the workpiece placed at an arbitrary position in the work space are displayed. When the data regarding the workpiece model substantially match, it is determined that the workpiece has been gripped by the handling robot.

この時のデータが教示データ(動作データ)としてファ
イルに格納される。
The data at this time is stored in a file as teaching data (operation data).

以下、上記構成におけるポイントについて、第2図乃至
第4図及び第6図に基づいて詳述する。
Hereinafter, the points in the above configuration will be explained in detail based on FIGS. 2 to 4 and 6.

尚、各図中に付された各記号の意味づけは、それぞれ以
下の如くである。
The meanings of the symbols given in each figure are as follows.

08 :ワールド座標系(作業領域内)における原点0
1 :ロボット座標系における原点 1 :6軸座標系の姿勢行列 X7 :6軸座標基原点の位置ベクトルW :ハンド座
標系でのワークの姿勢行列′1.−:ハンド座標系での
ワークの位置ベクトルH:6軸座標系でのハンド座標系
の姿勢行列X、:6軸座標系でのハンド座標系の位置ベ
クトルV  soロボット座標系のワークの姿勢行列×
・二ロボット座標系でのワークの位置ベクトルへ :ロ
ボット座標系での教示点の姿勢行列ム :ロボット座標
系での教示点の位置ベクトルF :ワールド座標系での
ワークの姿勢行列XP=ワールド座標系でのワークの位
置ベクトル臥 :ワールド座標系でのロボット座標系の
姿勢行列 Xr:ワールド座標系でのロボット座標系の位置ベクト
ル ここで、l、X、は、ロボット及びワークの相対関係を
示すデータで、周辺装置入力に関する処理機能により予
め設定される。
08: Origin 0 in the world coordinate system (within the work area)
1: Origin in robot coordinate system 1: Posture matrix of 6-axis coordinate system X7: Position vector W of 6-axis coordinate base origin: Workpiece posture matrix '1 in hand coordinate system. −: Position vector of the workpiece in the hand coordinate system H: Posture matrix of the hand coordinate system in the 6-axis coordinate system X, : Position vector of the hand coordinate system in the 6-axis coordinate system V so Workpiece posture matrix in the robot coordinate system ×
・To the position vector of the workpiece in the two-robot coordinate system : Posture matrix of the teaching point in the robot coordinate system F : Position vector of the teaching point in the robot coordinate system F : Posture matrix of the workpiece in the world coordinate system XP = World coordinates Position vector of the workpiece in the system: Posture matrix of the robot coordinate system in the world coordinate system Xr: Position vector of the robot coordinate system in the world coordinate system Here, l and X indicate the relative relationship between the robot and the workpiece. The data is preset by the processing function related to peripheral device input.

本教示システムでは、姿勢を表すためにオイラー角を使
用している。
This teaching system uses Euler angles to represent posture.

オイラー角は、座標系のZ軸、X軸、Y軸のまわりの回
転をそれぞれα、β、γとして与える。
Euler angles give rotations around the Z-axis, X-axis, and Y-axis of the coordinate system as α, β, and γ, respectively.

実際の姿勢計算に用いる場合は、以下の式を用いて3×
3の姿勢行列として取り扱う。
When used for actual posture calculation, use the following formula to calculate 3×
It is treated as a posture matrix of 3.

本実施例では、ワークの姿勢、ロボットの教示点の姿勢
等はすべてこの方法で与えられるものとする。また、逆
に3×3の姿勢行列から(α、β。
In this embodiment, the posture of the workpiece, the posture of the teaching point of the robot, etc. are all given by this method. Also, conversely, from the 3x3 posture matrix (α, β.

γ)を求めることもできる。γ) can also be obtained.

尚、本実施例では、姿勢を表示するのにオイラー角を使
っているが、この他に方向余弦を用いる方法、ロール・
ピッチヨーを用いる方法等がある。
In this example, Euler angles are used to display the attitude, but other methods include methods using direction cosines, roll angles, etc.
There are methods such as using pitch yaw.

ハンドモデルは、ハンドのベース座標系Oh上で、部品
単体として入力された3次元モデルを組み合わせること
により作成される(第2図及び第3図(a)参照)。上
記各部品は、それぞれ固有の座標系を有し、モデリング
の際には、ハンドのベース座標系と各部品の座標系との
相対的な位置・姿勢のデータにより、単体のモデルの集
合として定義される。
The hand model is created by combining three-dimensional models input as single parts on the base coordinate system Oh of the hand (see FIGS. 2 and 3(a)). Each of the above parts has its own unique coordinate system, and during modeling, it is defined as a set of single models using data on the relative position and orientation between the hand's base coordinate system and the coordinate system of each part. be done.

これらの位置関係は、CRTデイスプレィ4上でモデル
を組み合わせることにより得られる。
These positional relationships are obtained by combining models on the CRT display 4.

又、ハンドモデルには、上記のデータの他に、ロボット
の教示点として扱われるハンドの中間点A(この位置デ
ータは(Xt、Yt、Zt)にて表わされる)のハンド
ベースからみた位置データを数値データとして有する。
In addition to the above data, the hand model also includes position data as seen from the hand base of the intermediate point A of the hand (this position data is expressed as (Xt, Yt, Zt)), which is treated as the robot's teaching point. has as numerical data.

(第3図Φ)参照)。(See Figure 3 Φ).

これを位置ベクトルXcとする。This is defined as a position vector Xc.

上記のようにして定義されたハンドモデルに、ハンドリ
ングされるワークが組み合わせられる。
The workpiece to be handled is combined with the hand model defined as above.

ここでは、ハンド座標系でのワークモデル座標系原点の
位置(X、、Y、、Z、)、姿勢(α1゜β2.T8)
が設定される。そして、(α0.β1゜Tl−)よりW
が得られる。
Here, the position (X,,Y,,Z,) of the origin of the workpiece model coordinate system in the hand coordinate system, and the posture (α1゜β2.T8)
is set. Then, from (α0.β1°Tl-), W
is obtained.

即ち、上記ワークは上記ハンドを構成する部品の一部と
して取り扱われ、その取扱力については、上記ハンドを
構成する部品の場合と同様である(第3図(C)参照)
That is, the workpiece is handled as a part of the parts that make up the hand, and its handling force is the same as that of the parts that make up the hand (see Figure 3 (C)).
.

引き続き、ロボットの手首先端(即ち上記ハンドの取付
部)に、上記のようにしてモデリングされたハンドがど
のような位置関係にて接続されるかが定義される。
Subsequently, the positional relationship in which the hand modeled as described above is connected to the tip of the robot's wrist (ie, the attachment portion of the hand) is defined.

こコテは、(Xh、Yt、Zk )、  (rrh、L
This is (Xh, Yt, Zk), (rrh, L
.

rb)を設定する。そして、(αh、βh +  Tb
 )をもとに1が得られる。
rb). And (αh, βh + Tb
), 1 can be obtained.

この際のモデリングも具体的には上記ハンドをモデリン
グする場合と略同様の要領であって、ロボットのベース
座標系でロボットを構成する各部品がCRTデイスプレ
ィ上にて組み合わせられていく、その部品の一つとして
、前記したようにして定義されたワークを具備したハン
ドのモデルが手首先端部に組み合わせられる(第2図参
照)。
Specifically, the modeling at this time is almost the same as when modeling the hand mentioned above, and the parts that make up the robot are assembled on the CRT display in the robot's base coordinate system. As one example, a hand model equipped with the workpiece defined as described above is assembled to the wrist tip (see FIG. 2).

その結果、ワークモデルが一体的に組み合わせられた第
2のロボットモデルが定義される。
As a result, a second robot model in which the work models are integrally combined is defined.

上述のようにして定義された各データとロボット(6軸
)の位置、姿勢の関係を第4図に示す。
FIG. 4 shows the relationship between each data defined as described above and the position and posture of the robot (6 axes).

以下の関係からロボット座標系でのワーク座標系の位置
姿勢は、以下の様に表される。
From the following relationship, the position and orientation of the workpiece coordinate system in the robot coordinate system is expressed as follows.

又、教示点Aの位置は、 にて表わされる。Also, the position of teaching point A is It is expressed as

引き続き、第6図に基づいて、上記ハンドリングロボッ
トによりワークを把持させる教示データの作成手順につ
いて説明する。
Subsequently, based on FIG. 6, a procedure for creating teaching data for causing the handling robot to grip a workpiece will be described.

作業空間(ワールド座標系)内に配置されたワークモデ
ルBに対してロボットモデルを操作し、ハンド先端に定
義されたワークモデルBと同じ形状のワークモデルB′
を重ねるようにしてロボットの位置決めが行なわれる。
Operate the robot model with respect to workpiece model B placed in the work space (world coordinate system), and create workpiece model B' with the same shape as workpiece model B defined at the tip of the hand.
The positioning of the robot is performed by overlapping the images.

ワークが配置された段階で既知となるP、X、と、■式
から得られるF′、XFのデータに基づいて整合状態が
チエツクされる。即ち、各データが重なった時の状態が
、ハンドリングのために必要な姿勢である。
The matching state is checked based on the data of P and X, which are known at the stage when the workpiece is placed, and the data of F' and XF obtained from equation (2). That is, the state when each data overlaps is the posture required for handling.

チエツクは、■式よりハンドリングされたワークのワー
ルド座標系での位置(X、、Y。
Check the position of the handled workpiece in the world coordinate system (X, Y.

2、′)及び姿勢(α、 、β、 、γ# )が求めら
れるので、以下の0式を用いて行い、これを満足するま
でロボットモデルを機作する。
2,') and posture (α, , β, , γ#) are calculated using the following equation 0, and the robot model is machined until these are satisfied.

尚、上記εは許容誤差を示す。Note that the above ε indicates an allowable error.

上記0式を満足した時点で、ロボットの位置決めのため
のデータが得られる0例として(りθ、〜θ、を動作デ
ータとするロボットの場合 (ii )ハンド先端の位置ベクトル、オイラー角によ
る姿勢データを動作データとするロボットの場合 について述べる。
As an example, in the case of a robot whose motion data is riθ, ~θ, (ii) the position vector of the hand tip and the posture based on the Euler angle. We will discuss the case of a robot that uses data as motion data.

(1)θ1〜θ、を動作データとするロボットの場合 0式を満たした時のワークの位置ベクトルをx−姿勢行
列をPとする。
(1) In the case of a robot whose motion data is θ1 to θ, let P be the position vector of the workpiece when the equation 0 is satisfied, and the x-posture matrix.

P’ = R−V 4−l−11−1−W’ ヨ?)M
 =c、p:w”−+−1f”   、・。
P' = R-V 4-l-11-1-W' Yo? )M
=c, p:w"-+-1f", .

x、′=xr+B −L =X、+ L(χ、+t”L
Xi +t$)44.  )より ん−I((x、’  −ス暑−H−xに−H゛日°X−
/  ・・・■ここで、一般に、ロボット6軸先端の位
置ベクトルメ、と姿勢行列Hからロボットの各軸の値θ
x,′=xr+B −L =X,+L(χ,+t”L
Xi +t$)44. )Yorin-I((x,' -Suatsu-H-xni-H゛日°X-
/...■Here, in general, the value θ of each axis of the robot is calculated from the position vector of the tip of the robot's six axes and the posture matrix H.
.

〜θ、を求める方法は公知であるから、■、■式よりθ
1〜θ、が求まる。
Since the method for calculating ~θ is well known, θ from formulas ■ and ■
1 to θ are found.

(ii)ハンド先端の位置ベクトル、オイラー角による
姿勢データを動作データとするロボットの場合 P’=4−−・H−W=4−A−噸り 八  =6二・P゛・Wl     ・・・■3×3の
姿勢行列からオイラー角を求める方法は公知であるので
、0式からオイラー角が得られる。
(ii) In the case of a robot whose motion data is the position vector of the hand tip and posture data based on Euler angles, P' = 4--H-W = 4-A-Harihachi = 62-P゛-Wl...・■ Since the method of determining Euler angles from a 3×3 attitude matrix is publicly known, Euler angles can be obtained from equation 0.

また、0.0式より4.目が求まるので、0式よりXl
が得られる。
Also, from the 0.0 formula, 4. Since the eyes are determined, Xl is better than the 0 formula.
is obtained.

次に他の方法について 前記したような方法で生じる以下のような問題に対して
解決方法を述べる。
Next, we will discuss how to solve the following problems that occur with other methods as described above.

■同一形状のワークが複数配置されている時、どのワー
クに関するワークモデルの座標系との比較を行うか。
■When multiple workpieces of the same shape are arranged, which workpiece should be compared with the coordinate system of the workpiece model?

■変形例として一つのハンドに複数種類のワークが定義
されている場合、どのワークとの比較を行えば良いか。
■As a modified example, if multiple types of workpieces are defined for one hand, which workpiece should be compared?

上記問題は以下のようにして解決することができる。The above problem can be solved as follows.

ハンドリングされるワークモデルと配置されているワー
クモデルの各ポイントデータを比較してチエツクする。
Compare and check each point data of the handled work model and the placed work model.

即ち、ワークをモデリングする際の形状の定義の仕方と
しては、ハンドに定義されたワークとハンドリングされ
るべく配置されているワークとが同じであることからそ
のデータは一致しているはずである。
That is, in terms of how the shape is defined when modeling a workpiece, since the workpiece defined for the hand and the workpiece placed to be handled are the same, their data should match.

そこで、2つのワークについて、これらを構成する各ポ
イントに関するデータを比較することにより、ワークの
整合状態がチエツクされる。
Therefore, the matching state of the two works is checked by comparing the data regarding each point constituting the two works.

例えば上記■の場合には、最初にハンドモデルに定義さ
れたワークモデルの原点に最も近いワークが選択されて
、そのワークについて上記のようなチエツクが行われる
。又、上記■の場合には、ハンドモデルに定義された全
てのワークモデルについて、それぞれの原点のチエツク
と、上記のようなチエツクを行うことにより対応可能で
ある。
For example, in case (2) above, the work closest to the origin of the work model defined in the hand model is selected first, and the above check is performed on that work. In addition, in the case (2) above, it can be handled by checking the origin of each of the work models defined in the hand model and performing the above check.

上記のようにしてハンドリングロボットにおけるワーク
ハンドリングに対する把持の状態が確認される為、本シ
ステムにおいては、改めてワークに対する把持状態の確
認を行う為の教示は必要とされない。
Since the gripping state of the workpiece handled by the handling robot is confirmed in the above-described manner, this system does not require any further instruction to confirm the gripping state of the workpiece.

■動作シミュレーションに関する処理機能動作シミュレ
ーション処理では、これまでに設定されたデータ等に基
づき、アニメーションによってハンドリング作業を進め
て見せる。
■Processing functions related to motion simulation In motion simulation processing, the handling work is shown using animation based on the data set so far.

即ち、第7図において、ワークCをハンドリングするよ
うに教示されたプログラムを再生する場合、先ず、ロボ
ットモデルが上記ワークCをハンドリングすることにな
る教示点まで教示データに従って動作される。この時、
上記ワークCはハンドリングを未だされていないので、
ロボットモデルにおけるワークの部分は表示されない(
イ)。
That is, in FIG. 7, when reproducing a program that is taught to handle workpiece C, first, the robot model is operated according to the teaching data up to the teaching point at which the workpiece C is to be handled. At this time,
The work C above has not been handled yet, so
The part of the workpiece in the robot model is not displayed (
stomach).

上記ワークCをハンドリングし得る位置までロボットモ
デルが移動され、ハンド閉のデータが設定されている場
合には、ハンドを閉じた際にその部分にハンドリングさ
れるべきワークが配置されているか否かを確認した後、
ロボットモデルの先端部分にワークモデルが表示され、
予め配置されていたワークモデルは消去される(口)。
If the robot model is moved to a position where it can handle the workpiece C, and the hand close data is set, check whether the workpiece to be handled is placed in that area when the hand is closed. After checking,
The workpiece model is displayed at the tip of the robot model,
The work model that has been placed in advance is deleted (see below).

更に、教示データに従ってロボットモデルを動作させ、
ハンド開の信号が設定されている教示位置に移動した時
点で、ロボットモデルによりハンドリングされているワ
ークモデルが消去され、新たにワーク座標系上にワーク
モデルが出現される(ハ、二)。
Furthermore, operate the robot model according to the teaching data,
When the robot model moves to the teaching position where the hand open signal is set, the workpiece model being handled by the robot model is erased, and a new workpiece model appears on the workpiece coordinate system (c, 2).

上記のような過程で、ロボットの動作範囲のチエツクが
自動的に行われ、動作範囲を越える場合は、ロボットの
どのアームが動作範囲を越えているのかが識別可能に表
示される。
In the above process, the robot's operating range is automatically checked, and if the operating range is exceeded, which arm of the robot is outside the operating range is displayed in a way that allows identification.

オペレータは、シミニレ−シラン中の任意の時点で一時
停止させたり、画像の一部を拡大したり、視点を変えた
りすることにより、ロボットのアームやハンドと他のワ
ーク等との干渉や位置・姿勢等をチエツクすることがで
きる。
The operator can pause the robot's arm or hand at any point during the simulation, magnify a part of the image, or change the viewpoint to avoid interference between the robot's arm or hand and other workpieces, as well as the position and You can check your posture, etc.

ロボットの動作範囲を越える部分があったり、ロボット
の干渉を発見したり、その他の望ましくない動作を発見
すると、その時点でシミュレーシヨンの進行を中断し、
データの修正を行うことができる。
If there is a part that exceeds the robot's range of motion, if there is interference with the robot, or if there is any other undesirable behavior, the simulation process will be stopped at that point.
Data can be corrected.

そして、上記のような修正を加えつつ動作シミュレーシ
ヨンを行えば、恰もリモート教示を行っているかのよう
な感覚で、極めて簡便にワークのハンドリングの際の動
作データを完成させることができる。
Then, by performing a motion simulation while making the above modifications, it is possible to complete motion data for handling a workpiece extremely easily, with the feeling of remote teaching.

動作シミュレーションで満足し得る結果が得られれば、
そのデータをファイルに収納する。
If satisfactory results are obtained through motion simulation,
Store the data in a file.

■教示データ出力に関する処理l!能 教示データ出力処理は、動作シミュレーシヨンの結果得
られた好ましいデータを教示データに編集し、出力する
処理である。
■Processing related to teaching data output! The ability teaching data output process is a process in which preferred data obtained as a result of motion simulation is edited into teaching data and output.

出力の手段として、最も好ましいものは、伝送ラインを
通じて直接にハンドリングロボットのティーチングデー
タバソファに送り込むものである。
The most preferable output means is to send the data directly to the teaching data bath of the handling robot through a transmission line.

ハンドリングロボットは、送り込まれた教示データを割
り込み処理にて収納するので、ワークに対する作業に支
障をきたすことはない。
The handling robot stores the sent teaching data through interrupt processing, so it does not interfere with work on the workpiece.

又、カセットテープやフロッピィディスク等の媒体に出
力し、このカセットテープやフロッピィディスクをハン
ドリングロボットに読み取らせるようにしても良い。
Alternatively, the information may be output to a medium such as a cassette tape or a floppy disk, and the handling robot may read the cassette tape or floppy disk.

そして、上記教示データは、ファイルに収納される。The teaching data is then stored in a file.

■補助に関する処理機能 補助処理は、データディスケットの初期化処理や、XY
プロッタにCRTデイスプレィ4上の画面そのものを打
ち出したりするような補助的な処理を行うものである。
■Auxiliary processing functions Auxiliary processing includes data diskette initialization processing and XY
It performs auxiliary processing such as displaying the screen itself on the CRT display 4 on a plotter.

上記のように構成された本システムの処理手順を、模式
的に第5図に示す。
The processing procedure of this system configured as described above is schematically shown in FIG.

即ち、 ■ワーク・モデリング ハンドリングされるべきワークがモデリングされる。上
記ワークは、入力単位で座標系(原点)を有しており、
各ポイントの3次元データは、この座標系での値である
That is, (1) Work modeling The work to be handled is modeled. The above workpiece has a coordinate system (origin) in input units,
The three-dimensional data of each point is a value in this coordinate system.

■ワーク配置 入力されたワークモデルを作業空間内に配置する。この
場合のワーク配置とは、作業空間における座標系(ワー
ルド座標系)と各ワークモデルの座標系との相対位置関
係を設定することである。
■Work placement Place the input work model in the work space. Work placement in this case means setting the relative positional relationship between the coordinate system (world coordinate system) in the work space and the coordinate system of each work model.

■ハンド・モデリング ハンド部分がモデリングされる。また、X仁が設定され
る。
■Hand modeling The hand part is modeled. Furthermore, X-ren is set.

■ハンドとワークの対応付は ハンドモデルとワークモデルとの相対関係が定義付けら
れる。即ち、ワークがハンドの一構成部品として定義付
けられる。ここでは、メー、Wを設定する。
■The correspondence between the hand and the workpiece defines the relative relationship between the hand model and the workpiece model. That is, the workpiece is defined as one component of the hand. Here, Me and W are set.

■ロボットモデルとハンドモデルの対応付はロボットモ
デルの先端部分に、ハンドモデルがどのように取り付け
られているかが設定される。
■The correspondence between the robot model and the hand model is set by how the hand model is attached to the tip of the robot model.

ここでは、ム、Hが設定される。Here, M and H are set.

■動作教示 上記のようにして定義付けられたハンドモデルとロボッ
トモデルとをCRTデイスプレィ上に呼び出し、配置さ
れたワークモデルに対してハンドリングされたワークモ
デルを重ねるようにしてロボットモデルを操作する。
(2) Operation teaching The hand model and robot model defined as above are called up on the CRT display, and the robot model is operated by superimposing the handled work model on the placed work model.

ハンド閉の設定をした時点で上記ワークモデルの整合状
態がチエツクされ、許容誤差内であればその時のロボッ
トモデルの姿勢が当該ハンドリングロボットの教示デー
タとして記憶される。その後、上記ロボットモデルをワ
ークを移動させたい位置へ動作させて教示データが作成
される。
When the hand is set to close, the alignment state of the workpiece model is checked, and if it is within the tolerance, the posture of the robot model at that time is stored as teaching data for the handling robot. Thereafter, teaching data is created by moving the robot model to a desired position to move the workpiece.

■動作シミュレーション 上記のようにして設定された教示データをもとに、CR
Tデイスプレィ4上においてシミュレーションを行う。
■Operation simulation Based on the teaching data set as above, CR
A simulation is performed on the T-display 4.

本実施例に係る教示システムは、上記したように構成さ
れている為、ハンドリングロボットに対するオフライン
教示を極めて簡便に行うことができる。
Since the teaching system according to this embodiment is configured as described above, offline teaching to the handling robot can be extremely easily performed.

又、動作シミニレ−シランにより容易に教示ミスを発見
し、修正することができる為、教示の質を向上させるこ
とができ、作業効率も向上させることができる。
In addition, since teaching errors can be easily discovered and corrected by motion simulation, the quality of teaching can be improved and work efficiency can also be improved.

〔発明の効果〕〔Effect of the invention〕

本発明は、上記したように、ロボットモデルとワークモ
デルとを画像出力装置に表示させ、該画像出力装置上で
上記ロボットモデルを操作してハンドリングロボットの
動作データを作成するハンドリングロボットのオフライ
ン教示システムにおいて、ワークモデルを含まない第1
のロボットモデル及び上記ワークモデルのそれぞれの形
状に関するデータを結合して、該ワークモデルを上記第
1のロボットモデルに一体的に組合せた状態の第2のロ
ボットモデルに関するデータを得る組合せ手段と、上記
組合せ手段により組合せられた上記第2のロボットモデ
ルを動作させ、該第2のロボットモデルに関するデータ
と作業空間内の任意の位置に載置されたワークに対応す
るワークモデルに関するデータとの整合状態から当該ハ
ンドリングロボットにより上記ワークが把持されたと判
断する判断手段とを具備してなることを特徴とするハン
ドリングロボットのオフライン教示システムであるから
、ハンドリングロボットに対するオフライン教示を極め
て簡便に実施することができる。
As described above, the present invention provides an off-line teaching system for a handling robot that displays a robot model and a workpiece model on an image output device, and operates the robot model on the image output device to create motion data for the handling robot. , the first one that does not include the work model
combining means for combining data regarding the respective shapes of the robot model and the workpiece model to obtain data regarding a second robot model in which the workpiece model is integrally combined with the first robot model; The second robot models combined by the combination means are operated, and the data on the second robot models are matched with the data on the workpiece model corresponding to the workpiece placed at an arbitrary position in the work space. Since this offline teaching system for a handling robot is characterized by comprising a determining means for determining that the workpiece is gripped by the handling robot, it is possible to extremely easily perform offline teaching to the handling robot.

〔符号の説明〕[Explanation of symbols]

1・・・オフライン教示システム 2・・・デジタイザー 3・・・キーボード 4・・・CRTデイスプレィ(iI像出力装置)5・・
・フロッピィディスク装置 6・・・コンピュータ
1...Offline teaching system 2...Digitizer 3...Keyboard 4...CRT display (II image output device) 5...
・Floppy disk device 6...computer

Claims (1)

【特許請求の範囲】 1、ロボットモデルとワークモデルとを画像出力装置に
表示させ、該画像出力装置上で上記ロボットモデルを操
作してハンドリングロボットの動作データを作成するハ
ンドリングロボットのオフライン教示システムにおいて
、ワークモデルを含まない第1のロボットモ デル及び上記ワークモデルのそれぞれの形状に関するデ
ータを結合して、該ワークモデルを上記第1のロボット
モデルに一体的に組合せた状態の第2のロボットモデル
に関するデータを得る組合せ手段と、 上記組合せ手段により組合せられた上記第 2のロボットモデルを動作させ、該第2のロボットモデ
ルに関するデータと作業空間内の任意の位置に載置され
たワークに対応するワークモデルに関するデータとの整
合状態から当該ハンドリングロボットにより上記ワーク
が把持されたと判断する判断手段とを具備してなること
を特徴とするハンドリングロボットのオフライン教示シ
ステム。
[Claims] 1. In an off-line teaching system for a handling robot, which displays a robot model and a workpiece model on an image output device, and operates the robot model on the image output device to create motion data for the handling robot. , a first robot model that does not include a workpiece model and data regarding the respective shapes of the workpiece model are combined, and the workpiece model is integrally combined with the first robot model. a combining means for obtaining data; operating the second robot model combined by the combining means; and a workpiece corresponding to the data regarding the second robot model and the workpiece placed at an arbitrary position in the work space. 1. An offline teaching system for a handling robot, comprising determining means for determining that the workpiece has been gripped by the handling robot based on a state of consistency with data regarding the model.
JP2089859A 1990-04-03 1990-04-03 Off-line teaching system for handling robot Expired - Fee Related JPH0776882B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2089859A JPH0776882B2 (en) 1990-04-03 1990-04-03 Off-line teaching system for handling robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2089859A JPH0776882B2 (en) 1990-04-03 1990-04-03 Off-line teaching system for handling robot

Publications (2)

Publication Number Publication Date
JPH03288209A true JPH03288209A (en) 1991-12-18
JPH0776882B2 JPH0776882B2 (en) 1995-08-16

Family

ID=13982512

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2089859A Expired - Fee Related JPH0776882B2 (en) 1990-04-03 1990-04-03 Off-line teaching system for handling robot

Country Status (1)

Country Link
JP (1) JPH0776882B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010214571A (en) * 2009-03-19 2010-09-30 Denso Wave Inc Robot simulator

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62165213A (en) * 1986-01-17 1987-07-21 Agency Of Ind Science & Technol Work environment teaching device

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62165213A (en) * 1986-01-17 1987-07-21 Agency Of Ind Science & Technol Work environment teaching device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010214571A (en) * 2009-03-19 2010-09-30 Denso Wave Inc Robot simulator

Also Published As

Publication number Publication date
JPH0776882B2 (en) 1995-08-16

Similar Documents

Publication Publication Date Title
CN110977931B (en) Robot control device and display device using augmented reality and mixed reality
US6587752B1 (en) Robot operation teaching method and apparatus
US9731419B2 (en) System and method for programming robots
JP3655083B2 (en) Interface device for positioning the robot
KR20150044812A (en) Teaching system and teaching method
JP5071361B2 (en) Method for creating work program for double-arm robot and double-arm robot
JPH065486B2 (en) Robot trajectory control method
Kana et al. Human–robot co-manipulation during surface tooling: A general framework based on impedance control, haptic rendering and discrete geometry
JP2007286976A (en) Robot simulation apparatus
JPS6179589A (en) Operating device for robot
CN114603533B (en) Storage medium and teaching method for robot
Solyman et al. Perceptive augmented reality-based interface for robot task planning and visualization
JPS62274404A (en) Off-line teaching system for robot
JPS62269205A (en) Off-line teaching system for robot
JPH03288209A (en) Off-line teaching system for handling robot
JPH03288211A (en) Off-line teaching system for handling robot
JP4230196B2 (en) Positioning calculation method and positioning calculation apparatus
JPH03288210A (en) Off-line teaching system for handling robot
JP2021186929A (en) Control method for multi-axis robot
JP2517553B2 (en) Robot offline teaching method
JP2000112510A (en) Robot teaching method and its device
Vidaković et al. Procedure for definition of end-effector orientation in planar surfaces robot applications
JPS61253510A (en) Method for confirming robot control data
JP2868343B2 (en) Off-line teaching method of 3D laser beam machine
Stradovnik et al. Workpiece Placement Optimization for Robot Machining Based on the Evaluation of Feasible Kinematic Directional Capabilities

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees