JPH1177568A - Teaching assisting method and device - Google Patents

Teaching assisting method and device

Info

Publication number
JPH1177568A
JPH1177568A JP23737097A JP23737097A JPH1177568A JP H1177568 A JPH1177568 A JP H1177568A JP 23737097 A JP23737097 A JP 23737097A JP 23737097 A JP23737097 A JP 23737097A JP H1177568 A JPH1177568 A JP H1177568A
Authority
JP
Japan
Prior art keywords
teaching
operator
effector
information
manipulator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP23737097A
Other languages
Japanese (ja)
Inventor
Yoshimasa Yanagihara
義正 柳原
Takao Kakizaki
隆夫 柿崎
Kenichi Arakawa
賢一 荒川
Keitoku Isoda
佳徳 礒田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP23737097A priority Critical patent/JPH1177568A/en
Publication of JPH1177568A publication Critical patent/JPH1177568A/en
Pending legal-status Critical Current

Links

Landscapes

  • Manipulator (AREA)

Abstract

PROBLEM TO BE SOLVED: To easily carry out the process of a teaching data by an operator, in a device to execute the work by attaching a sensor to an effect container. SOLUTION: By using plural sets of cameras, the moving information of an operator, that is, a three-dimensional posture information is measured at the real time (S1), the position and the posture information of an effect container is obtained (S2), the three-dimensional posture information, and the position and posture information of the effect container are combined, the condition of a robot is provided to the operator through a graphic interface (S3), to carry out a teaching support, so as to process a teaching data to satisfy the sensible sensor posture and the posture of the effect container at a time (S4).

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、教示支援方法及び
装置に係り、特に、教示操作者の位置姿勢情報、ロボッ
ト手先位置姿勢情報をユーザインタフェースに取り込む
ことにより、マニピュレータに保持された効果器(ロボ
ット)を被作業対象物上の所定の経路に沿って動作させ
るために必要な教示データを作成するための教示支援方
法及び装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a teaching support method and apparatus, and more particularly to an effector (hereinafter referred to as an "effector") held in a manipulator by inputting position and orientation information of a teaching operator and robot hand position and orientation information into a user interface. The present invention relates to a teaching support method and apparatus for creating teaching data necessary for causing a robot (robot) to move along a predetermined path on a work target.

【0002】[0002]

【従来の技術】従来のロボット教示技術は、例えば、ロ
ボット工学ハンドブック(コロナ社、1990,pp5
22−529)に開示されているように、ロボットの動
作方向などに対応した押しボタン類を備えた教示ボック
ツールによるリモートティーチ法が多く使用されてい
る。
2. Description of the Related Art Conventional robot teaching techniques are described, for example, in Robotics Handbook (Corona, 1990, pp. 5).
22-529), a remote teach method using a teaching box tool provided with push buttons corresponding to the operation direction of a robot is often used.

【0003】図6は、従来の教示ボックスによるリモー
トティーチ法による教示データ修正方法を説明するため
の図である。同図におけるシステムは、マニピュレータ
1、効果器2、マニピュレータ制御部5、教示ボックス
6から構成される。オペレータは、教示ボックス6を用
いて、効果器2を作業対象ワーク3の加工経路4に効果
器2の先端あるいは、効果器2から一定距離離した位置
に位置付け、その時のマニピュレータ1の先端の位置・
姿勢座標を入力し、これを教示データとしてコントロー
ラ5へ送る。
FIG. 6 is a diagram for explaining a teaching data correction method by a conventional remote teaching method using a teaching box. The system in FIG. 1 includes a manipulator 1, an effector 2, a manipulator control unit 5, and a teaching box 6. The operator uses the teaching box 6 to position the effector 2 on the processing path 4 of the work 3 to be worked, at the tip of the effector 2 or at a position separated from the effector 2 by a certain distance, and the position of the tip of the manipulator 1 at that time.・
The posture coordinates are input and sent to the controller 5 as teaching data.

【0004】この処理を加工経路4に沿って所望の回数
だけマニピュレータ1を動作させて取得して、全教示デ
ータを得る。また、ティーチング装置だけを使った教示
に対して、センシング情報を使い、教示操作者にセンサ
を含むロボットシステムに関する状況を支援情報として
提示し、オペレータの教示への負荷を低減させる教示法
が行われている。例えば、特開平2−15987のよう
に、アーク溶接においてロボット手先のアークビジョン
センサの操作とロボット教示操作を同一操作盤で切り替
えて実行できるようにすると共に、センサによるワーク
投影像を教示支援情報としてCRTに表示し、オペレー
タの負荷を軽減する方法がある。
[0004] This processing is obtained by operating the manipulator 1 a desired number of times along the machining path 4 to obtain all teaching data. In addition, for teaching using only the teaching device, a teaching method that uses sensing information, presents the situation regarding the robot system including the sensor to the teaching operator as support information, and reduces the load on the teaching of the operator is performed. ing. For example, as disclosed in Japanese Patent Application Laid-Open No. 2-15987, in arc welding, the operation of an arc vision sensor at the robot's hand and the robot teaching operation can be switched and executed on the same operation panel, and a work projection image by the sensor is used as teaching support information. There is a method of displaying the information on a CRT to reduce the load on the operator.

【0005】[0005]

【発明が解決しようとする課題】しかしながら、上記の
従来の教示ボックスによるリモートティーチ法による教
示データの修正方法では、作業の経路が複雑になれば教
示ポイントも増え、教示時間が増加し、コストの増大の
要因となる。また、オペレータにかかる負荷も増大す
る。
However, in the above-mentioned conventional teaching data correction method using the remote teaching method using the teaching box, if the work path becomes complicated, the number of teaching points increases, the teaching time increases, and the cost increases. It causes increase. Also, the load on the operator increases.

【0006】また、センシング情報を用いた方法では、
3次元ワーク上での追従作業のように、経路が複雑にな
ると教示支援情報としては、その機能は不十分であり、
教示作業の負荷を軽減させることが困難である。このよ
うに、マニピュレータによる作業では、対象物(ワー
ク)の所定の経路表面に沿って効果器を追従させること
により、所定の作業を達成する。このような作業のため
の装置では、近年作業の効率化を図るためにセンサを導
入したシステムの利用が増加している。従来は、多くの
場合、教示再生型のマニピュレータが用いられている
が、このような従来の装置に比べて、センサを導入した
システムでは、作業実行時の環境不確実性、例えば、ワ
ークの固体差による教示データとのずれ等をオンライン
で対処できるというメリットがある。しかしながら、作
業時に上記環境不確実性に対処できるようにさせるため
には、教示時に使用するセンサの動作条件を満足させる
ような教示作業を実行しなければならない。一般に、セ
ンサは効果器に対して位置姿勢を拘束されているため、
センサの動作条件のなかでも特に考慮しなければならな
い点は、教示位置においてセンサの検出範囲を満足する
ように効果器の位置姿勢を決めなければならないことで
ある。つまり、センサを導入したことにより、センシン
グ可能なセンサ姿勢を予め決められている効果器位置姿
勢を満足させながら教示位置において決定しなければな
らないという問題が新たに発生する。
[0006] In the method using sensing information,
If the path becomes complicated, such as following work on a three-dimensional work, its function is insufficient as teaching support information.
It is difficult to reduce the load of teaching work. As described above, in the work by the manipulator, the predetermined work is achieved by causing the effector to follow the predetermined path surface of the target object (work). In the devices for such work, use of a system in which a sensor is introduced has been increasing in recent years in order to improve work efficiency. Conventionally, in many cases, a teaching-reproduction type manipulator is used.However, in comparison with such a conventional device, in a system incorporating a sensor, environmental uncertainty during work execution, for example, solid There is an advantage that a deviation from the teaching data due to the difference can be dealt with online. However, in order to be able to deal with the environmental uncertainty at the time of work, a teaching work must be performed so as to satisfy the operating conditions of the sensor used at the time of teaching. In general, since the position of the sensor is restricted with respect to the effector,
A point that must be particularly considered among the operating conditions of the sensor is that the position and orientation of the effector must be determined so as to satisfy the detection range of the sensor at the teaching position. In other words, the introduction of the sensor causes a new problem that the sensor position capable of sensing must be determined at the teaching position while satisfying the predetermined effector position / posture.

【0007】本発明は、上記の点に鑑みなされたもの
で、効果器にセンサを付けて作業実行するような装置に
おいて、オペレータが教示データの作成を容易に実行す
ることが可能な教示支援方法及び装置を提供することを
目的とする。
SUMMARY OF THE INVENTION The present invention has been made in view of the above points, and is a teaching support method in which an operator can easily execute creation of teaching data in an apparatus in which a sensor is attached to an effector and work is performed. And an apparatus.

【0008】[0008]

【課題を解決するための手段】図1は、本発明の原理を
説明するための図である。本発明は、センサからマニピ
ュレータに保持された効果器の位置姿勢情報を取得し
て、該マニピュレータを被作業対象物上を所定の経路に
沿って動作するように、教示データを作成する教示支援
方法において、複数台のカメラを用いて、操作者の移動
情報、即ち、3次元位置姿勢情報を実時間で計測し(ス
テップ1)、効果器の位置・姿勢情報を取得し(ステッ
プ2)、3次元姿勢情報及び効果器の位置・姿勢情報と
を組み合わせて、操作者にロボットの状態をグラフィッ
クインタフェースで提示し(ステップ3)、教示支援を
行うことにより、センシング可能なセンサ姿勢及び効果
器の姿勢を同時に満足させる教示データの作成を行う
(ステップ4)。
FIG. 1 is a diagram for explaining the principle of the present invention. The present invention provides a teaching support method for acquiring position and orientation information of an effector held by a manipulator from a sensor and creating teaching data so that the manipulator operates on a work target along a predetermined path. , The movement information of the operator, that is, the three-dimensional position and orientation information is measured in real time using a plurality of cameras (step 1), and the position and orientation information of the effector is obtained (step 2). By combining the three-dimensional attitude information and the effector position / orientation information, the robot state is presented to the operator through a graphic interface (step 3), and teaching support is performed to enable sensing sensor attitude and effector attitude. Is created at the same time (step 4).

【0009】図2は、本発明の原理構成図である。本発
明は、マニピュレータと該マニピュレータのコントロー
ラ、該マニピュレータに保持された効果器と該効果器近
傍に保持されたセンサ、該センサから得られる情報をモ
ニタするモニタ手段から構成され、該マニピュレータを
被作業対象物上を所定の経路に沿って動作するように、
教示データを作成する教示支援装置であって、複数台の
カメラを用いて、オペレータの3次元位置を計測する3
次元位置計測手段100と、オペレータの姿勢を計測す
る姿勢計測手段200と、3次元位置計測手段100と
姿勢計測手段200から取得したオペレータの位置姿勢
情報とモニタ手段により取得した効果器の手先位置姿勢
情報を用いて、教示操作者から見た該効果器の状況をグ
ラフィック表示する表示手段300とを有する。
FIG. 2 is a diagram showing the principle of the present invention. The present invention comprises a manipulator, a controller of the manipulator, an effector held by the manipulator, a sensor held near the effector, and monitor means for monitoring information obtained from the sensor. To move along a predetermined path on the object,
A teaching support device for creating teaching data, wherein a three-dimensional position of an operator is measured using a plurality of cameras.
Three-dimensional position measuring means 100, posture measuring means 200 for measuring the posture of the operator, position and posture information of the operator obtained from three-dimensional position measuring means 100 and posture measuring means 200, and hand position and posture of the effector obtained by the monitoring means Display means 300 for graphically displaying the status of the effector as viewed from the teaching operator using the information.

【0010】上記のように、本発明は、作業領域内を移
動するオペレータの位置姿勢情報を実時間で取得し、効
果器(ロボット)の運動情報(位置姿勢情報)と組み合
わせることにより、教示操作者から見たロボットシステ
ムの状態をグラフィック表示を使った自然なインタフェ
ースで理解することが可能となるため、教示データ作成
作業を容易に実行することができる。
As described above, according to the present invention, the teaching operation is performed by acquiring the position and orientation information of the operator moving in the work area in real time and combining it with the movement information (position and orientation information) of the effector (robot). The user can understand the state of the robot system as seen from the user with a natural interface using a graphic display, so that the teaching data creation operation can be easily performed.

【0011】[0011]

【発明の実施の形態】図3は、本発明の一実施例の教示
支援装置の構成を示す。同図に示す教示支援装置は、イ
ーサネット7、多関節マニピュレータ8、マニピュレー
タコントーラ9、ラインセンサコンローラ10、ライン
センサ11、手先効果器12、CCDカメラコントロー
ラ15、16、位置姿勢計測演算装置17、ジャイロコ
ントローラ18、CCDカメラ19、20、赤外線透過
フィルタ21、22、LED(赤外線LED)23、ジ
ャイロ(3軸角度センサ)24、グラフィック表示器2
5、教示ボックス26から構成される。
FIG. 3 shows the configuration of a teaching support apparatus according to one embodiment of the present invention. The teaching support device shown in FIG. 1 includes an Ethernet 7, an articulated manipulator 8, a manipulator controller 9, a line sensor controller 10, a line sensor 11, a hand effector 12, CCD camera controllers 15, 16, a position / posture measurement / calculation device 17, Gyro controller 18, CCD cameras 19 and 20, infrared transmission filters 21 and 22, LED (infrared LED) 23, gyro (three-axis angle sensor) 24, graphic display 2
5. It comprises a teaching box 26.

【0012】上記の構成において、ラインセンサ11
は、手先効果器12に搭載されている。また、赤外線透
過フィルタ21、22は、CCDカメラ19、20のレ
ンズに取付けられている。LED23は、オペレータの
頭部に付けられているものとする。以下、図3を用いて
オペレータの位置姿勢情報の計測方法及びロボットの位
置姿勢情報とを組み合わせたグラフィック情報をユーザ
インタフェースに用いた支援手法について説明する。
In the above configuration, the line sensor 11
Are mounted on the hand effector 12. The infrared transmission filters 21 and 22 are attached to the lenses of the CCD cameras 19 and 20. The LED 23 is assumed to be attached to the head of the operator. Hereinafter, a method for measuring the position and orientation information of the operator and a support method using graphic information in combination with the position and orientation information of the robot for a user interface will be described with reference to FIG.

【0013】なお、同図において、手先効果器12は、
作業対象ワーク13上を作業経路14に沿って作業を行
うものとする。なお、以下の具体例では、手先効果器1
2を溶接トーチとし、ラインセンサ11をレンジセンサ
として説明する。同図におけるマニピュレータ8の作業
を溶接作業を例にとって説明する。当該溶接作業では、
作業ワーク13の作業経路14に沿って手先効果器12
つまり、溶接トーチを作業ワーク13に近づけ、作業経
路14にならいながら連続的に溶接を実行し、作業ワー
ク13同士を貼り合わせる。
In FIG. 1, the hand effector 12 is
It is assumed that work is performed along the work path 14 on the work 13 to be worked. In the following specific example, the hand effector 1
2 is a welding torch and the line sensor 11 is a range sensor. The operation of the manipulator 8 in the figure will be described by taking a welding operation as an example. In the welding work,
The hand effector 12 along the work path 14 of the work 13
That is, the welding torch is brought close to the work 13, welding is continuously performed while following the work path 14, and the work 13 is attached to each other.

【0014】当該教示装置では、ロボットの動作経路を
決定するために、教示ボックス26を用いてオペレータ
が溶接経路上の点を入力していく。本教示装置では、教
示ボックス26で教示データを作成する際、レンジセン
サ11からの溶接トーチ12のセンシングデータに基づ
いて、多関節マニピュレータ8を移動させる方向をオペ
レータに知らせるために、オペレータの位置姿勢情報と
ロボット位置姿勢情報(溶接トーチ位置姿勢情報)から
手先の3次元モデルのグラフィックインタフェースを用
いて、センサ視野を満足する教示データを作成する機能
を実現する。
In the teaching device, an operator inputs points on the welding route using the teaching box 26 in order to determine the operation route of the robot. In the present teaching device, when creating teaching data in the teaching box 26, the position and orientation of the operator are used to inform the operator of the direction of moving the articulated manipulator 8 based on the sensing data of the welding torch 12 from the range sensor 11. A function of creating teaching data that satisfies the sensor field of view using information and robot position / posture information (welding torch position / posture information) using a graphic interface of a three-dimensional model of the hand is realized.

【0015】まず、オペレータの位置姿勢を計測する方
法について説明する。オペレータの位置は、2台のカメ
ラ19、20とステレオ処理で実行する。具体的には、
赤外線透過フィルタ21を付けたカメラ19によりオペ
レータの頭部のLED23の画像を取得する。画像とし
ては、LED23のみの点光線となるため簡単な画像前
処理である固定値による2値化と重心位置演算によりカ
メラ座標系での(x1,y1)が求められる。同様にし
て、赤外線透過フィルタ22付きのカメラ20により座
標値(x2,y2)が求められる。これらの座標値か
ら、オペレータのロボットのワールド座標系での3次元
位置(Xr,Yr,Zr)を、位置姿勢演算装置17で
ステレオ処理を行い、演算する。ステレオ視を行うため
には、各カメラ19、20のパラメータを予め求めるた
めのキャリブレーションをしておく必要がある。この方
法の実施例については、図4を用いて後述する。
First, a method for measuring the position and orientation of the operator will be described. The position of the operator is executed by two cameras 19 and 20 and stereo processing. In particular,
An image of the LED 23 on the operator's head is acquired by the camera 19 provided with the infrared transmission filter 21. Since the image is a point light beam of only the LED 23, (x1, y1) in the camera coordinate system can be obtained by binarization using fixed values, which is a simple image preprocessing, and arithmetic operation of the center of gravity. Similarly, the coordinates (x2, y2) are obtained by the camera 20 with the infrared transmission filter 22. From these coordinate values, the three-dimensional position (Xr, Yr, Zr) of the operator's robot in the world coordinate system is calculated by performing stereo processing in the position and orientation calculation device 17. In order to perform stereo vision, it is necessary to perform calibration for obtaining parameters of the cameras 19 and 20 in advance. An embodiment of this method will be described later with reference to FIG.

【0016】また、オペレータの姿勢(yaw,pit
ch,roll)は、頭部付近に付けたジャイロ(3軸
角度センサ)24を用いて計測する。これらの情報は、
イーサネット7を介して、グラフィック演算表示装置2
5に送られ、教示支援情報に変換される。次に、図4を
用いて各カメラ19、20のキャリブレーションの方法
について説明する。
Also, the posture of the operator (yaw, pit)
ch, roll) is measured using a gyro (three-axis angle sensor) 24 attached near the head. This information is
Graphic operation display device 2 via Ethernet 7
5 and is converted into teaching support information. Next, a method of calibrating the cameras 19 and 20 will be described with reference to FIG.

【0017】図4は、本発明の一実施例のカメラのキャ
リブレーション方法を説明するための図である。ステレ
オ視を行うためには、各カメラ19、20のパラメータ
を予め求めておく必要がある。そこで、公知の技術であ
るレンズ収差として、1次のradial distortion まで考
慮するTsaiのアルゴリズム("An Efficient and Accurat
e CameraCalibration Technique for 3D Machine Visio
n", Roger Y.Tsai, Proceedingsof IEEE Conference on
Computer Vision and Pattern recognition, Miami Be
ach, FL, 1986, pages 364-37)を用いて、各カメラ1
9、20のキャリブレーションを行う。
FIG. 4 is a diagram for explaining a camera calibration method according to one embodiment of the present invention. In order to perform stereo vision, it is necessary to obtain the parameters of the cameras 19 and 20 in advance. Thus, Tsai's algorithm ("An Efficient and Accurat
e CameraCalibration Technique for 3D Machine Visio
n ", Roger Y. Tsai, Proceedingsof IEEE Conference on
Computer Vision and Pattern recognition, Miami Be
ach, FL, 1986, pages 364-37).
Calibration of 9 and 20 is performed.

【0018】このアルゴリズムを実行させるのに必要な
ロボット座標系と各カメラ座標系とを対応付ける基準点
は、ロボット(手先マニピュレータ33)の手先に取り
付けた赤外線LED32を移動させることにより取得す
る。キャリブレーションでは、60点の基準点を用い、
各々の位置における赤外線LED32のロボット座標系
での3次元位置、及び赤外線透過フィルタ29、30を
付けたカメラ27、28により撮像された赤外線LED
32を撮像することにより、その赤外線LED32の存
在する3D視線方向の直線を2本Li ,1、Li ,2、
を得ることができ、求めるべき赤外線LED32の3次
元位置は、これら2直線Li ,1、Li,2の交点、も
しくは、2直線Li ,1、Li ,2が捩れの関係にある
場合は、2直線の最近接点の中点として算出する。
A reference point for associating the robot coordinate system necessary for executing this algorithm with each camera coordinate system is obtained by moving the infrared LED 32 attached to the hand of the robot (manipulator 33). The calibration uses 60 reference points,
The three-dimensional position of the infrared LED 32 in the robot coordinate system at each position, and the infrared LEDs imaged by cameras 27 and 28 with infrared transmission filters 29 and 30
32, two straight lines L i , 1, L i , 2 ,.
Can be obtained, and the three-dimensional position of the infrared LED 32 to be determined is the intersection of these two straight lines Li , 1, Li , 2 or the two straight lines Li , 1, Li , 2 are in a torsional relationship. In this case, it is calculated as the midpoint of the closest point between two straight lines.

【0019】次に、図5を用いてオペレータの位置姿勢
情報とロボットの位置姿勢情報を用いてオペレータの教
示作業の支援情報の生成手法について説明する。図5
は、本発明の一実施例のオペレータの教示作業の支援情
報作成を説明するための図である。同図に示すシステム
は、グラフィック演算表示装置35、オペレータ提示用
グラフィックインタフェース画面36、及び教示ペンダ
ント37から構成される。
Next, a method of generating support information for the teaching operation of the operator using the position and orientation information of the operator and the position and orientation information of the robot will be described with reference to FIG. FIG.
FIG. 5 is a diagram for explaining creation of support information for a teaching operation of an operator according to an embodiment of the present invention. The system shown in the figure includes a graphic operation display device 35, a graphic interface screen 36 for presenting an operator, and a teaching pendant 37.

【0020】グライフィック演算表示装置35は、ロボ
ット手先の3DCGモデルを幾何モデルから作成し、オ
ペレータの位置姿勢情報とロボットの手先位置姿勢情報
から演算されたオペレータから見た実際のツール姿勢に
一致するように、3DCGモデルをビュー変換し、表示
する。この3DCGモデルは、オペレータの移動あるい
は、ロボットの位置姿勢変更によって再描画される。ま
た、オペレータ提示用グラフィックインタフェース画面
36は、ロボット手先に取り付けたセンサ情報よりセン
サ視野確保のためにロボットをどの方向に移動させるか
を矢印で3DCGモデルに重畳させて表示する。矢印の
方向を決定する方法は、例えば、特開平8−19451
7号にある方法を適用するものとする。これにより、オ
ペレータは、教示ペンダント37をこのグラフィック表
示に従いながら所定のキー操作をすることによりセンサ
視野を満足する教示データを作成する。
The graphics operation display device 35 creates a 3DCG model of the robot hand from the geometric model, and matches the actual tool posture as viewed from the operator calculated from the position and posture information of the operator and the hand position and posture information of the robot. In this way, the 3DCG model is view-transformed and displayed. This 3DCG model is redrawn by moving the operator or changing the position and orientation of the robot. Further, the graphic interface screen 36 for presenting the operator displays the direction in which the robot is to be moved to secure the sensor visual field in a direction superimposed on the 3DCG model by an arrow based on the sensor information attached to the robot hand. A method for determining the direction of the arrow is described in, for example, Japanese Patent Application Laid-Open No. H8-19451.
The method in No. 7 shall be applied. Thus, the operator creates teaching data that satisfies the sensor field of view by performing a predetermined key operation while operating the teaching pendant 37 according to the graphic display.

【0021】なお、グラフィック演算表示装置35は、
タッチ操作入力タイプの携帯端末も利用可能である。な
お、本発明は、上記の実施例に限定されることなく、特
許請求の範囲内で種々変更・応用が可能である。
The graphic operation and display device 35
A mobile terminal of a touch operation input type is also available. It should be noted that the present invention is not limited to the above-described embodiment, but can be variously modified and applied within the scope of the claims.

【0022】[0022]

【発明の効果】上述のように、本発明によれば、効果器
にセンサをつけて作業実行するような装置において、オ
ペレータの位置姿勢情報及びロボットの運動情報を用い
たグラフィカルユーザインタフェースを支援情報とし
て、提示することにより、オペレータは教示データの作
成を容易に実行できる。
As described above, according to the present invention, in a device in which a sensor is attached to an effector to perform a task, a graphical user interface using the position and orientation information of the operator and the motion information of the robot is provided as support information. As a result, the operator can easily create the teaching data.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の原理を説明するための図である。FIG. 1 is a diagram for explaining the principle of the present invention.

【図2】本発明の原理構成図である。FIG. 2 is a principle configuration diagram of the present invention.

【図3】本発明の一実施例の教示支援装置の構成図であ
る。
FIG. 3 is a configuration diagram of a teaching support device according to an embodiment of the present invention.

【図4】本発明の一実施例のカメラのキャリブレーショ
ン方法を説明するための図である。
FIG. 4 is a diagram for explaining a camera calibration method according to one embodiment of the present invention.

【図5】本発明の一実施例のオペレータの教示作業の視
線情報作成を説明するための図である。
FIG. 5 is a diagram for explaining the generation of line-of-sight information for a teaching operation of an operator according to one embodiment of the present invention.

【図6】従来の教示ボックスによるリモートティーチ法
による教示データ修正方法を説明するための図である。
FIG. 6 is a diagram for explaining a teaching data correction method by a remote teaching method using a conventional teaching box.

【符号の説明】[Explanation of symbols]

7 イーサネット 8,33 多関節マニピュレータ 9 コントローラ(マニピュレータ用) 10 ラインセンサコントローラ 11 ラインセンサ 12,31 手先効果器 13 作業対象ワーク 14 作業経路 15,16 CCDカメラコントローラ 17 位置姿勢計測演算装置 18 ジャイロコントローラ 19,20 CCDカメラ 21,22,29,30 赤外線透過フィルタ 23,32 赤外線LED 24 ジャイロ 25 グラフィック表示器 26 教示ボックス 27,28 カメラ 34 定盤 35 グラフィック演算表示装置 36 グラフィカルインタフェース画面 37 教示ペンダント 100 3次元位置計測手段 200 姿勢計測手段 300 表示手段 7 Ethernet 8,33 Articulated manipulator 9 Controller (for manipulator) 10 Line sensor controller 11 Line sensor 12,31 Hand effector 13 Work to be worked 14 Work route 15,16 CCD camera controller 17 Position and orientation measurement arithmetic unit 18 Gyro controller 19 , 20 CCD camera 21, 22, 29, 30 infrared transmission filter 23, 32 infrared LED 24 gyro 25 graphic display 26 teaching box 27, 28 camera 34 surface plate 35 graphic operation display device 36 graphical interface screen 37 teaching pendant 100 three-dimensional Position measuring means 200 Attitude measuring means 300 Display means

───────────────────────────────────────────────────── フロントページの続き (72)発明者 礒田 佳徳 東京都新宿区西新宿三丁目19番2号 日本 電信電話株式会社内 ──────────────────────────────────────────────────続 き Continuing on the front page (72) Inventor Yoshinori Isoda 3-2-1-2 Nishishinjuku, Shinjuku-ku, Tokyo Nippon Telegraph and Telephone Corporation

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 センサからマニピュレータに保持された
効果器の位置姿勢情報を取得して、該マニピュレータを
被作業対象物上を所定の経路に沿って動作するように、
教示データを作成する教示支援方法において、 複数台のカメラを用いて、操作者の移動情報、即ち、3
次元位置姿勢情報を実時間で計測し、 前記効果器の位置・姿勢情報を取得し、 前記3次元位置姿勢情報と前記効果器の位置・姿勢情報
とを組み合わせて、前記操作者にロボットの状態をグラ
フィックインタフェースで提示し、教示支援を行うこと
により、センシング可能なセンサ姿勢及び該効果器の姿
勢を同時に満足させる教示データの作成を行うことを特
徴とする教示支援方法。
1. Acquiring position and orientation information of an effector held by a manipulator from a sensor, and operating the manipulator on a work target along a predetermined path.
In the teaching support method for creating teaching data, the movement information of an operator, that is, 3
Measures the three-dimensional position and orientation information in real time, acquires the position and orientation information of the effector, combines the three-dimensional position and orientation information with the position and orientation information of the effector, and gives the operator a state of the robot. By using a graphic interface to provide teaching support, thereby creating teaching data that simultaneously satisfies the sensor position that can be sensed and the position of the effector.
【請求項2】 マニピュレータと該マニピュレータのコ
ントローラ、該マニピュレータに保持された効果器と該
効果器近傍に保持されたセンサ、該センサから得られる
情報をモニタするモニタ手段から構成され、該マニピュ
レータを被作業対象物上を所定の経路に沿って動作する
ように教示データを作成する教示支援装置であって、 複数台のカメラを用いて、オペレータの3次元位置を計
測する3次元位置計測手段と、 前記オペレータの姿勢を計測する姿勢計測手段と、 前記3次元位置計測手段及び前記姿勢計測手段により取
得した前記オペレータの位置姿勢情報と、前記モニタ手
段から取得した前記効果器の手先位置姿勢情報を用い
て、教示操作者から見た該効果器の状況をグラフィック
表示する表示手段とを有することを特徴とする教示支援
装置。
2. A manipulator comprising: a manipulator; a controller of the manipulator; an effector held by the manipulator; a sensor held near the effector; and monitoring means for monitoring information obtained from the sensor. A teaching support device that creates teaching data so as to move along a predetermined path on a work target, comprising: a plurality of cameras; a three-dimensional position measuring unit configured to measure a three-dimensional position of an operator; Using attitude measuring means for measuring the attitude of the operator, position and attitude information of the operator obtained by the three-dimensional position measuring means and the attitude measuring means, and hand position and attitude information of the effector obtained from the monitoring means. Display means for graphically displaying the state of the effector as viewed from the teaching operator. Support equipment.
JP23737097A 1997-09-02 1997-09-02 Teaching assisting method and device Pending JPH1177568A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP23737097A JPH1177568A (en) 1997-09-02 1997-09-02 Teaching assisting method and device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP23737097A JPH1177568A (en) 1997-09-02 1997-09-02 Teaching assisting method and device

Publications (1)

Publication Number Publication Date
JPH1177568A true JPH1177568A (en) 1999-03-23

Family

ID=17014386

Family Applications (1)

Application Number Title Priority Date Filing Date
JP23737097A Pending JPH1177568A (en) 1997-09-02 1997-09-02 Teaching assisting method and device

Country Status (1)

Country Link
JP (1) JPH1177568A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1870213A1 (en) 2006-06-20 2007-12-26 Fanuc Ltd Robot with a control apparatus comprising a portable teaching pendant connected to an imaging device
JP2008531320A (en) * 2005-03-04 2008-08-14 ファナック ロボティクス アメリカ,インコーポレイティド Flexible connection of teaching device to programmable control device
JP2011189431A (en) * 2010-03-12 2011-09-29 Denso Wave Inc Robot system
JP2013094961A (en) * 2011-11-04 2013-05-20 Fanuc Robotics America Corp Robot teach device with 3-d display
WO2016189924A1 (en) * 2015-05-28 2016-12-01 株式会社日立製作所 Robot operation device and program
CN117021137A (en) * 2023-09-01 2023-11-10 无锡斯帝尔科技有限公司 Visual teaching device adapting to various polishing tools

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008531320A (en) * 2005-03-04 2008-08-14 ファナック ロボティクス アメリカ,インコーポレイティド Flexible connection of teaching device to programmable control device
EP1870213A1 (en) 2006-06-20 2007-12-26 Fanuc Ltd Robot with a control apparatus comprising a portable teaching pendant connected to an imaging device
US7720573B2 (en) 2006-06-20 2010-05-18 Fanuc Ltd Robot control apparatus
JP2011189431A (en) * 2010-03-12 2011-09-29 Denso Wave Inc Robot system
JP2013094961A (en) * 2011-11-04 2013-05-20 Fanuc Robotics America Corp Robot teach device with 3-d display
WO2016189924A1 (en) * 2015-05-28 2016-12-01 株式会社日立製作所 Robot operation device and program
JPWO2016189924A1 (en) * 2015-05-28 2018-01-11 株式会社日立製作所 Robot operating device and program
US10625416B2 (en) 2015-05-28 2020-04-21 Hitachi, Ltd. Robot operation device and program
CN117021137A (en) * 2023-09-01 2023-11-10 无锡斯帝尔科技有限公司 Visual teaching device adapting to various polishing tools

Similar Documents

Publication Publication Date Title
Dianatfar et al. Review on existing VR/AR solutions in human–robot collaboration
Ong et al. Augmented reality-assisted robot programming system for industrial applications
CN110977931B (en) Robot control device and display device using augmented reality and mixed reality
US7714895B2 (en) Interactive and shared augmented reality system and method having local and remote access
Yew et al. Immersive augmented reality environment for the teleoperation of maintenance robots
JP5742862B2 (en) Robot apparatus and workpiece manufacturing method
US11173601B2 (en) Teaching device for performing robot teaching operations and teaching method
CN111267073B (en) Industrial robot teaching system and method based on augmented reality technology
Zaeh et al. Interactive laser-projection for programming industrial robots
US10166673B2 (en) Portable apparatus for controlling robot and method thereof
Pan et al. Augmented reality-based robot teleoperation system using RGB-D imaging and attitude teaching device
US10427298B2 (en) Robot system displaying information for teaching robot
US11904478B2 (en) Simulation device and robot system using augmented reality
US7403835B2 (en) Device and method for programming an industrial robot
JP6589604B2 (en) Teaching result display system
JP2019042843A (en) Robot system and method for operating the same
JP2018167334A (en) Teaching device and teaching method
Ponomareva et al. Grasplook: a vr-based telemanipulation system with r-cnn-driven augmentation of virtual environment
JPH06131442A (en) Three-dimensional virtual image modeling device
JP6905651B1 (en) How to form a 3D model of a robot system and work
JPH1177568A (en) Teaching assisting method and device
KR102403021B1 (en) Robot teaching apparatus and method for teaching robot using the same
JPS62165213A (en) Work environment teaching device
JP2022163836A (en) Method for displaying robot image, computer program, and method for displaying robot image
JPS6097409A (en) Operation teaching method of robot