JPH11262882A - Robot system - Google Patents

Robot system

Info

Publication number
JPH11262882A
JPH11262882A JP8926998A JP8926998A JPH11262882A JP H11262882 A JPH11262882 A JP H11262882A JP 8926998 A JP8926998 A JP 8926998A JP 8926998 A JP8926998 A JP 8926998A JP H11262882 A JPH11262882 A JP H11262882A
Authority
JP
Japan
Prior art keywords
robot
posture
operator
unit
appropriate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP8926998A
Other languages
Japanese (ja)
Inventor
Kazuhiro Hamasuna
和博 浜砂
Ikuo Nagamatsu
郁男 長松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yaskawa Electric Corp
Original Assignee
Yaskawa Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yaskawa Electric Corp filed Critical Yaskawa Electric Corp
Priority to JP8926998A priority Critical patent/JPH11262882A/en
Publication of JPH11262882A publication Critical patent/JPH11262882A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a device for actually feeling a difference between the operating target of a robot and the action of a robot mainbody to be operated. SOLUTION: A robot system includes a robot and a robot controller 101 functioning to actually operate the robot in accordance with the input operation of an operator, wherein judgement 117 whether the position or attitude of the robot operated in accordance with the input operation of the operator is correct or not is made to cause the robot to do predetermined appealing operation if judgement that it is not correct is made. The operator finds that the input operation is not correct from seeing the robot doing the predetermined appealing operation.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、ロボットシステ
ム、特に操作者に対するロボットティーチングの教育効
果が期待できるシステムに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a robot system, and more particularly to a system which can be expected to provide an effect of teaching robot teaching to an operator.

【0002】[0002]

【従来の技術】ロボット本体の操作教育の従来技術で
は、図3に示すように、ロボット操作者はロボット教示
装置にてロボットを操作する方法をとっていた。図3に
おいて、301はロボット本体、302はロボット制御
装置、321は操作制御部、322は動作制御部及び駆
動電力供給部、323は表示制御部、324はロボット
の動作プログラムやパラメータなどを格納したファイル
であり、303はロボットの動作を教示する教示装置、
331は表示機、332はロボットを動かす動作キーや
表示機331に表示される画面を切り替える操作キーな
どより構成される操作キー郡である。ロボット制御装置
302と、ロボット本体301、教示装置303はそれ
ぞれ図示以外にも、閉回路で接続されている。
2. Description of the Related Art In the prior art of operation training of a robot main body, as shown in FIG. 3, a robot operator employs a method of operating a robot with a robot teaching device. In FIG. 3, reference numeral 301 denotes a robot main body, 302 denotes a robot control device, 321 denotes an operation control unit, 322 denotes an operation control unit and a drive power supply unit, 323 denotes a display control unit, and 324 stores operation programs and parameters of the robot. A reference numeral 303 denotes a teaching device for teaching the operation of the robot;
Reference numeral 331 denotes a display unit, 332 denotes an operation key group including operation keys for moving the robot, operation keys for switching a screen displayed on the display unit 331, and the like. The robot control device 302, the robot main body 301, and the teaching device 303 are connected to each other by a closed circuit other than shown.

【0003】その動作の一例を示す。教示装置303の
操作キー郡332においてロボット動作プログラム選択
キーを操作すると、その情報は操作制御部321へ伝え
られ、動作制御部322はファイル324より該当する
ロボット動作プログラムを受け取り動作の準備をし、記
述しない動作開始信号を受け取るとロボット本体301
を動作させる。表示制御部323は同様にファイル32
4より該当するロボット動作プログラムを受け取り、教
示装置303の表示器331にその内容を表示する。操
作者は教示装置303の表示器331を見ながらその内
容を確認し、ロボット操作を行う。一方、このような教
示装置(ティーチボックス)を使用せず、パソコンを使
用してロボットのティーチングを行うことも特開平10
−58364号公報に開示されるように公知である。
An example of the operation will be described. When the robot operation program selection key is operated in the operation key group 332 of the teaching device 303, the information is transmitted to the operation control unit 321. The operation control unit 322 receives the corresponding robot operation program from the file 324 and prepares for the operation. When an operation start signal not described is received, the robot body 301
To work. The display control unit 323 similarly stores the file 32
4, the corresponding robot operation program is received, and its contents are displayed on the display 331 of the teaching device 303. The operator confirms the contents while viewing the display 331 of the teaching device 303 and operates the robot. On the other hand, the teaching of a robot using a personal computer without using such a teaching device (teaching box) is also disclosed in
Known as disclosed in US Pat. No. 5,583,364.

【0004】[0004]

【発明が解決しようとする課題】ところが、従来例で
は、操作者の教育ということで、ロボット本体を動作さ
せてある姿勢をとらせる、あるいは物をつかませるなど
といった操作者にとってのロボット本体を動作させる目
標を設けることはあっても、ロボット操作の教育という
意味でその目標は漠然としており、このため操作者によ
るロボット本体の操作が試行錯誤的になるという問題が
あった。また、ロボット操作者がロボット本体をロボッ
ト操作の目標に沿って動かす場合、上記のように目標が
漠然としているため、ロボット操作者は操作しているロ
ボット本体と目標とするものとの比較が出来ず、目標に
沿ったロボット操作が実感できないという問題があっ
た。特開平10−58364号公報に開示されるもの
も、設定した目標位置自体が適切かどうかは不明である
という問題がある。そこで、本発明は、ロボット操作の
目標と操作されるロボット本体との動作の違いを実感で
きる装置を提供することを目的とする。
However, in the prior art, in order to educate the operator, the operation of the robot main body for the operator such as causing the robot main body to take a certain posture or to grasp an object is performed. Although there is a target to be set, the target is vague in the sense of education of robot operation, and there is a problem that the operation of the robot body by the operator becomes trial and error. Also, when the robot operator moves the robot body according to the target of the robot operation, since the target is vague as described above, the robot operator can compare the operating robot body with the target. Therefore, there is a problem that the robot operation cannot be realized according to the target. The one disclosed in Japanese Patent Application Laid-Open No. H10-58364 also has a problem that it is unclear whether the set target position itself is appropriate. Therefore, an object of the present invention is to provide a device that allows the user to feel the difference between the target of the robot operation and the operation of the operated robot body.

【0005】[0005]

【課題を解決するための手段】上記目的を達成するた
め、本発明は、ロボットと、操作者の操作入力に基づい
て前記ロボットを実際に動作させる機能を有するロボッ
ト制御装置を備えたロボットシステムにおいて、前記操
作者の操作入力に基づいて動作したロボットの位置また
は姿勢が適当かどうか判断し、適当でないと判断した場
合には、前記ロボットに所定のアピール動作を行わせる
ことを特徴とするものである。これによって操作入力が
適当でなかった場合は、前記ロボットが所定のアピール
動作を行って前記操作者に知らせることができる。
In order to achieve the above object, the present invention relates to a robot system comprising a robot and a robot control device having a function of actually operating the robot based on an operation input by an operator. Determining whether the position or orientation of the robot that has operated based on the operation input of the operator is appropriate, and if it is determined to be inappropriate, causing the robot to perform a predetermined appealing operation. is there. As a result, if the operation input is not appropriate, the robot can perform a predetermined appeal operation to notify the operator.

【0006】[0006]

【発明の実施の形態】以下本発明の実施例を図に基づい
て説明する。図1は本発明に係わるロボット制御の構成
を示すブロック図である。図中パソコン本体101、モ
ータ制御部102、モニタ103、キーボード・マウス
などの操作入力装置104、カメラ105、パソコン本
体101の操作部111、動作シミュレータ部112、
動作命令部113、ロボットシミュレータ部114、現
在位置読み取り部115、表示部116、位置比較器1
17、位置・姿勢のずれデータ作成部118、カメラ映
像処理部119、モニタ103に映し出されるカメラ映
像131、画像・グラフ132である。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing the configuration of the robot control according to the present invention. In the figure, a personal computer 101, a motor control unit 102, a monitor 103, an operation input device 104 such as a keyboard and a mouse, a camera 105, an operation unit 111 of the personal computer 101, an operation simulator unit 112,
Operation command section 113, robot simulator section 114, current position reading section 115, display section 116, position comparator 1
17, a position / posture shift data creation unit 118, a camera image processing unit 119, a camera image 131 displayed on the monitor 103, and an image / graph 132.

【0007】まずロボットシミュレータに指定された位
置・姿勢とロボット本体の位置・姿勢の比較操作をしな
い場合を例にとってその動作を説明する。パソコン本体
101の操作部111にて解読された入力操作は、動作
シミュレータ部112に伝えられ計算が開始される。動
作シミュレータ部112は内部に持つ計算上のロボット
の現在位置を基に、図示しない指定された動きを実現す
るように軌跡の計算を行ってロボットの動作命令を生成
し、動作命令113へ伝える。動作命令部113はロボ
ットの動作命令をモータ制御器102へ伝え、モータ制
御器102は図示しないロボット本体を動作させ、その
現在位置情報を得て、現在位置読み取り部115へ伝え
る。現在位置読み取り部115はその情報を表示部11
6を介してモニタ103の画像・グラフ132に表示す
る。
First, the operation will be described by taking as an example a case where a comparison operation between the position / posture designated by the robot simulator and the position / posture of the robot body is not performed. The input operation decoded by the operation unit 111 of the personal computer 101 is transmitted to the operation simulator unit 112 and the calculation is started. The motion simulator unit 112 generates a motion command of the robot by calculating a trajectory so as to realize a specified motion (not shown) based on the calculated current position of the robot contained therein, and transmits the motion command to the motion command 113. The operation instruction unit 113 transmits an operation instruction of the robot to the motor controller 102. The motor controller 102 operates a robot body (not shown), obtains current position information, and transmits the current position information to the current position reading unit 115. The current position reading unit 115 displays the information on the display unit 11
6 is displayed on the image / graph 132 on the monitor 103.

【0008】次にロボットシミュレータに指定された位
置・姿勢とロボット本体の位置・姿勢の比較操作を例に
とってその動作を説明する。パソコン本体101の操作
部111にて解読された入力操作は、位置比較器117
へと伝えられる。図2に、位置比較器117での処理フ
ローを示す。先ず、ロボットシミュレータ部114から
予め指定されていた目標位置を得る。次にロボット本体
の現在位置を現在位置読み取り部115より得る。そし
てそれらを比較する。
Next, the operation will be described by taking as an example an operation of comparing the position / posture designated by the robot simulator with the position / posture of the robot body. The input operation decoded by the operation unit 111 of the personal computer 101 is transmitted to the position comparator 117.
It is told to. FIG. 2 shows a processing flow in the position comparator 117. First, a target position specified in advance is obtained from the robot simulator unit 114. Next, the current position of the robot body is obtained from the current position reading unit 115. And compare them.

【0009】一致していない場合は、動作シミュレータ
部112に対して、それらのずれ分だけロボット本体の
現在位置から目標位置へ、目標位置からロボット本体の
現在位置までの動きを計算するように要求し、動作シミ
ュレータ部112から動作命令部113へ出力する。動
作命令部113はこの動作命令をモータ制御器102へ
伝え、ロボット本体を動作させる。この場合の、ロボッ
トの動作を本発明では、「アピール動作」と名付ける。
具体的には、ロボット本体の位置が不適当な場合は、現
時点の位置から適当な位置を結ぶ線上を所定回数往復動
作し、ロボット本体の姿勢が不適当な場合は、現時点の
姿勢から適当な姿勢に移る動作を所定回数往復動作する
ものとする。このようなイレギュラーな動作が生じるた
め操作者は目標位置または目標指令に対する指令入力が
適当でなかった、すなわち、指定された目標位置または
目標姿勢に達していなかったということが、ロボット本
体の動作で実感できる。また、位置比較器117は、位
置・姿勢のずれデータ作成部118に対して、ずれデー
タを基にしたグラフ作成や操作ガイド作成を要求し、そ
の情報は表示部116を介してモニタ103の画像・グ
ラフ132に表示される。このため、操作者は目標位置
からのずれ分をデータとしてモニタ上でも確認できる。
なお、上記の比較操作をする、しないにかかわらず、ロ
ボット本体の実際の動作はカメラ105、カメラ映像処
理部119をを介して、モニタ103のカメラ映像13
1に表示される。また、カメラ映像131でなく、目視
で確認してもかまわない。操作者はロボット本体の「ア
ピール動作」を基にロボット動作の教示を追加又は修正
すれぱよいので、目標位置への正しい動作指令の入力作
業が効率よく行える。
If they do not match, the motion simulator unit 112 is requested to calculate the motion from the current position of the robot body to the target position by the amount of the deviation and from the target position to the current position of the robot body. Then, the operation is output from the operation simulator unit 112 to the operation instruction unit 113. The operation command unit 113 transmits this operation command to the motor controller 102 to operate the robot body. In the present invention, the operation of the robot in this case is referred to as “appeal operation”.
Specifically, if the position of the robot body is inappropriate, the robot reciprocates a predetermined number of times on a line connecting the appropriate position from the current position, and if the posture of the robot body is inappropriate, an appropriate The operation of shifting to the posture is performed a predetermined number of reciprocating operations. Since such an irregular operation occurs, the operator does not appropriately input a command to the target position or the target command, that is, the operation of the robot main body indicates that the specified target position or the target posture has not been reached. You can feel it. Further, the position comparator 117 requests the position / posture shift data creating unit 118 to create a graph or an operation guide based on the shift data, and the information is displayed on the monitor 103 via the display unit 116. -It is displayed on the graph 132. For this reason, the operator can confirm the deviation from the target position as data on the monitor.
Regardless of whether or not the above-described comparison operation is performed, the actual operation of the robot body is performed via the camera 105 and the camera image processing unit 119 via the camera image 13 on the monitor 103.
1 is displayed. In addition, instead of the camera image 131, it may be visually confirmed. The operator only needs to add or modify the teaching of the robot operation based on the "appeal operation" of the robot main body, so that the operation of inputting the correct operation command to the target position can be performed efficiently.

【0010】[0010]

【発明の効果】以上述べたように本発明によれば、ロボ
ットシミュレータに指定されたグラフィックとロボット
本体の位置・姿勢のずれをロボット本体の動作として表
現することで、操作者はこのずれをロボットの動きによ
ってより実感できるとともに、その動きの方向に沿って
修正すれば正しい動作指令が得られるという優れた効果
がある。
As described above, according to the present invention, the deviation between the graphic designated by the robot simulator and the position / posture of the robot main body is expressed as the operation of the robot main body. In addition to the fact that the user can actually feel the movement of the user, the correction along the direction of the movement can provide a correct operation command.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の構成を示すブロック図FIG. 1 is a block diagram showing the configuration of the present invention.

【図2】本発明のフローチャートFIG. 2 is a flowchart of the present invention.

【図3】従来例のブロック図FIG. 3 is a block diagram of a conventional example.

【符号の説明】[Explanation of symbols]

101 パソコン本体 102 モータ制御部 103 モニタ 104 操作入力装置(キーボード・マウスなど) 105 カメラ 111 操作部 112 動作シミュレータ部 113 動作命令部 114 ロボットシミュレータ部 115 現在位置読み取り部 116 表示部 117 位置比較器 118 位置・姿勢のずれデータ作成部 119 カメラ映像処理部 131 カメラ映像 132 画像・グラフ 301 ロボット本体 302 ロボット制御装置 303 教示装置 321 操作制御部 322 動作制御部及び駆動電力供給部 323 表示制御部 324 ファイル(ロボットの動作プログラムやパラメ
ータなどを格納) 331 ロボットの動作を教示する教示装置 332 操作キー郡(ロボットを動かす動作キーや表示
機331に表示される画面を切り替える操作キーなどよ
り構成)
101 Personal computer 102 Motor control unit 103 Monitor 104 Operation input device (keyboard, mouse, etc.) 105 Camera 111 Operation unit 112 Operation simulator unit 113 Operation instruction unit 114 Robot simulator unit 115 Current position reading unit 116 Display unit 117 Position comparator 118 Position -Posture deviation data creation unit 119 Camera video processing unit 131 Camera video 132 Image / graph 301 Robot main body 302 Robot control unit 303 Teaching device 321 Operation control unit 322 Operation control unit and drive power supply unit 323 Display control unit 324 File (robot) 331 Teaching device for teaching the operation of the robot 332 Operation keys (operation keys for moving the robot and operations for switching the screen displayed on the display 331) (Composed of operation keys, etc.)

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 ロボットと、操作者の操作入力に基づい
て前記ロボットを実際に動作させる機能を有するロボッ
ト制御装置を備えたロボットシステムにおいて、 前記操作者の操作入力に基づいて動作したロボットの位
置または姿勢が適当かどうか判断し、適当でないと判断
した場合には、前記ロボットに所定のアピール動作を行
わせることを特徴とするロボットシステム。
1. A robot system comprising a robot and a robot control device having a function of actually operating the robot based on an operation input of an operator, wherein the position of the robot operated based on the operation input of the operator is provided. Alternatively, it is determined whether or not the posture is appropriate, and when it is determined that the posture is not appropriate, the robot is caused to perform a predetermined appeal operation.
【請求項2】 前記アピール動作は、ロボットの位置が
不適当な場合は、現時点の位置から適当な位置を結ぶ線
上を所定回数往復動作するものである請求項1記載のロ
ボットシステム。
2. The robot system according to claim 1, wherein, if the position of the robot is inappropriate, the appealing operation reciprocates a predetermined number of times on a line connecting the current position and the appropriate position.
【請求項3】 前記アピール動作は、ロボットの姿勢が
不適当な場合は、現時点の姿勢から適当な姿勢に移る動
作を所定回数往復動作するものである請求項1または2
記載のロボットシステム。
3. The appealing operation includes reciprocating a predetermined number of times to move from a current posture to an appropriate posture when the posture of the robot is inappropriate.
The described robot system.
【請求項4】 ロボットの動作シミュレーション画像を
演算して表示するロボットシミュレータを設けた請求項
1乃至3記載のロボットシステム。
4. The robot system according to claim 1, further comprising a robot simulator for calculating and displaying a motion simulation image of the robot.
【請求項5】 前記ロボットシミュレータが表示するシ
ミュレーション画像とは別に、ロボット本体の動きをカ
メラで撮像した画像を表示できるようにした請求項1乃
至4記載のロボットシステム。
5. The robot system according to claim 1, wherein an image obtained by capturing a movement of the robot body by a camera can be displayed separately from a simulation image displayed by the robot simulator.
JP8926998A 1998-03-17 1998-03-17 Robot system Pending JPH11262882A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8926998A JPH11262882A (en) 1998-03-17 1998-03-17 Robot system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8926998A JPH11262882A (en) 1998-03-17 1998-03-17 Robot system

Publications (1)

Publication Number Publication Date
JPH11262882A true JPH11262882A (en) 1999-09-28

Family

ID=13966043

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8926998A Pending JPH11262882A (en) 1998-03-17 1998-03-17 Robot system

Country Status (1)

Country Link
JP (1) JPH11262882A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005138245A (en) * 2003-11-07 2005-06-02 Yaskawa Electric Corp Controller of human intervention type robot
JP2019093491A (en) * 2017-11-24 2019-06-20 ファナック株式会社 Teaching device for performing teaching operation of robot and teaching method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005138245A (en) * 2003-11-07 2005-06-02 Yaskawa Electric Corp Controller of human intervention type robot
JP2019093491A (en) * 2017-11-24 2019-06-20 ファナック株式会社 Teaching device for performing teaching operation of robot and teaching method
US11173601B2 (en) 2017-11-24 2021-11-16 Fanuc Corporation Teaching device for performing robot teaching operations and teaching method

Similar Documents

Publication Publication Date Title
US6853881B2 (en) Robot information processing system
US9415509B2 (en) Robot teach device with 3-D display
US7194396B2 (en) Simulation device
EP2218485A1 (en) Image generation device, image generation program, image generation program recording medium, and image generation method
JP3906729B2 (en) Sign language education system and program for realizing the system
US6628286B1 (en) Method and apparatus for inserting external transformations into computer animations
JP2005332325A (en) Kinesthetic sense imparted input device
JP2010218533A (en) Display picture design support device and program
JPH11262882A (en) Robot system
CN115509365A (en) Building construction experience method and system based on VR technology
JPH1166351A (en) Method and device for controlling object operation inside three-dimensional virtual space and recording medium recording object operation control program
JP3344499B2 (en) Object operation support device
WO2020067256A1 (en) Control device
JP2004013514A (en) Data display device and data display method
WO2020067257A1 (en) Control device
JP3038691B2 (en) Window moving device
JPH1148178A (en) Display device for a plurality of robot action programs
JPH08129467A (en) Character interface device
JPH03265006A (en) Data input device for bender
JPH0816091A (en) Simulator using device for operation training
JPS62200453A (en) Ruled line display system
JPH07104937A (en) Cursor display control system
JP2001014483A (en) Electronic presentation system using character
JPH04123259A (en) Document preparing device
JPH02148132A (en) Data copy controller