JP2023121732A - Operation device, robot system, method for controlling operation device, method for controlling robot system, method for manufacturing article, control program, and recording medium - Google Patents

Operation device, robot system, method for controlling operation device, method for controlling robot system, method for manufacturing article, control program, and recording medium Download PDF

Info

Publication number
JP2023121732A
JP2023121732A JP2023014379A JP2023014379A JP2023121732A JP 2023121732 A JP2023121732 A JP 2023121732A JP 2023014379 A JP2023014379 A JP 2023014379A JP 2023014379 A JP2023014379 A JP 2023014379A JP 2023121732 A JP2023121732 A JP 2023121732A
Authority
JP
Japan
Prior art keywords
robot
operating device
load
processing unit
receives
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023014379A
Other languages
Japanese (ja)
Inventor
成吾 今村
Seigo Imamura
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to US18/170,414 priority Critical patent/US20230264353A1/en
Publication of JP2023121732A publication Critical patent/JP2023121732A/en
Pending legal-status Critical Current

Links

Images

Abstract

To enable a robot to efficiently restore from a state where the robot is subjected to interference.SOLUTION: An operation device for operating a robot includes a processing part that, when the robot interferes with an object, determines an operation direction from which operation to the robot is received on the basis of a direction in which the robot is subjected to load from the object.SELECTED DRAWING: Figure 7

Description

本開示は、ロボットの技術に関する。 The present disclosure relates to robot technology.

ロボットがロボットの周囲の物体に衝突、即ち干渉した際に、ロボットの動作を停止させる技術が知られている。特許文献1には、ロボットが干渉した際に、試行錯誤的にロボットを動作させ、ロボットが干渉した状態から復旧するシステムが開示されている。また、特許文献1には、ロボットの3Dモデルを用いて干渉状態から復旧する動作をシミュレーションすることが開示されている。 Techniques for stopping the motion of a robot when the robot collides with, or interferes with, an object around the robot are known. Patent Literature 1 discloses a system that, when a robot interferes, moves the robot through trial and error, and recovers from the state in which the robot interferes. Further, Japanese Patent Laid-Open No. 2002-200003 discloses simulating an operation to recover from an interference state using a 3D model of a robot.

特開2018-051686号公報JP 2018-051686 A

特許文献1に記載の方法では、試行錯誤的にロボットを動作させるため、ロボットが接触している物体を更に押圧する動作など、ロボットに過負荷がかかる動作も含まれる。また、シミュレーションを行う際にも、ロボットの3Dモデル以外に、周囲の物体のモデルも必要となるが、ロボットの周囲の物体が必ずしもロボットに対して決まった位置に配置されているとは限らない。 In the method described in Patent Literature 1, since the robot is operated by trial and error, the robot may be overloaded, such as further pressing an object that the robot is in contact with. Also, when performing a simulation, in addition to the 3D model of the robot, a model of the surrounding objects is also required, but the objects around the robot are not necessarily arranged at fixed positions with respect to the robot. .

そこで、本開示は、ロボットを干渉している状態から効率的に復旧可能とすることにある。 Therefore, the present disclosure is to enable efficient recovery from the interfering state of the robot.

本開示の第1態様は、ロボットを操作する操作装置であって、前記ロボットが物体に干渉した場合、前記ロボットが前記物体から負荷を受ける方向に基づいて、前記ロボットの操作を受け付ける操作方向を決定する処理部を備える、ことを特徴とする操作装置である。 A first aspect of the present disclosure is an operation device for operating a robot, wherein when the robot interferes with an object, the operation direction for accepting the operation of the robot is changed based on the direction in which the robot receives a load from the object. The operating device is characterized by comprising a processing unit for determining.

本開示の第2態様は、ロボットを操作する操作装置であって、前記ロボットが物体に干渉した場合、前記ロボットが前記物体から負荷を受ける方向に基づいて、前記ロボットの操作を受け付ける操作方向を、表示部に表示する処理部を備える、ことを特徴とする操作装置である。 A second aspect of the present disclosure is an operation device for operating a robot, wherein when the robot interferes with an object, the operation direction for accepting the operation of the robot is changed based on the direction in which the robot receives a load from the object. , and a processing unit for displaying on a display unit.

本開示の第3態様は、ロボットを操作する操作装置の制御方法であって、前記ロボットが物体に干渉した場合、前記ロボットが前記物体から負荷を受ける方向に基づいて、前記ロボットの操作を受け付ける操作方向を決定する、ことを特徴とする制御方法である。 A third aspect of the present disclosure is a control method for an operating device that operates a robot, wherein when the robot interferes with an object, the robot receives an operation based on a direction in which the robot receives a load from the object. This control method is characterized by determining the direction of operation.

本開示の第4態様は、ロボットを操作する操作装置の制御方法であって、前記ロボットが物体に干渉した場合、前記ロボットが前記物体から負荷を受ける方向に基づいて、前記ロボットの操作を受け付ける操作方向を、表示部に表示する、ことを特徴とする制御方法である。 A fourth aspect of the present disclosure is a control method for an operating device that operates a robot, wherein when the robot interferes with an object, the robot receives an operation based on a direction in which the robot receives a load from the object. This control method is characterized by displaying an operation direction on a display unit.

本開示によれば、ロボットを干渉している状態から効率的に復旧することができる。 According to the present disclosure, it is possible to efficiently recover from the state of interfering with the robot.

第1実施形態に係るロボットシステムの構成を示す説明図である。1 is an explanatory diagram showing the configuration of a robot system according to a first embodiment; FIG. 第1実施形態に係るロボットの説明図である。1 is an explanatory diagram of a robot according to a first embodiment; FIG. 第1実施形態に係るティーチングペンダントの説明図である。FIG. 2 is an explanatory diagram of a teaching pendant according to the first embodiment; FIG. 第1実施形態に係るロボットシステムの制御系を示すブロック図である。2 is a block diagram showing a control system of the robot system according to the first embodiment; FIG. (a)及び(b)は第1実施形態に係る動作指示部の説明図である。(a) and (b) are explanatory diagrams of an operation instructing unit according to the first embodiment. 第1実施形態に係るティーチングペンダントの制御方法を示すフローチャートである。4 is a flow chart showing a method of controlling the teaching pendant according to the first embodiment; 第1実施形態に係るロボットの説明図である。1 is an explanatory diagram of a robot according to a first embodiment; FIG. (a)及び(b)は第1実施形態に係る表示画像の一例の説明図である。(a) and (b) are explanatory diagrams of an example of a display image according to the first embodiment. (a)及び(b)は第2実施形態に係る表示画像の一例の説明図である。(a) and (b) are explanatory diagrams of an example of a display image according to the second embodiment. 第2実施形態に係る表示画像の一例の説明図である。FIG. 11 is an explanatory diagram of an example of a display image according to the second embodiment; 第3実施形態に係るティーチングペンダントの制御方法を示すフローチャートである。10 is a flow chart showing a method of controlling a teaching pendant according to the third embodiment; 第3実施形態に係る表示画像の一例の説明図である。FIG. 11 is an explanatory diagram of an example of a display image according to the third embodiment;

以下、本開示の例示的な実施形態について、図面を参照しながら詳細に説明する。 Exemplary embodiments of the present disclosure are described in detail below with reference to the drawings.

[第1実施形態]
図1は、第1実施形態に係るロボットシステム1000の構成を示す説明図である。ロボットシステム1000は、ロボット10と、コントローラ20と、操作装置の一例であるティーチングペンダント30と、を備える。ロボット10は、産業用ロボットであり、いわゆるマニピュレータである。ロボット10とコントローラ20とは、互いに通信可能に例えば通信ケーブルで接続されている。コントローラ20とティーチングペンダント30とは、互いに通信可能に例えば通信ケーブルで接続されている。
[First embodiment]
FIG. 1 is an explanatory diagram showing the configuration of a robot system 1000 according to the first embodiment. A robot system 1000 includes a robot 10, a controller 20, and a teaching pendant 30 that is an example of an operating device. The robot 10 is an industrial robot, a so-called manipulator. The robot 10 and the controller 20 are communicably connected to each other by, for example, a communication cable. The controller 20 and the teaching pendant 30 are communicatively connected to each other by, for example, a communication cable.

コントローラ20は、ロボット10の動作を制御するためのものであり、例えばコンピュータで構成されている。コントローラ20は、教示データに従ってロボット10を動作させる第1モードと、ティーチングペンダント30の指示に従ってロボット10を動作させる第2モードとを選択的に実行可能である。コントローラ20は、第1モードでロボット10の動作を制御中にロボット10を保護停止または緊急停止させた際、第1モードから第2モードへ移行する。ここで、ロボット10の異常を検知しロボット10の各モータのサーボを切断せずに停止させることを保護停止、ロボット10の異常を検知しロボット10の各モータのサーボを切断して停止させることを緊急停止とする。ロボット10を保護停止させた場合はサーボをかけたまま第1モードから第2モードに移行する。ロボット10を緊急停止させた場合は、ティーチングペンダント30による指示に基づきサーボを一度入れなおしてから第2モードを実行する。 The controller 20 is for controlling the motion of the robot 10 and is composed of a computer, for example. The controller 20 can selectively execute a first mode of operating the robot 10 according to teaching data and a second mode of operating the robot 10 according to instructions from the teaching pendant 30 . The controller 20 shifts from the first mode to the second mode when the robot 10 is stopped for protection or emergency while controlling the operation of the robot 10 in the first mode. Here, detecting an abnormality of the robot 10 and stopping without disconnecting the servo of each motor of the robot 10 is a protective stop, and detecting an abnormality of the robot 10 and disconnecting the servo of each motor of the robot 10 to stop. is an emergency stop. When the robot 10 is stopped for protection, the mode is shifted from the first mode to the second mode while the servo is applied. When the robot 10 is brought to an emergency stop, the second mode is executed after turning on the servo once again based on the instructions from the teaching pendant 30 .

ティーチングペンダント30は、ユーザが操作可能な入力装置であり、ユーザに操作されることでコントローラ20に動作指令を送る機能を有し、ユーザの操作に従ってロボット10を動作させることができるものである。コントローラ20は、ティーチングペンダント30からの動作指令に従ってロボット10を動作させるように構成されている。このように、ロボットシステム1000は、ユーザがティーチングペンダント30を操作することで、ロボット10がティーチングペンダント30の操作に応じた動作を行うように構成されている。 The teaching pendant 30 is a user-operable input device, has a function of sending an operation command to the controller 20 when operated by the user, and can operate the robot 10 according to the user's operation. The controller 20 is configured to operate the robot 10 in accordance with operation commands from the teaching pendant 30 . As described above, the robot system 1000 is configured such that the robot 10 performs an operation corresponding to the operation of the teaching pendant 30 by the user's operation of the teaching pendant 30 .

図2は、第1実施形態に係るロボット10の説明図である。ロボット10の根元は、固定端であり、不図示の架台等に固定されている。ロボット10の手先(先端)は、自由端である。ロボット10は、ロボットアーム101と、ロボットアーム101に取り付けられたエンドエフェクタの一例であるロボットハンド102とを有する。ロボットハンド102は、ロボット10の手先の一例である。 FIG. 2 is an explanatory diagram of the robot 10 according to the first embodiment. The base of the robot 10 is a fixed end, and is fixed to a pedestal or the like (not shown). A hand (tip) of the robot 10 is a free end. The robot 10 has a robot arm 101 and a robot hand 102 that is an example of an end effector attached to the robot arm 101 . The robot hand 102 is an example of a hand of the robot 10 .

ロボットアーム101は、複数の関節J1~J6を有するロボットアームである。ロボットアーム101は、垂直多関節のロボットアームである。ロボットアーム101は、固定リンクであるベース110と、複数のリンク111~116とを有する。これらベース110及びリンク111~116が関節J1~J6で連結されることにより、各リンク111~116が各関節J1~J6で回転可能となっている。 A robot arm 101 is a robot arm having a plurality of joints J1 to J6. The robot arm 101 is a vertically articulated robot arm. The robot arm 101 has a fixed link base 110 and a plurality of links 111-116. By connecting the base 110 and the links 111 to 116 with the joints J1 to J6, the links 111 to 116 are rotatable at the joints J1 to J6.

各関節J1~J6には、動力源として不図示のモータが配置されている。各関節J1~J6に設けられたモータが各関節J1~J6、即ち各リンク111~116を駆動することで、ロボット10は様々な姿勢をとることができる。本実施形態では、ロボット10の手先には、ツールセンタポイント(TCP)130が定義されており、TCP130の位置及び姿勢を指定することで、ロボット10を様々な姿勢に動作させることができる。なお、各関節J1~J6が回転関節としたが、これに限定されるものではなく、例えばいずれかの関節が直動関節であってもよい。 A motor (not shown) is arranged at each of the joints J1 to J6 as a power source. The robot 10 can take various postures by driving the joints J1 to J6, that is, the links 111 to 116, by the motors provided at the joints J1 to J6. In this embodiment, a tool center point (TCP) 130 is defined at the hand of the robot 10, and by specifying the position and orientation of the TCP 130, the robot 10 can be moved in various orientations. Although the joints J1 to J6 are rotary joints, the present invention is not limited to this. For example, any one of the joints may be a linear joint.

ロボットハンド102は、ワークを保持することが可能に構成されている。第1実施形態では、ロボットハンド102は、駆動源を含むハンド本体120と、ハンド本体120に支持された複数のフィンガ121と、を有し、ワークを保持可能に構成されている。 The robot hand 102 is configured to be able to hold a work. In the first embodiment, the robot hand 102 has a hand body 120 including a drive source, and a plurality of fingers 121 supported by the hand body 120, and is configured to be able to hold a workpiece.

ロボット10は、物品の製造を行う製造ラインにおいて、ロボットハンド102でワークを把持して搬送作業や他のワークへ組み付ける組立作業を実施したり、ツールを把持してワークの加工作業を実施したりできる。あるいは、ロボット10は、製造工程の作業内容に応じて、ロボットハンド102以外のアクチュエータをリンク116に装着して作業することもできる。 In a manufacturing line that manufactures articles, the robot 10 grasps a work with the robot hand 102 and carries it out, carries it out, or assembles it into another work. can. Alternatively, the robot 10 can work by attaching an actuator other than the robot hand 102 to the link 116 according to the work content of the manufacturing process.

例えば、ロボット10の周囲には、ワークW1,W2が配置される。ロボット10にワークW1を保持させ、ロボット10にワークW1をワークW2に組付けさせることで、組立品である物品を製造することができる。組立品は、中間製品であっても最終製品であってもよい。 For example, works W1 and W2 are arranged around the robot 10 . By causing the robot 10 to hold the work W1 and assembling the work W1 to the work W2 by the robot 10, an article as an assembly can be manufactured. An assembly may be an intermediate product or a final product.

図3は、第1実施形態に係るティーチングペンダント30の説明図である。ティーチングペンダント30は、入力デバイスである入力部と表示デバイスである表示部とを兼ねるタッチパネルディスプレイ304を備える。タッチパネルディスプレイ304には、ユーザインタフェース(UI)画像として、3Dモデル表示部31と動作指示部32とが表示される。なお、入力部と表示部とは別体に構成されていてもよい。 FIG. 3 is an explanatory diagram of the teaching pendant 30 according to the first embodiment. The teaching pendant 30 includes a touch panel display 304 that serves both as an input unit as an input device and as a display unit as a display device. A 3D model display section 31 and an operation instruction section 32 are displayed on the touch panel display 304 as user interface (UI) images. Note that the input unit and the display unit may be configured separately.

図4は、第1実施形態に係るロボットシステム1000の制御系を示すブロック図である。コントローラ20は、コンピュータで構成されており、プロセッサであるCPU(Central Processing Unit)201を備える。また、コントローラ200は、記憶デバイスとして、ROM(Read Only Memory)202、RAM(Random Access Memory)203、及びHDD(Hard Disk Drive)204を備える。また、コントローラ20は、記録ディスクドライブ205と、入出力インタフェースであるI/O(Input/Output)206とを備える。CPU201、ROM202、RAM203、HDD204、記録ディスクドライブ205、及びI/O206は、互いに通信可能にバス210で接続されている。 FIG. 4 is a block diagram showing the control system of the robot system 1000 according to the first embodiment. The controller 20 is configured by a computer and includes a CPU (Central Processing Unit) 201 as a processor. The controller 200 also includes a ROM (Read Only Memory) 202, a RAM (Random Access Memory) 203, and a HDD (Hard Disk Drive) 204 as storage devices. The controller 20 also includes a recording disk drive 205 and an I/O (Input/Output) 206 that is an input/output interface. The CPU 201, ROM 202, RAM 203, HDD 204, recording disk drive 205, and I/O 206 are connected via a bus 210 so as to be able to communicate with each other.

ROM202には、コンピュータ起動時にCPU201によって読み出される基本プログラムが格納されている。RAM203は、CPU201の演算処理に用いられる一時的な記憶デバイスである。HDD204は、CPU201の演算処理結果等、各種データを記憶する記憶デバイスである。第1実施形態では、HDD204には、CPU201に実行させるためのプログラム211が格納されている。CPU201は、プログラム211を実行することにより、ロボット10を教示データに従って制御したり、ロボット10に所定範囲を超える負荷が作用した際には、ロボット10の動作を保護停止または緊急停止させる制御を行ったりする。記録ディスクドライブ205は、記録ディスク212に記録された各種データやプログラム等を読み出すことができる。 The ROM 202 stores a basic program read by the CPU 201 when the computer is started. A RAM 203 is a temporary storage device used for arithmetic processing of the CPU 201 . The HDD 204 is a storage device that stores various data such as results of arithmetic processing by the CPU 201 . In the first embodiment, the HDD 204 stores a program 211 to be executed by the CPU 201 . By executing the program 211, the CPU 201 controls the robot 10 according to teaching data, and when a load exceeding a predetermined range acts on the robot 10, performs control to stop the operation of the robot 10 for protection or emergency stop. or The recording disk drive 205 can read various data and programs recorded on the recording disk 212 .

I/O206には、ロボットアーム101、ロボットハンド102、ティーチングペンダント30が接続されている。 A robot arm 101 , a robot hand 102 and a teaching pendant 30 are connected to the I/O 206 .

ティーチングペンダント30は、コンピュータで構成されており、プロセッサであるCPU301を備える。CPU301は、処理部の一例である。また、ティーチングペンダント30は、記憶デバイスとして、ROM302及びRAM303を備える。また、ティーチングペンダント30は、タッチパネルディスプレイ304と、入出力インタフェースであるI/O306と、を備える。CPU301、ROM302、RAM303、タッチパネルディスプレイ304、及びI/O306は、互いに通信可能にバス310で接続されている。 The teaching pendant 30 is composed of a computer and has a CPU 301 as a processor. The CPU 301 is an example of a processing unit. The teaching pendant 30 also includes a ROM 302 and a RAM 303 as storage devices. The teaching pendant 30 also includes a touch panel display 304 and an I/O 306 that is an input/output interface. The CPU 301, ROM 302, RAM 303, touch panel display 304, and I/O 306 are connected by a bus 310 so as to be able to communicate with each other.

ROM302には、CPU301に実行させるための制御プログラム311が格納されている。CPU301は、制御プログラム311を実行することにより、後述する制御方法を実行する。RAM303は、CPU301の演算処理に用いられる一時的な記憶デバイスである。I/O306は、コントローラ20のI/O206と接続されている。 The ROM 302 stores a control program 311 to be executed by the CPU 301 . The CPU 301 executes a control method, which will be described later, by executing the control program 311 . A RAM 303 is a temporary storage device used for arithmetic processing by the CPU 301 . I/O 306 is connected to I/O 206 of controller 20 .

ロボットアーム101は、関節J1~J6の数と同じ数の6つの駆動ユニット151~156と、を有する。各駆動ユニット151~156は、各関節J1~J6と対応している。 The robot arm 101 has six drive units 151-156, the number of which is the same as the number of joints J1-J6. Each drive unit 151-156 corresponds to each joint J1-J6.

駆動ユニット151は、ドライバ161、モータ171、電流センサ181及び力覚センサ191を含む。駆動ユニット152は、ドライバ162、モータ172、電流センサ182及び力覚センサ192を含む。駆動ユニット153は、ドライバ163、モータ173、電流センサ183及び力覚センサ193を含む。駆動ユニット154は、ドライバ164、モータ174、電流センサ184及び力覚センサ194を含む。駆動ユニット155は、ドライバ165、モータ175、電流センサ185及び力覚センサ195を含む。駆動ユニット156は、ドライバ166、モータ176、電流センサ186及び力覚センサ196を含む。 Drive unit 151 includes driver 161 , motor 171 , current sensor 181 and force sensor 191 . Drive unit 152 includes driver 162 , motor 172 , current sensor 182 and force sensor 192 . Drive unit 153 includes driver 163 , motor 173 , current sensor 183 and force sensor 193 . Drive unit 154 includes driver 164 , motor 174 , current sensor 184 and force sensor 194 . Drive unit 155 includes driver 165 , motor 175 , current sensor 185 and force sensor 195 . Drive unit 156 includes driver 166 , motor 176 , current sensor 186 and force sensor 196 .

各ドライバ161~166は、不図示のマイクロコンピュータ、不図示のA/D変換回路、不図示のモータ駆動回路等を含む。複数のドライバ161~166は、バス140を介してコントローラ20のI/O206に接続されている。 Each driver 161 to 166 includes a microcomputer (not shown), an A/D conversion circuit (not shown), a motor drive circuit (not shown), and the like. A plurality of drivers 161 - 166 are connected to I/O 206 of controller 20 via bus 140 .

各モータ171~176は、各関節J1~J6を駆動する駆動源である。具体的に説明すると、各モータ171~176は、直接、又は不図示の減速機等の伝達機構を介して、各関節J1~J6で連結された2つのリンクのうち先端側のリンクを基端側のリンクに対して駆動する。各電流センサ181~186は、各モータ171~176へ供給される電流を検知し、検知結果である電流値を示す信号を、各ドライバ161~166へ出力する。 Each motor 171-176 is a driving source for driving each joint J1-J6. Specifically, each of the motors 171 to 176 directly or via a transmission mechanism such as a speed reducer (not shown) connects the link on the distal side of the two links connected at each joint J1 to J6 to the proximal end. side link. Each current sensor 181-186 detects the current supplied to each motor 171-176, and outputs a signal indicating the current value, which is the detection result, to each driver 161-166.

各力覚センサ191~196は、例えば回転方向の力、即ちトルクを検知するトルクセンサであり、各関節J1~J6に配置されている。即ち、各力覚センサ191~196は、各関節J1~J6で連結された2つのリンクのうち基端側のリンクに対して先端側のリンクに作用する力(トルク)を検知し、検知結果である力値(トルク値)を示す信号を、各ドライバ161~166へ出力する。 The force sensors 191 to 196 are, for example, torque sensors for detecting rotational force, that is, torque, and are arranged at the joints J1 to J6. That is, each of the force sensors 191 to 196 detects the force (torque) acting on the link on the distal end side with respect to the link on the proximal end side among the two links connected by the joints J1 to J6, and outputs the detection result. A signal indicating a force value (torque value) is output to each driver 161-166.

各ドライバ161~166は、各電流センサ181~186からの信号を所定周期で取り込んで、電流値を示すデジタル信号に変換し、コントローラ20へ出力する。また、各ドライバ161~166は、各力覚センサ191~196からの信号を所定周期で取り込んで、力値(トルク値)を示すデジタル信号に変換し、コントローラ20へ出力する。 Each driver 161-166 takes in the signal from each current sensor 181-186 at a predetermined cycle, converts it into a digital signal indicating the current value, and outputs it to the controller 20. FIG. Further, each of the drivers 161 to 166 receives signals from the force sensors 191 to 196 at predetermined intervals, converts them into digital signals indicating force values (torque values), and outputs the digital signals to the controller 20 .

なお、第1実施形態では、コンピュータにより読み取り可能な非一時的な記録媒体がHDD204であり、HDD204にプログラム211が格納されているが、これに限定するものではない。プログラム211は、コンピュータにより読み取り可能な非一時的な記録媒体であれば、いかなる記録媒体に記録されていてもよい。例えば、プログラム211を格納する記録媒体としては、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、磁気テープ、不揮発性メモリ等を用いることができる。 In the first embodiment, the HDD 204 is the computer-readable non-temporary recording medium, and the program 211 is stored in the HDD 204, but the present invention is not limited to this. The program 211 may be recorded on any computer-readable non-temporary recording medium. For example, as a recording medium for storing the program 211, a flexible disk, hard disk, optical disk, magneto-optical disk, magnetic tape, non-volatile memory, etc. can be used.

また、第1実施形態では、コンピュータにより読み取り可能な非一時的な記録媒体がROM302であり、ROM302に制御プログラム311が格納されているが、これに限定するものではない。制御プログラム311は、コンピュータにより読み取り可能な非一時的な記録媒体であれば、いかなる記録媒体に記録されていてもよい。例えば、制御プログラム311を格納する記録媒体としては、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、磁気テープ、不揮発性メモリ等を用いることができる。 In the first embodiment, the non-temporary computer-readable recording medium is the ROM 302, and the control program 311 is stored in the ROM 302, but the present invention is not limited to this. The control program 311 may be recorded on any computer-readable non-temporary recording medium. For example, as a recording medium for storing the control program 311, a flexible disk, hard disk, optical disk, magneto-optical disk, magnetic tape, non-volatile memory, etc. can be used.

以上の構成により、ティーチングペンダント30は、コントローラ20を介して各関節J1~J6にユーザの操作に応じた動作の指示を与えることができる。 With the above-described configuration, the teaching pendant 30 can give operation instructions to the joints J1 to J6 via the controller 20 according to the user's operation.

図5(a)及び図5(b)は、動作指示部32の説明図である。動作指示部32は、ロボット10がジョグ動作するようユーザが操作可能なUI画像である。動作指示部32は、図3に示すタッチパネルディスプレイ304において、タブTAB1,TAB2によって、図5(a)と図5(b)との画面を切り替えて表示される。タブTAB1,TAB2は、ユーザによって選択される。図5(a)は、タブTAB1がユーザによって選択された場合の動作指示部32を示しており、図5(b)は、タブTAB2がユーザによって選択された場合の動作指示部32を示している。 5(a) and 5(b) are explanatory diagrams of the operation instructing section 32. FIG. The motion instruction unit 32 is a UI image that can be operated by the user so that the robot 10 performs a jog motion. The operation instruction unit 32 is displayed by switching between screens of FIGS. 5A and 5B using tabs TAB1 and TAB2 on the touch panel display 304 shown in FIG. Tabs TAB1 and TAB2 are selected by the user. FIG. 5(a) shows the action instructing section 32 when the tab TAB1 is selected by the user, and FIG. 5(b) shows the action instructing section 32 when the tab TAB2 is selected by the user. there is

図5(a)に示す動作指示部32は、ロボット10が互いに異なる方向へ動作するよう指示する複数の操作ボタン321~332を含む。図5(a)に示す動作指示部32は、関節座標系においてロボットアーム101の動作を指示するものである。関節J1~J6の各々は、互いに反対の2方向に動作可能である。第1実施形態では、関節J1~J6の各々は、回転関節であるため、互いに反対の2つの回転方向に動作可能である。2つの操作ボタン321,322の各々は、2つの回転方向のうち対応する回転方向へ関節J1の動作を指示する操作ボタンである。2つの操作ボタン323,324の各々は、2つの回転方向のうち対応する回転方向へ関節J2の動作を指示する操作ボタンである。2つの操作ボタン325,326の各々は、2つの回転方向のうち対応する回転方向へ関節J3の動作を指示する操作ボタンである。2つの操作ボタン327,328の各々は、2つの回転方向のうち対応する回転方向へ関節J4の動作を指示する操作ボタンである。2つの操作ボタン329,330の各々は、2つの回転方向のうち対応する回転方向へ関節J5の動作を指示する操作ボタンである。2つの操作ボタン331,332の各々は、2つの回転方向のうち対応する回転方向へ関節J6の動作を指示する操作ボタンである。 The action instruction unit 32 shown in FIG. 5A includes a plurality of operation buttons 321 to 332 for instructing the robot 10 to move in different directions. The motion instructing unit 32 shown in FIG. 5(a) directs the motion of the robot arm 101 in the joint coordinate system. Each of the joints J1 to J6 is operable in two directions opposite to each other. In the first embodiment, each of the joints J1 to J6 is a rotary joint, so it can operate in two directions of rotation opposite to each other. Each of the two operation buttons 321 and 322 is an operation button for instructing the motion of the joint J1 in the corresponding rotation direction out of the two rotation directions. Each of the two operation buttons 323 and 324 is an operation button for instructing the motion of the joint J2 in the corresponding rotation direction out of the two rotation directions. Each of the two operation buttons 325 and 326 is an operation button for instructing the motion of the joint J3 in the corresponding rotation direction out of the two rotation directions. Each of the two operation buttons 327 and 328 is an operation button for instructing the motion of the joint J4 in the corresponding rotation direction out of the two rotation directions. Each of the two operation buttons 329 and 330 is an operation button for instructing the motion of the joint J5 in the corresponding rotation direction out of the two rotation directions. Each of the two operation buttons 331 and 332 is an operation button for instructing the motion of the joint J6 in the corresponding rotation direction out of the two rotation directions.

図5(b)に示す動作指示部32は、ロボット10が互いに異なる方向へ動作するよう指示する複数の操作ボタン341~352を含む。図5(b)に示す動作指示部32は、TCP130の座標系、第1実施形態では手先座標系(ツール座標系)においてロボットアーム101の動作を指示するものである。ロボット10に定義したTCP130は、手先座標系において、互いに直交する3軸に沿う3つの並進方向、及び3軸まわりの3つの回転方向に移動可能である。そして、ロボット10の手先、即ちTCP130は、3つの並進方向及び3つの回転方向のそれぞれにおいて、互いに反対の2方向に移動可能である。手先座標系における3軸を、X軸、Y軸及びZ軸とする。以下、3つの並進方向及び3つの回転方向を合わせて、6軸の方向ともいう。6軸の方向には、順方向と逆方向とを合わせて、12の方向が含まれる。2つの操作ボタン341,342の各々は、X軸の並進方向に含まれる2方向のうち、対応する方向へTCP130が動作するよう指示する操作ボタンである。2つの操作ボタン343,344の各々は、Y軸の並進方向に含まれる2方向のうち、対応する方向へTCP130が動作するよう指示する操作ボタンである。2つの操作ボタン345,346の各々は、Z軸の並進方向に含まれる2方向のうち、対応する方向へTCP130が動作するよう指示する操作ボタンである。2つの操作ボタン347,348の各々は、X軸まわりの回転方向に含まれる2方向のうち、対応する方向へTCP130が動作するよう指示する操作ボタンである。2つの操作ボタン349,350の各々は、Y軸まわりの回転方向に含まれる2方向のうち、対応する方向へTCP130が動作するよう指示する操作ボタンである。2つの操作ボタン351,352の各々は、Z軸まわりの回転方向に含まれる2方向のうち、対応する方向へTCP130が動作するよう指示する操作ボタンである。 The action instruction unit 32 shown in FIG. 5B includes a plurality of operation buttons 341 to 352 for instructing the robot 10 to move in different directions. The motion instructing unit 32 shown in FIG. 5B directs the motion of the robot arm 101 in the coordinate system of the TCP 130, which is the hand coordinate system (tool coordinate system) in the first embodiment. The TCP 130 defined for the robot 10 can move in three translational directions along three mutually orthogonal axes and in three rotational directions around the three axes in the hand coordinate system. The hand of the robot 10, that is, the TCP 130, can move in two directions opposite to each other in each of the three translational directions and the three rotational directions. The three axes in the hand coordinate system are the X-axis, Y-axis and Z-axis. Hereinafter, the three translational directions and the three rotational directions are collectively referred to as six-axis directions. The directions of the six axes include 12 directions including the forward and reverse directions. Each of the two operation buttons 341 and 342 is an operation button for instructing the TCP 130 to operate in the corresponding direction among the two directions included in the translation direction of the X axis. Each of the two operation buttons 343 and 344 is an operation button for instructing the TCP 130 to operate in the corresponding direction among the two directions included in the translation direction of the Y axis. Each of the two operation buttons 345 and 346 is an operation button for instructing the TCP 130 to operate in the corresponding direction out of the two directions included in the translation direction of the Z axis. Each of the two operation buttons 347 and 348 is an operation button for instructing the TCP 130 to operate in the corresponding direction out of the two directions included in the rotation direction around the X axis. Each of the two operation buttons 349 and 350 is an operation button for instructing the TCP 130 to operate in the corresponding direction out of the two directions included in the rotation direction around the Y axis. Each of the two operation buttons 351 and 352 is an operation button for instructing the TCP 130 to operate in the corresponding direction out of the two directions included in the rotation directions around the Z axis.

なお、図5(b)に示す動作指示部32を、TCP130を基準とした直交座標系である手先座標系で表したが、これに限定されるものではなく、任意の点を基準とした座標系で表してもよい。 Note that the motion instructing unit 32 shown in FIG. 5B is represented by the hand coordinate system, which is an orthogonal coordinate system based on the TCP 130, but is not limited to this, and coordinates based on an arbitrary point. It can be expressed as a system.

ここで、コントローラ20は、教示データに基づき、ロボット10に組み付け作業など、ロボット10に所定の動作を行わせる制御を実行する。その際に、コントローラ20は、ロボット10がロボット10の周囲の物体に干渉した場合には、ロボット10の動作を保護停止または緊急停止させるようロボット10を制御する。本実施形態において、「干渉」とは「衝突」を意味する。つまり、ロボット10が物体に干渉するとは、ロボット10が物体に衝突することを意味する。ロボット10が物体に干渉した際には、ロボット10は物体に接触している。つまり、ロボット10を保護停止または緊急停止させた際には、ロボット10は物体と接触した状態で停止していることになる。また、ロボット10が負荷を受けているとは、ロボット10が所定範囲を超えた負荷を受けていることを意味する。 Here, the controller 20 executes control to cause the robot 10 to perform a predetermined operation such as assembly work based on the teaching data. At that time, the controller 20 controls the robot 10 to stop the operation of the robot 10 for protection or emergency stop when the robot 10 interferes with an object around the robot 10 . In this embodiment, "interference" means "collision." That is, the robot 10 interfering with an object means that the robot 10 collides with the object. When the robot 10 interferes with an object, the robot 10 is in contact with the object. In other words, when the robot 10 is stopped for protection or emergency, the robot 10 is stopped while in contact with the object. Further, that the robot 10 is receiving a load means that the robot 10 is receiving a load exceeding a predetermined range.

以下、ロボット10を保護停止または緊急停止させた場合のティーチングペンダント30の制御動作について説明する。図6は、第1実施形態に係るティーチングペンダント30の制御方法を示すフローチャートである。まず、図5(a)に示す動作指示部32が選択されている場合について説明する。また、CPU301は、図3に示すように、ロボット10に対応するロボット画像10Iを3Dモデル表示部31に表示する。 The control operation of the teaching pendant 30 when the robot 10 is stopped for protection or emergency will be described below. FIG. 6 is a flow chart showing the control method of the teaching pendant 30 according to the first embodiment. First, the case where the operation instructing section 32 shown in FIG. 5A is selected will be described. The CPU 301 also displays a robot image 10I corresponding to the robot 10 on the 3D model display section 31, as shown in FIG.

ステップS1の干渉チェック処理において、CPU301は、ロボット10において周囲の物体と干渉した部分を特定する。第1実施形態では、CPU301は、力覚センサ191~196の力値、又は電流センサ181~186の電流値に基づき、ロボット10の関節J1~J6のうち、負荷を受けている関節を特定する。即ち、力覚センサ191~196の力値、又は電流センサ181~186の電流値が所定範囲を超えている場合には、CPU301は、対応する関節が負荷を受けていると判断する。例えば、CPU301は、各力覚センサ191~196の力値が所定範囲を超えているか否かを判定し、所定範囲を超えている力値を出力した力覚センサに対応する関節を特定する。または例えば、CPU301は、各電流センサ181~186の電流値が所定範囲を超えているか否かを判定し、所定範囲を超えている電流値を出力した電流センサに対応する関節を特定する。 In the interference check process in step S1, the CPU 301 identifies a portion of the robot 10 that has interfered with surrounding objects. In the first embodiment, the CPU 301 identifies the joint receiving the load among the joints J1 to J6 of the robot 10 based on the force values of the force sensors 191 to 196 or the current values of the current sensors 181 to 186. . That is, when the force values of the force sensors 191-196 or the current values of the current sensors 181-186 exceed a predetermined range, the CPU 301 determines that the corresponding joint receives a load. For example, the CPU 301 determines whether the force values of the force sensors 191 to 196 exceed a predetermined range, and identifies the joint corresponding to the force sensor outputting the force value exceeding the predetermined range. Alternatively, for example, the CPU 301 determines whether the current values of the current sensors 181 to 186 exceed a predetermined range, and identifies the joint corresponding to the current sensor that outputs a current value exceeding the predetermined range.

次に、ステップS2の方向チェック処理において、CPU301は、負荷を受けている関節において、当該関節に対応する力覚センサ又は電流センサの値に基づき、負荷を受けている方向を特定する。例えば、負荷を受けている方向は、力覚センサ又は電流センサの値の正負の符号で特定することが可能である。そして、CPU301は、ロボット10が負荷を受けている方向に基づいて、ロボット10の操作を受け付ける操作方向を決める。ここで、ロボット10が物体から負荷を受ける方向、またはロボット10が物体から受けている負荷が維持または増加する方向を、干渉方向ともいう。操作方向は、干渉方向以外の方向、即ちロボット10が物体から受けている負荷が減少する非干渉方向であることが好ましい。例えば、ロボット10が物体から受けている負荷が減少する方向は、ロボット10が受けている負荷の方向に沿ってロボット10を移動させる方向を含む。 Next, in the direction check process of step S2, the CPU 301 identifies the direction of the joint receiving the load based on the value of the force sensor or current sensor corresponding to the joint receiving the load. For example, the direction in which the load is applied can be specified by the positive or negative sign of the value of the force sensor or current sensor. Then, the CPU 301 determines the operation direction for accepting the operation of the robot 10 based on the direction in which the robot 10 receives the load. Here, the direction in which the robot 10 receives the load from the object, or the direction in which the load received by the robot 10 from the object is maintained or increased is also referred to as the direction of interference. The operation direction is preferably a direction other than the interference direction, that is, the non-interference direction in which the load applied to the robot 10 from the object is reduced. For example, the direction in which the load applied to the robot 10 from the object decreases includes the direction in which the robot 10 is moved along the direction of the load applied to the robot 10 .

例えば、図7に示すように、ロボット10において、負荷を受けている箇所が関節J3、即ちリンク113であった場合について説明する。関節J3は、回転関節である。関節J3の可動方向は2つの方向D11,D12であり、それぞれ互いに反対の回転方向である。CPU301は、力覚センサ193又は電流センサ183の値に基づき、関節J3の2つの方向D11,D12のうち、受けている負荷が減少する方向を特定する。受けている負荷が減少する方向が例えば方向D12である場合、CPU301は、方向D12を、操作を受け付ける操作方向とする。 For example, as shown in FIG. 7, in the robot 10, the joint J3, ie, the link 113, receives the load. The joint J3 is a rotary joint. The movable directions of the joint J3 are two directions D11 and D12, which are rotational directions opposite to each other. Based on the value of the force sensor 193 or the current sensor 183, the CPU 301 identifies the direction in which the load received decreases, out of the two directions D11 and D12 of the joint J3. If the direction in which the applied load decreases is, for example, the direction D12, the CPU 301 sets the direction D12 as the operation direction for accepting the operation.

次に、ステップS3のUI表示処理において、CPU301は、ロボット画像I10において、ロボット10が負荷を受けている箇所に対応する部分を、他の部分とは異なる色にする。図8(a)は、表示画像の一例の説明図である。例えば負荷を受けている箇所がリンク113である場合、図8(a)に示すように、ロボット画像I10においてリンク113に対応する部分113Iを、他の部分とは異なる色にハイライトする。これにより、ユーザはロボット画像I10を見ることにより、ロボット10において干渉により負荷を受けている箇所を容易に認識することができる。 Next, in the UI display process of step S3, the CPU 301 colors the portion corresponding to the portion where the robot 10 receives a load in the robot image I10 in a different color from the other portions. FIG. 8A is an explanatory diagram of an example of a display image. For example, if the portion receiving the load is the link 113, as shown in FIG. 8A, the portion 113I corresponding to the link 113 in the robot image I10 is highlighted in a color different from the other portions. Accordingly, by viewing the robot image I10, the user can easily recognize a portion of the robot 10 receiving a load due to interference.

第1実施形態では、ステップS3において、CPU301は、操作方向以外の方向への操作を受け付けないことが好ましい。例えば、図7において操作方向が方向D12であった場合、CPU301は、その方向D12以外の方向への操作を受け付けない。図8(b)は、表示画像の一例の説明図である。例えば、CPU301は、図8(b)において、操作ボタン321~332のうち、操作方向へロボット10が動作するよう指示する操作ボタン326以外の操作ボタン321~325,327~332の操作を受け付けない。操作ボタン321~325,327~332は、操作方向以外の方向へロボット10が動作するよう指示する操作ボタンである。例えば、CPU301は、操作ボタン321~325,327~332をグレーアウトさせ、操作ボタン326以外の操作ボタン321~325,327~332の操作を動作指示部32から受け付けないようにする。これにより、ティーチングペンダント30は、複数の操作ボタン321~332のうち、操作ボタン326のみ操作の受け付けが可能となる。そして、ユーザは、操作ボタン326のみを操作することが可能となり、ロボット10が物体へ干渉する方向への動作するのを回避することができる。 In the first embodiment, in step S3, the CPU 301 preferably does not accept an operation in a direction other than the operation direction. For example, when the operation direction is direction D12 in FIG. 7, the CPU 301 does not accept an operation in a direction other than direction D12. FIG. 8B is an explanatory diagram of an example of a display image. For example, in FIG. 8B, the CPU 301 does not accept the operation of the operation buttons 321 to 325 and 327 to 332, out of the operation buttons 321 to 332, other than the operation button 326 that instructs the robot 10 to move in the operation direction. . The operation buttons 321 to 325 and 327 to 332 are operation buttons for instructing the robot 10 to move in directions other than the operation direction. For example, the CPU 301 grays out the operation buttons 321 to 325 and 327 to 332 so that the operations of the operation buttons 321 to 325 and 327 to 332 other than the operation button 326 are not accepted from the operation instruction unit 32 . As a result, the teaching pendant 30 can accept the operation of only the operation button 326 among the plurality of operation buttons 321 to 332 . Then, the user can operate only the operation button 326, and can avoid the robot 10 from moving in the direction of interfering with the object.

CPU301は、UI画像を示す動作指示部32において、ユーザにタッチされて操作を受け付けると、ユーザの操作に対応する動作指令をコントローラ20へ送信し、コントローラ20は、動作指令に従ってロボット10を動作させる制御を実行する。このように、ユーザは、ティーチングペンダント30の表示を見て、非干渉方向へロボット10を動作させることができる。そして、ロボット10は周囲の物体と干渉した状態から復旧され、物品を製造する動作を再開することができる。 When the operation instruction unit 32 showing the UI image is touched by the user and receives an operation, the CPU 301 transmits an operation command corresponding to the user's operation to the controller 20, and the controller 20 operates the robot 10 according to the operation command. Execute control. Thus, the user can see the display of the teaching pendant 30 and move the robot 10 in the non-interference direction. The robot 10 is then recovered from the state of interference with surrounding objects, and can resume the operation of manufacturing an article.

以上、第1実施形態によれば、ロボット10が物体に干渉して保護停止または緊急停止した際、ロボット10が干渉した物体を更に押圧する干渉方向へロボット10を動作させる操作がユーザによって行われるのを回避することができる。よって、ロボット10をランダムに動作させる必要もなく、またロボット10が干渉した物体がどの位置に配置されているのかを特定する必要もない。これにより、ロボット10に過負荷がかかることなく、ロボット10が周囲の物体に干渉している状態から効率的にロボット10を復旧することができる。 As described above, according to the first embodiment, when the robot 10 interferes with an object and comes to a protective stop or an emergency stop, the user performs an operation to move the robot 10 in the interference direction in which the robot 10 further presses the object with which the robot 10 has interfered. can be avoided. Therefore, there is no need to randomly move the robot 10, and it is not necessary to specify the position of the object with which the robot 10 interferes. As a result, the robot 10 can be efficiently recovered from a state in which the robot 10 is interfering with surrounding objects without overloading the robot 10 .

(変形例1)
第1実施形態では、CPU301は、図6のステップS1,S2の処理によって、ロボット10が負荷を受けている方向として、関節J1~J6のうち負荷を受けている関節において、負荷を受けている方向を特定したが、これに限定されるものではない。CPU301は、ロボット10が負荷を受けている方向として、ロボット10の先端が負荷を受けている方向を特定してもよい。その際、図3に示すタブTAB2がユーザによって選択されることにより、図5(b)に示す動作指示部32がタッチパネルディスプレイ304に表示される。
(Modification 1)
In the first embodiment, the CPU 301 performs the processing of steps S1 and S2 in FIG. Although the direction is specified, it is not limited to this. The CPU 301 may specify the direction in which the tip of the robot 10 receives the load as the direction in which the robot 10 receives the load. 5B is displayed on the touch panel display 304 by the user selecting the tab TAB2 shown in FIG.

変形例1では、ステップS1,S2の代わりに、CPU301は、力覚センサ191~196の力値、又は電流センサ181~186の電流値に基づき、動力学計算法により、ロボット10の手先が受けている6軸の方向の力値を求める。6軸の方向は、ロボット10の手先を基準とした手先座標系における、互いに直交する3つの軸の並進方向、及び3つの軸まわりの回転方向であり、順方向と逆方向とを合わせて12の方向を含む。そして、CPU301は、6軸の方向のそれぞれの力値のうち、所定範囲を超える力値がある場合は、12の方向のうち、ロボット10が負荷を受けている方向を特定する。このように、図5(b)に示す動作指示部32が選択されている場合、CPU301は、ロボット10の手先において負荷を受けている方向を特定し、ユーザの操作を受け付ける操作方向を特定してもよい。その際も、操作方向は、ロボット10が受けている負荷が減少する方向であることが好ましい。そして、図5(b)に示す操作ボタン341~352において、図8(b)と同様に、操作方向以外の方向の操作ボタンをグレーアウトして、ユーザによる操作方向以外の方向への操作を受け付けないようにしてもよい。 In Modified Example 1, instead of steps S1 and S2, the CPU 301 causes the hand of the robot 10 to receive a signal by a dynamics calculation method based on the force values of the force sensors 191 to 196 or the current values of the current sensors 181 to 186. Find the force values in the directions of the 6 axes. The directions of the 6 axes are the translational directions of the 3 mutually orthogonal axes and the rotational directions around the 3 axes in the hand coordinate system with the hand of the robot 10 as the reference. including the direction of Then, if there is a force value exceeding a predetermined range among the force values in each of the directions of the six axes, the CPU 301 identifies the direction in which the robot 10 is receiving the load among the 12 directions. In this way, when the action instruction unit 32 shown in FIG. 5B is selected, the CPU 301 identifies the direction in which the hand of the robot 10 receives the load, and identifies the operation direction for receiving the user's operation. may Also in this case, the operation direction is preferably the direction in which the load applied to the robot 10 decreases. In operation buttons 341 to 352 shown in FIG. 5B, similarly to FIG. 8B, operation buttons in directions other than the operation direction are grayed out to accept user operations in directions other than the operation direction. may be omitted.

(変形例2)
第1実施形態では、ロボット10は、各関節J1~J6に設けられた各力覚センサ191~196を有する場合について説明したが、これに限定されるものではない。例えば、力覚センサ191~196の代わりに、又は力覚センサ191~196に加えて、6軸の方向の力を検知可能な6軸力覚センサを備えてもよい。6軸力覚センサは、例えばロボットアーム101とロボットハンド102との間に配置されることが好ましい。
(Modification 2)
In the first embodiment, the robot 10 has the force sensors 191 to 196 provided at the joints J1 to J6, but the present invention is not limited to this. For example, instead of or in addition to the force sensors 191-196, a 6-axis force sensor capable of detecting forces in 6-axis directions may be provided. The six-axis force sensor is preferably arranged between the robot arm 101 and the robot hand 102, for example.

[第2実施形態]
第2実施形態について説明する。なお、第2実施形態において、第1実施形態と同様の事項については、その説明を簡略化又は省略する。第2実施形態におけるロボットシステムの構成は、第1実施形態において説明した通りである。
[Second embodiment]
A second embodiment will be described. In addition, in the second embodiment, descriptions of items similar to those in the first embodiment will be simplified or omitted. The configuration of the robot system in the second embodiment is as explained in the first embodiment.

図6に示すステップS3において、CPU301は、操作方向の情報をタッチパネルディスプレイ304に表示することが好ましい。図9(a)は、第2実施形態に係る表示画像の一例の説明図である。例えば、操作方向の情報は、図9(a)に示すように、動作指示部として、3Dハンドルモデルを示すモデル画像36をタッチパネルディスプレイ304に表示してもよい。モデル画像36は、例えば図8(a)に示すロボット画像10Iにおいて、ロボット10に定義されるTCP130に相当する部分に表示させてもよい。 In step S<b>3 shown in FIG. 6 , CPU 301 preferably displays information on the operation direction on touch panel display 304 . FIG. 9A is an explanatory diagram of an example of a display image according to the second embodiment. For example, as shown in FIG. 9A, the operation direction information may be displayed on the touch panel display 304 as a model image 36 representing a 3D steering wheel model as an action instruction section. The model image 36 may be displayed, for example, in a portion corresponding to the TCP 130 defined for the robot 10 in the robot image 10I shown in FIG. 8(a).

その際、CPU301は、モデル画像36を、ロボット10が操作方向へ動作するよう指示する操作ボタンとして機能させてもよい。即ち、第2実施形態のモデル画像36は、手先座標系を基準としてTCP130を動作させる動作指示部である。モデル画像36は、X軸ハンドル361、Y軸ハンドル362、Z軸ハンドル363、tX軸ハンドル364、tY軸ハンドル365、tZ軸ハンドル366、及びハンドル中心367で構成されている。X軸ハンドル361、Y軸ハンドル362及びZ軸ハンドル363は、手先座標系の並進方向の動作を指示する操作ボタンである。また、tX軸ハンドル334、tY軸ハンドル335及びtZ軸ハンドル336は、手先座標系の回転方向の動作を指示する操作ボタンである。各ハンドル361~336は、例えばそれぞれが対応する操作方向を向いた矢印画像で表示される。 At that time, the CPU 301 may cause the model image 36 to function as an operation button for instructing the robot 10 to move in the operation direction. That is, the model image 36 of the second embodiment is an action instructing portion that causes the TCP 130 to operate on the basis of the hand coordinate system. The model image 36 is composed of an X-axis handle 361 , a Y-axis handle 362 , a Z-axis handle 363 , a tX-axis handle 364 , a tY-axis handle 365 , a tZ-axis handle 366 and a handle center 367 . An X-axis handle 361, a Y-axis handle 362, and a Z-axis handle 363 are operation buttons for instructing movements in the translational direction of the hand coordinate system. A tX-axis handle 334, a tY-axis handle 335, and a tZ-axis handle 336 are operation buttons for instructing the rotation direction of the hand coordinate system. Each handle 361 to 336 is displayed, for example, as an arrow image pointing in the corresponding operation direction.

CPU301は、モデル画像36において、ロボット10が物体に干渉する方向へ動作を指示する操作ボタンを、透過処理して、その操作を受け付けないように制限する。例えば、CPU301は、図9(b)に示すように、Z軸ハンドル363以外の操作ボタンを透過処理して、Z軸ハンドル363のみの操作を受け付けるようにする。このように、干渉方向への動作指示を制限することで、ロボット10を非干渉方向にのみ動作させることが可能となる。なお、操作ボタンを透過処理の代わりに非表示にしてもよい。 In the model image 36, the CPU 301 transparently processes an operation button that instructs the robot 10 to move in a direction that interferes with an object, and restricts the operation from being accepted. For example, as shown in FIG. 9B, the CPU 301 transparently processes operation buttons other than the Z-axis handle 363 so that only the operation of the Z-axis handle 363 is accepted. By restricting the operation instructions in the interference direction in this way, the robot 10 can be operated only in the non-interference direction. Note that the operation buttons may be hidden instead of transparent processing.

以上、第2実施形態によれば、ティーチングペンダント30において、ユーザがロボット10を干渉方向への動作させるよう操作するのを回避することができる。これにより、ロボット10に過負荷がかかることなく、ロボット10を干渉している状態から効率的に復旧することができる。 As described above, according to the second embodiment, it is possible to prevent the user from operating the teaching pendant 30 to move the robot 10 in the interference direction. As a result, the robot 10 can be efficiently recovered from the interfering state without overloading the robot 10 .

以上の説明では、手先座標系における例について説明したが、関節座標系においても同様に行ってもよい。図10は、第2実施形態に係る表示画像の一例の説明図である。例えば、CPU301は、操作方向の情報として、図10に示すように、操作方向に向いた矢印画像であるモデル画像37をロボット画像10Iに関連付けてタッチパネルディスプレイ304に表示してもよい。図10の例では、図7に示すロボット10の関節J3の方向D12が操作方向であり、関節J3に対応する関節画像J3Iの近傍に、操作方向の情報を示すモデル画像37が表示される。その際、CPU301は、モデル画像37を、ロボット10が操作方向へ動作するよう指示する操作ボタンとして機能させてもよい。なお、第2実施形態およびまたはその変形例と、上述の第1実施形態およびまたはその変形例とを組み合わせて実施しても構わない。 In the above description, an example in the hand coordinate system has been described, but the same may be done in the joint coordinate system. FIG. 10 is an explanatory diagram of an example of a display image according to the second embodiment. For example, the CPU 301 may display the model image 37, which is an arrow image pointing in the operation direction, on the touch panel display 304 as information on the operation direction in association with the robot image 10I, as shown in FIG. In the example of FIG. 10, the direction D12 of the joint J3 of the robot 10 shown in FIG. 7 is the operation direction, and a model image 37 showing information on the operation direction is displayed near the joint image J3I corresponding to the joint J3. At that time, the CPU 301 may cause the model image 37 to function as an operation button for instructing the robot 10 to move in the operation direction. Note that the second embodiment and/or its modification may be combined with the above-described first embodiment and/or its modification.

[第3実施形態]
第3実施形態について説明する。なお、第3実施形態において、第1及び第2実施形態と同様の事項については、その説明を簡略化又は省略する。第3実施形態におけるロボットシステムの構成は、第1実施形態において説明した通りである。
[Third Embodiment]
A third embodiment will be described. In addition, in the third embodiment, descriptions of items similar to those in the first and second embodiments will be simplified or omitted. The configuration of the robot system in the third embodiment is as explained in the first embodiment.

図11は、第3実施形態に係るティーチングペンダント30の制御方法を示すフローチャートである。ステップS11、S12の処理は、図6に示すステップS1、S2の処理と同様である。 FIG. 11 is a flow chart showing a control method for the teaching pendant 30 according to the third embodiment. The processes of steps S11 and S12 are the same as the processes of steps S1 and S2 shown in FIG.

ステップS13の負荷チェック処理において、CPU301は、ステップS12にてロボット10が負荷を受けている方向が複数あった場合、求めた複数の負荷のうち最大の負荷を選択し、最大の負荷の方向を特定する。CPU301は、ロボット10が最大の負荷を受けている方向に基づいて、操作方向を決定する。即ち、CPU301は、ロボット10が受けている最大の負荷が減少する方向を、操作方向に決定する。 In the load check process in step S13, if there are multiple directions in which the load is applied to the robot 10 in step S12, the CPU 301 selects the maximum load from among the multiple loads obtained, and selects the direction of the maximum load. Identify. The CPU 301 determines the operation direction based on the direction in which the robot 10 receives the maximum load. That is, the CPU 301 determines the direction in which the maximum load applied to the robot 10 decreases as the operation direction.

ステップS14の処理は、ステップS3の処理と略同一である。第3実施形態では、ステップS14において、CPU301は、決定したロボット10の操作方向の情報を、タッチパネルディスプレイ304に表示する。 The processing of step S14 is substantially the same as the processing of step S3. In the third embodiment, in step S<b>14 , the CPU 301 displays information on the determined operating direction of the robot 10 on the touch panel display 304 .

図12は、第3実施形態に係る表示画像の一例の説明図である。図12には、タッチパネルディスプレイ304に表示されるUI画像40Iを示しており、図3と同様のロボット画像10Iが、UI画像40Iの一部としてタッチパネルディスプレイ304に表示される。UI画像40Iには、操作ボタン41と、操作方向を示す矢印画像42と、が含まれる。ユーザが操作ボタン41をタッチする、即ち操作することで、実際のロボット10を、矢印画像42に対応する操作方向へ動作させることができるように構成されている。 FIG. 12 is an explanatory diagram of an example of a display image according to the third embodiment. FIG. 12 shows a UI image 40I displayed on the touch panel display 304, and the robot image 10I similar to that in FIG. 3 is displayed on the touch panel display 304 as part of the UI image 40I. The UI image 40I includes an operation button 41 and an arrow image 42 indicating an operation direction. By the user touching the operation button 41 , that is, by operating the operation button 41 , the actual robot 10 can be moved in the operation direction corresponding to the arrow image 42 .

CPU301は、ロボット画像10Iにおける矢印画像42に対応する操作方向への動作をアニメーションで表示することが好ましい。即ち、CPU301は、ロボット10に対応する3Dモデルデータに基づいて動作のシミュレーションを行い、その結果を、タッチパネルディスプレイ304においてアニメーションで表示する。これにより、ユーザは、ロボット10の動作を実行する前に、矢印画像42で示される操作方向へのロボット画像10Iの動作をアニメーションで容易に確認することができる。 The CPU 301 preferably displays an animation of the motion in the operation direction corresponding to the arrow image 42 in the robot image 10I. That is, the CPU 301 performs a motion simulation based on the 3D model data corresponding to the robot 10 and displays the result as an animation on the touch panel display 304 . Thereby, the user can easily confirm the motion of the robot image 10I in the operation direction indicated by the arrow image 42 by animation before executing the motion of the robot 10 .

以上、第3実施形態によれば、ティーチングペンダント30において、ユーザがロボット10を干渉方向への動作させるよう操作するのを回避することができる。これにより、ロボット10に過負荷がかかることなく、ロボット10を干渉している状態から効率的に復旧することができる。なお、第3実施形態およびまたはその変形例と、上述の種々の実施形態およびまたはその変形例とを組み合わせて実施しても構わない。 As described above, according to the third embodiment, it is possible to prevent the user from operating the teaching pendant 30 to move the robot 10 in the interference direction. As a result, the robot 10 can be efficiently recovered from the interfering state without overloading the robot 10 . It should be noted that the third embodiment and/or its modifications may be combined with the various embodiments and/or modifications described above.

本開示は、以上説明した実施形態に限定されるものではなく、実施形態は本開示の技術的思想内で多くの変形が可能である。また、実施形態に記載された効果は、本開示の実施形態から生じる最も好適な効果を列挙したに過ぎず、本開示の実施形態による効果は、実施形態に記載されたものに限定されない。 The present disclosure is not limited to the embodiments described above, and the embodiments can be modified in many ways within the technical concept of the present disclosure. In addition, the effects described in the embodiments are merely enumerations of the most suitable effects resulting from the embodiments of the present disclosure, and the effects of the embodiments of the present disclosure are not limited to those described in the embodiments.

上述の実施形態では、ロボットアーム101が垂直多関節のロボットアームである場合について説明したが、これに限定するものではない。例えばロボットアーム101が、水平多関節のロボットアーム、パラレルリンクのロボットアーム、直交ロボット等、種々のロボットアームであってもよい。また、本開示は、制御装置に設けられる記憶装置の情報に基づき、伸縮、屈伸、上下移動、左右移動もしくは旋回の動作またはこれらの複合動作を自動的に行うことができる機械に適用可能である。 In the above-described embodiment, the case where the robot arm 101 is a vertically articulated robot arm has been described, but the present invention is not limited to this. For example, the robot arm 101 may be various robot arms such as a horizontal articulated robot arm, a parallel link robot arm, an orthogonal robot, and the like. In addition, the present disclosure is applicable to machines that can automatically perform stretching, bending, stretching, vertical movement, horizontal movement, turning, or a combination of these operations based on information in a storage device provided in a control device. .

(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other examples)
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in the computer of the system or apparatus reads and executes the program. It can also be realized by processing to It can also be implemented by a circuit (for example, ASIC) that implements one or more functions.

以上の実施形態の開示は、以下の項を含む。 The disclosure of the above embodiments includes the following sections.

(項1)
ロボットを操作する操作装置であって、
前記ロボットが物体に干渉した場合、前記ロボットが前記物体から負荷を受ける方向に基づいて、前記ロボットの操作を受け付ける操作方向を決定する処理部を備える、
ことを特徴とする操作装置。
(Section 1)
An operation device for operating a robot,
a processing unit that, when the robot interferes with an object, determines an operation direction for accepting an operation of the robot based on a direction in which the robot receives a load from the object;
An operating device characterized by:

(項2)
前記処理部は、前記操作方向以外の方向への操作を受け付けない、
ことを特徴とする項1に記載の操作装置。
(Section 2)
the processing unit does not accept an operation in a direction other than the operation direction;
The operating device according to item 1, characterized by:

(項3)
前記操作方向は、前記ロボットが受けている前記負荷が減少する方向である、
ことを特徴とする項1又は2に記載の操作装置。
(Section 3)
The operation direction is a direction in which the load applied to the robot decreases.
3. The operating device according to item 1 or 2, characterized by:

(項4)
前記処理部は、前記ロボットの複数の関節のうち負荷を受けている関節において、前記負荷を受けている方向を特定する、
ことを特徴とする項1乃至3のいずれか1項に記載の操作装置。
(Section 4)
The processing unit identifies a direction in which the load is received at a joint receiving the load among a plurality of joints of the robot.
Item 4. The operating device according to any one of Items 1 to 3, characterized in that:

(項5)
前記処理部は、前記ロボットのエンドエフェクタにおいて、前記負荷を受けている方向を特定する、
ことを特徴とする項1乃至3のいずれか1項に記載の操作装置。
(Section 5)
The processing unit identifies the direction in which the load is received in the end effector of the robot.
Item 4. The operating device according to any one of Items 1 to 3, characterized in that:

(項6)
前記処理部は、前記操作方向を、前記ロボットが負荷を受けている方向のうち、最大の負荷を受けている方向に基づいて決定する、
ことを特徴とする項1乃至5のいずれか1項に記載の操作装置。
(Section 6)
The processing unit determines the operation direction based on the direction in which the robot receives the maximum load among the directions in which the robot receives the load.
Item 6. The operating device according to any one of Items 1 to 5, characterized in that:

(項7)
前記処理部は、前記操作方向の情報を表示部に表示する、
ことを特徴とする項1乃至6のいずれか1項に記載の操作装置。
(Section 7)
The processing unit displays information on the operation direction on a display unit.
7. The operating device according to any one of items 1 to 6, characterized by:

(項8)
前記操作方向の情報は、前記操作方向を示すモデル画像である、
ことを特徴とする項7に記載の操作装置。
(Section 8)
the information on the operation direction is a model image indicating the operation direction;
Item 8. The operating device according to Item 7, characterized by:

(項9)
前記モデル画像は、前記ロボットが前記操作方向へ動作するよう指示する操作ボタンである、
ことを特徴とする項8に記載の操作装置。
(Section 9)
the model image is an operation button for instructing the robot to move in the operation direction;
Item 9. The operating device according to Item 8, characterized by:

(項10)
前記処理部は、
前記ロボットが互いに異なる方向へ動作するよう指示する複数の操作ボタンを表示部に表示し、
前記ロボットが干渉した場合、前記複数の操作ボタンのうち、前記操作方向以外の方向へ前記ロボットが動作するよう指示する操作ボタンの操作を受け付けない、
ことを特徴とする項1乃至8のいずれか1項に記載の操作装置。
(Section 10)
The processing unit is
displaying on the display unit a plurality of operation buttons for instructing the robot to operate in different directions;
When the robot interferes, among the plurality of operation buttons, rejecting an operation of an operation button that instructs the robot to move in a direction other than the operation direction;
Item 9. The operating device according to any one of items 1 to 8, characterized by:

(項11)
前記処理部は、前記ロボットに対応するロボット画像を表示部に表示する、
ことを特徴とする項1乃至10のいずれか1項に記載の操作装置。
(Item 11)
The processing unit displays a robot image corresponding to the robot on the display unit.
Item 11. The operating device according to any one of Items 1 to 10, characterized in that:

(項12)
前記処理部は、前記ロボット画像において、前記ロボットが負荷を受けている箇所に対応する部分を、他の部分とは異なる色にする、
ことを特徴とする項11に記載の操作装置。
(Item 12)
The processing unit colors a portion of the robot image corresponding to a portion where the robot receives a load in a color different from that of other portions.
Item 12. The operating device according to Item 11, characterized by:

(項13)
前記処理部は、前記ロボット画像における前記操作方向への動作をアニメーションで表示する、
ことを特徴とする項11又は12に記載の操作装置。
(Item 13)
The processing unit displays an animation of the movement of the robot image in the operation direction.
13. The operating device according to Item 11 or 12, characterized by:

(項14)
ロボットを操作する操作装置であって、
前記ロボットが物体に干渉した場合、前記ロボットが前記物体から負荷を受ける方向に基づいて、前記ロボットの操作を受け付ける操作方向を、表示部に表示する処理部を備える、
ことを特徴とする操作装置。
(Item 14)
An operation device for operating a robot,
a processing unit that, when the robot interferes with an object, displays an operation direction for accepting an operation of the robot on a display unit based on a direction in which the robot receives a load from the object;
An operating device characterized by:

(項15)
項1乃至14のいずれか1項に記載の操作装置と、
前記ロボットと、を備える、
ことを特徴とするロボットシステム。
(Item 15)
15. The operating device according to any one of Items 1 to 14;
and
A robot system characterized by:

(項16)
ロボットを操作する操作装置の制御方法であって、
前記ロボットが物体に干渉した場合、前記ロボットが前記物体から負荷を受ける方向に基づいて、前記ロボットの操作を受け付ける操作方向を決定する、
ことを特徴とする制御方法。
(Item 16)
A control method for an operating device that operates a robot, comprising:
When the robot interferes with an object, determining an operation direction for receiving an operation of the robot based on a direction in which the robot receives a load from the object;
A control method characterized by:

(項17)
ロボットを操作する操作装置の制御方法であって、
前記ロボットが物体に干渉した場合、前記ロボットが前記物体から負荷を受ける方向に基づいて、前記ロボットの操作を受け付ける操作方向を、表示部に表示する、
ことを特徴とする制御方法。
(Item 17)
A control method for an operating device that operates a robot, comprising:
When the robot interferes with an object, an operation direction for accepting the operation of the robot is displayed on a display unit based on the direction in which the robot receives a load from the object.
A control method characterized by:

(項18)
項15に記載のロボットシステムの前記ロボットを前記操作装置の指示に従って制御するロボットシステムの制御方法。
(Item 18)
Item 16. A robot system control method for controlling the robot of the robot system according to item 15 in accordance with instructions from the operating device.

(項19)
項15に記載のロボットシステムを用いて物品を製造する物品の製造方法。
(Item 19)
Item 16. An article manufacturing method for manufacturing an article using the robot system according to Item 15.

(項20)
項16又は17に記載の制御方法をコンピュータに実行させるための制御プログラム。
(Section 20)
A control program for causing a computer to execute the control method according to Item 16 or 17.

(項21)
項20に記載の制御プログラムを記録した、コンピュータ読み取り可能な記録媒体。
(Section 21)
Item 21. A computer-readable recording medium recording the control program according to Item 20.

10…ロボット、30…ティーチングペンダント(操作装置)、301…CPU(処理部)、304…タッチパネルディスプレイ(表示部)、1000…ロボットシステム DESCRIPTION OF SYMBOLS 10... Robot 30... Teaching pendant (operating device) 301... CPU (processing part) 304... Touch panel display (display part) 1000... Robot system

Claims (21)

ロボットを操作する操作装置であって、
前記ロボットが物体に干渉した場合、前記ロボットが前記物体から負荷を受ける方向に基づいて、前記ロボットの操作を受け付ける操作方向を決定する処理部を備える、
ことを特徴とする操作装置。
An operation device for operating a robot,
a processing unit that, when the robot interferes with an object, determines an operation direction for accepting an operation of the robot based on a direction in which the robot receives a load from the object;
An operating device characterized by:
前記処理部は、前記操作方向以外の方向への操作を受け付けない、
ことを特徴とする請求項1に記載の操作装置。
the processing unit does not accept an operation in a direction other than the operation direction;
The operating device according to claim 1, characterized by:
前記操作方向は、前記ロボットが受けている前記負荷が減少する方向である、
ことを特徴とする請求項1に記載の操作装置。
The operation direction is a direction in which the load applied to the robot decreases.
The operating device according to claim 1, characterized by:
前記処理部は、前記ロボットの複数の関節のうち負荷を受けている関節において、前記負荷を受けている方向を特定する、
ことを特徴とする請求項1に記載の操作装置。
The processing unit identifies a direction in which the load is received at a joint receiving the load among a plurality of joints of the robot.
The operating device according to claim 1, characterized by:
前記処理部は、前記ロボットのエンドエフェクタにおいて、前記負荷を受けている方向を特定する、
ことを特徴とする請求項1に記載の操作装置。
The processing unit identifies the direction in which the load is received in the end effector of the robot.
The operating device according to claim 1, characterized by:
前記処理部は、前記操作方向を、前記ロボットが負荷を受けている方向のうち、最大の負荷を受けている方向に基づいて決定する、
ことを特徴とする請求項1に記載の操作装置。
The processing unit determines the operation direction based on the direction in which the robot receives the maximum load among the directions in which the robot receives the load.
The operating device according to claim 1, characterized by:
前記処理部は、前記操作方向の情報を表示部に表示する、
ことを特徴とする請求項1に記載の操作装置。
The processing unit displays information on the operation direction on a display unit.
The operating device according to claim 1, characterized by:
前記操作方向の情報は、前記操作方向を示すモデル画像である、
ことを特徴とする請求項7に記載の操作装置。
the information on the operation direction is a model image indicating the operation direction;
The operating device according to claim 7, characterized in that:
前記モデル画像は、前記ロボットが前記操作方向へ動作するよう指示する操作ボタンである、
ことを特徴とする請求項8に記載の操作装置。
the model image is an operation button for instructing the robot to move in the operation direction;
The operating device according to claim 8, characterized in that:
前記処理部は、
前記ロボットが互いに異なる方向へ動作するよう指示する複数の操作ボタンを表示部に表示し、
前記ロボットが干渉した場合、前記複数の操作ボタンのうち、前記操作方向以外の方向へ前記ロボットが動作するよう指示する操作ボタンの操作を受け付けない、
ことを特徴とする請求項1に記載の操作装置。
The processing unit is
displaying on the display unit a plurality of operation buttons for instructing the robot to operate in different directions;
When the robot interferes, among the plurality of operation buttons, rejecting an operation of an operation button that instructs the robot to move in a direction other than the operation direction;
The operating device according to claim 1, characterized by:
前記処理部は、前記ロボットに対応するロボット画像を表示部に表示する、
ことを特徴とする請求項1に記載の操作装置。
The processing unit displays a robot image corresponding to the robot on the display unit.
The operating device according to claim 1, characterized by:
前記処理部は、前記ロボット画像において、前記ロボットが負荷を受けている箇所に対応する部分を、他の部分とは異なる色にする、
ことを特徴とする請求項11に記載の操作装置。
The processing unit colors a portion of the robot image corresponding to a portion where the robot receives a load in a color different from that of other portions.
12. The operating device according to claim 11, characterized in that:
前記処理部は、前記ロボット画像における前記操作方向への動作をアニメーションで表示する、
ことを特徴とする請求項11に記載の操作装置。
The processing unit displays an animation of the movement of the robot image in the operation direction.
12. The operating device according to claim 11, characterized in that:
ロボットを操作する操作装置であって、
前記ロボットが物体に干渉した場合、前記ロボットが前記物体から負荷を受ける方向に基づいて、前記ロボットの操作を受け付ける操作方向を、表示部に表示する処理部を備える、
ことを特徴とする操作装置。
An operation device for operating a robot,
a processing unit that, when the robot interferes with an object, displays an operation direction for accepting an operation of the robot on a display unit based on a direction in which the robot receives a load from the object;
An operating device characterized by:
請求項1乃至14のいずれか1項に記載の操作装置と、
前記ロボットと、を備える、
ことを特徴とするロボットシステム。
An operating device according to any one of claims 1 to 14;
and
A robot system characterized by:
ロボットを操作する操作装置の制御方法であって、
前記ロボットが物体に干渉した場合、前記ロボットが前記物体から負荷を受ける方向に基づいて、前記ロボットの操作を受け付ける操作方向を決定する、
ことを特徴とする制御方法。
A control method for an operating device that operates a robot, comprising:
When the robot interferes with an object, determining an operation direction for receiving an operation of the robot based on a direction in which the robot receives a load from the object;
A control method characterized by:
ロボットを操作する操作装置の制御方法であって、
前記ロボットが物体に干渉した場合、前記ロボットが前記物体から負荷を受ける方向に基づいて、前記ロボットの操作を受け付ける操作方向を、表示部に表示する、
ことを特徴とする制御方法。
A control method for an operating device that operates a robot, comprising:
When the robot interferes with an object, an operation direction for accepting the operation of the robot is displayed on a display unit based on the direction in which the robot receives a load from the object.
A control method characterized by:
請求項15に記載のロボットシステムの前記ロボットを前記操作装置の指示に従って制御するロボットシステムの制御方法。 16. A robot system control method for controlling the robot of the robot system according to claim 15 in accordance with instructions from the operating device. 請求項15に記載のロボットシステムを用いて物品を製造する物品の製造方法。 An article manufacturing method for manufacturing an article using the robot system according to claim 15 . 請求項16又は17に記載の制御方法をコンピュータに実行させるための制御プログラム。 A control program for causing a computer to execute the control method according to claim 16 or 17. 請求項20に記載の制御プログラムを記録した、コンピュータ読み取り可能な記録媒体。 A computer-readable recording medium recording the control program according to claim 20.
JP2023014379A 2022-02-21 2023-02-02 Operation device, robot system, method for controlling operation device, method for controlling robot system, method for manufacturing article, control program, and recording medium Pending JP2023121732A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US18/170,414 US20230264353A1 (en) 2022-02-21 2023-02-16 Manipulation apparatus, robot system, manipulation apparatus control method, and robot system control method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022024424 2022-02-21
JP2022024424 2022-02-21

Publications (1)

Publication Number Publication Date
JP2023121732A true JP2023121732A (en) 2023-08-31

Family

ID=87797947

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023014379A Pending JP2023121732A (en) 2022-02-21 2023-02-02 Operation device, robot system, method for controlling operation device, method for controlling robot system, method for manufacturing article, control program, and recording medium

Country Status (1)

Country Link
JP (1) JP2023121732A (en)

Similar Documents

Publication Publication Date Title
JP5545534B2 (en) Robot teaching reproduction device, teaching reproducing method, and teaching data creation method
US10259115B2 (en) Work device
US11370105B2 (en) Robot system and method for operating same
JP6584102B2 (en) Robot apparatus, robot control method, program, recording medium, and article manufacturing method
JP2012131014A (en) Master operation input device, and master-slave manipulator
WO2004114037A2 (en) Multiple robot arm tracking and mirror jog
JP2014217913A (en) Operation teaching method of parallel link robot and parallel link robot
US20220250237A1 (en) Teaching device, teaching method, and recording medium
CN111093911B (en) Robot system and method for operating the same
CN107336228B (en) The control device of the robot of the operation program of state of the display comprising additional shaft
Osswald et al. Mechanical system and control system of a dexterous robot hand
WO2019103068A1 (en) Operation device
JP2023121732A (en) Operation device, robot system, method for controlling operation device, method for controlling robot system, method for manufacturing article, control program, and recording medium
JP2016221653A (en) Robot control device and robot system
US20230264353A1 (en) Manipulation apparatus, robot system, manipulation apparatus control method, and robot system control method
JP2013220501A (en) Robot control method and robot control device
JP7327991B2 (en) Control method, control program, recording medium, robot system, article manufacturing method, and input device
WO2023112342A1 (en) Teaching device, control device, and mechanical system
KR102004228B1 (en) The universal high speed/precision controller for six axis manipulator
JP7462046B2 (en) Robot System
WO2023218536A1 (en) Robot control device, robot system, and teaching device
WO2023157261A1 (en) Robot control device
JP7415590B2 (en) Control device for master and slave robots
US20220250236A1 (en) Teaching device, teaching method, and recording medium
KR100321497B1 (en) Robot Motion Teach Method