JP2022030207A - Teaching method and robot system - Google Patents

Teaching method and robot system Download PDF

Info

Publication number
JP2022030207A
JP2022030207A JP2020134033A JP2020134033A JP2022030207A JP 2022030207 A JP2022030207 A JP 2022030207A JP 2020134033 A JP2020134033 A JP 2020134033A JP 2020134033 A JP2020134033 A JP 2020134033A JP 2022030207 A JP2022030207 A JP 2022030207A
Authority
JP
Japan
Prior art keywords
robot
teaching
arm
unit
robot arm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020134033A
Other languages
Japanese (ja)
Inventor
努 萩原
Tsutomu Hagiwara
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2020134033A priority Critical patent/JP2022030207A/en
Publication of JP2022030207A publication Critical patent/JP2022030207A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Abstract

To provide a teaching method and a robot system, which can easily perform teaching of a robot.SOLUTION: In a teaching method, a position of a robot arm is specified when performing work for a work object for the robot having the robot arm. The method includes: a detection step for detecting a position of a teaching point specification section indicating a position of a control point of the robot arm on the work object; a calculation step for calculating the position of the control point in a robot coordinate system on the basis of the position of the teaching point specification section detected by the detection step; and a storage step for storing the position of the control point calculated by the calculation step.SELECTED DRAWING: Figure 4

Description

本発明は、教示方法およびロボットシステムに関する。 The present invention relates to teaching methods and robot systems.

ロボットが各種作業を行うのに先立って、ロボットに作業の内容を教示するために用いられる教示装置が知られている。特許文献1に記載されている教示装置は、教示者がロボットアームを動作させたい位置に移動させるよう操作ボタンの操作を行い、所望の位置で教示ボタンを押す。これにより、そのときのロボットアームの位置および姿勢が記憶され、教示が行われる。この作業を繰り返すことにより、複数の位置において、ロボットアームの位置および姿勢を記憶することができる。そして、記憶した位置および姿勢の情報に基づいてロボットアームを駆動することにより、ロボットが作業を行うことができる。 A teaching device used to teach a robot the contents of a work prior to the robot performing various tasks is known. The teaching device described in Patent Document 1 operates an operation button so that the teacher moves the robot arm to a position where he / she wants to operate, and presses the teaching button at a desired position. As a result, the position and posture of the robot arm at that time are memorized and the teaching is performed. By repeating this operation, the position and posture of the robot arm can be memorized at a plurality of positions. Then, the robot can perform the work by driving the robot arm based on the stored position and posture information.

特開平10-146782号公報Japanese Unexamined Patent Publication No. 10-146782

しかしながら、特許文献1に記載されている教示装置を用いた教示方法では、操作ボタンを用いてロボットを所望の位置に移動させるのが難しい。このため、教示を容易に行うことができない。 However, in the teaching method using the teaching device described in Patent Document 1, it is difficult to move the robot to a desired position by using the operation buttons. Therefore, the teaching cannot be easily performed.

本発明の教示方法は、ロボットアームを備えるロボットに対し、作業対象物に対する作業を行う際の前記ロボットアームの位置を特定する教示方法であって、
前記作業対象物上の、前記ロボットアームの制御点の位置を示す教示点指定部の位置を検出する検出ステップと、
前記検出ステップで検出した前記教示点指定部の位置に基づいて、前記制御点のロボット座標系における位置を算出する算出ステップと、
前記算出ステップで算出した前記制御点の位置を記憶する記憶ステップと、を有することを特徴とする。
The teaching method of the present invention is a teaching method for a robot provided with a robot arm to specify the position of the robot arm when performing work on a work object.
A detection step for detecting the position of a teaching point designation unit indicating the position of a control point of the robot arm on the work object, and a detection step.
A calculation step for calculating the position of the control point in the robot coordinate system based on the position of the teaching point designation unit detected in the detection step, and a calculation step.
It is characterized by having a storage step for storing the position of the control point calculated in the calculation step.

本発明のロボットシステムは、ロボットアームを有するロボットと、
前記ロボットアームが作業対象物に対する作業を行う際の前記ロボットアームの位置および姿勢を特定する制御部と、を備え、
前記制御部は、前記作業対象物上の、前記ロボットアームの制御点の位置を示す教示点指定部の位置を検出し、検出した前記教示点指定部の位置に基づいて、前記制御点のロボット座標系における位置を算出し、算出した前記ロボットアームの位置を記憶部に記憶することを特徴とする。
The robot system of the present invention includes a robot having a robot arm and a robot.
A control unit for specifying the position and posture of the robot arm when the robot arm performs work on a work object is provided.
The control unit detects the position of the teaching point designation unit indicating the position of the control point of the robot arm on the work object, and the robot of the control point is based on the detected position of the teaching point designation unit. It is characterized in that a position in a coordinate system is calculated and the calculated position of the robot arm is stored in a storage unit.

図1は、第1実施形態のロボットシステムの全体構成を示す図である。FIG. 1 is a diagram showing an overall configuration of the robot system of the first embodiment. 図2は、図1に示すロボットシステムのブロック図である。FIG. 2 is a block diagram of the robot system shown in FIG. 図3は、図1に示すロボットシステムにおいて、教示を行っている状態を示す斜視図である。FIG. 3 is a perspective view showing a state in which teaching is performed in the robot system shown in FIG. 図4は、図1に示すロボットシステムにおいて、教示を行っている状態を示す斜視図である。FIG. 4 is a perspective view showing a state in which teaching is being performed in the robot system shown in FIG. 図5は、図1に示すロボットシステムにおいて、教示を行っている状態を示す斜視図である。FIG. 5 is a perspective view showing a state in which teaching is being performed in the robot system shown in FIG. 図6は、図1に示すロボットシステムにおいて、教示したロボットアームの教示点指示部の軌跡を表示している状態を示す斜視図である。FIG. 6 is a perspective view showing a state in which the locus of the teaching point indicating unit of the taught robot arm is displayed in the robot system shown in FIG. 1. 図7は、図1に示すロボットシステムが行う制御動作の一例を示すフローチャートである。FIG. 7 is a flowchart showing an example of a control operation performed by the robot system shown in FIG. 図8は、第2実施形態のロボットシステムが備える投影装置を示す図である。FIG. 8 is a diagram showing a projection device included in the robot system of the second embodiment.

<第1実施形態>
図1は、第1実施形態のロボットシステムの全体構成を示す図である。図2は、図1に示すロボットシステムのブロック図である。図3~図5は、図1に示すロボットシステムにおいて、教示を行っている状態を示す斜視図である。図6は、図1に示すロボットシステムにおいて、教示したロボットアームの教示点指示部の軌跡を表示している状態を示す斜視図である。図7は、図1に示すロボットシステムが行う制御動作の一例を示すフローチャートである。
<First Embodiment>
FIG. 1 is a diagram showing an overall configuration of the robot system of the first embodiment. FIG. 2 is a block diagram of the robot system shown in FIG. 3 to 5 are perspective views showing a state in which teaching is performed in the robot system shown in FIG. 1. FIG. 6 is a perspective view showing a state in which the locus of the teaching point indicating unit of the taught robot arm is displayed in the robot system shown in FIG. 1. FIG. 7 is a flowchart showing an example of a control operation performed by the robot system shown in FIG.

以下、本発明の教示方法およびロボットシステムを添付図面に示す好適な実施形態に基づいて詳細に説明する。なお、説明の便宜上、図1中の+Z軸方向、すなわち、上側を「上」、-Z軸方向、すなわち、下側を「下」とも言う。また、ロボットアームについては、図1中の基台11側を「基端」、その反対側、すなわち、エンドエフェクター20側を「先端」とも言う。また、図1中のZ軸方向、すなわち、上下方向を「鉛直方向」とし、X軸方向およびY軸方向、すなわち、左右方向を「水平方向」とする。 Hereinafter, the teaching method and the robot system of the present invention will be described in detail based on the preferred embodiments shown in the accompanying drawings. For convenience of explanation, the + Z-axis direction in FIG. 1, that is, the upper side is also referred to as “upper”, and the −Z-axis direction, that is, the lower side is also referred to as “lower”. Further, regarding the robot arm, the base 11 side in FIG. 1 is also referred to as a “base end”, and the opposite side, that is, the end effector 20 side is also referred to as a “tip”. Further, the Z-axis direction in FIG. 1, that is, the vertical direction is defined as the "vertical direction", and the X-axis direction and the Y-axis direction, that is, the left-right direction is defined as the "horizontal direction".

図1に示すように、ロボットシステム100は、ロボット1と、ロボット1を制御する制御装置3と、教示装置4と、投影装置5と、を備える。 As shown in FIG. 1, the robot system 100 includes a robot 1, a control device 3 for controlling the robot 1, a teaching device 4, and a projection device 5.

まず、ロボット1について説明する。
図1に示すロボット1は、本実施形態では単腕の6軸垂直多関節ロボットであり、基台11と、ロボットアーム10と、を有する。また、ロボットアーム10の先端部にエンドエフェクター20を装着することができる。エンドエフェクター20は、ロボット1の構成要件であってもよく、ロボット1の構成要件でなくてもよい。
First, the robot 1 will be described.
The robot 1 shown in FIG. 1 is a single-armed 6-axis vertical articulated robot in the present embodiment, and has a base 11 and a robot arm 10. Further, the end effector 20 can be attached to the tip of the robot arm 10. The end effector 20 may be a constituent requirement of the robot 1 or may not be a constituent requirement of the robot 1.

なお、ロボット1は、図示の構成に限定されず、例えば、双腕型の多関節ロボットであってもよい。また、ロボット1は、水平多関節ロボットであってもよい。 The robot 1 is not limited to the illustrated configuration, and may be, for example, a double-armed articulated robot. Further, the robot 1 may be a horizontal articulated robot.

基台11は、ロボットアーム10を下側から駆動可能に支持する支持体であり、例えば工場内の床に固定されている。ロボット1は、基台11が中継ケーブル18を介して制御装置3と電気的に接続されている。なお、ロボット1と制御装置3との接続は、図1に示す構成のように有線による接続に限定されず、例えば、無線による接続であってもよく、さらには、インターネットのようなネットワークを介して接続されていてもよい。 The base 11 is a support that supports the robot arm 10 so as to be driveable from below, and is fixed to the floor in the factory, for example. In the robot 1, the base 11 is electrically connected to the control device 3 via the relay cable 18. The connection between the robot 1 and the control device 3 is not limited to the wired connection as shown in FIG. 1, and may be, for example, a wireless connection, and further, via a network such as the Internet. May be connected.

本実施形態では、ロボットアーム10は、第1アーム12と、第2アーム13と、第3アーム14と、第4アーム15と、第5アーム16と、第6アーム17とを有し、これらのアームが基台11側からこの順に連結されている。なお、ロボットアーム10が有するアームの数は、6つに限定されず、例えば、1つ、2つ、3つ、4つ、5つまたは7つ以上であってもよい。また、各アームの全長等の大きさは、それぞれ、特に限定されず、適宜設定可能である。 In the present embodiment, the robot arm 10 has a first arm 12, a second arm 13, a third arm 14, a fourth arm 15, a fifth arm 16, and a sixth arm 17. Arms are connected in this order from the base 11 side. The number of arms possessed by the robot arm 10 is not limited to six, and may be, for example, one, two, three, four, five, or seven or more. Further, the size such as the total length of each arm is not particularly limited and can be appropriately set.

基台11と第1アーム12とは、関節171を介して連結されている。そして、第1アーム12は、基台11に対し、鉛直方向と平行な第1回動軸を回動中心とし、その第1回動軸回りに回動可能となっている。第1回動軸は、基台11が固定される床の法線と一致している。 The base 11 and the first arm 12 are connected to each other via a joint 171. The first arm 12 is rotatable around the first rotation axis with the first rotation axis parallel to the vertical direction as the rotation center with respect to the base 11. The first axis of rotation coincides with the normal of the floor to which the base 11 is fixed.

第1アーム12と第2アーム13とは、関節172を介して連結されている。そして、第2アーム13は、第1アーム12に対し、水平方向と平行な第2回動軸を回動中心として回動可能となっている。第2回動軸は、第1回動軸に直交する軸と平行である。 The first arm 12 and the second arm 13 are connected to each other via a joint 172. The second arm 13 can rotate about the second rotation axis parallel to the horizontal direction with respect to the first arm 12. The second rotation axis is parallel to the axis orthogonal to the first rotation axis.

第2アーム13と第3アーム14とは、関節173を介して連結されている。そして、第3アーム14は、第2アーム13に対して水平方向と平行な第3回動軸を回動中心として回動可能となっている。第3回動軸は、第2回動軸と平行である。 The second arm 13 and the third arm 14 are connected to each other via a joint 173. The third arm 14 is rotatable around a third rotation axis parallel to the second arm 13 in the horizontal direction. The third rotation axis is parallel to the second rotation axis.

第3アーム14と第4アーム15とは、関節174を介して連結されている。そして、第4アーム15は、第3アーム14に対し、第3アーム14の中心軸方向と平行な第4回動軸を回動中心として回動可能となっている。第4回動軸は、第3回動軸と直交している。 The third arm 14 and the fourth arm 15 are connected to each other via a joint 174. The fourth arm 15 is rotatable with respect to the third arm 14 with the fourth rotation axis parallel to the central axis direction of the third arm 14 as the rotation center. The fourth rotation axis is orthogonal to the third rotation axis.

第4アーム15と第5アーム16とは、関節175を介して連結されている。そして、第5アーム16は、第4アーム15に対して第5回動軸を回動中心として回動可能となっている。第5回動軸は、第4回動軸と直交している。 The fourth arm 15 and the fifth arm 16 are connected via a joint 175. The fifth arm 16 is rotatable with respect to the fourth arm 15 with the fifth rotation axis as the rotation center. The fifth rotation axis is orthogonal to the fourth rotation axis.

第5アーム16と第6アーム17とは、関節176を介して連結されている。そして、第6アーム17は、第5アーム16に対して第6回動軸を回動中心として回動可能となっている。第6回動軸は、第5回動軸と直交している。 The fifth arm 16 and the sixth arm 17 are connected to each other via a joint 176. The sixth arm 17 is rotatable with respect to the fifth arm 16 with the sixth rotation axis as the rotation center. The sixth rotation axis is orthogonal to the fifth rotation axis.

また、第6アーム17は、ロボットアーム10の中で最も先端側に位置するロボット先端部となっている。この第6アーム17は、ロボットアーム10の駆動により、エンドエフェクター20ごと回動することができる。 Further, the sixth arm 17 is a robot tip portion located on the most tip side of the robot arm 10. The sixth arm 17 can be rotated together with the end effector 20 by driving the robot arm 10.

ロボット1は、駆動部としてのモーターM1、モーターM2、モーターM3、モーターM4、モーターM5およびモーターM6と、エンコーダーE1、エンコーダーE2、エンコーダーE3、エンコーダーE4、エンコーダーE5およびエンコーダーE6とを備える。モーターM1は、関節171に内蔵され、基台11と第1アーム12とを相対的に回転させる。モーターM2は、関節172に内蔵され、第1アーム12と第2アーム13とを相対的に回転させる。モーターM3は、関節173に内蔵され、第2アーム13と第3アーム14とを相対的に回転させる。モーターM4は、関節174に内蔵され、第3アーム14と第4アーム15とを相対的に回転させる。モーターM5は、関節175に内蔵され、第4アーム15と第5アーム16とを相対的に回転させる。モーターM6は、関節176に内蔵され、内蔵され、第5アーム16と第6アーム17とを相対的に回転させる。 The robot 1 includes a motor M1, a motor M2, a motor M3, a motor M4, a motor M5 and a motor M6 as drive units, and an encoder E1, an encoder E2, an encoder E3, an encoder E4, an encoder E5 and an encoder E6. The motor M1 is built in the joint 171 and relatively rotates the base 11 and the first arm 12. The motor M2 is built in the joint 172 and rotates the first arm 12 and the second arm 13 relatively. The motor M3 is built in the joint 173 and rotates the second arm 13 and the third arm 14 relatively. The motor M4 is built in the joint 174 and rotates the third arm 14 and the fourth arm 15 relatively. The motor M5 is built in the joint 175 and relatively rotates the fourth arm 15 and the fifth arm 16. The motor M6 is built in the joint 176 and is built in, and rotates the fifth arm 16 and the sixth arm 17 relatively.

また、エンコーダーE1は、関節171に内蔵され、モーターM1の位置を検出する。エンコーダーE2は、関節172に内蔵され、モーターM2の位置を検出する。エンコーダーE3は、関節173に内蔵され、モーターM3の位置を検出する。エンコーダーE4は、関節174に内蔵され、モーターM4の位置を検出する。エンコーダーE5は、第5アーム16に内蔵され、モーターM5の位置を検出する。エンコーダーE6は、第6アーム17に内蔵され、モーターM6の位置を検出する。 Further, the encoder E1 is built in the joint 171 and detects the position of the motor M1. The encoder E2 is built in the joint 172 and detects the position of the motor M2. The encoder E3 is built in the joint 173 and detects the position of the motor M3. The encoder E4 is built in the joint 174 and detects the position of the motor M4. The encoder E5 is built in the fifth arm 16 and detects the position of the motor M5. The encoder E6 is built in the sixth arm 17 and detects the position of the motor M6.

エンコーダーE1~エンコーダーE6は、制御装置3と電気的に接続されており、モーターM1~モーターM6の位置情報、すなわち、回転量が制御装置3に電気信号として送信される。そして、この情報に基づいて、制御装置3は、モーターM1~モーターM6を、図2に示すモータードライバーD1~モータードライバーD6を介して駆動させる。すなわち、ロボットアーム10を制御するということは、モーターM1~モーターM6を制御することである。 The encoders E1 to E6 are electrically connected to the control device 3, and the position information of the motors M1 to M6, that is, the rotation amount is transmitted to the control device 3 as an electric signal. Then, based on this information, the control device 3 drives the motors M1 to M6 via the motor drivers D1 to D6 shown in FIG. That is, controlling the robot arm 10 means controlling the motors M1 to M6.

また、ロボットアーム10の先端には、制御点CPが設定されている。制御点CPは、ロボットアーム10の制御を行う際の基準となる点のことである。ロボットシステム100では、ロボット座標系で制御点CPの位置を把握し、制御点CPが所望の位置に移動するようにロボットアーム10を駆動する。 Further, a control point CP is set at the tip of the robot arm 10. The control point CP is a reference point when controlling the robot arm 10. In the robot system 100, the position of the control point CP is grasped in the robot coordinate system, and the robot arm 10 is driven so that the control point CP moves to a desired position.

また、ロボット1では、ロボットアーム10に、力を検出する力検出部19が着脱自在に設置される。そして、ロボットアーム10は、力検出部19が設置された状態で駆動することができる。力検出部19は、本実施形態では、6軸力覚センサーである。力検出部19は、互いに直交する3個の検出軸上の力の大きさと、当該3個の検出軸回りのトルクの大きさとを検出する。すなわち、互いに直交するX軸、Y軸、Z軸の各軸方向の力成分と、X軸回りとなるW方向の力成分と、Y軸回りとなるV方向の力成分と、Z軸回りとなるU方向の力成分とを検出する。これらのX軸、Y軸、Z軸は、ロボット座標系における軸である。 Further, in the robot 1, a force detection unit 19 for detecting a force is detachably installed on the robot arm 10. Then, the robot arm 10 can be driven in a state where the force detection unit 19 is installed. The force detection unit 19 is a 6-axis force sensor in this embodiment. The force detection unit 19 detects the magnitude of the force on the three detection axes orthogonal to each other and the magnitude of the torque around the three detection axes. That is, the force components in the X-axis, Y-axis, and Z-axis directions orthogonal to each other, the force component in the W direction around the X-axis, the force component in the V direction around the Y-axis, and the Z-axis circumference. The force component in the U direction is detected. These X-axis, Y-axis, and Z-axis are axes in the robot coordinate system.

力検出部19には、エンドエフェクター20を着脱可能に装着することができる。エンドエフェクター20は、本実施形態では、作業対象物であるワークWを研磨する研磨機で構成される。 The end effector 20 can be detachably attached to the force detection unit 19. In the present embodiment, the end effector 20 is composed of a polishing machine that polishes the work W, which is a work object.

また、本実施形態では、エンドエフェクター20は、上記構成に限定されず、例えば、研削機、切削機等や、ドライバー、レンチ等の工具であってもよく、吸引、挟持によりワークWを把持するハンドであってもよく、例えば接着剤等の処理液を供給するディスペンサー等であってもよい。 Further, in the present embodiment, the end effector 20 is not limited to the above configuration, and may be, for example, a tool such as a grinder, a cutting machine, a driver, a wrench, etc., and grips the work W by suction or pinching. It may be a hand, for example, a dispenser for supplying a treatment liquid such as an adhesive.

また、ロボット座標系において、エンドエフェクター20の先端には、ツールセンターポイントTCPが設定される。ロボットシステム100では、ツールセンターポイントTCPの位置をロボット座標系で把握しておくことにより、ツールセンターポイントTCPを制御の基準とすることができる。すなわち、ツールセンターポイントTCPと制御点CPとの位置関係を把握しておくことにより、ツールセンターポイントTCPを制御の基準としてロボットアーム10を駆動し、作業を行うことができる。このようなツールセンターポイントTCPを制御点と言うことができる。 Further, in the robot coordinate system, a tool center point TCP is set at the tip of the end effector 20. In the robot system 100, the tool center point TCP can be used as a control reference by grasping the position of the tool center point TCP in the robot coordinate system. That is, by grasping the positional relationship between the tool center point TCP and the control point CP, the robot arm 10 can be driven and the work can be performed using the tool center point TCP as a control reference. Such a tool center point TCP can be called a control point.

次に、制御装置3および教示装置4について説明する。
図1に示すように、制御装置3は、本実施形態では、ロボット1と離れた位置に設置されている。ただし、この構成に限定されず、基台11に内蔵されていてもよい。また、制御装置3は、ロボット1の駆動を制御する機能を有し、前述したロボット1の各部と電気的に接続されている。制御装置3は、制御部31と、記憶部32と、通信部33と、を有する。これらの各部は、例えばバスを介して相互に通信可能に接続されている。
Next, the control device 3 and the teaching device 4 will be described.
As shown in FIG. 1, the control device 3 is installed at a position away from the robot 1 in the present embodiment. However, the present invention is not limited to this configuration, and may be built in the base 11. Further, the control device 3 has a function of controlling the drive of the robot 1 and is electrically connected to each part of the robot 1 described above. The control device 3 includes a control unit 31, a storage unit 32, and a communication unit 33. Each of these parts is communicably connected to each other via, for example, a bus.

制御部31は、例えば、CPU(Central Processing Unit)で構成され、記憶部32に記憶されている動作プログラム等の各種プログラムを読み出し、実行する。制御部31で生成された信号は、通信部33を介してロボット1の各部に送信される。これにより、ロボットアーム10が所定の作業を所定の条件で実行したりすることができる。記憶部32は、制御部31が実行可能な各種プログラム等を保存する。記憶部32としては、例えば、RAM(Random Access Memory)等の揮発性メモリー、ROM(Read Only Memory)等の不揮発性メモリー、着脱式の外部記憶装置等が挙げられる。通信部33は、例えば有線LAN(Local Area Network)、無線LAN等の外部インターフェースを用いて制御装置3との間で信号の送受信を行う。 The control unit 31 is composed of, for example, a CPU (Central Processing Unit), and reads and executes various programs such as an operation program stored in the storage unit 32. The signal generated by the control unit 31 is transmitted to each unit of the robot 1 via the communication unit 33. As a result, the robot arm 10 can perform a predetermined work under a predetermined condition. The storage unit 32 stores various programs and the like that can be executed by the control unit 31. Examples of the storage unit 32 include a volatile memory such as a RAM (Random Access Memory), a non-volatile memory such as a ROM (Read Only Memory), and a detachable external storage device. The communication unit 33 transmits / receives a signal to / from the control device 3 by using an external interface such as a wired LAN (Local Area Network) or a wireless LAN.

図1および図2に示すように、教示装置4は、制御部41と、記憶部42と、通信部43と、を有し、ロボットアーム10に対して動作プログラムを作成、入力したりする機能を有する。教示装置4としては、特に限定されず、例えば、タブレット端末、パソコン、スマートフォン、ティーチングペンダント等が挙げられる。 As shown in FIGS. 1 and 2, the teaching device 4 has a control unit 41, a storage unit 42, and a communication unit 43, and has a function of creating and inputting an operation program to the robot arm 10. Has. The teaching device 4 is not particularly limited, and examples thereof include a tablet terminal, a personal computer, a smartphone, and a teaching pendant.

制御部41は、例えば、CPU(Central Processing Unit)で構成され、記憶部42に記憶されている教示プログラム等の各種プログラムを読み出し、実行する。制御部41で生成された信号は、通信部43を介して制御装置3に送信される。これにより、制御装置3に対して教示した情報を入力することができる。記憶部42は、制御部41が実行可能な各種プログラム等を保存する。記憶部42としては、例えば、RAM(Random Access Memory)等の揮発性メモリー、ROM(Read Only Memory)等の不揮発性メモリー、着脱式の外部記憶装置等が挙げられる。通信部43は、例えば有線LAN(Local Area Network)、無線LAN等の外部インターフェースを用いて制御装置3や投影装置5との間で信号の送受信を行う。 The control unit 41 is composed of, for example, a CPU (Central Processing Unit), and reads and executes various programs such as a teaching program stored in the storage unit 42. The signal generated by the control unit 41 is transmitted to the control device 3 via the communication unit 43. As a result, the information taught to the control device 3 can be input. The storage unit 42 stores various programs and the like that can be executed by the control unit 41. Examples of the storage unit 42 include volatile memory such as RAM (Random Access Memory), non-volatile memory such as ROM (Read Only Memory), and a detachable external storage device. The communication unit 43 transmits and receives signals to and from the control device 3 and the projection device 5 by using an external interface such as a wired LAN (Local Area Network) or a wireless LAN.

投影装置5は、いわゆるインタラクティブプロジェクターであり、制御部51と、画像を投影する投影部52と、投影部52が投影した画像200上において、ツールセンターポイントTCPが移動すべき位置を示す教示点指定部50の位置を検出する検出部53と、記憶部54と、通信部55と、を備える。 The projection device 5 is a so-called interactive projector, and a teaching point designation indicating a position where the tool center point TCP should move on the control unit 51, the projection unit 52 for projecting an image, and the image 200 projected by the projection unit 52. A detection unit 53 for detecting the position of the unit 50, a storage unit 54, and a communication unit 55 are provided.

制御部51は、例えば、CPU(Central Processing Unit)で構成され、記憶部54に記憶されている教示プログラム等の各種プログラムを読み出し、実行する。 The control unit 51 is composed of, for example, a CPU (Central Processing Unit), and reads and executes various programs such as a teaching program stored in the storage unit 54.

投影部52は、制御部51によって駆動され、画像200をワークWおよびその周辺に投影する。投影部52は、図示はしないが、光源と、光変調部と、投写レンズと、を備える。光源は、ライトバルブやLEDによって構成される。光変調部は、液晶パネルによって構成され、制御部51から入力される画像信号に応じて光源から照射された光を変調する。光変調部において変調された光は、投写レンズによって拡大され、画像光としてワークWに投影される。 The projection unit 52 is driven by the control unit 51 and projects the image 200 onto the work W and its surroundings. Although not shown, the projection unit 52 includes a light source, a light modulation unit, and a projection lens. The light source is composed of a light bulb and an LED. The optical modulation unit is composed of a liquid crystal panel and modulates the light emitted from the light source according to the image signal input from the control unit 51. The light modulated in the light modulation unit is magnified by the projection lens and projected onto the work W as image light.

制御部51は、教示装置4から入力された映像データや、記憶部54に記憶されている映像データから投写画像を表す画像信号を生成し、投影部52の光変調部に入力する。制御部51は、予め設定されているパラメーターを反映する色補正や台形補正などの補正処理を実行する機能を備えている。 The control unit 51 generates an image signal representing a projected image from the video data input from the teaching device 4 and the video data stored in the storage unit 54, and inputs the image signal to the optical modulation unit of the projection unit 52. The control unit 51 has a function of executing correction processing such as color correction and keystone correction that reflect preset parameters.

投影部52が投影する画像200としては、例えば、白色、青色、黄色等の単色の画像であってもよく、方眼模様が付されている画像であってもよい。 The image 200 projected by the projection unit 52 may be, for example, a monochromatic image such as white, blue, or yellow, or an image having a grid pattern.

検出部53は、例えば、CCDやCMOSイメージセンサーとレンズ等を含んだカメラ531によって構成される。検出部53が有するレンズは、投影部52が有するレンズと共通のものであるのが好ましい。カメラ531は、少なくとも投影部52が投影した画像200の全域を撮像可能である。カメラ531は、制御部51によってその作動が制御され、撮像した撮像画像は、記憶部54に記憶される。 The detection unit 53 is composed of, for example, a camera 531 including a CCD or CMOS image sensor, a lens, and the like. The lens included in the detection unit 53 is preferably the same as the lens included in the projection unit 52. The camera 531 can capture at least the entire area of the image 200 projected by the projection unit 52. The operation of the camera 531 is controlled by the control unit 51, and the captured image captured is stored in the storage unit 54.

カメラ531は、可視光の画像を撮像するものであってもよく、可視光領域外の光、例えば赤外光の画像を撮像するものであってもよい。 The camera 531 may capture an image of visible light, or may capture an image of light outside the visible light region, for example, infrared light.

また、検出部53には、図1に示すようなx軸、y軸およびz軸の3軸で規定される検出座標系が設定されている。検出座標系は、予めロボット座標系と対応付けられており、検出座標系で特定した位置を、ロボット座標系に変換、すなわち、検出座標系で特定した位置に基づいてロボット座標系における位置を算出することが可能である。 Further, the detection unit 53 is set with a detection coordinate system defined by three axes of x-axis, y-axis and z-axis as shown in FIG. The detected coordinate system is associated with the robot coordinate system in advance, and the position specified in the detected coordinate system is converted into the robot coordinate system, that is, the position in the robot coordinate system is calculated based on the position specified in the detected coordinate system. It is possible to do.

また、記憶された撮像画像において、制御部51は、教示点指定部50の位置を検出する。教示点指定部50は、ツールセンターポイントTCPが移動すべき位置を示すものであり、図示の構成では、教示者の指先である。教示者の指先の画像を予め取得して記憶部54に記憶しておき、公知の手法によって撮像画像とマッチングすることにより、撮像画像における教示点指定部50の位置を特定することができる。 Further, in the stored captured image, the control unit 51 detects the position of the teaching point designation unit 50. The teaching point designation unit 50 indicates a position where the tool center point TCP should be moved, and in the illustrated configuration, it is a fingertip of the teacher. By acquiring an image of the fingertip of the teacher in advance, storing it in the storage unit 54, and matching it with the captured image by a known method, the position of the teaching point designation unit 50 in the captured image can be specified.

なお、教示点指定部50としては、図示の構成では、教示者の指先であるが、本発明ではこれに限定されず、例えば、教示者が把持するペン等の長尺体の任意の部位とすることができる。 The teaching point designation unit 50 is the fingertip of the teacher in the illustrated configuration, but is not limited to this in the present invention, and may be, for example, an arbitrary part of a long body such as a pen held by the teacher. can do.

次に、本発明の教示方法の一例について、図7に示すフローチャートを参照しつつ、図3~図6を用いて説明する。なお、以下のステップS101~ステップS109を、制御部31、制御部41および制御部51のうちのいずれかの制御部が実行する構成であってもよく、これらが分担して実行する構成であってもよい。また、ステップS102およびステップS105における記憶は、記憶部32、記憶部42および記憶部54のうちのいずれかの記憶部に記憶する構成であってもよく、全ての記憶部に記憶する構成であってもよい。 Next, an example of the teaching method of the present invention will be described with reference to FIGS. 3 to 6 with reference to the flowchart shown in FIG. 7. It should be noted that the following steps S101 to S109 may be executed by any of the control units 31, the control unit 41, and the control unit 51, and these may be shared and executed. You may. Further, the storage in steps S102 and S105 may be configured to be stored in any of the storage units 32, the storage unit 42, and the storage unit 54, and may be stored in all the storage units. You may.

まず、ステップS101において、図3に示すように、画像200をワークWの上面に投影しつつ、教示点指定部50を含む画像を撮像する。例えば、図3に示すように、教示者が指先、すなわち、教示点指定部50によって、作業開始位置P1を指差す。そして、図4に示すように、ワークWの上面側の縁部をなぞるように指先を移動させ、図5に示すように、作業終了位置P2まで移動させる。すなわち、図示の構成では、ロボット1に対して、ワークWの上面側の縁部の一部を研磨させる作業を行わせたい場合の教示である。 First, in step S101, as shown in FIG. 3, while projecting the image 200 on the upper surface of the work W, an image including the teaching point designation unit 50 is captured. For example, as shown in FIG. 3, the teacher points to the work start position P1 by the fingertip, that is, the teaching point designation unit 50. Then, as shown in FIG. 4, the fingertip is moved so as to trace the edge portion on the upper surface side of the work W, and as shown in FIG. 5, it is moved to the work end position P2. That is, in the illustrated configuration, it is a teaching when the robot 1 wants to perform the work of polishing a part of the edge portion on the upper surface side of the work W.

このような動作の際、カメラ531が、ワークWおよび教示点指定部50を含む画像を撮像する。この撮像タイミングとしては、特に限定されず、所定時間ごとに撮像画像を取得してもよく、映像として連続的に撮像を行ってもよい。 During such an operation, the camera 531 captures an image including the work W and the teaching point designation unit 50. The imaging timing is not particularly limited, and captured images may be acquired at predetermined time intervals, or continuous imaging may be performed as an image.

次いで、ステップS102では、ステップS101で撮像した画像を記憶部54に記憶する。次いで、ステップS103において、ステップS102で記憶した撮像画像における教示点指定部50の位置を特定、すなわち、検出する。このステップS103が、ワークW上の、制御点であるツールセンターポイントTCPの位置を示す教示点指定部50の位置を検出する検出ステップである。本ステップでは、検出座標系で教示点指定部50の位置を特定する。 Next, in step S102, the image captured in step S101 is stored in the storage unit 54. Next, in step S103, the position of the teaching point designation unit 50 in the captured image stored in step S102 is specified, that is, detected. This step S103 is a detection step for detecting the position of the teaching point designation unit 50 indicating the position of the tool center point TCP which is the control point on the work W. In this step, the position of the teaching point designation unit 50 is specified in the detection coordinate system.

次いで、ステップS104では、検出座標系で検出した教示点指定部50の位置に基づいてロボット座標系における位置を算出する。この算出は、前述したように、検出座標系とロボット座標系とのキャリブレーションが済んでいるため、所定の関係式、テーブル等を用いて行うことができる。このステップS104が、検出ステップで検出した教示点指定部50の位置に基づいて、ツールセンターポイントTCPのロボット座標系における位置を算出する算出ステップである。 Next, in step S104, the position in the robot coordinate system is calculated based on the position of the teaching point designation unit 50 detected in the detection coordinate system. As described above, since the detection coordinate system and the robot coordinate system have been calibrated, this calculation can be performed using a predetermined relational expression, a table, or the like. This step S104 is a calculation step of calculating the position of the tool center point TCP in the robot coordinate system based on the position of the teaching point designation unit 50 detected in the detection step.

そして、ステップS105では、ステップS104で算出したロボット座標系における位置を記憶部42に記憶する。これにより、ロボットアーム10の位置および姿勢を記憶する、すなわち、教示することができる。このステップS105が、算出ステップで算出したロボットアーム10の位置および姿勢を記憶する記憶ステップである。 Then, in step S105, the position in the robot coordinate system calculated in step S104 is stored in the storage unit 42. Thereby, the position and posture of the robot arm 10 can be memorized, that is, taught. This step S105 is a storage step for storing the position and posture of the robot arm 10 calculated in the calculation step.

なお、ツールセンターポイントTCPのロボット座標系における位置を算出すると、所定の関係式、テーブル等を用いてロボットアーム10の姿勢、すなわち、各関節と角度を決定することができる。したがって、ツールセンターポイントTCPのロボット座標系における位置と、それに対応する姿勢を記憶することができる。また、1つのロボット座標系における位置に対して、ロボットアーム10の姿勢が複数存在することがあるが、この場合には、最適な姿勢が選択されるよう構成されていてもよく、教示者が選択する構成であってもよい。 When the position of the tool center point TCP in the robot coordinate system is calculated, the posture of the robot arm 10, that is, the angle with each joint can be determined by using a predetermined relational expression, a table, or the like. Therefore, the position of the tool center point TCP in the robot coordinate system and the corresponding posture can be stored. Further, there may be a plurality of postures of the robot arm 10 with respect to a position in one robot coordinate system. In this case, the robot arm 10 may be configured to select the optimum posture, and the instructor may use the robot arm 10. It may be a configuration to be selected.

なお、本発明では、ロボットアーム10の位置、すなわち、制御点であるツールセンターポイントTCPの位置のみを教示する構成であってもよい。 In the present invention, only the position of the robot arm 10, that is, the position of the tool center point TCP which is the control point may be taught.

次いで、ステップS106において、完了指示があったか否かを判断する。この判断は、教示者が図示しない教示完了ボタンを押したか否かに基づいてなされてもよく、教示点指定部50が撮像画像から検出できなくなったか否かに基づいてなされてもよい。 Next, in step S106, it is determined whether or not there is a completion instruction. This determination may be made based on whether or not the teacher has pressed a teaching completion button (not shown), or may be made based on whether or not the teaching point designation unit 50 can no longer be detected from the captured image.

ステップS106において、完了指示がないと判断した場合、ステップS101に戻り、以降のステップを繰り返す。一方、ステップS106において、完了指示があった判断した場合、ステップS107において完了する、すなわち、教示点指定部50の検出を終了する。 If it is determined in step S106 that there is no completion instruction, the process returns to step S101 and the subsequent steps are repeated. On the other hand, if it is determined in step S106 that there is a completion instruction, it is completed in step S107, that is, the detection of the teaching point designation unit 50 is terminated.

次いで、ステップS108において、投影指示があったか否かを判断する。本ステップでの判断は、図示しない投影ボタンが押されたか否かに基づいてなされる。なお、投影ボタンは、投影装置5に設けられていてもよく、制御装置3に設けられていてもよく、教示装置4に設けられていてもよい。 Next, in step S108, it is determined whether or not there is a projection instruction. The judgment in this step is made based on whether or not a projection button (not shown) is pressed. The projection button may be provided in the projection device 5, the control device 3, or the teaching device 4.

ステップS108において、投影指示がないと判断した場合、教示プログラムを終了する。一方、ステップS108において、投影指示があったと判断した場合、ステップS109では、図6に示すように、画像300を投影する。本ステップで投影する画像300では、図3~図5に示す画像200に加えて、教示点指定部50が通過した軌跡を、周囲とは異なる色で表示する。これにより、教示者は、どのような軌跡で教示が行われたかを明確に把握することができる。よって、例えば即座にやり直したりすることができ、正確な教示を行うことができる。 If it is determined in step S108 that there is no projection instruction, the teaching program is terminated. On the other hand, if it is determined in step S108 that the projection instruction has been given, in step S109, the image 300 is projected as shown in FIG. In the image 300 projected in this step, in addition to the images 200 shown in FIGS. 3 to 5, the locus of the teaching point designation unit 50 is displayed in a color different from that of the surroundings. As a result, the teacher can clearly grasp the trajectory of the teaching. Therefore, for example, it is possible to redo immediately, and accurate teaching can be performed.

このようなステップS109が、記憶ステップで記憶したロボットアーム10の位置および姿勢に関する情報を表示する表示ステップである。なお、図示の構成では、教示したロボットアーム10の位置の集合を表示しているが、本発明ではこれに限定されず、例えば、ロボットアーム10のシミュレーション画像を併せて投影することにより、姿勢も投影してもよい。すなわち、「情報」には、ロボットアーム10の位置の集合、ロボットアーム10のシミュレーション画像、ツールセンターポイントTCPの軌跡が含まれるということができる。 Such step S109 is a display step for displaying information regarding the position and posture of the robot arm 10 stored in the storage step. In the illustrated configuration, the set of the positions of the taught robot arm 10 is displayed, but the present invention is not limited to this, and for example, by projecting a simulation image of the robot arm 10 together, the posture can be changed. It may be projected. That is, it can be said that the "information" includes a set of positions of the robot arm 10, a simulation image of the robot arm 10, and a locus of the tool center point TCP.

また、表示ステップでは、投影装置5を用いた投影による表示に限定されず、例えば、教示装置4の表示部や、別途用意された表示部にシミュレーション画像として表示する構成であってもよい。 Further, the display step is not limited to the display by projection using the projection device 5, and may be configured to be displayed as a simulation image on a display unit of the teaching device 4 or a separately prepared display unit, for example.

また、教示中に投影する画像において、教示点指定部50が示す位置や、これまで通過した軌跡をリアルタイムで表示してもよい。 Further, in the image projected during teaching, the position indicated by the teaching point designation unit 50 and the locus that has passed so far may be displayed in real time.

以上説明したように、本発明の教示方法は、ロボットアーム10を備えるロボット1に対し、作業対象物であるワークWに対する作業を行う際のロボットアーム10の位置を特定する教示方法である。また、本発明の教示方法は、ワークW上の、ロボットアーム10の制御点であるツールセンターポイントTCPの位置を示す教示点指定部50の位置を検出する検出ステップと、検出ステップで検出した教示点指定部50の位置に基づいて、制御点のロボット座標系における位置を算出する算出ステップと、算出ステップで算出した制御点の位置を記憶する記憶ステップと、を有する。このような教示方法によれば、従来のようにロボットアームを実際に動かす作業を省略することができる。よって、簡単かつ迅速に教示を行うことができる。特に、ロボットアーム10の形状、姿勢にもよるが、ツールセンターポイントTCPの位置は、教示者から見えにくい場合があり、ツールセンターポイントTCPを所望の位置に移動させるのは、経験が必要であり、誰もができる操作ではない。これに対し、本発明では、教示点指定部50にて、ツールセンターポイントTCPの位置を指定するという簡単な方法によって正確な教示を迅速に行うことができる。 As described above, the teaching method of the present invention is a teaching method for specifying the position of the robot arm 10 when performing work on the work W, which is a work object, for the robot 1 provided with the robot arm 10. Further, the teaching method of the present invention includes a detection step for detecting the position of the teaching point designation unit 50 indicating the position of the tool center point TCP which is the control point of the robot arm 10 on the work W, and the teaching detected in the detection step. It has a calculation step of calculating the position of the control point in the robot coordinate system based on the position of the point designation unit 50, and a storage step of storing the position of the control point calculated in the calculation step. According to such a teaching method, it is possible to omit the work of actually moving the robot arm as in the conventional case. Therefore, the teaching can be performed easily and quickly. In particular, although it depends on the shape and posture of the robot arm 10, the position of the tool center point TCP may be difficult to see from the teacher, and moving the tool center point TCP to a desired position requires experience. , It is not an operation that anyone can do. On the other hand, in the present invention, accurate teaching can be quickly performed by a simple method of designating the position of the tool center point TCP in the teaching point designation unit 50.

また、本発明のロボットシステム100は、ロボットアーム10を有するロボット1と、ロボットアーム10が作業対象物であるワークWに対する作業を行う際のロボットアーム10の位置および姿勢を特定する制御部31、制御部41および制御部51と、を備える。また制御部31、制御部41および制御部51は、ワークW上の、ロボットアーム10の制御点であるツールセンターポイントTCPの位置を示す教示点指定部50の位置を検出し、検出した教示点指定部50の位置に基づいて、ツールセンターポイントTCPのロボット座標系における位置を算出し、算出したツールセンターポイントTCPの位置を記憶部32、記憶部42および記憶部54のうちの少なくとも1つの記憶部に記憶する。これにより、従来のようにロボットアームを実際に動かす作業を省略することができる。よって、簡単に教示を行うことができる。 Further, the robot system 100 of the present invention includes a robot 1 having a robot arm 10 and a control unit 31 for specifying the position and posture of the robot arm 10 when the robot arm 10 performs work on a work W which is a work object. A control unit 41 and a control unit 51 are provided. Further, the control unit 31, the control unit 41, and the control unit 51 detect the position of the teaching point designation unit 50 indicating the position of the tool center point TCP which is the control point of the robot arm 10 on the work W, and the detected teaching point. The position of the tool center point TCP in the robot coordinate system is calculated based on the position of the designated unit 50, and the calculated position of the tool center point TCP is stored in at least one of the storage unit 32, the storage unit 42, and the storage unit 54. Remember in the department. This makes it possible to omit the work of actually moving the robot arm as in the conventional case. Therefore, the teaching can be easily performed.

また、検出ステップでは、教示点指定部50が移動した際、移動に沿って教示点指定部50の位置を複数回検出し、算出ステップでは、検出ステップで検出した複数の教示点指定部50の位置に基づいて、制御点であるツールセンターポイントTCPのロボット座標系における複数の位置を算出する。これにより、ツールセンターポイントTCPの軌跡を教示することができる。 Further, in the detection step, when the teaching point designating unit 50 moves, the position of the teaching point designating unit 50 is detected a plurality of times along the movement, and in the calculation step, the plurality of teaching point designating units 50 detected in the detection step are detected. Based on the position, a plurality of positions in the robot coordinate system of the tool center point TCP which is a control point are calculated. This makes it possible to teach the locus of the tool center point TCP.

また、本発明の教示方法は、検出ステップの前に、ワークWに投影画像である画像200を投影する投影ステップを有する。これにより、画像200を、教示点指定部50を認識しやすい画像とすることにより、教示点指定部50の位置を正確に把握することができる。また、投影画像を用いることにより、例えば、影との境界を検出する方法を採用することができる。このようなことから、正確な教示を行うことができる。 Further, the teaching method of the present invention includes a projection step of projecting an image 200, which is a projection image, onto the work W before the detection step. As a result, by making the image 200 an image in which the teaching point designating unit 50 can be easily recognized, the position of the teaching point designating unit 50 can be accurately grasped. Further, by using a projected image, for example, a method of detecting a boundary with a shadow can be adopted. From such a thing, accurate teaching can be performed.

また、本発明の教示方法は、記憶ステップで記憶した制御点であるツールセンターポイントTCPの位置に関する情報を表示する表示ステップを有する。これにより、教示者は、どのような軌跡で教示が行われたかを明確に把握することができる。よって、例えば即座にやり直したりすることができ、正確な教示を行うことができる。 Further, the teaching method of the present invention includes a display step for displaying information regarding the position of the tool center point TCP, which is a control point stored in the storage step. As a result, the teacher can clearly grasp the trajectory of the teaching. Therefore, for example, it is possible to redo immediately, and accurate teaching can be performed.

また、本発明の教示方法では、投影画像である画像200には制御点であるツールセンターポイントTCPの軌跡が含まれる。これにより、教示者は、明確にツールセンターポイントTCPの軌跡を把握することができる。 Further, in the teaching method of the present invention, the image 200, which is a projected image, includes the locus of the tool center point TCP which is a control point. This allows the teacher to clearly grasp the trajectory of the tool center point TCP.

<第2実施形態>
図8は、第2実施形態のロボットシステムが備える投影装置を示す図である。
以下、第2実施形態について説明するが、以下の説明では、第1実施形態との相違点を中心に説明し、同様の事項についてはその説明を省略する。
<Second Embodiment>
FIG. 8 is a diagram showing a projection device included in the robot system of the second embodiment.
Hereinafter, the second embodiment will be described, but in the following description, the differences from the first embodiment will be mainly described, and the same matters will be omitted.

本実施形態では、図8に示すように、投影装置5が2つ設けられている。各投影装置5は、互いに異なる位置に設けられている。一方の投影装置5は、ワークWの上面に画像200を投影し、他方の投影装置5は、ワークWの側面のうちの1つの側面に画像200を投影する。 In this embodiment, as shown in FIG. 8, two projection devices 5 are provided. The projection devices 5 are provided at different positions from each other. One projection device 5 projects the image 200 on the upper surface of the work W, and the other projection device 5 projects the image 200 on one side surface of the work W.

本実施形態では、教示を行う際、ワークWのうち、画像200が投影されている上面および側面において、教示を行うことができる。すなわち、画像200が投影されている上面および側面を教示点指定部50でなぞることにより、3次元的な教示を行うことができる。その結果、さらに精度の高い教示を行うことができる。 In the present embodiment, when teaching, the teaching can be performed on the upper surface and the side surface of the work W on which the image 200 is projected. That is, three-dimensional teaching can be performed by tracing the upper surface and the side surface on which the image 200 is projected with the teaching point designation unit 50. As a result, more accurate teaching can be performed.

以上、本発明の教示方法およびロボットシステムを図示の実施形態について説明したが、本発明は、これに限定されるものではない。また、教示方法およびロボットシステムの各工程、各部は、同様の機能を発揮し得る任意の工程、構造物と置換することができる。また、任意の工程、構造体が付加されていてもよい。 Although the teaching method and the robot system of the present invention have been described above with respect to the illustrated embodiment, the present invention is not limited thereto. Further, each process and each part of the teaching method and the robot system can be replaced with any process or structure capable of exhibiting the same function. Further, any process and structure may be added.

なお、第1実施形態において、1つの投影装置で2つの撮像部を有していれば、3次元的な教示を行うことができる。また、第1実施形態において、3Dカメラ、すなわち、深度センサーカメラを用いることにより、3次元的な教示を行うことができる。 In the first embodiment, if one projection device has two imaging units, three-dimensional teaching can be performed. Further, in the first embodiment, three-dimensional teaching can be performed by using a 3D camera, that is, a depth sensor camera.

また、投影部を省略して、画像が投影されていない空間で検出部のみを用いて教示を行ってもよい。 Further, the projection unit may be omitted and the teaching may be performed using only the detection unit in the space where the image is not projected.

1…ロボット、3…制御装置、4…教示装置、5…投影装置、10…ロボットアーム、11…基台、12…第1アーム、13…第2アーム、14…第3アーム、15…第4アーム、16…第5アーム、17…第6アーム、18…中継ケーブル、19…力検出部、20…エンドエフェクター、31…制御部、32…記憶部、33…通信部、41…制御部、42…記憶部、43…通信部、50…教示点指定部、51…制御部、52…投影部、53…検出部、54…記憶部、55…通信部、100…ロボットシステム、171…関節、172…関節、173…関節、174…関節、175…関節、176…関節、200…画像、300…画像、531…カメラ、CP…制御点、D1…モータードライバー、D2…モータードライバー、D3…モータードライバー、D4…モータードライバー、D5…モータードライバー、D6…モータードライバー、E1…エンコーダー、E2…エンコーダー、E3…エンコーダー、E4…エンコーダー、E5…エンコーダー、E6…エンコーダー、M1…モーター、M2…モーター、M3…モーター、M4…モーター、M5…モーター、M6…モーター、P1…作業開始位置、P2…作業終了位置、TCP…ツールセンターポイント、W…ワーク 1 ... Robot, 3 ... Control device, 4 ... Teaching device, 5 ... Projection device, 10 ... Robot arm, 11 ... Base, 12 ... 1st arm, 13 ... 2nd arm, 14 ... 3rd arm, 15 ... 4 arm, 16 ... 5th arm, 17 ... 6th arm, 18 ... relay cable, 19 ... force detection unit, 20 ... end effector, 31 ... control unit, 32 ... storage unit, 33 ... communication unit, 41 ... control unit , 42 ... storage unit, 43 ... communication unit, 50 ... teaching point designation unit, 51 ... control unit, 52 ... projection unit, 53 ... detection unit, 54 ... storage unit, 55 ... communication unit, 100 ... robot system, 171 ... Joints, 172 ... joints, 173 ... joints, 174 ... joints, 175 ... joints, 176 ... joints, 200 ... images, 300 ... images, 531 ... cameras, CP ... control points, D1 ... motor drivers, D2 ... motor drivers, D3 ... Motor driver, D4 ... Motor driver, D5 ... Motor driver, D6 ... Motor driver, E1 ... Encoder, E2 ... Encoder, E3 ... Encoder, E4 ... Encoder, E5 ... Encoder, E6 ... Encoder, M1 ... Motor, M2 ... Motor , M3 ... motor, M4 ... motor, M5 ... motor, M6 ... motor, P1 ... work start position, P2 ... work end position, TCP ... tool center point, W ... work

Claims (6)

ロボットアームを備えるロボットに対し、作業対象物に対する作業を行う際の前記ロボットアームの位置を特定する教示方法であって、
前記作業対象物上の、前記ロボットアームの制御点の位置を示す教示点指定部の位置を検出する検出ステップと、
前記検出ステップで検出した前記教示点指定部の位置に基づいて、前記制御点のロボット座標系における位置を算出する算出ステップと、
前記算出ステップで算出した前記制御点の位置を記憶する記憶ステップと、を有することを特徴とする教示方法。
It is a teaching method for a robot equipped with a robot arm to specify the position of the robot arm when performing work on a work object.
A detection step for detecting the position of a teaching point designation unit indicating the position of a control point of the robot arm on the work object, and a detection step.
A calculation step for calculating the position of the control point in the robot coordinate system based on the position of the teaching point designation unit detected in the detection step, and a calculation step.
A teaching method comprising: a storage step for storing the position of the control point calculated in the calculation step.
前記検出ステップでは、前記教示点指定部が移動した際、移動に沿って前記教示点指定部の位置を複数回検出し、
前記算出ステップでは、前記検出ステップで検出した複数の前記教示点指定部の位置に基づいて、前記制御点の前記ロボット座標系における複数の位置を算出する請求項1に記載の教示方法。
In the detection step, when the teaching point designation unit moves, the position of the teaching point designation portion is detected a plurality of times along the movement.
The teaching method according to claim 1, wherein in the calculation step, a plurality of positions of the control points in the robot coordinate system are calculated based on the positions of the plurality of teaching point designation units detected in the detection step.
前記検出ステップの前に、前記作業対象物に投影画像を投影する投影ステップを有する請求項1または2に記載の教示方法。 The teaching method according to claim 1 or 2, further comprising a projection step of projecting a projected image onto the work object prior to the detection step. 前記記憶ステップで記憶した前記制御点の位置に関する情報を表示する表示ステップを有する請求項3に記載の教示方法。 The teaching method according to claim 3, further comprising a display step for displaying information regarding the position of the control point stored in the storage step. 前記投影画像には前記制御点の軌跡が含まれる請求項3または4に記載の教示方法。 The teaching method according to claim 3 or 4, wherein the projected image includes a locus of the control point. ロボットアームを有するロボットと、
前記ロボットアームが作業対象物に対する作業を行う際の前記ロボットアームの位置および姿勢を特定する制御部と、を備え、
前記制御部は、前記作業対象物上の、前記ロボットアームの制御点の位置を示す教示点指定部の位置を検出し、検出した前記教示点指定部の位置に基づいて、前記制御点のロボット座標系における位置を算出し、算出した前記制御点の位置を記憶部に記憶することを特徴とするロボットシステム。
A robot with a robot arm and
A control unit for specifying the position and posture of the robot arm when the robot arm performs work on a work object is provided.
The control unit detects the position of the teaching point designation unit indicating the position of the control point of the robot arm on the work object, and the robot of the control point is based on the detected position of the teaching point designation unit. A robot system characterized in that a position in a coordinate system is calculated and the calculated position of the control point is stored in a storage unit.
JP2020134033A 2020-08-06 2020-08-06 Teaching method and robot system Pending JP2022030207A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020134033A JP2022030207A (en) 2020-08-06 2020-08-06 Teaching method and robot system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020134033A JP2022030207A (en) 2020-08-06 2020-08-06 Teaching method and robot system

Publications (1)

Publication Number Publication Date
JP2022030207A true JP2022030207A (en) 2022-02-18

Family

ID=80324876

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020134033A Pending JP2022030207A (en) 2020-08-06 2020-08-06 Teaching method and robot system

Country Status (1)

Country Link
JP (1) JP2022030207A (en)

Similar Documents

Publication Publication Date Title
CN110238831B (en) Robot teaching system and method based on RGB-D image and teaching device
CN105666505B (en) Robot system having display for augmented reality
JP4844453B2 (en) Robot teaching apparatus and teaching method
US8406923B2 (en) Apparatus for determining pickup pose of robot arm with camera
JP5526881B2 (en) Robot system
CN107639653A (en) control device, robot and robot system
US11173601B2 (en) Teaching device for performing robot teaching operations and teaching method
JP2020055075A (en) Robot control device using augmented reality and composite reality and display device
CN106003020A (en) Robot, robot control device, and robotic system
US11358286B2 (en) Robot system and method of operating the same
JP2018167334A (en) Teaching device and teaching method
JP2020196060A (en) Teaching method
US20220250237A1 (en) Teaching device, teaching method, and recording medium
CN114055460B (en) Teaching method and robot system
CN115338855A (en) Double-arm robot assembling system
JP2018001332A (en) Robot, control device, and robot system
WO2019180916A1 (en) Robot control device
JP2020019127A (en) Cooperative operation support device
JP2022030207A (en) Teaching method and robot system
JP2012066345A (en) Projection plane information presentation device and method
JP7401184B2 (en) robot system
US11759955B2 (en) Calibration method
JPH06250730A (en) Teaching device for industrial robot
US20230078238A1 (en) Teaching Method
WO2022181500A1 (en) Simulation device using three-dimensional position information obtained from output from vision sensor