JP6450960B2 - Robot, robot system and teaching method - Google Patents

Robot, robot system and teaching method Download PDF

Info

Publication number
JP6450960B2
JP6450960B2 JP2014057671A JP2014057671A JP6450960B2 JP 6450960 B2 JP6450960 B2 JP 6450960B2 JP 2014057671 A JP2014057671 A JP 2014057671A JP 2014057671 A JP2014057671 A JP 2014057671A JP 6450960 B2 JP6450960 B2 JP 6450960B2
Authority
JP
Japan
Prior art keywords
arm
robot
touch panel
panel monitor
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014057671A
Other languages
Japanese (ja)
Other versions
JP2015182142A (en
Inventor
優 ▲高▼橋
優 ▲高▼橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2014057671A priority Critical patent/JP6450960B2/en
Publication of JP2015182142A publication Critical patent/JP2015182142A/en
Application granted granted Critical
Publication of JP6450960B2 publication Critical patent/JP6450960B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/42Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine
    • G05B19/423Teaching successive positions by walk-through, i.e. the tool head or end effector being grasped and guided directly, with or without servo-assistance, to follow a path
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39427Panel on arm, hand of robot, controlled axis

Description

本発明は、ロボット、ロボットシステム及び教示方法に関する。   The present invention relates to a robot, a robot system, and a teaching method.

特許文献1には、ロボットの制御装置に接続されて教示データを入力するためのティーチングペンダントに、タッチパネル付き表示画面を配置し、そのタッチパネル付き表示画面に、教示対象ロボットのグラフィック画像を表示するとともに、その教示対象ロボットの動作を指示するための複数のタッチキーを表示し、タッチパネル付き表示画面を参照しながらタッチパネル付き表示画面上に表示された複数のタッチキーのうちの少なくとも1つを押圧操作もしくはタッチ操作することにより、ロボットに対する教示操作を行なうロボットの教示操作方法が開示されている。   In Patent Document 1, a display screen with a touch panel is arranged on a teaching pendant that is connected to a robot controller and inputs teaching data, and a graphic image of the teaching target robot is displayed on the display screen with a touch panel. , Displaying a plurality of touch keys for instructing the operation of the robot to be taught, and pressing at least one of the plurality of touch keys displayed on the display screen with the touch panel while referring to the display screen with the touch panel Alternatively, a robot teaching operation method for teaching a robot by performing a touch operation is disclosed.

特開平10−146782号公報Japanese Patent Laid-Open No. 10-146782

しかしながら、特許文献1に記載の発明では、教示者がロボットから離れた位置で教示を行うことになり、利便性が低いという問題がある。   However, in the invention described in Patent Document 1, there is a problem in that the instructor teaches at a position away from the robot, and the convenience is low.

そこで、本発明は、ロボットの近くで容易に教示を行うことができるロボット、ロボットシステム及び教示方法を提供することを目的とする。   SUMMARY An advantage of some aspects of the invention is that it provides a robot, a robot system, and a teaching method that can be easily taught near the robot.

上記課題を解決するための第一の態様は、ロボットであって、アームと、前記アームに設けられたタッチパネルモニターと、を備え、前記タッチパネルモニターを用いて前記アームのダイレクトティーチングを行うことを特徴とする。これにより、ロボットの近くで容易に教示を行うことができる。   A first aspect for solving the above problem is a robot, comprising an arm and a touch panel monitor provided on the arm, and performing direct teaching of the arm using the touch panel monitor. And Thereby, teaching can be easily performed near the robot.

ここで、前記ダイレクトティーチングは、前記アームを直接動作させ、当該動作を前記ロボットに記憶させる処理を含んでもよい。これにより、ロボットの近くで容易に教示を行うことができる。   Here, the direct teaching may include a process of directly operating the arm and storing the operation in the robot. Thereby, teaching can be easily performed near the robot.

上記課題を解決するための第二の態様は、ロボットであって、ロボット本体と、前記ロボット本体に設けられたアームと、前記アームに設けられたタッチパネルモニターと、前記アームの手先に加えられた外力に応じて前記アームの姿勢を変化させ、その後前記タッチパネルモニターへの入力を取得すると、当該変化させた後の前記アームの姿勢を教示情報として生成するダイレクトティーチングを行う制御部と、を備えたことを特徴とする。   A second aspect for solving the above problem is a robot, which is added to a robot body, an arm provided on the robot body, a touch panel monitor provided on the arm, and a hand of the arm. A control unit that performs direct teaching that changes the posture of the arm according to an external force and then generates the posture of the arm after the change as teaching information when an input to the touch panel monitor is acquired. It is characterized by that.

第二の態様によれば、アームの手先に加えられた外力に応じてアームの姿勢を変化させ、その後アームに設けられたタッチパネルモニターへの入力を取得すると、変化させた後の前記アームの姿勢を教示情報として生成する。これにより、ロボットの近くで容易に教示を行うことができる。   According to the second aspect, when the posture of the arm is changed according to the external force applied to the hand of the arm, and then the input to the touch panel monitor provided on the arm is acquired, the posture of the arm after the change is obtained. Is generated as teaching information. Thereby, teaching can be easily performed near the robot.

ここで、前記アームは、前記ロボット本体側から順にN個(Nは3以上)の関節を有し、前記タッチパネルモニターは、N−2番目の関節とN−1番目の関節との間に設けられてもよい。これにより、教示者が外力を加えるアームの手先に近い位置にタッチパネルモニターを設けることができる。したがって、教示がさらに容易になる。   Here, the arm has N joints (N is 3 or more) in order from the robot body side, and the touch panel monitor is provided between the N-2th joint and the N-1th joint. May be. Thereby, a touch panel monitor can be provided in the position near the hand of the arm which a teacher applies external force. Therefore, teaching becomes easier.

ここで、前記制御部は、前記アームの姿勢に応じて前記タッチパネルモニターの表示の向きを変更してもよい。これにより、教示者がタッチパネルモニターに表示された画面を確認しやすくなる。   Here, the control unit may change the display direction of the touch panel monitor according to the posture of the arm. This makes it easier for the teacher to check the screen displayed on the touch panel monitor.

ここで、前記タッチパネルモニターは、前記アームから取り外し可能に設けられてもよい。これにより、アームの姿勢によりアームに設けられたタッチパネルモニターが視認できない場合にも、タッチパネルモニターを使用することができる。   Here, the touch panel monitor may be provided so as to be removable from the arm. Thereby, even when the touch panel monitor provided on the arm cannot be visually recognized due to the posture of the arm, the touch panel monitor can be used.

ここで、前記アームに設けられた撮像部を備え、前記制御部は、前記撮像部が撮像した撮像画像を前記タッチパネルモニターに表示させ、その後前記タッチパネルモニターへの入力を取得すると、前記撮像部への撮像指示を前記教示情報として生成してもよい。これにより、撮像についての教示を行うことができる。   Here, an imaging unit provided in the arm is provided, and the control unit displays a captured image captured by the imaging unit on the touch panel monitor, and then acquires an input to the touch panel monitor. The imaging instruction may be generated as the teaching information. Thereby, teaching about imaging can be performed.

ここで、明るさの変更可能な照明を備え、前記制御部は、前記タッチパネルモニターへの入力を取得すると、前記撮像部への撮像指示に前記照明の明るさを含めて前記教示情報を生成してもよい。これにより、撮像された画像に含まれる対象物が認識可能な明るさで画像を撮像することができる。   Here, the lighting unit is provided with illumination that can be changed in brightness, and when the control unit acquires an input to the touch panel monitor, the control unit generates the teaching information including the brightness of the illumination in an imaging instruction to the imaging unit. May be. Thereby, it is possible to capture an image with brightness that allows recognition of an object included in the captured image.

ここで、力検出器を備え、前記制御部は、前記力検出器での検出結果を前記タッチパネルモニターに表示させ、その後前記タッチパネルモニターへの入力を取得すると、前記力検出器での検出結果を前記教示情報として生成してもよい。これにより、力制御についての教示を行うことができる。   Here, a force detector is provided, and the control unit displays the detection result of the force detector on the touch panel monitor, and when the input to the touch panel monitor is acquired, the detection result of the force detector is obtained. The teaching information may be generated. Thereby, teaching about force control can be performed.

ここで、把持部を備え、前記制御部は、前記タッチパネルモニターからの入力に基づいて前記把持部を移動させ、その後前記タッチパネルモニターへの入力を取得すると、前記把持部の移動後の姿勢を前記教示情報として生成してもよい。これにより、把持部の動作について教示を行うことができる。   Here, a gripping unit is provided, and the control unit moves the gripping unit based on an input from the touch panel monitor, and then acquires an input to the touch panel monitor, and then changes the posture of the gripping unit after the movement. It may be generated as teaching information. Thereby, it can teach about operation | movement of a holding part.

ここで、前記アームを複数備え、前記複数備えられたアームのそれぞれに前記タッチパネルモニターが設けられてもよい。これにより、複数のアームを備えたロボットについて、ロボットの近くで容易に教示を行うことができる。   Here, a plurality of the arms may be provided, and the touch panel monitor may be provided in each of the plurality of arms. Thereby, it is possible to easily teach a robot having a plurality of arms near the robot.

上記課題を解決するための第三の態様は、ロボットと、制御部とを備えたロボットシステムであって、前記ロボットは、ロボット本体と、前記ロボット本体に設けられたアームと、前記アームに設けられたタッチパネルモニターと、を備え、前記制御部は、前記アームの手先に加えられた外力に応じて前記アームの姿勢を変化させ、その後前記タッチパネルモニターへの入力を取得すると、当該変化させた後の前記アームの姿勢を教示情報として生成するダイレクトティーチングを行うことを特徴とする。これにより、ロボットの近くで容易に教示を行うことができる。   A third aspect for solving the above-described problem is a robot system including a robot and a control unit, wherein the robot is provided with a robot body, an arm provided in the robot body, and the arm. The touch panel monitor, and the control unit changes the posture of the arm according to an external force applied to the hand of the arm, and then acquires the input to the touch panel monitor, after the change Direct teaching for generating the posture of the arm as teaching information is performed. Thereby, teaching can be easily performed near the robot.

上記課題を解決するための第四の態様は、教示方法であって、ロボット本体に設けられたアームの手先に加えられた外力に応じて前記アームの姿勢を変化させるステップと、前記アームに設けられたタッチパネルモニターへの入力を取得するステップと、前記変化させた後の前記アームの姿勢を教示情報として生成するステップと、を含むことを特徴とする。これにより、ロボットの近くで容易に教示を行うことができる。   A fourth aspect for solving the above-described problem is a teaching method, the step of changing the posture of the arm according to an external force applied to the hand of the arm provided on the robot body, and the arm A step of acquiring an input to the touch panel monitor, and a step of generating the changed posture of the arm as teaching information. Thereby, teaching can be easily performed near the robot.

本発明の一実施形態におけるロボット1の正面斜視図である。It is a front perspective view of robot 1 in one embodiment of the present invention. ロボット1の背面斜視図である。2 is a rear perspective view of the robot 1. FIG. アーム11の詳細を示す図である。FIG. 3 is a diagram showing details of an arm 11. 制御部20の機能ブロックを示す図である。3 is a diagram illustrating functional blocks of a control unit 20. FIG. 制御部20の概略構成の一例を示すブロック図である。3 is a block diagram illustrating an example of a schematic configuration of a control unit 20. FIG. ダイレクトティーチング処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a direct teaching process. ダイレクトティーチング処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a direct teaching process. ダイレクトティーチング処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a direct teaching process. ダイレクトティーチング処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a direct teaching process. タッチパネルモニター17に表示される画面の一例である。4 is an example of a screen displayed on the touch panel monitor 17. タッチパネルモニター17に表示される画面の一例である。4 is an example of a screen displayed on the touch panel monitor 17. タッチパネルモニター17に表示される画面の一例である。4 is an example of a screen displayed on the touch panel monitor 17.

本発明の一実施形態について、図面を参照しながら説明する。   An embodiment of the present invention will be described with reference to the drawings.

図1は、本発明の一実施形態におけるロボット1の正面斜視図である。図2は、ロボット1の背面斜視図である。   FIG. 1 is a front perspective view of a robot 1 according to an embodiment of the present invention. FIG. 2 is a rear perspective view of the robot 1.

本実施形態におけるロボット1は、主として、ロボット本体10と、アーム11と、タッチパネルモニター12と、バンパー13と、搬送用ハンドル14と、電子カメラ15と、タッチパネルモニター17と、ハンドアイカメラ18と、照明19と、を備える。ロボット1は、人間型双腕ロボットであり、ロボット1の内部に設けられた制御部20(図4参照)からの制御信号に従い処理を行う。   The robot 1 in the present embodiment mainly includes a robot body 10, an arm 11, a touch panel monitor 12, a bumper 13, a transport handle 14, an electronic camera 15, a touch panel monitor 17, a hand eye camera 18, And an illumination 19. The robot 1 is a humanoid dual-arm robot, and performs processing according to a control signal from a control unit 20 (see FIG. 4) provided in the robot 1.

なお、以下では、説明の都合上、図1、図2中の上側を「上」または「上方」、下側を「下」または「下方」と言う。また、図1の手前側を「正面側」または「正面」といい、図2の手前側を「背面側」または「背面」という。   In the following, for convenience of explanation, the upper side in FIGS. 1 and 2 is referred to as “upper” or “upper”, and the lower side is referred to as “lower” or “lower”. Also, the front side in FIG. 1 is referred to as “front side” or “front side”, and the front side in FIG. 2 is referred to as “rear side” or “rear side”.

ロボット本体10は、主として、肩部10Aと、ロボット本体10Bとを備える。肩部10Aは、ロボット本体10Bに対して回動自在に設けられる。   The robot body 10 mainly includes a shoulder 10A and a robot body 10B. The shoulder 10A is provided so as to be rotatable with respect to the robot body 10B.

肩部10Aの両側面の上端近傍には、それぞれアーム11(いわゆるマニピュレーター)が設けられる。   Arms 11 (so-called manipulators) are provided in the vicinity of the upper ends of both side surfaces of the shoulder 10A.

アーム11は、複数のアーム部材がジョイント(図示せず)により連結されて構成される。アーム11については、後に詳述する。   The arm 11 is configured by connecting a plurality of arm members by joints (not shown). The arm 11 will be described in detail later.

ロボット本体10Bの背面(正面と反対側の面)側には、ロボット1の背面側から視認可能なモニターを有するタッチパネルモニター12が配置されている。タッチパネルモニター12は、搬送用ハンドル14に設けられる。   A touch panel monitor 12 having a monitor that is visible from the back side of the robot 1 is disposed on the back surface (the surface opposite to the front surface) of the robot body 10B. The touch panel monitor 12 is provided on the conveyance handle 14.

ロボット本体10Bの正面(ロボット1がアーム11で作業する際に、ロボットが作業を行う作業台と対向する側の面)には、取付部10Dを介して、作業台との水平方向の距離を一定に保つためのバンパー13が設けられる。   The front surface of the robot main body 10B (the surface on the side facing the work table on which the robot performs work when the robot 1 works with the arm 11) has a horizontal distance from the work table via the mounting portion 10D. A bumper 13 is provided to keep it constant.

肩部10Aから上に突出する、頭部に当たる部分には、CCD(Charge Coupled Device)、CMOS(Complementary Metal Oxide Semiconductor)等を有する電子カメラ15が設けられる。   An electronic camera 15 having a CCD (Charge Coupled Device), a CMOS (Complementary Metal Oxide Semiconductor), or the like is provided at a portion that protrudes upward from the shoulder portion 10A and corresponds to the head.

図3は、アーム11の詳細を示す図である。   FIG. 3 is a diagram showing details of the arm 11.

アーム11は、ロボット本体10側から順に、アーム部材11A、11B、11C、11D、11Eがジョイント(図示せず)により連結されて構成される。ジョイントには、それらを動作させるためのアクチュエーター11a(図4参照)が設けられる。   The arm 11 is configured by connecting arm members 11A, 11B, 11C, 11D, and 11E in order from the robot body 10 side through joints (not shown). The joint is provided with an actuator 11a (see FIG. 4) for operating them.

アーム11は7個の回動軸を有する7軸ロボットである。ロボット本体10側から順に、1番目の回動軸はJ1であり、2番目の回動軸はJ2であり、3番目の回動軸はJ3であり、4番目の回動軸はJ4であり、5番目の回動軸はJ5であり、6番目の回動軸はJ6であり、7番目の回動軸はJ7である。回動軸J1、J2、J3、J4、J5、J6、J7は、それぞれ、ジョイントに設けられたアクチュエーター11aの回転軸である。アーム部材11A、11B、11C、11D、11E及びハンド111は、回動軸J1、J2、J3、J4、J5、J6、J7回りに独立して回動可能に設けられる。   The arm 11 is a seven-axis robot having seven rotation axes. In order from the robot body 10 side, the first rotation axis is J1, the second rotation axis is J2, the third rotation axis is J3, and the fourth rotation axis is J4. The fifth rotation axis is J5, the sixth rotation axis is J6, and the seventh rotation axis is J7. The rotation axes J1, J2, J3, J4, J5, J6, and J7 are rotation axes of the actuator 11a provided on the joint. The arm members 11A, 11B, 11C, 11D, and 11E and the hand 111 are provided so as to be independently rotatable around the rotation axes J1, J2, J3, J4, J5, J6, and J7.

アクチュエーター11aは、例えば、サーボモーターやエンコーダーなどを備える。エンコーダーが出力するエンコーダー値は、制御部20によるロボット1のフィードバック制御に使用される。また、アクチュエーター11aには、回転軸を固定する電磁ブレーキが設けられる。   The actuator 11a includes, for example, a servo motor and an encoder. The encoder value output by the encoder is used for feedback control of the robot 1 by the control unit 20. The actuator 11a is provided with an electromagnetic brake that fixes the rotation shaft.

アーム部材11Eの先端(アーム11の手首部分に相当)には、図示しない力覚センサー16(図4参照)が設けられている。力覚センサー16は、ロボット1が出している力に対する反力として受けている力や、モーメントを検出するセンサーである。力覚センサー16として、例えば、並進3軸方向(x、y、z成分)の力成分と、回転3軸(u、v、w成分)回りのモーメント成分の6成分を同時に検出することができる6軸力覚センサーを用いることができる。力覚センサー16は、本発明の力検出器に相当する。なお、力覚センサー16は、6軸に限らず、例えば3軸でもよい。   A force sensor 16 (see FIG. 4) (not shown) is provided at the tip of the arm member 11E (corresponding to the wrist portion of the arm 11). The force sensor 16 is a sensor that detects a force or a moment received as a reaction force to the force generated by the robot 1. As the force sensor 16, for example, six components of force components in the three translational axis directions (x, y, z components) and moment components around the three rotation axes (u, v, w components) can be detected simultaneously. A 6-axis force sensor can be used. The force sensor 16 corresponds to a force detector of the present invention. The force sensor 16 is not limited to six axes, and may be, for example, three axes.

本実施の形態では、力覚センサー16が設けられた位置をアーム11のエンドポイントの位置とする。なお、力覚センサー16が設けられる位置はこれに限定されない。   In the present embodiment, the position where the force sensor 16 is provided is the position of the end point of the arm 11. The position where the force sensor 16 is provided is not limited to this.

アーム11の先端には、ワークや道具を把持するハンド111(いわゆるエンドエフェクター)が設けられる。ただし、エンドエフェクターはハンド111に限られない。   At the tip of the arm 11, a hand 111 (so-called end effector) that holds a work or a tool is provided. However, the end effector is not limited to the hand 111.

ハンド111は、4本のフィンガー111Aを有する。2本のフィンガー111Aは、対向して設けられる。図示しない駆動機構により、対向する2本のフィンガー111A同士を互いに接近させることにより、対向する2本のフィンガー111Aで部品等の対象物を挟持する。また、駆動機構によりこの挟持状態からフィンガー111A同士を互いに離間させることにより、対象物を解放する。   The hand 111 has four fingers 111A. The two fingers 111A are provided to face each other. An object such as a component is sandwiched between the two opposing fingers 111A by bringing the two opposing fingers 111A closer to each other by a drive mechanism (not shown). Further, the object is released by separating the fingers 111A from the sandwiched state by the driving mechanism.

また、ハンド111は、フィンガー111Aの移動方向と直交する方向に移動する当接部111Bを有する。2組の2本のフィンガー111Aの間で部品等の対象物を挟持し、当接部111Bを対象物に当接させることで、ハンド111により対象物が把持される。   The hand 111 has a contact portion 111B that moves in a direction orthogonal to the moving direction of the finger 111A. An object such as a part is sandwiched between two sets of two fingers 111A, and the object is gripped by the hand 111 by bringing the contact portion 111B into contact with the object.

アーム部材11Dには、タッチパネルモニター17が設けられる。タッチパネルモニター17は、ダイレクトティーチング(後に詳述)用のティーチングペンダントとして機能する。タッチパネルモニター17は、主として、画像を表示する表示部と、入力を受け付けるタッチパネルと、を有する。タッチパネルモニター17には、抵抗膜方式、電磁誘導方式、静電容量方式等の様々な方式のタッチパネルを使用することができるが、ワークの衝突等による誤作動を防止するため、静電容量方式のタッチパネルを使用することが望ましい。   A touch panel monitor 17 is provided on the arm member 11D. The touch panel monitor 17 functions as a teaching pendant for direct teaching (detailed later). The touch panel monitor 17 mainly includes a display unit that displays an image and a touch panel that receives input. Various types of touch panels such as a resistive film method, an electromagnetic induction method, and a capacitance method can be used for the touch panel monitor 17, but in order to prevent malfunction due to a collision of a workpiece, a capacitance type touch panel monitor 17 can be used. It is desirable to use a touch panel.

タッチパネルモニター17は、アーム11内部に設けられたコード(図示せず)により、ロボット1内部に設けられた制御部20(図4参照)に接続される。また、タッチパネルモニター17は、アーム部材11Dに対して取り外し可能に設けられる。タッチパネルモニター17をアーム部材11Dから取り外した場合に対応するため、タッチパネルモニター17と制御部20との間には、コードを巻き取り可能なコードリール等が設けられている。なお、タッチパネルモニター17と制御部20との間を無線(例えば、Wi−Fi)で接続してもよい。   The touch panel monitor 17 is connected to a control unit 20 (see FIG. 4) provided in the robot 1 by a cord (not shown) provided in the arm 11. The touch panel monitor 17 is provided so as to be removable from the arm member 11D. In order to cope with the case where the touch panel monitor 17 is detached from the arm member 11D, a cord reel or the like capable of winding a cord is provided between the touch panel monitor 17 and the control unit 20. Note that the touch panel monitor 17 and the control unit 20 may be connected wirelessly (for example, Wi-Fi).

なお、本実施の形態では、タッチパネルモニター17は、アーム部材11D(回転軸J5(N−2軸)と回動軸J6(N−1軸)との間、N=7)に設けられているが、タッチパネルモニター17が設けられるのはこの位置に限られない。例えば、アーム部材11B(回転軸J3と回動軸J4との間)にタッチパネルモニター17を設けてもよい。つまり、ロボット本体10にもっとも近い位置(アーム部材11A)以外の位置(例えば、回転軸J3〜J7(N−4〜N軸、N=7)の間)であれば、アーム11の任意の位置にタッチパネルモニター17を設けることができる。しかしながら、タッチパネルモニター17は、ダイレクトティーチングを容易にするため、できるだけアーム11の先端に近い位置に設けることが望ましい。特に、ダイレクトティーチングではエンドポイントの位置及び向きを教示者が指示するため、エンドポイントの位置及び向きや、ハンド111の回転方向の位置(回転軸J7の回転角)等を指示するときに最も視認しやすい位置であるアーム部材11Dに、タッチパネルモニター17を設けることが最も望ましい。また、アーム11の最も先端に近いアーム部材11E(回動軸J6と回動軸はJ7との間)にタッチパネルモニター17を設けることも望ましい。   In the present embodiment, the touch panel monitor 17 is provided on the arm member 11D (between the rotation axis J5 (N-2 axis) and the rotation axis J6 (N-1 axis), N = 7). However, the touch panel monitor 17 is not limited to this position. For example, the touch panel monitor 17 may be provided on the arm member 11B (between the rotation axis J3 and the rotation axis J4). In other words, any position of the arm 11 is a position other than the position closest to the robot body 10 (arm member 11A) (for example, between the rotation axes J3 to J7 (N-4 to N axis, N = 7)). A touch panel monitor 17 can be provided. However, the touch panel monitor 17 is desirably provided as close to the tip of the arm 11 as possible in order to facilitate direct teaching. In particular, in direct teaching, since the teacher indicates the position and orientation of the end point, the most visible when instructing the position and direction of the end point, the position in the rotation direction of the hand 111 (the rotation angle of the rotation axis J7), etc. It is most desirable to provide the touch panel monitor 17 on the arm member 11D that is easily positioned. It is also desirable to provide the touch panel monitor 17 on the arm member 11E closest to the tip of the arm 11 (the rotation axis J6 and the rotation axis are between J7).

アーム部材11Eには、作業台の上に載置されたワーク等を撮影するハンドアイカメラ18が設けられる。また、ハンドアイカメラ18に隣接して、ハンドアイカメラ18の撮像対象を照らす照明19が設けられる。照明19は、明るさの変更が可能である。ハンドアイカメラ18及び照明19は、一般的であるため説明を省略する。   The arm member 11E is provided with a hand eye camera 18 that photographs a workpiece or the like placed on the work table. In addition, an illumination 19 that illuminates an imaging target of the hand eye camera 18 is provided adjacent to the hand eye camera 18. The illumination 19 can be changed in brightness. Since the hand eye camera 18 and the illumination 19 are general, description is abbreviate | omitted.

なお、ロボット1に設けられるのはアーム11に限られない。例えば、複数のジョイントとリンクとにより構成され、ジョイントを動かすことで全体が動くマニピュレーターであれば、どのような形態でもよい。   The robot 1 is not limited to the arm 11. For example, any form may be used as long as the manipulator includes a plurality of joints and links and moves as a whole by moving the joints.

次に、ロボット1の機能構成例について説明する。図4は、制御部20の機能ブロック図を示している。制御部20は、主として、ダイレクトティーチング部200と、駆動制御部201と、表示制御部202と、全体制御部203とを備える。   Next, a functional configuration example of the robot 1 will be described. FIG. 4 shows a functional block diagram of the control unit 20. The control unit 20 mainly includes a direct teaching unit 200, a drive control unit 201, a display control unit 202, and an overall control unit 203.

ダイレクトティーチング部200は、いわゆるダイレクトティーチングを行う。ロボット1のダイレクトティーチングとは、教示者がロボット1の姿勢を変化させ、それに基づいて教示情報を生成するものである。   The direct teaching unit 200 performs so-called direct teaching. In the direct teaching of the robot 1, the teacher changes the posture of the robot 1 and generates teaching information based on the attitude.

具体的には、教示者がアーム部材11E等に直接触れてアーム11に外力を付与すると、ダイレクトティーチング部200は、この外力に基づいて、駆動制御部201を介してアーム11の姿勢を変える。その後、ダイレクトティーチング部200は、表示制御部202を介してタッチパネルモニター17への入力が行われたことを取得すると、その時のアーム11の姿勢を、ジョイントに設けられたアクチュエーター11aから検出する。そして、ダイレクトティーチング部200は、検出したアーム11の姿勢と、その検出された姿勢が指定された順序と関連付けられた教示情報を生成する。ダイレクトティーチング部200が行う処理については、後に詳述する。   Specifically, when the teacher directly touches the arm member 11E or the like to apply an external force to the arm 11, the direct teaching unit 200 changes the posture of the arm 11 via the drive control unit 201 based on the external force. Thereafter, when the direct teaching unit 200 acquires that the input to the touch panel monitor 17 is performed via the display control unit 202, the direct teaching unit 200 detects the posture of the arm 11 at that time from the actuator 11a provided in the joint. Then, the direct teaching unit 200 generates teaching information associated with the detected posture of the arm 11 and the order in which the detected posture is specified. The processing performed by the direct teaching unit 200 will be described in detail later.

駆動制御部201は、エンドポイントを目標位置に移動させると、ハンド111へ作業を行わせるための信号を出力する。この信号は、アンプ111bで増幅され、アクチュエーター111aに入力される。これにより、ハンド111を用いた作業を行うことができる。   When the end point is moved to the target position, the drive control unit 201 outputs a signal for causing the hand 111 to perform an operation. This signal is amplified by the amplifier 111b and input to the actuator 111a. Thereby, work using the hand 111 can be performed.

また、駆動制御部201は、アクチュエーターのエンコーダー値、力覚センサーのセンサー値等に基づいて、アーム11を駆動するための信号を出力する。この信号は、アンプ11bで増幅され、アクチュエーター11aに入力される。これにより、アーム11が制御される。駆動制御部201が行う処理は一般的であるため、説明を省略する。   The drive control unit 201 outputs a signal for driving the arm 11 based on the encoder value of the actuator, the sensor value of the force sensor, and the like. This signal is amplified by the amplifier 11b and input to the actuator 11a. Thereby, the arm 11 is controlled. Since the process performed by the drive control unit 201 is general, the description thereof is omitted.

表示制御部202は、表示部に表示する各種表示画面の表示状態を制御する。また、表示制御部202は、表示部に重ねて設けられたタッチパネルへの入力(例えば、押圧)を検出する。そして、表示制御部202は、タッチパネル上の押圧された位置と、表示部における表示画面とに基づいて、表示部に表示されたボタンのうちのどのボタンへの入力が行われたかを検出する。表示制御部202は、検出結果をダイレクトティーチング部200に出力する。   The display control unit 202 controls the display state of various display screens displayed on the display unit. In addition, the display control unit 202 detects an input (for example, pressing) to a touch panel provided on the display unit. Then, the display control unit 202 detects which of the buttons displayed on the display unit is input based on the pressed position on the touch panel and the display screen on the display unit. The display control unit 202 outputs the detection result to the direct teaching unit 200.

また、表示制御部202は、ダイレクトティーチング部200によりダイレクトティーチングが行われているときは、アーム11の姿勢に応じて、表示部へ表示する画像の向きを変更する。例えば、アーム11がエンドポイントを下方に向けている場合には、表示制御部202は、辺17X(図3参照)が上側となるように表示部に画像を表示させる。また、例えば、アーム11がエンドポイントを前方に向けている場合(図3に示す姿勢)には、表示制御部202は、辺17Y(図3参照)が上側となるように表示部に画像を表示させる。   Further, when direct teaching is performed by the direct teaching unit 200, the display control unit 202 changes the orientation of the image displayed on the display unit according to the posture of the arm 11. For example, when the arm 11 points the end point downward, the display control unit 202 causes the display unit to display an image so that the side 17X (see FIG. 3) is on the upper side. For example, when the arm 11 has the end point facing forward (the posture shown in FIG. 3), the display control unit 202 displays an image on the display unit so that the side 17Y (see FIG. 3) is on the upper side. Display.

全体制御部203は、制御部20の全体を制御する処理を行う。   The overall control unit 203 performs processing for controlling the entire control unit 20.

図5は、制御部20の概略構成の一例を示すブロック図である。図示するように、例えばコンピューターなどで構成される制御部20は、演算装置であるCPU(Central Processing Unit)21と、揮発性の記憶装置であるRAM(Random Access Memory)や不揮発性の記憶装置であるROM(Read only Memory)からなるメモリー22と、外部記憶装置23と、ロボット1等の外部の装置と通信を行う通信装置24と、タッチパネルモニター等の入力装置を接続する入力装置インターフェイス(I/F)25と、タッチパネルモニター等の出力装置を接続する出力装置I/F26と、制御部20と他のユニットを接続するI/F27と、を備える。   FIG. 5 is a block diagram illustrating an example of a schematic configuration of the control unit 20. As shown in the figure, the control unit 20 configured by, for example, a computer includes a CPU (Central Processing Unit) 21 that is an arithmetic device, a RAM (Random Access Memory) that is a volatile storage device, and a nonvolatile storage device. An input device interface (I / I) for connecting a memory 22 composed of a certain ROM (Read only Memory), an external storage device 23, a communication device 24 for communicating with an external device such as the robot 1, and an input device such as a touch panel monitor. F) 25, an output device I / F 26 for connecting an output device such as a touch panel monitor, and an I / F 27 for connecting the control unit 20 and other units.

上記の各機能部は、例えば、CPU21が所定のプログラムをメモリー22に読み出して実行することにより実現される。なお、所定のプログラムは、例えば、予めメモリー22にインストールされてもよいし、通信装置24を介してネットワークからダウンロードされてインストール又は更新されてもよい。   Each functional unit described above is realized, for example, by the CPU 21 reading a predetermined program into the memory 22 and executing it. The predetermined program may be installed in the memory 22 in advance, or may be downloaded from the network via the communication device 24 and installed or updated.

以上のロボット1の構成は、本実施形態の特徴を説明するにあたって主要構成を説明したのであって、上記の構成に限られない。例えば、制御部20は、ロボット1の外部にあってもよい。また、一般的なロボットシステムが備える構成を排除するものではない。   The configuration of the robot 1 described above is not limited to the above-described configuration because the main configuration has been described in describing the features of the present embodiment. For example, the control unit 20 may be outside the robot 1. Further, the configuration of a general robot system is not excluded.

次に、本実施形態における、上記構成からなるロボット1の特徴的な処理について説明する。図6、7は、ダイレクトティーチング処理の流れを示すフローチャートである。図10〜12は、タッチパネルモニター17に表示される画面の一例である。当該処理は、ロボット本体10に設けたモード切り替えスイッチ(図示せず)を介して、教示者により、ロボット1が教示モードに設定されることにより行われる。   Next, a characteristic process of the robot 1 having the above configuration in the present embodiment will be described. 6 and 7 are flowcharts showing the flow of the direct teaching process. 10 to 12 are examples of screens displayed on the touch panel monitor 17. This processing is performed by the teacher setting the robot 1 to the teaching mode via a mode change switch (not shown) provided in the robot body 10.

教示者がタッチパネルモニター17へ触れると、表示制御部202は、タッチパネルモニター17への入力を検出し、図10(A)に示すようなメニュー画面17Aをタッチパネルモニター17に表示させる(ステップS100)。本実施の形態では、メニュー画面17Aには、新規ボタン17aと、編集ボタン17bとが表示されている。   When the teacher touches the touch panel monitor 17, the display control unit 202 detects an input to the touch panel monitor 17, and displays a menu screen 17A as shown in FIG. 10A on the touch panel monitor 17 (step S100). In the present embodiment, a new button 17a and an edit button 17b are displayed on the menu screen 17A.

次に、表示制御部202は、教示者がタッチパネルモニター17における新規ボタン17aへの入力が行われたか、編集ボタン17bへの入力が行われたかを判断する(ステップS102)。表示制御部202により判断結果がダイレクトティーチング部200に出力されると、ダイレクトティーチング部200はこれを取得する。   Next, the display control unit 202 determines whether the teacher has made an input to the new button 17a on the touch panel monitor 17 or an input to the edit button 17b (step S102). When the display control unit 202 outputs a determination result to the direct teaching unit 200, the direct teaching unit 200 acquires this.

新規ボタン17aへの入力が行われたことが取得された場合(ステップS102で「新規」)には、ダイレクトティーチング部200は、ダイレクトティーチングを開始する(ステップS104)。具体的には、ダイレクトティーチング部200は、駆動制御部201を介して、アーム11の各関節軸(回動軸J1〜J7)の保持用ブレーキを解除する。すると、各関節軸のアクチュエーター11aがONになり、アーム11が現在の姿勢で保持される。それと共に、ダイレクトティーチング部200は、表示制御部202を介して、図10(B)に示すような作業画面17Bをタッチパネルモニター17に表示させる。   When it is acquired that the input to the new button 17a has been performed (“new” in step S102), the direct teaching unit 200 starts direct teaching (step S104). Specifically, the direct teaching unit 200 releases brakes for holding the joint shafts (rotating shafts J1 to J7) of the arm 11 via the drive control unit 201. Then, the actuator 11a of each joint axis is turned on, and the arm 11 is held in the current posture. At the same time, the direct teaching unit 200 displays a work screen 17B as shown in FIG. 10B on the touch panel monitor 17 via the display control unit 202.

作業画面17Bには、位置の記憶を指示する位置記憶ボタン17cと、ハンド111への教示を入力するハンド教示ボタン17dと、力覚センサーの検出値の表示を指示する力覚表示ボタン17eと、ハンドアイカメラ18を起動させるHカメラ(ハンドアイカメラ)起動ボタン17fとが表示される。   The work screen 17B includes a position storage button 17c for instructing storage of a position, a hand teaching button 17d for inputting teaching to the hand 111, a force sense display button 17e for instructing display of a detection value of a force sensor, An H camera (hand eye camera) activation button 17f for activating the hand eye camera 18 is displayed.

次に、ダイレクトティーチング部200は、教示者によりアーム11が移動されたか、すなわちアーム11に外力が加えられたか否かを判断する(ステップS106)。ダイレクトティーチング部200は、アーム11に外力が加えられたか否かを、力覚センサー16における検出結果や、アクチュエーター11aの回転軸の回転の有無等に基づいて判定できる。   Next, the direct teaching unit 200 determines whether the arm 11 has been moved by the teacher, that is, whether an external force has been applied to the arm 11 (step S106). The direct teaching unit 200 can determine whether or not an external force has been applied to the arm 11 based on the detection result of the force sensor 16, the presence or absence of rotation of the rotation shaft of the actuator 11a, and the like.

外力が加えられていないと判断された(ステップS106でNO)場合については、後に詳述する。   The case where it is determined that no external force is applied (NO in step S106) will be described in detail later.

外力が加えられたと判断された(ステップS106でYES)場合には、ダイレクトティーチング部200は、駆動制御部201を介して、外力に応じてアーム11の姿勢を変化させる(ステップS108)。具体的には、ダイレクトティーチング部200は、駆動制御部201を解して、力覚センサーに加えられるXYZ成分の力、UVW成分のモーメントを検出し、それを各回動軸J1〜J7のエンコーダー情報に変換し、各回動軸J1〜J7のアクチュエーター11aを動かす。なお、教示モードに設定されている場合は、駆動制御部201は、アーム11を、安全と思われる(例えば、教示者にアームが当たったとしても教示者が怪我しない)最大スピード(最大スピードは、任意に設定可能である)以下の速度で移動させる。これにより、力を受けた方向に向けてアーム11が移動される。   If it is determined that an external force is applied (YES in step S106), the direct teaching unit 200 changes the posture of the arm 11 according to the external force via the drive control unit 201 (step S108). Specifically, the direct teaching unit 200 detects the force of the XYZ component and the moment of the UVW component applied to the force sensor through the drive control unit 201, and uses this to detect the encoder information of each of the rotation axes J1 to J7. And the actuator 11a of each of the rotation axes J1 to J7 is moved. When the teaching mode is set, the drive control unit 201 considers the arm 11 to be safe (for example, the instructor does not get hurt even if the arm hits the instructor). It can be set arbitrarily) and move at the following speed. Thereby, the arm 11 is moved toward the direction of receiving the force.

駆動制御部201によりアーム11が移動されると、表示制御部202は、作業画面17Bに表示された位置記憶ボタン17c(図10(B)参照)への入力が行われたか否かを判断し、ダイレクトティーチング部200は、この結果を取得する(ステップS110)。   When the arm 11 is moved by the drive control unit 201, the display control unit 202 determines whether or not an input to the position storage button 17c (see FIG. 10B) displayed on the work screen 17B has been performed. The direct teaching unit 200 acquires this result (step S110).

位置記憶ボタン17cへの入力が行われなかったことが検出された場合(ステップS110でNO)には、ダイレクトティーチング部200は、ステップS108に処理を戻す。   If it is detected that an input to the position storage button 17c has not been made (NO in step S110), the direct teaching unit 200 returns the process to step S108.

位置記憶ボタン17cへの入力が行われたことが検出された場合(ステップS110でYES)には、駆動制御部201は、現在のアーム11の姿勢を検出する(ステップS112)。   When it is detected that the input to the position storage button 17c has been performed (YES in step S110), the drive control unit 201 detects the current posture of the arm 11 (step S112).

そして、ダイレクトティーチング部200は、ステップS110で検出したアーム11の姿勢と、順番とを関連付けた教示情報を生成し、これをメモリー22等に記憶する(ステップS114)。ここで、順番とは、教示情報に記憶された作業の順番である。例えば、教示情報が生成されていない場合には、ダイレクトティーチング部200は、ステップS110で検出されたアーム11の姿勢を、順番1と関連付けた教示情報を生成する。また、例えば、教示情報に順番2までの情報が記憶されている場合には、ダイレクトティーチング部200は、ステップS112で検出されたアーム11の姿勢を、順番3と関連付けた教示情報を生成し、これを現在の教示情報に追加する。なお、本実施の形態では、最初に教示情報を生成した場合のみでなく、新たに生成した教示情報を現在の教示情報に追加した場合も、教示情報の生成と定義する。   The direct teaching unit 200 generates teaching information in which the posture of the arm 11 detected in step S110 is associated with the order, and stores the teaching information in the memory 22 or the like (step S114). Here, the order is the order of work stored in the teaching information. For example, if teaching information has not been generated, the direct teaching unit 200 generates teaching information in which the posture of the arm 11 detected in step S110 is associated with order 1. For example, when information up to order 2 is stored in the teaching information, the direct teaching unit 200 generates teaching information in which the posture of the arm 11 detected in step S112 is associated with order 3. This is added to the current teaching information. In the present embodiment, the generation of teaching information is defined not only when teaching information is first generated, but also when newly generated teaching information is added to the current teaching information.

ダイレクトティーチング部200は、生成した教示情報を、メモリー22等に記憶させる。   The direct teaching unit 200 stores the generated teaching information in the memory 22 or the like.

編集ボタン17bへの入力が行われたことが取得された場合(ステップS102で「編集」)には、ダイレクトティーチング部200は、生成された教示情報を編集するために、表示制御部202を介して教示情報をタッチパネルモニター17に表示させる(ステップS116)。教示情報の表示及び編集処理については、図示及び詳細な説明を省略する。   When it is acquired that the input to the edit button 17b has been performed ("edit" in step S102), the direct teaching unit 200 passes the display control unit 202 in order to edit the generated teaching information. The teaching information is displayed on the touch panel monitor 17 (step S116). The illustration and detailed description of the teaching information display and editing process are omitted.

ステップS114又はステップS116の処理が終了したら、全体制御部203は、タッチパネルモニター17を介してダイレクトティーチングの終了指示が入力されたか否かを判断する(ステップS118)。   When the process of step S114 or step S116 ends, the overall control unit 203 determines whether or not a direct teaching end instruction is input via the touch panel monitor 17 (step S118).

ダイレクトティーチングの終了指示が入力されていない場合(ステップS118でNO)は、全体制御部203は、ステップS106へ処理を戻す。ダイレクトティーチングの終了指示が入力された場合(ステップS118でYES)は、全体制御部203は、処理を終了する。   If the direct teaching end instruction has not been input (NO in step S118), overall control unit 203 returns the process to step S106. If an instruction to end direct teaching is input (YES in step S118), overall control unit 203 ends the process.

次に、外力が加えられなかったと判断された場合(ステップS106でNO)について、まず、図7のフローチャートを用いて説明する。   Next, the case where it is determined that no external force has been applied (NO in step S106) will be described first with reference to the flowchart of FIG.

ダイレクトティーチング部200は、ハンド111の教示を行うか否かを判断する(ステップS120)。具体的には、表示制御部202を介して、図10(B)に表示されたハンド教示ボタン17dへの入力が行われたことを取得した場合には、ダイレクトティーチング部200は、ハンド111の教示を行うと判断する。   The direct teaching unit 200 determines whether to teach the hand 111 (step S120). Specifically, when the input to the hand teaching button 17d displayed in FIG. 10B is acquired via the display control unit 202, the direct teaching unit 200 moves the hand 111. Judge to teach.

ハンド111の教示を行う場合(ステップS120でYES)には、ダイレクトティーチング部200は、表示制御部202を介して、図11(A)に示すハンド教示画面17Dをタッチパネルモニター17に表示させる(ステップS122)。本実施の形態では、ハンド111は、2組のフィンガー111Aと、当接部111Bとの3自由度を有する。したがって、ハンド教示画面17Dには、2組のフィンガー111Aに対する指示を入力する「把持1」、「把持2」と、当接部111Bに対する指示を入力する「掌」の3組のボタン17kが表示される。   When teaching the hand 111 (YES in step S120), the direct teaching unit 200 displays the hand teaching screen 17D shown in FIG. 11A on the touch panel monitor 17 via the display control unit 202 (step S120). S122). In the present embodiment, the hand 111 has three degrees of freedom of the two pairs of fingers 111A and the contact portion 111B. Accordingly, the hand teaching screen 17D displays three sets of buttons 17k, “gripping 1” and “gripping 2” for inputting instructions for the two pairs of fingers 111A, and “palm” for inputting instructions for the contact portion 111B. Is done.

例えば、駆動制御部201は、「把持1」、「把持2」、「掌」の各ボタン17kが押下されている間、ハンド111の押下されたボタンに対応する部位(フィンガー111A又は当接部111B)を移動させる(ステップS124)。なお、駆動制御部201は、「把持1」、「把持2」、「掌」の各ボタン17kが一度押下される毎に、ハンド111の押下されたボタンに対応する部位(フィンガー111A又は当接部111B)を一定量だけ移動させてもよい。   For example, the drive control unit 201 may select a portion (finger 111A or contact portion) corresponding to the pressed button of the hand 111 while the “gripping 1”, “gripping 2”, and “palm” buttons 17k are pressed. 111B) is moved (step S124). Each time the “gripping 1”, “gripping 2”, and “palm” buttons 17k are pressed once, the drive control unit 201 moves the portion corresponding to the pressed button of the hand 111 (finger 111A or abutment). Part 111B) may be moved by a certain amount.

なお、本実施の形態では、ステップS124において駆動制御部201によりハンド111を移動させたが、ステップS108と同様に、フィンガー111A間の幅や当接部111Bの高さ等を、外力に応じて動かすようにしてもよい。   In this embodiment, the hand 111 is moved by the drive control unit 201 in step S124. However, as in step S108, the width between the fingers 111A, the height of the contact portion 111B, and the like are determined according to the external force. It may be moved.

また、本実施の形態では、2組のフィンガー111Aと、当接部111Bとの3自由度を有するハンド111を採用しているが、1自由度(1組のフィンガー111A)を有するハンドを採用することができる。図11(B)は、1自由度を有するハンドを採用する場合のハンド教示画面17D’の一例である。ハンド教示画面17D’は、1自由度を有するハンドの場合に対応するため、ハンド教示画面17D’においては、ボタン17k’は「把持」のみである。   Further, in this embodiment, the hand 111 having three degrees of freedom of the two pairs of fingers 111A and the contact portion 111B is adopted, but a hand having one degree of freedom (one pair of fingers 111A) is adopted. can do. FIG. 11B is an example of a hand teaching screen 17D ′ when a hand having one degree of freedom is employed. Since the hand teaching screen 17D 'corresponds to the case of a hand having one degree of freedom, the button 17k' is only "gripping" on the hand teaching screen 17D '.

駆動制御部201によりハンド111が移動されると、ダイレクトティーチング部200は、表示制御部202を介して、ハンド教示画面17Dにおける記憶ボタン17iへの入力が行われたか否かの判断結果を取得する(ステップS126)。   When the hand 111 is moved by the drive control unit 201, the direct teaching unit 200 acquires a determination result as to whether or not an input to the storage button 17i on the hand teaching screen 17D has been performed via the display control unit 202. (Step S126).

記憶ボタン17iへの入力が行われなかったことが検出された場合(ステップS126でNO)には、ダイレクトティーチング部200は、表示制御部202を介して、戻るボタン17jへの入力が行われたか否かの判断結果を取得する(ステップS128)。戻るボタン17jへの入力が行われたことが取得された場合(ステップS128でYES)には、ダイレクトティーチング部200は、ステップS106(図6参照)に処理を戻す。戻るボタン17jへの入力が行われなかったことが取得された場合(ステップS128でNO)には、ダイレクトティーチング部200は、ステップS124に処理を戻す。   If it is detected that the input to the storage button 17i has not been made (NO in step S126), the direct teaching unit 200 has made an input to the return button 17j via the display control unit 202. A determination result of whether or not is acquired (step S128). If it is acquired that the input to the return button 17j has been performed (YES in step S128), the direct teaching unit 200 returns the process to step S106 (see FIG. 6). If it is acquired that the input to the return button 17j has not been made (NO in step S128), the direct teaching unit 200 returns the process to step S124.

記憶ボタン17iへの入力が行われたことが検出された場合(ステップS126でYES)には、駆動制御部201は、現在のハンド111の姿勢、すなわちフィンガー111A及び当接部111Bの位置を検出する(ステップS130)。   If it is detected that the input to the memory button 17i has been performed (YES in step S126), the drive control unit 201 detects the current posture of the hand 111, that is, the positions of the finger 111A and the contact portion 111B. (Step S130).

そして、ダイレクトティーチング部200は、ステップS130で検出されたハンド111の姿勢と、順番とを関連付けた教示情報を生成し、これをメモリー22等に記憶する(ステップS132)。これにより、把持部の動作を教示することができる。その後、全体制御部203は、ステップS118へ処理を戻す。   Then, the direct teaching unit 200 generates teaching information in which the posture of the hand 111 detected in step S130 is associated with the order, and stores the teaching information in the memory 22 or the like (step S132). Thereby, operation | movement of a holding part can be taught. Thereafter, the overall control unit 203 returns the process to step S118.

次に、ハンド111の教示を行わない場合(ステップS120でNO)について、図8を用いて説明する。   Next, a case where the hand 111 is not taught (NO in step S120) will be described with reference to FIG.

ハンド111の教示を行わない場合(ステップS120でNO)には、ダイレクトティーチング部200は、力覚表示画面17Cの表示指示が入力されたかを判断する(ステップS140)。具体的には、ダイレクトティーチング部200は、表示制御部202を介して、図10(B)に表示された力覚表示ボタン17eへの入力が行われたか否かを判断する。   If teaching of the hand 111 is not performed (NO in step S120), the direct teaching unit 200 determines whether a display instruction for the force sense display screen 17C has been input (step S140). Specifically, the direct teaching unit 200 determines whether or not an input to the force sense display button 17e displayed in FIG. 10B is performed via the display control unit 202.

力覚表示画面17Cの表示指示が入力された場合(ステップS140でYES)には、ダイレクトティーチング部200は、表示制御部202を介して、図10(C)に示す力覚表示画面17Cをタッチパネルモニター17に表示させる(ステップS142)。   When an instruction to display the haptic display screen 17C is input (YES in step S140), the direct teaching unit 200 touches the haptic display screen 17C shown in FIG. It is displayed on the monitor 17 (step S142).

力覚表示画面17Cでは、力覚センサー16でのx、y、z方向の検出結果17g及びu、v、w方向の検出結果17hがそれぞれ表示される。教示者がハンド111等を対象物に押し付けたり、ハンド111を回転させたりすると、力覚センサー16がこれを検出する。ダイレクトティーチング部200は検出結果を取得し、表示制御部202を介して検出結果を力覚表示画面17Cに表示させる。   On the force display screen 17C, the detection result 17g in the x, y, and z directions and the detection result 17h in the u, v, and w directions by the force sensor 16 are displayed. When the teacher presses the hand 111 or the like against the object or rotates the hand 111, the force sensor 16 detects this. The direct teaching unit 200 acquires the detection result, and displays the detection result on the force sense display screen 17 </ b> C via the display control unit 202.

ダイレクトティーチング部200は、表示制御部202を介して、力覚表示画面17Cにおける記憶ボタン17iへの入力が行われたか否かの判断結果を取得する(ステップS144)。   The direct teaching unit 200 acquires a determination result as to whether or not an input to the storage button 17i on the force sense display screen 17C has been performed via the display control unit 202 (step S144).

記憶ボタン17iへの入力が行われなかったことが検出された場合(ステップS144でNO)には、ダイレクトティーチング部200は、表示制御部202を介して、戻るボタン17jへの入力が行われたか否かの判断結果を取得する(ステップS146)。戻るボタン17jへの入力が行われたことが取得された場合(ステップS146でYES)には、ダイレクトティーチング部200は、ステップS106(図6参照)に処理を戻す。戻るボタン17jへの入力が行われなかったことが取得された場合(ステップS146でNO)には、ダイレクトティーチング部200は、ステップS142に処理を戻す。   If it is detected that the input to the storage button 17i has not been performed (NO in step S144), the direct teaching unit 200 has performed the input to the return button 17j via the display control unit 202. A determination result of whether or not is acquired (step S146). If it is acquired that the input to the return button 17j has been performed (YES in step S146), the direct teaching unit 200 returns the process to step S106 (see FIG. 6). If it is acquired that the input to the return button 17j has not been made (NO in step S146), the direct teaching unit 200 returns the process to step S142.

記憶ボタン17iへの入力が行われたことが検出された場合(ステップS144でYES)には、ダイレクトティーチング部200は、力覚センサー16で検出された力覚の値と、順番とを関連付けた教示情報を生成し、これをメモリー22等に記憶する(ステップS148)。これにより、力制御についての教示を行うことができる。その後、全体制御部203は、ステップS118へ処理を戻す。   When it is detected that the input to the memory button 17i has been performed (YES in step S144), the direct teaching unit 200 associates the force value detected by the force sensor 16 with the order. Teaching information is generated and stored in the memory 22 or the like (step S148). Thereby, teaching about force control can be performed. Thereafter, the overall control unit 203 returns the process to step S118.

次に、力覚表示画面17Cの表示指示が入力されなかった場合(ステップS140でNO)について、図9を用いて説明する。   Next, a case where a display instruction for the force sense display screen 17C is not input (NO in step S140) will be described with reference to FIG.

力覚表示画面17Cの表示指示が入力が入力されなかった場合(ステップS140でNO)には、ダイレクトティーチング部200は、ハンドアイカメラ18の起動指示が入力されたか否かを判断する(ステップS150)。具体的には、ダイレクトティーチング部200は、表示制御部202を介して、作業画面17BのHカメラ起動ボタン17fへの入力が行われたか否かの判断結果を取得する。   If no input is input for the display instruction on the force sense display screen 17C (NO in step S140), the direct teaching unit 200 determines whether an activation instruction for the hand-eye camera 18 is input (step S150). ). Specifically, the direct teaching unit 200 acquires a determination result as to whether or not an input to the H camera activation button 17f on the work screen 17B has been performed via the display control unit 202.

Hカメラ起動ボタン17fへの入力が行われなかったことが取得された場合(ステップS150でNO)場合には、全体制御部203は、ステップS106(図6参照)へ処理を戻す。   When it is acquired that the input to the H camera activation button 17f has not been performed (NO in step S150), the overall control unit 203 returns the process to step S106 (see FIG. 6).

Hカメラ起動ボタン17fへの入力が行われたことが取得された場合(ステップS150でYES)には、ダイレクトティーチング部200は、ハンドアイカメラ18で撮像した画像を取得し、表示制御部202は、この画像をタッチパネルモニター17に表示させる(ステップS152)。   When it is acquired that the input to the H camera activation button 17f has been performed (YES in step S150), the direct teaching unit 200 acquires an image captured by the hand eye camera 18, and the display control unit 202 The image is displayed on the touch panel monitor 17 (step S152).

図12(A)は、ハンドアイカメラ18で撮像した画像がタッチパネルモニター17に表示された画像表示画面17Eの一例である。画像表示画面17Eには、ハンドアイカメラ18で撮像した画像Pが表示される。また、画像表示画面17Eには、画像Pに重ねて、照明19の明るさのオン、オフや明るさの変更を行うための照明調整ボタン群17lと、対象物認識を指示する認識ボタン17mと、処理を戻す戻るボタン17nとが表示される。   FIG. 12A is an example of an image display screen 17 </ b> E in which an image captured by the hand eye camera 18 is displayed on the touch panel monitor 17. The image P captured by the hand eye camera 18 is displayed on the image display screen 17E. Further, on the image display screen 17E, an illumination adjustment button group 17l for turning on / off the brightness of the illumination 19 and changing the brightness, and a recognition button 17m for instructing object recognition are superimposed on the image P. A return button 17n for returning the processing is displayed.

ダイレクトティーチング部200は、表示制御部202を介して、画像表示画面17Eの認識ボタン17mへの入力が行われたか否かの判断結果を取得する(ステップS154)。   The direct teaching unit 200 acquires a determination result as to whether or not an input to the recognition button 17m on the image display screen 17E has been performed via the display control unit 202 (step S154).

認識ボタン17mへの入力が行われなかったことが検出された場合(ステップS154でNO)は、ダイレクトティーチング部200は、表示制御部202を介して戻るボタン17nへの入力が行われたか否かの判断結果を取得する(ステップS155)。戻るボタン17nへの入力が行われたことが検出された場合(ステップS155でYES)は、ダイレクトティーチング部200は、ステップS106(図6参照)へ処理を戻す。戻るボタン17nへの入力が行われなかったことが検出された場合(ステップS155でNO)は、ダイレクトティーチング部200は、ステップS152へ処理を戻す。   If it is detected that the input to the recognition button 17m has not been performed (NO in step S154), the direct teaching unit 200 determines whether or not the input to the return button 17n has been performed via the display control unit 202. Is obtained (step S155). If it is detected that the input to the return button 17n has been performed (YES in step S155), the direct teaching unit 200 returns the process to step S106 (see FIG. 6). If it is detected that the input to the return button 17n has not been made (NO in step S155), the direct teaching unit 200 returns the process to step S152.

認識ボタン17mへの入力が行われたことが検出された場合(ステップS154でYES)は、ダイレクトティーチング部200は、ハンドアイカメラ18で撮像した画像から対象物が認識できたか否かを判断する(ステップS156)。本実施の形態では、ダイレクトティーチング部200は、予めメモリー22等に登録してある対象物の3次元データと、ハンドアイカメラ18で撮像した画像とを照合することで、ハンドアイカメラ18で撮像した画像から対象物を認識する。画像から対象物を認識する技術は一般的であるため、説明を省略する。   When it is detected that the input to the recognition button 17m has been performed (YES in step S154), the direct teaching unit 200 determines whether or not the object can be recognized from the image captured by the hand eye camera 18. (Step S156). In the present embodiment, the direct teaching unit 200 compares the three-dimensional data of the object registered in advance in the memory 22 and the image captured by the hand eye camera 18, thereby capturing an image using the hand eye camera 18. The object is recognized from the captured image. Since a technique for recognizing an object from an image is common, a description thereof is omitted.

ハンドアイカメラ18で撮像した画像から対象物が認識できた場合(ステップS156でYES)には、表示制御部202は、図12(B)に示すように、画像表示画面17Eに表示された画像Pのうちの、対象物の位置をハイライト表示する(ステップS158)。図12(B)においては、ハイライト表示の部分にハッチングが施されている。   When the object can be recognized from the image captured by the hand-eye camera 18 (YES in step S156), the display control unit 202 displays the image displayed on the image display screen 17E as shown in FIG. The position of the object in P is highlighted (step S158). In FIG. 12B, the highlighted display portion is hatched.

そして、ダイレクトティーチング部200は、ステップS158でハイライト表示した対象物をハンドアイカメラ18で撮像する指示(この指示には、照明19の点灯の有無、明るさに関する情報等を含む)と、順番とを関連付けた教示情報を生成し、これをメモリー22等に記憶する(ステップS160)。これにより、撮像についての教示を行うことができる。順番については、ステップS114と同様である。その後、全体制御部203は、ステップS118へ処理を戻す。   Then, the direct teaching unit 200 instructs the hand eye camera 18 to image the object highlighted in step S158 (this instruction includes information on whether or not the illumination 19 is turned on, brightness, etc.), and the order. Is generated and stored in the memory 22 or the like (step S160). Thereby, teaching about imaging can be performed. The order is the same as in step S114. Thereafter, the overall control unit 203 returns the process to step S118.

ハンドアイカメラ18で撮像した画像から対象物が認識できなかった場合(ステップS156でNO)には、表示制御部202は、画像表示画面17Eに重ねて、対象物が認識できなかったことを示すエラー表示(図示せず)を表示させる(ステップS162)。   If the object cannot be recognized from the image captured by the hand eye camera 18 (NO in step S156), the display control unit 202 overlaps the image display screen 17E to indicate that the object cannot be recognized. An error display (not shown) is displayed (step S162).

全体制御部203は、表示制御部202を介して、照明調整ボタン群17lへの入力が行われたか否かの判断結果を取得する(ステップS164)。照明調整ボタン群17lへの入力が行われなかったことが検出された場合(ステップS164でNO)は、全体制御部203は、ステップS152へ処理を戻す。   The overall control unit 203 obtains a determination result as to whether or not an input to the illumination adjustment button group 17l has been performed via the display control unit 202 (step S164). If it is detected that the input to the illumination adjustment button group 17l has not been performed (NO in step S164), the overall control unit 203 returns the process to step S152.

照明調整ボタン群17lへの入力が行われたことが検出された場合(ステップS164でYES)には、全体制御部203は、照明調整ボタン群17lの押下に応じて照明19の明るさを変更し(ステップS166)、ステップS152へ処理を戻す。   When it is detected that the input to the illumination adjustment button group 17l has been performed (YES in step S164), the overall control unit 203 changes the brightness of the illumination 19 in response to the depression of the illumination adjustment button group 17l. (Step S166), and the process returns to step S152.

ステップS150〜S166では、ダイレクトティーチング部200は、ハンドアイカメラ18で撮像した画像を画像表示画面17Eに表示させたが、画像表示画面17Eに表示させる画像はこれに限られない。例えば、ダイレクトティーチング部200は、電子カメラ15で撮像された画像を画像表示画面17Eに表示させてもよい。この場合には、戻るボタン17nへの入力が行われたことが検出された場合(ステップS155でYES)に、ダイレクトティーチング部200は、ステップS106へ処理を戻す代わりに、肩部10Aをロボット本体10Bに対して回動させるようにしてもよい。   In steps S150 to S166, the direct teaching unit 200 displays the image captured by the hand eye camera 18 on the image display screen 17E, but the image displayed on the image display screen 17E is not limited to this. For example, the direct teaching unit 200 may display an image captured by the electronic camera 15 on the image display screen 17E. In this case, when it is detected that the input to the return button 17n has been performed (YES in step S155), the direct teaching unit 200 moves the shoulder 10A to the robot body instead of returning the process to step S106. You may make it rotate with respect to 10B.

本実施の形態によれば、ダイレクトティーチング用のティーチングペンダントがアーム11に設けられているため、ロボットの近くで容易に教示を行うことができる。   According to the present embodiment, since the teaching pendant for direct teaching is provided on the arm 11, teaching can be easily performed near the robot.

また、本実施の形態によれば、教示者が外力を加えるアーム11の手先に近い位置にタッチパネルモニター17を設けるため、教示をさらに容易に行うことができる。また、教示者が外力を加えるアーム11の手先に近い位置にタッチパネルモニター17を設けるため、教示者がタッチパネルモニター17に表示された各種表示画面を確認しやすくなる。   Further, according to the present embodiment, since the touch panel monitor 17 is provided at a position close to the hand of the arm 11 to which the teacher applies external force, teaching can be performed more easily. Moreover, since the touch panel monitor 17 is provided at a position close to the hand of the arm 11 to which the teacher applies an external force, the teacher can easily check various display screens displayed on the touch panel monitor 17.

また、本実施の形態によれば、タッチパネルモニター17がアーム11から取り外し可能であるため、アームの姿勢によりアームに設けられたタッチパネルモニター17が視認できない場合にも、タッチパネルモニターを使用することができる。   Further, according to the present embodiment, since the touch panel monitor 17 can be detached from the arm 11, the touch panel monitor can be used even when the touch panel monitor 17 provided on the arm cannot be visually recognized due to the posture of the arm. .

また、本実施の形態によれば、タッチパネルモニター17を用いることで撮像についての教示を行うことができる。さらに、照明の明るさ等の変更が可能であるため、撮像された画像に含まれる対象物が認識可能な明るさで画像を撮像することができる。   Further, according to the present embodiment, it is possible to teach imaging using the touch panel monitor 17. Furthermore, since it is possible to change the brightness of the illumination and the like, it is possible to capture an image with brightness that allows recognition of an object included in the captured image.

なお、本実施の形態では、複数のアーム11を備えたロボット1を例に説明したが、本発明は、アーム11が1本のロボットにも適用可能であるし、アーム11が3本のロボットにも適用可能である。ただし、アーム11の本数によらず、アーム11にタッチパネルモニター17が設けられている必要がある。アーム11にタッチパネルモニター17が設けられてさえいれば、本発明は適用可能である。   In the present embodiment, the robot 1 having a plurality of arms 11 has been described as an example. However, the present invention can also be applied to a robot having one arm 11 or a robot having three arms 11. It is also applicable to. However, the touch panel monitor 17 needs to be provided on the arm 11 regardless of the number of the arms 11. As long as the touch panel monitor 17 is provided on the arm 11, the present invention is applicable.

また、本実施の形態では、7軸のアーム11(N=7)を用いたが、アーム11の軸は3軸(N=3)以上であればどのような形態でもよい。そして、タッチパネルモニター17は、N−2軸とN−1軸との間に設けられることが望ましい。   In this embodiment, the seven-axis arm 11 (N = 7) is used. However, the arm 11 may have any form as long as it has three axes (N = 3) or more. The touch panel monitor 17 is preferably provided between the N-2 axis and the N-1 axis.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施形態に記載の範囲には限定されない。上記実施形態に多様な変更または改良を加えることが可能であることが当業者には明らかである。また、そのような変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。さらに、本発明の説明において、「・・・近傍」は、完全同一に限定されず、課題、目的を達成可能な形態も含むことを意味する。   As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be made to the above embodiment. In addition, it is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention. Further, in the description of the present invention, “... Vicinity” means that the present invention is not limited to the completely same, but includes forms that can achieve the object and the object.

1 :ロボット
10 :ロボット本体
10A :肩部
10B :胴部
10D :取付部
11 :アーム
11A :アーム部材
11B :アーム部材
11C :アーム部材
11D :アーム部材
11E :アーム部材
11a :アクチュエーター
11b :アンプ
12 :タッチパネルモニター
13 :バンパー
14 :搬送用ハンドル
15 :電子カメラ
16 :力覚センサー
17 :タッチパネルモニター
17A :メニュー画面
17B :作業画面
17C :力覚表示画面
17D :ハンド教示画面
17E :画像表示画面
17X :辺
17Y :辺
17a :新規ボタン
17b :編集ボタン
17c :位置記憶ボタン
17d :ハンド教示ボタン
17e :力覚表示ボタン
17f :Hカメラ起動ボタン
17g :検出結果
17h :検出結果
17i :記憶ボタン
17j :ボタン
17k :ボタン
17l :照明調整ボタン
17m :認識ボタン
17n :ボタン
18 :ハンドアイカメラ
19 :照明
20 :制御部
21 :CPU
22 :メモリー
23 :外部記憶装置
24 :通信装置
25 :入力装置I/F
26 :出力装置I/F
27 :I/F
111 :ハンド
111A :フィンガー
111B :当接部
111a :アクチュエーター
111b :アンプ
127C :力覚表示画面
200 :ダイレクトティーチング部
201 :駆動制御部
202 :表示制御部
203 :全体制御部
1: Robot 10: Robot body 10A: Shoulder portion 10B: Body portion 10D: Mounting portion 11: Arm 11A: Arm member 11B: Arm member 11C: Arm member 11D: Arm member 11E: Arm member 11a: Actuator 11b: Amplifier 12: Touch panel monitor 13: Bumper 14: Transport handle 15: Electronic camera 16: Force sensor 17: Touch panel monitor 17A: Menu screen 17B: Work screen 17C: Force display screen 17D: Hand teaching screen 17E: Image display screen 17X: Side 17Y: Side 17a: New button 17b: Edit button 17c: Position storage button 17d: Hand teaching button 17e: Force display button 17f: H camera start button 17g: Detection result 17h: Detection result 17i: Storage button 17j: Button 1 k: Button 17l: illumination adjustment button 17m: recognition button 17n: Button 18: hand-eye camera 19: Lighting 20: control unit 21: CPU
22: Memory 23: External storage device 24: Communication device 25: Input device I / F
26: Output device I / F
27: I / F
111: Hand 111A: Finger 111B: Contact portion 111a: Actuator 111b: Amplifier 127C: Force display screen 200: Direct teaching unit 201: Drive control unit 202: Display control unit 203: Overall control unit

Claims (9)

ロボット本体と、
前記ロボット本体に設けられたアームと、
前記アームに設けられたタッチパネルモニターと、
前記アームに設けられた撮像部と、
明るさを変更可能な照明と、
前記アームの手先に加えられた外力に応じて前記アームの姿勢を変化させ、その後前記タッチパネルモニターへの入力を取得すると、当該変化させた後の前記アームの姿勢を教示情報として生成するダイレクトティーチングを行う制御部と、を備え、
前記制御部は、前記撮像部が撮像した撮像画像を前記タッチパネルモニターに表示させ、前記タッチパネルモニターへの入力を取得すると、前記撮像部への、前記照明の明るさを含む撮像指示を前記教示情報として生成する、ロボット。
The robot body,
An arm provided in the robot body;
A touch panel monitor provided on the arm;
An imaging unit provided on the arm;
Lighting with variable brightness,
When the posture of the arm is changed according to an external force applied to the hand of the arm, and then an input to the touch panel monitor is obtained, direct teaching is performed to generate the posture of the arm after the change as teaching information. A control unit for performing,
When the control unit displays a captured image captured by the imaging unit on the touch panel monitor and obtains an input to the touch panel monitor, the control unit instructs the imaging unit to include an imaging instruction including brightness of the illumination. Generate as a robot.
請求項1に記載のロボットにおいて、
前記アームは、前記ロボット本体側から順にN個(Nは3以上)の関節を有し、
前記タッチパネルモニターは、N−2番目の関節とN−1番目の関節との間に設けられる
ことを特徴とするロボット。
The robot according to claim 1, wherein
The arm has N joints (N is 3 or more) in order from the robot body side,
The robot according to claim 1, wherein the touch panel monitor is provided between an N-2th joint and an N-1th joint.
請求項1又は2に記載のロボットにおいて、
前記制御部は、前記アームの姿勢に応じて前記タッチパネルモニターの表示の向きを変更する
ことを特徴とするロボット。
The robot according to claim 1 or 2,
The control unit changes a display direction of the touch panel monitor according to the posture of the arm.
請求項1から3のいずれか一項に記載のロボットにおいて、
前記タッチパネルモニターは、前記アームから取り外し可能に設けられる
ことを特徴とするロボット。
The robot according to any one of claims 1 to 3,
The robot, wherein the touch panel monitor is detachably provided from the arm.
請求項1から4のいずれか一項に記載のロボットにおいて、
力検出器を備え、
前記制御部は、前記力検出器での検出結果を前記タッチパネルモニターに表示させ、その後前記タッチパネルモニターへの入力を取得すると、前記力検出器での検出結果を前記教示情報として生成する
ことを特徴とするロボット。
The robot according to any one of claims 1 to 4, wherein
With a force detector,
The control unit causes the detection result of the force detector to be displayed on the touch panel monitor, and when the input to the touch panel monitor is acquired thereafter, the detection result of the force detector is generated as the teaching information. Robot.
請求項1から5のいずれか一項に記載のロボットにおいて、
把持部を備え、
前記制御部は、前記タッチパネルモニターからの入力に基づいて前記把持部を移動させ、その後前記タッチパネルモニターへの入力を取得すると、前記把持部の移動後の姿勢を前記教示情報として生成する
ことを特徴とするロボット。
The robot according to any one of claims 1 to 5,
With a gripping part,
The control unit moves the gripping unit based on an input from the touch panel monitor, and then acquires an input to the touch panel monitor, and generates a posture after the movement of the gripping unit as the teaching information. Robot.
請求項1から6のいずれか一項に記載のロボットにおいて、
前記アームを複数備え、
前記複数備えられたアームのそれぞれに前記タッチパネルモニターが設けられる
ことを特徴とするロボット。
The robot according to any one of claims 1 to 6,
A plurality of the arms,
Each of the plurality of arms provided with the touch panel monitor.
ロボットと、制御部とを備えたロボットシステムであって、
前記ロボットは、
ロボット本体と、
前記ロボット本体に設けられたアームと、
前記アームに設けられたタッチパネルモニターと、
前記アームに設けられた撮像部と、
明るさを変更可能な照明と、を備え、
前記制御部は、前記アームの手先に加えられた外力に応じて前記アームの姿勢を変化させ、その後前記タッチパネルモニターへの入力を取得すると、当該変化させた後の前記アームの姿勢を教示情報として生成するダイレクトティーチングを行い、前記撮像部が撮像した撮像画像を前記タッチパネルモニターに表示させ、前記タッチパネルモニターへの入力を取得すると、前記撮像部への、前記照明の明るさを含む撮像指示を前記教示情報として生成する、ロボットシステム。
A robot system including a robot and a control unit,
The robot is
The robot body,
An arm provided in the robot body;
A touch panel monitor provided on the arm;
An imaging unit provided on the arm;
And lighting that can change the brightness ,
The control unit changes the posture of the arm according to an external force applied to the hand of the arm, and then acquires an input to the touch panel monitor, and uses the changed posture of the arm as teaching information. When the direct teaching to be generated is performed, the captured image captured by the imaging unit is displayed on the touch panel monitor, and the input to the touch panel monitor is acquired, the imaging instruction including the brightness of the illumination is transmitted to the imaging unit. Robot system generated as teaching information.
ロボット本体に設けられたアームの手先に加えられた外力に応じて前記アームの姿勢を変化させるステップと、
前記アームに設けられたタッチパネルモニターへの入力を取得するステップと、
前記アームに設けられた撮像部が撮像した撮像画像を前記タッチパネルモニターに表示させるステップと、
前記変化させた後の前記アームの姿勢を教示情報として生成するステップと、
前記タッチパネルモニターへの入力を取得すると、前記撮像部への、ロボットに設けられた明るさを変更可能な照明の明るさを含む撮像指示を前記教示情報として生成するステップと、
を含むことを特徴とする教示方法。
Changing the posture of the arm according to an external force applied to the arm hand provided on the robot body;
Obtaining an input to a touch panel monitor provided on the arm;
Displaying a picked-up image picked up by an image pickup unit provided on the arm on the touch panel monitor;
Generating the posture of the arm after the change as teaching information;
Acquiring an input to the touch panel monitor, generating an imaging instruction including the brightness of illumination that can change the brightness provided to the robot to the imaging unit as the teaching information;
The teaching method characterized by including.
JP2014057671A 2014-03-20 2014-03-20 Robot, robot system and teaching method Active JP6450960B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014057671A JP6450960B2 (en) 2014-03-20 2014-03-20 Robot, robot system and teaching method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014057671A JP6450960B2 (en) 2014-03-20 2014-03-20 Robot, robot system and teaching method

Publications (2)

Publication Number Publication Date
JP2015182142A JP2015182142A (en) 2015-10-22
JP6450960B2 true JP6450960B2 (en) 2019-01-16

Family

ID=54349300

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014057671A Active JP6450960B2 (en) 2014-03-20 2014-03-20 Robot, robot system and teaching method

Country Status (1)

Country Link
JP (1) JP6450960B2 (en)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015012962A1 (en) * 2015-10-08 2017-04-13 Sami Haddadin robot system
CN106607874A (en) * 2015-10-26 2017-05-03 广明光电股份有限公司 Device and method for capturing image through machine arm
JP6823795B2 (en) * 2015-12-01 2021-02-03 パナソニックIpマネジメント株式会社 Work equipment and teaching methods in work equipment
JP2018054563A (en) 2016-09-30 2018-04-05 セイコーエプソン株式会社 Power detection device, drive unit and robot
DE102017204676A1 (en) * 2017-03-21 2018-09-27 Robert Bosch Gmbh Method for operating a work machine by means of a touch-sensitive screen, control unit and operating system for operating a work machine
JP2018176288A (en) * 2017-04-03 2018-11-15 ファナック株式会社 Teaching device of robot
JP6953778B2 (en) * 2017-04-28 2021-10-27 オムロン株式会社 Coordinated robots, controllers, and methods
JP6633580B2 (en) 2017-08-02 2020-01-22 ファナック株式会社 Robot system and robot controller
JP6730247B2 (en) 2017-11-28 2020-07-29 ファナック株式会社 Robot operating device
JP6882249B2 (en) 2018-11-29 2021-06-02 ファナック株式会社 Operation device for robots
JP7053443B2 (en) 2018-12-07 2022-04-12 ファナック株式会社 Control device for robots that perform manual operations with the operating device
JP6826153B2 (en) * 2019-05-07 2021-02-03 ファナック株式会社 Robot teaching device
JP2020157475A (en) * 2020-07-01 2020-10-01 セイコーエプソン株式会社 Control device, robot system, and robot control method

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60163108A (en) * 1984-02-03 1985-08-26 Hitachi Ltd Direct teaching device of robot
JPH03218502A (en) * 1990-01-24 1991-09-26 Murata Mach Ltd Teaching device for robot
JP3901772B2 (en) * 1996-11-13 2007-04-04 三菱重工業株式会社 Robot teaching operation method
JP2000010733A (en) * 1998-06-22 2000-01-14 Denso Corp Touch panel
JP2003186426A (en) * 2001-12-14 2003-07-04 Minolta Co Ltd Display device making display on both top and reverse surfaces
JP3940998B2 (en) * 2002-06-06 2007-07-04 株式会社安川電機 Robot equipment
CN102037437B (en) * 2009-03-23 2014-04-16 松下电器产业株式会社 Information processing device, information processing method, recording medium, and integrated circuit
JP5526881B2 (en) * 2010-03-12 2014-06-18 株式会社デンソーウェーブ Robot system
JP2013184257A (en) * 2012-03-08 2013-09-19 Sony Corp Robot apparatus, method for controlling robot apparatus, and computer program

Also Published As

Publication number Publication date
JP2015182142A (en) 2015-10-22

Similar Documents

Publication Publication Date Title
JP6450960B2 (en) Robot, robot system and teaching method
JP6788593B2 (en) Manipulator system
CN107717981B (en) Control device of mechanical arm and teaching system and method thereof
EP2917001B1 (en) Hybrid gesture control haptic system
US11090814B2 (en) Robot control method
JP6454960B2 (en) Robot, robot system, robot controller
JP6924145B2 (en) Robot teaching method and robot arm control device
US20150273689A1 (en) Robot control device, robot, robotic system, teaching method, and program
JP2015085458A (en) Robot control device, robot system and robot
US10618181B2 (en) Robot control device, robot, and robot system
JP2018161692A (en) Information processing system, information processing method and program
US10807240B2 (en) Robot control device for setting jog coordinate system
TWI651175B (en) Control device of robot arm and teaching system and method using the same
US9919424B1 (en) Analog control switch for end-effector
Tang et al. The design and evaluation of an ergonomic contactless gesture control system for industrial robots
JP2017205819A (en) Robot, control device and robot system
CN106493711B (en) Control device, robot, and robot system
JP2015186834A (en) Robot control apparatus, holding unit control device, robot, holding unit, robot control method and program
TW201819126A (en) Non-contact gesture teaching robot enables the driving module to perform a motion instruction corresponding to a hand movement according to the user&#39;s hand movement
JP2006315128A (en) Shifting from one hand to the other hand control method for robot hand
JP2019042853A (en) Image information processing apparatus, gripping system, and image information processing method
JP6314431B2 (en) Robot system, control device, robot, and driving method
JP2019141976A (en) Control device, control method of robot, and robot system
JP2022025892A (en) Teaching method and robot system
JP2022066085A (en) Robot teaching device

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20160617

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20160624

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161130

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171010

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171031

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180515

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180622

RD05 Notification of revocation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7425

Effective date: 20180904

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181106

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20181107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181119

R150 Certificate of patent or registration of utility model

Ref document number: 6450960

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150