JP2016221653A - Robot control device and robot system - Google Patents

Robot control device and robot system Download PDF

Info

Publication number
JP2016221653A
JP2016221653A JP2015112890A JP2015112890A JP2016221653A JP 2016221653 A JP2016221653 A JP 2016221653A JP 2015112890 A JP2015112890 A JP 2015112890A JP 2015112890 A JP2015112890 A JP 2015112890A JP 2016221653 A JP2016221653 A JP 2016221653A
Authority
JP
Japan
Prior art keywords
monitor
robot
force
target position
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2015112890A
Other languages
Japanese (ja)
Inventor
泰裕 下平
Yasuhiro Shimodaira
泰裕 下平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2015112890A priority Critical patent/JP2016221653A/en
Priority to CN201610380562.2A priority patent/CN106239516B/en
Priority to US15/171,326 priority patent/US10112297B2/en
Publication of JP2016221653A publication Critical patent/JP2016221653A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a robot control device easily grasping a correspondence between a target position and an actual operation position.SOLUTION: A robot control device controlling a robot comprising: a manipulator; a force detector provided to the manipulator; and an actuator driving the manipulator on the basis of a target position, comprises a display control section displaying an operation position of the manipulator derived on the basis of target force and output of the force detector and the target position on a screen.SELECTED DRAWING: Figure 4

Description

本発明は、ロボット制御装置およびロボットシステムに関する。   The present invention relates to a robot control device and a robot system.

近年、ロボットの分野において、マニュピレーターに加わる力に応じて動作位置を制御するために力検出器が用いられるようになっている。ここで動作位置とは、能動インピーダンス制御における目標力とマニュピレーターに実際に加わる力とに基づいて導出される位置である。特許文献1には、マニュピレーターに加わる力の時間変化を表示したり、マニュピレーターの動作位置の時間変化を表示したりすることにより教示を容易にする技術が開示されている。   In recent years, in the field of robots, force detectors have been used to control the operation position according to the force applied to the manipulator. Here, the operation position is a position derived based on the target force in the active impedance control and the force actually applied to the manipulator. Patent Document 1 discloses a technique that facilitates teaching by displaying a time change of a force applied to a manipulator or displaying a time change of an operation position of a manipulator.

特開2014−128857号公報JP 2014-128857 A

しかしながら、特許文献1に開示された技術では、ロボットに設定した目標軌跡と実際の動作軌跡との対応関係が分かり難い。例えば、教示者は、ロボットに設定した目標軌跡に対して実際の動作軌跡がどのようになるかを踏まえて、トライアンドエラーで初期位置や目標位置を更新しながら教示する必要があるが、目標軌跡と実際の動作軌跡との対応関係が分かり難い場合に、教示が最適であったのか判断するのに長時間を要するという問題がある。   However, with the technique disclosed in Patent Document 1, it is difficult to understand the correspondence between the target trajectory set for the robot and the actual motion trajectory. For example, the teacher needs to teach while updating the initial position and target position by trial and error based on what the actual movement locus will be with respect to the target locus set for the robot. There is a problem that it takes a long time to determine whether the teaching is optimal when it is difficult to understand the correspondence between the trajectory and the actual motion trajectory.

本発明は、これらの問題を解決するために創作されたものであって、目標軌跡と実際の動作軌跡との対応関係を把握しやすい技術の提供を目的とする。   The present invention was created to solve these problems, and it is an object of the present invention to provide a technique that makes it easy to grasp the correspondence between a target locus and an actual motion locus.

前記目的を達成するためのロボット制御装置は、マニピュレーターと、前記マニピュレーターに設けられる力検出器と、目標位置に基づいて前記マニピュレーターを駆動するアクチュエーターと、を備えるロボットを制御するロボット制御装置において、目標力と力検出器の出力とに基づいて導出されるマニピュレーターの動作軌跡と、前記目標位置の軌跡とを画面に表示する表示制御部を備える。   A robot control apparatus for achieving the object includes a manipulator, a force detector provided in the manipulator, and an actuator that drives the manipulator based on a target position. A display control unit is provided that displays on the screen a movement trajectory of the manipulator derived based on the force and the output of the force detector and the trajectory of the target position.

この構成を採用することにより、目標位置および軌跡と実際の動作位置および軌跡とを教示者が容易に把握できるようになる。   By adopting this configuration, the teacher can easily grasp the target position and trajectory and the actual operation position and trajectory.

なお請求項に記載された各手段の機能は、構成自体で機能が特定されるハードウェア資源、プログラムにより機能が特定されるハードウェア資源、又はそれらの組み合わせにより実現される。また、これら各手段の機能は、各々が物理的に互いに独立したハードウェア資源で実現されるものに限定されない。   Note that the function of each means described in the claims is realized by hardware resources whose function is specified by the configuration itself, hardware resources whose function is specified by a program, or a combination thereof. The functions of these means are not limited to those realized by hardware resources that are physically independent of each other.

ロボットシステムの模式図である。It is a schematic diagram of a robot system. ロボットシステムのブロック図である。It is a block diagram of a robot system. モニター画面の画面構成図である。It is a screen block diagram of a monitor screen. xyモニターの画面構成である。It is a screen configuration of an xy monitor.

以下、本発明の実施の形態を以下の順序にしたがって添付図面を参照しながら説明する。なお、各図において対応する構成要素には同一の符号が付され、重複する説明は省略される。
(1)第1実施形態
本発明の第一実施例としてのロボットシステムは、図1に示すように、ロボット1と、エンドエフェクター2と、制御装置3(コントローラー)と、教示端末4とティーチングペンダント5と、を備えている。制御装置3と教示端末4とは、本発明のロボット制御装置の構成例である。制御装置3は図示しないケーブルによりロボット1と通信可能に接続される。制御装置3は、ロボット1に駆動電力を供給する電源部31とロボット1を制御するための制御部32とを備える。教示端末4は、本発明の教示部の構成例である。制御装置3と教示端末4とは有線ケーブルで、または無線通信可能に接続される。教示端末4は、専用のコンピューターであってもよいし、ロボット1のためのプログラムがインストールされた汎用のコンピューターであってもよい。例えばロボット1を教示するための専用装置であるティーチングペンダント5を教示装置4の代わりに用いても良い。さらに、制御装置3と教示端末4とは、図1に示すように別々の筐体を備えていてもよいし、一体に構成されていてもよい。
Hereinafter, embodiments of the present invention will be described in the following order with reference to the accompanying drawings. In addition, the same code | symbol is attached | subjected to the corresponding component in each figure, and the overlapping description is abbreviate | omitted.
(1) First Embodiment As shown in FIG. 1, a robot system as a first embodiment of the present invention includes a robot 1, an end effector 2, a control device 3 (controller), a teaching terminal 4, and a teaching pendant. 5 is provided. The control device 3 and the teaching terminal 4 are configuration examples of the robot control device of the present invention. The control device 3 is communicably connected to the robot 1 via a cable (not shown). The control device 3 includes a power supply unit 31 that supplies driving power to the robot 1 and a control unit 32 for controlling the robot 1. The teaching terminal 4 is a configuration example of the teaching unit of the present invention. The control device 3 and the teaching terminal 4 are connected by a wired cable or capable of wireless communication. The teaching terminal 4 may be a dedicated computer or a general-purpose computer in which a program for the robot 1 is installed. For example, a teaching pendant 5 that is a dedicated device for teaching the robot 1 may be used instead of the teaching device 4. Furthermore, the control device 3 and the teaching terminal 4 may be provided with separate housings as shown in FIG. 1 or may be configured integrally.

ロボット1は、アームAに各種のエンドエフェクター2を装着して使用される単腕ロボットである。アームAは6つの関節J1、J2、J3、J4、J5、J6を備える。関節J1、J2、J3、J4、J5、J6によって6個のアーム部材A1〜A6が連結される。関節J2、J3、J5は曲げ関節であり、関節J1、J4、J6はねじり関節である。関節J6には、ワークに対して把持や加工等を行うための各種のエンドエフェクター2が装着される。先端の関節J6の回転軸上の所定位置をツールセンターポイント(TCP)と表す。アームAとエンドエフェクター2は本発明のマニュピレーターの構成例である。TCPの位置は各種のエンドエフェクター2の位置の基準となる。本実施例では、ワークWを把持するエンドエフェクター2が関節J6の先端に装着されているものとして説明する。   The robot 1 is a single-arm robot that is used with various end effectors 2 attached to the arm A. The arm A includes six joints J1, J2, J3, J4, J5, and J6. Six arm members A1 to A6 are connected by joints J1, J2, J3, J4, J5, and J6. Joints J2, J3, and J5 are bending joints, and joints J1, J4, and J6 are torsional joints. Various end effectors 2 for gripping and processing the workpiece are mounted on the joint J6. A predetermined position on the rotation axis of the joint J6 at the tip is represented as a tool center point (TCP). The arm A and the end effector 2 are configuration examples of the manipulator of the present invention. The position of the TCP is a reference for the positions of various end effectors 2. In the present embodiment, description will be made assuming that the end effector 2 that holds the workpiece W is attached to the tip of the joint J6.

関節J6には力覚センサーFSが備えられている。力覚センサーFSは、6軸の力検出器である。力覚センサーFSは、固有の座標系であるセンサー座標系において互いに直交する3個の検出軸と平行な力の大きさと、当該3個の検出軸まわりのトルクの大きさとを検出する。なお、力覚センサーFSは本発明の力検出器の構成例であるが、関節J6以外の関節J1〜J5のいずれか1つ以上に力検出器としての力覚センサーを備えても良い。   The joint J6 is provided with a force sensor FS. The force sensor FS is a 6-axis force detector. The force sensor FS detects the magnitude of the force parallel to the three detection axes orthogonal to each other in the sensor coordinate system, which is a unique coordinate system, and the magnitude of the torque around the three detection axes. The force sensor FS is a configuration example of the force detector of the present invention, but a force sensor as a force detector may be provided in any one or more of the joints J1 to J5 other than the joint J6.

ロボット1が設置された空間を規定する座標系をロボット座標系というとき、ロボット座標系は、水平面上において互いに直交するX軸とY軸と、鉛直上向きを正方向とするZ軸とによって規定される3次元の直交座標系である。Z軸における負の方向は概ね重力方向と一致する。またX軸周りの回転角をRXで表し、Y軸周りの回転角をRYで表し、Z軸周りの回転角をRZで表す。X,Y,Z方向の位置により3次元空間における任意の位置を表現でき、RX,RY,RZ方向の回転角により3次元空間における任意の姿勢を表現できる。以下、位置と表記した場合、姿勢も意味し得ることとする。また、力と表記した場合、トルクも意味し得ることとする。制御装置3は、アームAを駆動することによって、ロボット座標系においてTCPの位置を制御する。   When the coordinate system that defines the space in which the robot 1 is installed is referred to as a robot coordinate system, the robot coordinate system is defined by an X axis and a Y axis that are orthogonal to each other on a horizontal plane, and a Z axis that has a vertical upward direction as a positive direction. This is a three-dimensional orthogonal coordinate system. The negative direction on the Z-axis generally coincides with the direction of gravity. A rotation angle around the X axis is represented by RX, a rotation angle around the Y axis is represented by RY, and a rotation angle around the Z axis is represented by RZ. An arbitrary position in the three-dimensional space can be expressed by a position in the X, Y, and Z directions, and an arbitrary posture in the three-dimensional space can be expressed by a rotation angle in the RX, RY, and RZ directions. Hereinafter, when it is described as a position, it can also mean a posture. In addition, when expressed as force, it can also mean torque. The controller 3 controls the position of the TCP in the robot coordinate system by driving the arm A.

図2は、ロボットシステムのブロック図である。制御部32はロボット1の制御を行うための制御プログラムがインストールされたコンピューターである。制御部32は、プロセッサーやRAMやROMを備え、これらのハードウェア資源が制御プログラムと協働する。   FIG. 2 is a block diagram of the robot system. The control unit 32 is a computer in which a control program for controlling the robot 1 is installed. The control unit 32 includes a processor, a RAM, and a ROM, and these hardware resources cooperate with the control program.

ロボット1は、図1に図示した構成のほかに、アクチュエーターとしてのモーターM1〜M6と、センサーとしてのエンコーダーE1〜E6とを備える。モーターM1〜M6を制御することはアームAを制御することを意味する。モーターM1〜M6とエンコーダーE1〜E6とは、関節J1〜J6のそれぞれに対応して備えられており、エンコーダーE1〜E6はモーターM1〜M6の回転角度を検出する。制御装置3は、モーターM1〜M6の駆動位置の組み合わせと、ロボット座標系におけるTCPの位置との対応関係U1を記憶している。また、制御装置3は、ロボット1が行う作業の工程ごとに目標位置Stと目標力fStとをコマンドとして記憶する。目標位置Stと目標力fStを定めるコマンドはロボット1が行う作業の工程ごとに教示によって設定される。したがって、目標位置は教示位置と言い換えることもでき、目標力は教示力と言い換えることもできる。 The robot 1 includes motors M1 to M6 as actuators and encoders E1 to E6 as sensors in addition to the configuration illustrated in FIG. Controlling the motors M1 to M6 means controlling the arm A. Motors M1 to M6 and encoders E1 to E6 are provided corresponding to the joints J1 to J6, respectively, and the encoders E1 to E6 detect the rotation angles of the motors M1 to M6. The control device 3 stores a correspondence U1 between a combination of driving positions of the motors M1 to M6 and a TCP position in the robot coordinate system. Further, the control unit 3 stores the target position S t and the target force f St as a command for each step of the work robot 1 performs. Command to determine the target position S t and the target force f St is set by teaching for each step of the work robot 1 performs. Therefore, the target position can be rephrased as a teaching position, and the target force can be rephrased as a teaching force.

制御装置3は、例えばユーザーによる教示によって設定された目標位置と目標力とがTCPにて実現されるようにアームAを制御する。目標力とは、アームAの動作に応じて力覚センサーFSが検出すべき力である。ここでSの文字は、ロボット座標系を規定する軸の方向(X,Y,Z,RX,RY,RZ)のなかのいずれか1個の方向を表すこととする。また、Sは、S方向の位置も表すこととする。例えば、S=Xの場合、ロボット座標系にて設定された目標位置のX方向成分がSt=Xtと表記され、目標力のX方向成分がfSt=fXtと表記される。 For example, the control device 3 controls the arm A so that the target position and the target force set by teaching by the user are realized by TCP. The target force is a force that should be detected by the force sensor FS in accordance with the operation of the arm A. Here, the letter S represents one of the directions (X, Y, Z, RX, RY, RZ) of the axes that define the robot coordinate system. S represents the position in the S direction. For example, in the case of S = X, X-direction component of the position specified in the robot coordinate system is denoted as S t = X t, X-direction component of the desired force is denoted as f St = f Xt.

制御装置3は、モーターM1〜M6の回転角度Daを取得すると、対応関係U1に基づいて、当該回転角度Daをロボット座標系におけるTCPの位置S(X,Y,Z,RX,RY,RZ)に変換する。制御装置3は、TCPの位置Sと、力覚センサーFSの検出値とに基づいて、力覚センサーFSに現実に作用している作用力fSをロボット座標系において特定する。制御装置3は、ロボット座標系におけるTCPの位置Sごとに、力覚センサーFSのセンサー座標系における検出軸の方向を規定した対応関係U2を記憶している。従って、制御装置3は、ロボット座標系におけるTCPの位置Sと対応関係U2とに基づいて、ロボット座標系における作用力fSを特定できる。制御装置3は、作用力fSに対して重力補償を行う。重力補償とは、作用力fSから重力に起因する力やトルクの成分を除去することである。重力補償を行った作用力fSは、エンドエフェクター2に作用している重力以外の力と見なすことができる。 The controller 3 acquires the rotation angle D a motor M1-M6, based on the correspondence relationship U1, the rotation angle D a position of TCP in the robot coordinate system S (X, Y, Z, RX, RY, RZ). Based on the position S of the TCP and the detection value of the force sensor FS, the control device 3 specifies the acting force f S actually acting on the force sensor FS in the robot coordinate system. The control device 3 stores a correspondence U2 that defines the direction of the detection axis in the sensor coordinate system of the force sensor FS for each position S of the TCP in the robot coordinate system. Therefore, the control device 3 can specify the acting force f S in the robot coordinate system based on the TCP position S and the correspondence U2 in the robot coordinate system. The control device 3 performs gravity compensation for the acting force f S. Gravity compensation is to remove components of force and torque caused by gravity from the acting force f S. The acting force f S subjected to gravity compensation can be regarded as a force other than gravity acting on the end effector 2.

本実施例のインピーダンス制御は、仮想の機械的インピーダンスをモーターM1〜M6によって実現する能動インピーダンス制御である。制御装置3は、このようなインピーダンス制御を、ワークの嵌合作業、研磨作業など、エンドエフェクター2がワークから力を受ける接触状態の工程で適用する。制御装置3は、エンドエフェクター2がワークから力を受けない非接触状態の工程では、インピーダンス制御を適用せず、目標位置から線形演算で導出する回転角度でモーターM1〜M6を制御する。目標位置から線形演算で導出する回転角度でモーターM1〜M6を制御するモードを位置制御モードといい、モーターM1〜M6をインピーダンス制御するモードを力制御モードというものとする。制御装置3は、位置制御モードと力制御モードとを力覚センサーFSの出力に基づいて自律的に切り替えても良いし、コマンドに応じて位置制御モードと力制御モードとを切り替えても良い。   The impedance control of the present embodiment is active impedance control that realizes a virtual mechanical impedance by the motors M1 to M6. The control device 3 applies such impedance control in a process in which the end effector 2 receives a force from the workpiece, such as a workpiece fitting operation and a polishing operation. The control device 3 controls the motors M <b> 1 to M <b> 6 at a rotation angle derived from the target position by linear calculation without applying impedance control in a non-contact state process where the end effector 2 does not receive force from the workpiece. A mode in which the motors M1 to M6 are controlled with a rotation angle derived from the target position by linear calculation is referred to as a position control mode, and a mode in which the motors M1 to M6 are impedance controlled is referred to as a force control mode. The control device 3 may autonomously switch between the position control mode and the force control mode based on the output of the force sensor FS, or may switch between the position control mode and the force control mode according to a command.

制御装置3は、目標力fStと作用力fSとをインピーダンス制御の運動方程式に代入することにより、力由来補正量ΔSを特定する。力由来補正量ΔSとは、TCPが機械的インピーダンスを受けた場合に、目標力fStとの力偏差ΔfS(t)を解消するために、TCPが移動すべき位置Sの大きさを意味する。下記の(1)式は、インピーダンス制御の運動方程式である。

Figure 2016221653
The control device 3 specifies the force-derived correction amount ΔS by substituting the target force f St and the acting force f S into the equation of motion for impedance control. The force-derived correction amount ΔS means the size of the position S where the TCP should move in order to eliminate the force deviation Δf S (t) from the target force f St when the TCP receives mechanical impedance. To do. The following equation (1) is an equation of motion for impedance control.
Figure 2016221653

(1)式の左辺は、TCPの位置Sの2階微分値に仮想慣性係数mを乗算した第1項と、TCPの位置Sの微分値に仮想粘性係数dを乗算した第2項と、TCPの位置Sに仮想弾性係数kを乗算した第3項とによって構成される。(1)式の右辺は、目標力fStから現実の力fを減算した力偏差ΔfS(t)によって構成される。(1)式における微分とは、時間による微分を意味する。ロボット1が行う工程において、目標力fStとして一定値が設定される場合もあるし、目標力fStとして時間の関数が設定される場合もある。 The left side of the equation (1) is a first term obtained by multiplying the second-order differential value of the TCP position S by the virtual inertia coefficient m, a second term obtained by multiplying the differential value of the TCP position S by the virtual viscosity coefficient d, And a third term obtained by multiplying the position S of the TCP by the virtual elastic coefficient k. The right side of the equation (1) is constituted by a force deviation Δf S (t) obtained by subtracting the actual force f from the target force f St. The differentiation in the equation (1) means differentiation with time. In the step of the robot 1 performs, to some cases a constant value is set as the target force f St, there is a case where a function of time as the target force f St is set.

仮想慣性係数mはTCPが仮想的に有する質量を意味し、仮想粘性係数dはTCPが仮想的に受ける粘性抵抗を意味し、仮想弾性係数kはTCPが仮想的に受ける弾性力のバネ定数を意味する。各係数m,d,kは方向ごとに異なる値に設定されてもよいし、方向に拘わらず共通の値に設定されてもよい。制御装置3は、目標位置Stに、力由来補正量ΔSを加算することにより、インピーダンス制御を考慮した動作位置(St+ΔS)を特定する。 The virtual inertia coefficient m means the mass that the TCP virtually has, the virtual viscosity coefficient d means the viscous resistance that the TCP virtually receives, and the virtual elastic coefficient k is the spring constant of the elastic force that the TCP virtually receives. means. Each coefficient m, d, k may be set to a different value for each direction, or may be set to a common value regardless of the direction. Control device 3, the target position S t, by adding a force from the correction amount [Delta] S, specifying the operating position in consideration of the impedance control (S t + ΔS).

そして、制御装置3は、対応関係U1に基づいて、ロボット座標系を規定する各軸の方向の動作位置(St+ΔS)を、各モーターM1〜M6の目標の回転角度である目標角度Dtに変換する。そして、制御装置3は、目標角度DtからモーターM1〜M6の現実の回転角度であるエンコーダーE1〜E6の出力Daを減算することにより、駆動位置偏差De(=Dt−Da)を算出する。そして、制御装置3は、駆動位置偏差Deに位置制御ゲインKpを乗算した値と、現実の回転角度Daの時間微分値である駆動速度との差である駆動速度偏差に、速度制御ゲインKvを乗算した値とを加算することにより、制御量Dcを導出する。なお、位置制御ゲインKpおよび速度制御ゲインKvは、比例成分だけでなく微分成分や積分成分にかかる制御ゲインを含んでもよい。制御量Dcは、モーターM1〜M6のそれぞれについて特定される。以上説明した構成により、制御装置3は、目標位置Stと目標力fStとに基づいてアームAをインピーダンス制御することができる。 Then, based on the correspondence relationship U1, the control device 3 sets the operation position (S t + ΔS) in the direction of each axis that defines the robot coordinate system to the target angle D t that is the target rotation angle of each motor M1 to M6. Convert to Then, the control unit 3, by subtracting the output D a of the encoder E1~E6 from the target angle D t is a rotation angle of the real motor M1-M6, the drive position deviation D e (= D t -D a ) Is calculated. Then, the control device 3, a value obtained by multiplying the position control gain K p to the driving position deviation D e, the driving speed deviation which is a difference between the driving speed is the time differential value of the actual rotational angle D a, the speed control The control amount D c is derived by adding the value multiplied by the gain K v . Note that the position control gain K p and the speed control gain K v may include not only a proportional component but also a control gain related to a differential component and an integral component. The control amount D c is specified for each of the motors M1 to M6. Thus the configuration described, the controller 3 is able to impedance control arm A on the basis of the target position S t and the target force f St.

教示端末4には、制御装置3に目標位置Stと目標力fStとを教示するための教示プログラムがインストールされている。教示端末4は、ディスプレイ43やプロセッサーやRAMやROMを備え、これらのハードウェア資源が制御プログラムと協働する。これにより、図2に示すように、教示端末4は、表示制御部41と教示部42として機能する。 The teaching terminal 4, teaching program for teaching a target position S t and the target force f St is installed in the control unit 3. The teaching terminal 4 includes a display 43, a processor, a RAM, and a ROM, and these hardware resources cooperate with the control program. Thereby, as shown in FIG. 2, the teaching terminal 4 functions as a display control unit 41 and a teaching unit 42.

教示部42は、教示者の操作に応じて目標力fstと目標位置Sを指定するコマンドを生成して制御装置3に出力する。教示部42はコマンド生成指示を受け付けるための教示画面をディスプレイ43に表示する。教示部42は工程毎にコマンドを生成し、ロボット1による一連の作業、すなわちマニュピレーターの一連の動作を複数のコマンドによって定義する。このコマンドは、例えば「Move P30 FC1 ! D50; g_StepID = 9 ! 」のように表記される。この表記例では、TCPの移動を指示するコマンド「Move」に対して、目標パラメーターとして「P30 FC1」が設定されている。「P30」はTCPについて別途定められた目標位置Stを示す関数である。「FC1」はTCPまたは力制御座標原点について別途定められた目標力fStを示す関数である。またこのコマンドにおいては、「D50」が表すコマンド実行開始から、Moveコマンドで予定された時間の50パーセントを経過した位置について、「g_StepID = 9」が工程IDとして「9」を定義している。工程IDはコマンドで区切られる工程の識別子であるが、このように工程中の特定の期間についての識別子として用いてもよい。教示者は、教示部42が表示する教示画面を介して教示端末4を操作し、このようなコマンドを制御装置3に出力させることによって、目標位置Stと目標力Fstとを制御装置3に記憶させることができる。目標位置Stと目標力Fstとを指定するコマンド群は、実行順に記述され、一連の複数のコマンドを含む教示ファイルとして制御装置3に記憶される。本実施例の教示とは、このようにして目標位置Stと目標力Fstとをロボット1に記憶させることである。 Teaching unit 42 outputs the target force f st and the target position S controller 3 generates a command that specifies t in accordance with the operation of the caregiver. The teaching unit 42 displays a teaching screen for receiving a command generation instruction on the display 43. The teaching unit 42 generates a command for each process, and defines a series of operations by the robot 1, that is, a series of operations of the manipulator by a plurality of commands. This command is expressed as, for example, “Move P30 FC1! D50; g_StepID = 9!”. In this notation example, “P30 FC1” is set as the target parameter for the command “Move” instructing TCP movement. "P30" is a function indicating the target position S t, which is separately defined for TCP. “FC1” is a function indicating a target force f St determined separately for TCP or force control coordinate origin. In this command, “g_StepID = 9” defines “9” as a process ID at a position where 50% of the time scheduled by the Move command has elapsed since the start of command execution represented by “D50”. The process ID is an identifier of a process delimited by a command, but may be used as an identifier for a specific period in the process. The teacher operates the teaching terminal 4 via the teaching screen displayed by the teaching unit 42 and causes the control device 3 to output such a command, thereby storing the target position St and the target force Fst in the control device 3. Can be made. A command group for specifying the target position St and the target force Fst is described in the order of execution, and is stored in the control device 3 as a teaching file including a series of a plurality of commands. The teaching of the present embodiment is to store the target position St and the target force Fst in the robot 1 in this way.

表示制御部41は、教示者が設定する目標位置Sと目標力Fstとを教示部42から取得し、制御装置3から力由来補正量ΔSと作用力fとを取得する。表示制御部41は、目標位置Sと力由来補正量ΔSとに基づいて動作位置を導出し、動作位置、目標位置等をモニター画面に表示する。 The display control unit 41 acquires the target position S t where caregiver to set the target force F st from the teaching unit 42 acquires the force from the correction amount ΔS and action force f s from the control device 3. The display control unit 41 derives the operation position based on the target position St and the force-derived correction amount ΔS, and displays the operation position, the target position, and the like on the monitor screen.

教示端末4は、表示制御部41が表示するモニター画面と、教示部42がコマンドの入力操作を受け付ける教示画面とを、ディプレイ43の一画面に表示することもできるし、教示者の要求に応じてモニター画面と教示画面とを切り換えることもできる。従って教示端末4はモニター画面に表示された目標軌跡と動作軌跡とに基づく教示者からの指示を、教示画面を介して受け付けることができる。   The teaching terminal 4 can display a monitor screen displayed by the display control unit 41 and a teaching screen in which the teaching unit 42 receives a command input operation on one screen of the display 43. The monitor screen and teaching screen can be switched accordingly. Therefore, the teaching terminal 4 can accept an instruction from the teacher based on the target locus and the operation locus displayed on the monitor screen via the teaching screen.

ここで表示制御部41が動作位置、目標位置等を表示するモニター画面の構成例について説明する。表示制御部41は、図3に示すモニター画面に、XYモニター101、XZモニター102、YZモニター103、Fxモニター111、Fyモニター112、Fzモニター113、Txモニター114、Tyモニター115、Tzモニター116、ステップモニター121、表示区間設定ボックス122a、122b、122c、xモニター131、yモニター132、zモニター133、Rzモニター134、Ryモニター136、Rxモニター137、工程表125、速度計141−146を配置する。教示者が教示ファイルを指定してモニター画面の表示を教示端末4に要求すると、表示制御部41は、教示ファイルに記述された一連のコマンドの開始から終了までの期間(区間)について、モニター画面に目標位置、動作位置、作用力、力由来補正量ΔS、速度等を以下のように表示する。   Here, a configuration example of a monitor screen on which the display control unit 41 displays an operation position, a target position, and the like will be described. The display control unit 41 displays the XY monitor 101, the XZ monitor 102, the YZ monitor 103, the Fx monitor 111, the Fy monitor 112, the Fz monitor 113, the Tx monitor 114, the Ty monitor 115, the Tz monitor 116, Step monitor 121, display section setting boxes 122a, 122b, 122c, x monitor 131, y monitor 132, z monitor 133, Rz monitor 134, Ry monitor 136, Rx monitor 137, process table 125, and speedometer 141-146 are arranged. . When the teacher specifies the teaching file and requests the teaching terminal 4 to display the monitor screen, the display control unit 41 monitors the monitor screen for a period (section) from the start to the end of a series of commands described in the teaching file. The target position, operation position, acting force, force-derived correction amount ΔS, speed, etc. are displayed as follows.

表示制御部41は教示部42から取得する目標位置Sと制御装置3の制御部32から動作位置を取得する。そして表示制御部41は、3次元の目標位置と3次元の動作位置とを同一の2次元座標平面に投影した軌跡をXYモニター101、XZモニター102、YZモニター103に表示する。XYモニター101、XZモニター102、YZモニター103の縦軸および横軸は位置(mm)である。具体的には、XYモニター101は、3次元の目標位置と3次元の動作位置とをXY座標平面に投影した軌跡を表示する領域である。XZモニター102は、3次元の目標位置と3次元の動作位置とをXZ座標平面に投影した軌跡を表示する領域である。YZモニター103は、3次元の目標位置と3次元の動作位置とをYZ座標平面に投影した軌跡を表示する領域である。なお、目標位置の軌跡と動作位置の軌跡をどのような形態で表示するかについては、軌跡の表示色を変えるなど、2つの軌跡が識別可能であれば良いが、図3においては目標位置の軌跡は点線で表示し、動作位置の軌跡は実線で表示している。また目標位置と動作位置が一致している部分については、動作位置の軌跡を実線で表示している。このようにして目標位置と動作位置とが同一座標平面に表示されることによって、教示者はインピーダンス制御が行われる場合に生ずる目標位置と動作位置と、これらの差とを容易に把握することができる。 The display control unit 41 acquires the operating position from the control unit 32 of the target position S t and the control unit 3 to acquire the teaching unit 42. Then, the display control unit 41 displays on the XY monitor 101, the XZ monitor 102, and the YZ monitor 103 a trajectory obtained by projecting the three-dimensional target position and the three-dimensional operation position onto the same two-dimensional coordinate plane. The vertical and horizontal axes of the XY monitor 101, the XZ monitor 102, and the YZ monitor 103 are positions (mm). Specifically, the XY monitor 101 is an area for displaying a locus obtained by projecting a three-dimensional target position and a three-dimensional operation position onto an XY coordinate plane. The XZ monitor 102 is an area for displaying a locus obtained by projecting a three-dimensional target position and a three-dimensional operation position onto the XZ coordinate plane. The YZ monitor 103 is an area for displaying a locus obtained by projecting a three-dimensional target position and a three-dimensional operation position onto the YZ coordinate plane. It should be noted that the display of the trajectory of the target position and the trajectory of the operation position may be performed as long as two trajectories can be identified, such as changing the display color of the trajectory. The locus is displayed as a dotted line, and the locus of the operating position is displayed as a solid line. In addition, for the portion where the target position and the operation position coincide with each other, the locus of the operation position is displayed with a solid line. By displaying the target position and the operating position on the same coordinate plane in this way, the teacher can easily grasp the target position and the operating position that occur when impedance control is performed, and the difference between them. it can.

Fxモニター111は、力覚センサーFSの検出値から座標変換された作用力fを時間の関数として折れ線グラフで表示する領域である。Fyモニター112は、力覚センサーFSの検出値から座標変換された作用力fを時間の関数として折れ線グラフで表示する領域である。Fzモニター113は、力覚センサーFSの検出値から座標変換された作用力fを時間の関数として折れ線グラフで表示する領域である。Fxモニター111、Fyモニター112、Fzモニター113の横軸は時間(秒)、縦軸は力(N)である。Txモニター114は、力覚センサーFSの検出値から座標変換された作用力fRXを時間の関数として折れ線グラフで表示する領域である。Tyモニター114は、力覚センサーFSの検出値から座標変換された作用力fRYを時間の関数として折れ線グラフで表示する領域である。Tzモニター114は、力覚センサーFSの検出値から座標変換された作用力fRZを時間の関数として折れ線グラフで表示する領域である。Txモニター114、Tyモニター115、Tzモニター116の横軸は時間(秒)、縦軸はトルク(Nm)である。 Fx monitor 111 is an area for displaying a line graph of the action force f X, which is the coordinate transformation from the detection value of the force sensor FS as a function of time. Fy monitor 112 is an area for displaying a line graph of the action force f Y, which is the coordinate transformation from the detection value of the force sensor FS as a function of time. Fz monitor 113 is an area for displaying a line graph of the action force f Z, which is the coordinate transformation from the detection value of the force sensor FS as a function of time. The horizontal axes of the Fx monitor 111, Fy monitor 112, and Fz monitor 113 are time (seconds), and the vertical axis is force (N). The Tx monitor 114 is an area for displaying the acting force f RX coordinate-converted from the detection value of the force sensor FS as a function of time in a line graph. The Ty monitor 114 is an area for displaying the acting force fRY coordinate-converted from the detection value of the force sensor FS as a line graph as a function of time. The Tz monitor 114 is an area for displaying the acting force f RZ coordinate-transformed from the detection value of the force sensor FS as a line graph as a function of time. The horizontal axes of the Tx monitor 114, Ty monitor 115, and Tz monitor 116 are time (seconds), and the vertical axis is torque (Nm).

ステップモニター121は、経過時間と工程の対応関係を表示する領域である。ステップモニター121の横軸は時間(秒)、縦軸は工程IDである。工程IDによって識別される作業内容は工程表125に表示される。表示区間設定ボックス122aは、XYモニター101、XZモニター102、YZモニター103、Fxモニター111、Fyモニター112、Fzモニター113、Txモニター114、Tyモニター115、Tzモニター116、xモニター131、yモニター132、zモニター133、Rzモニター134、Ryモニター136、Rxモニター137に目標位置、動作位置等を表示する工程の工程IDを入力するためのドロップダウンテキストボックスである。表示区間設定ボックス122bは、XYモニター101、XZモニター102、YZモニター103、Fxモニター111、Fyモニター112、Fzモニター113、Txモニター114、Tyモニター115、Tzモニター116、xモニター131、yモニター132、zモニター133、Rzモニター134、Ryモニター136、Rxモニター137に目標位置、動作位置等を表示する開始時間を入力するためのドロップダウンテキストボックスである。表示区間設定ボックス122cは、XYモニター101、XZモニター102、YZモニター103、Fxモニター111、Fyモニター112、Fzモニター113、Txモニター114、Tyモニター115、Tzモニター116、xモニター131、yモニター132、zモニター133、Rzモニター134、Ryモニター136、Rxモニター137、xモニター131、yモニター132、zモニター133、Rzモニター134、Ryモニター136、Rxモニター137に目標位置、動作位置等を表示する終了時間を入力するためのドロップダウンテキストボックスである。教示者は、表示区間設定ボックス122a、122b、122cに工程ID、もしくは、開始時間及び終了時間を入力することによって、教示ファイルに記述された一連のコマンドによって実行される作業の一部の区間について、モニター画面に動作位置、作用力、力由来補正量ΔS、動作位置速度等を表示させることができる。また、工程IDと、開始時間及び終了時間とを組み合わせて区間指定できるようにしてもよい。この場合、入力された工程IDのコマンドの実行開始からの経過時間に対して開始時間と終了時間が入力されることになる。   The step monitor 121 is an area for displaying the correspondence between the elapsed time and the process. The horizontal axis of the step monitor 121 is time (seconds), and the vertical axis is the process ID. The work content identified by the process ID is displayed in the process table 125. The display section setting box 122a includes an XY monitor 101, an XZ monitor 102, a YZ monitor 103, an Fx monitor 111, an Fy monitor 112, an Fz monitor 113, a Tx monitor 114, a Ty monitor 115, a Tz monitor 116, an x monitor 131, and a y monitor 132. , Z monitor 133, Rz monitor 134, Ry monitor 136, and Rx monitor 137 are drop-down text boxes for inputting a process ID of a process for displaying a target position, an operation position, and the like. The display section setting box 122b includes an XY monitor 101, an XZ monitor 102, a YZ monitor 103, an Fx monitor 111, an Fy monitor 112, an Fz monitor 113, a Tx monitor 114, a Ty monitor 115, a Tz monitor 116, an x monitor 131, and a y monitor 132. , Z monitor 133, Rz monitor 134, Ry monitor 136, and Rx monitor 137 are drop-down text boxes for inputting a start time for displaying a target position, an operation position, and the like. The display section setting box 122c includes an XY monitor 101, an XZ monitor 102, a YZ monitor 103, an Fx monitor 111, an Fy monitor 112, an Fz monitor 113, a Tx monitor 114, a Ty monitor 115, a Tz monitor 116, an x monitor 131, and a y monitor 132. , Z monitor 133, Rz monitor 134, Ry monitor 136, Rx monitor 137, x monitor 131, y monitor 132, z monitor 133, Rz monitor 134, Ry monitor 136, Rx monitor 137, the target position, the operation position, etc. are displayed. This is a drop-down text box for entering the end time. The instructor inputs a process ID or a start time and an end time in the display interval setting boxes 122a, 122b, and 122c, so that a part of the work executed by a series of commands described in the teaching file is performed. The operation position, acting force, force-derived correction amount ΔS, operation position speed, and the like can be displayed on the monitor screen. Moreover, you may enable it to specify an area combining process ID, start time, and end time. In this case, the start time and the end time are input with respect to the elapsed time from the start of execution of the command of the input process ID.

xモニター131は、力由来補正量ΔSのX成分を時間の関数として折れ線グラフで表示する領域である。yモニター131は、力由来補正量ΔSのY成分を時間の関数として折れ線グラフで表示する領域である。zモニターは、力由来補正量ΔSのZ成分を時間の関数として折れ線グラフで表示する領域である。xモニター131、yモニター132、zモニター133の横軸は時間(秒)、縦軸は(mm)である。Rzモニター134は、力由来補正量ΔSのRz成分を時間の関数として折れ線グラフで表示する領域である。Ryモニター134は、力由来補正量ΔSのRy成分を時間の関数として折れ線グラフで表示する領域である。Rzモニター134は、力由来補正量ΔSのRz成分を時間の関数として折れ線グラフで表示する領域である。Rzモニター134、Ryモニター136、Rxモニター137の横軸は時間(秒)、縦軸は(度)である。   The x monitor 131 is an area for displaying the X component of the force-derived correction amount ΔS in a line graph as a function of time. The y monitor 131 is an area for displaying the Y component of the force-derived correction amount ΔS as a line graph as a function of time. The z monitor is an area in which the Z component of the force-derived correction amount ΔS is displayed as a line graph as a function of time. The horizontal axis of the x monitor 131, the y monitor 132, and the z monitor 133 is time (seconds), and the vertical axis is (mm). The Rz monitor 134 is an area for displaying the Rz component of the force-derived correction amount ΔS as a function of time as a line graph. The Ry monitor 134 is an area for displaying the Ry component of the force-derived correction amount ΔS as a line graph as a function of time. The Rz monitor 134 is an area for displaying the Rz component of the force-derived correction amount ΔS as a function of time as a line graph. The horizontal axis of the Rz monitor 134, Ry monitor 136, and Rx monitor 137 is time (seconds), and the vertical axis is (degrees).

速度計141は、動作位置の速度のX成分を回転針で表示する領域である。速度計142は、動作位置の速度のY成分を回転針で表示する領域である。速度計143は、動作位置の速度のZ成分を回転針で表示する領域である。速度計141−143の単位はmm/秒である。速度計144は、動作位置の速度のRZ成分を回転針で表示する領域である。速度計145は、動作位置の速度のRY成分を回転針で表示する領域である。速度計146は、動作位置の速度のRX成分を回転針で表示する領域である。速度計144−146の単位は度/秒である。   The speedometer 141 is an area in which the X component of the speed at the operating position is displayed with a rotating needle. The speedometer 142 is an area for displaying the Y component of the speed at the operating position with a rotating needle. The speedometer 143 is an area for displaying the Z component of the speed at the operating position with a rotating needle. The unit of the speedometer 141-143 is mm / second. The speedometer 144 is an area in which the RZ component of the speed at the operating position is displayed with a rotating needle. The speedometer 145 is an area for displaying the RY component of the speed at the operating position with a rotating needle. The speedometer 146 is an area in which the RX component of the speed at the operating position is displayed with a rotating needle. The unit of the speedometer 144-146 is degrees / second.

表示制御部41は、モードに応じてモニター画面の表示形態を次のように切り換える。リアルタイムモードでは、コマンド実行によるロボット1の動作結果としての動作位置、作用力、力由来補正量ΔS、動作位置速度等がロボット1の動作中にリアルタイムで、すなわちハードウェア性能による不可避的な遅延を除けばロボット1の動作と同期して、モニター画面に表示される。したがってリアルタイムモードでは、表示制御部41は、制御装置3から力由来補正量および作用力を取得しながら動作位置を導出して動作位置の軌跡を描画する。再生モードでは、コマンド実行によるロボット1の動作結果としての動作位置、作用力、力由来補正量ΔS、動作位置速度等がログに基づいてモニター画面に動画表示される。このようなログは、コマンド実行中に教示部42または表示制御部41が制御装置3から取得してRAMに記憶する。   The display control unit 41 switches the display form of the monitor screen as follows according to the mode. In the real-time mode, the operation position, action force, force-derived correction amount ΔS, operation position speed, etc. as the operation result of the robot 1 by command execution are in real time during the operation of the robot 1, that is, an inevitable delay due to hardware performance. Otherwise, it is displayed on the monitor screen in synchronization with the operation of the robot 1. Therefore, in the real-time mode, the display control unit 41 draws the locus of the operation position by deriving the operation position while acquiring the force-derived correction amount and the acting force from the control device 3. In the reproduction mode, the motion position, the acting force, the force-derived correction amount ΔS, the motion position speed, and the like as the motion result of the robot 1 by the command execution are displayed as moving images on the monitor screen. Such a log is acquired from the control device 3 by the teaching unit 42 or the display control unit 41 during command execution and stored in the RAM.

また表示制御部41は、教示者の要求に応じて目標位置と動作位置の軌跡をxyモニター101、xzモニター102、yzモニター103に表示する対象領域と表示倍率を変更する。具体的には例えば、図3に示すようにxyモニター101が表示されている状態において教示者から表示倍率変更要求を取得すると、表示制御部41は、図4Aに示すように目標位置と動作位置の軌跡をxyモニター101に表示する対象領域を縮小し、軌跡の表示倍率を大きくすればよい。また、図4Aに示すようにxyモニター101が表示されている状態において教示者から表示領域変更要求を取得すると、表示制御部41は、図4Bに示すように目標位置と動作位置の軌跡をxyモニター101に表示する対象領域を、表示倍率を維持して変更すればよい。表示制御部41は、表示倍率変更要求や表示領域変更要求を、キーボードやマウスやタッチパネルを用いて教示者から取得することができる。   Further, the display control unit 41 changes the target area and the display magnification for displaying the locus of the target position and the operation position on the xy monitor 101, the xz monitor 102, and the yz monitor 103 in response to a teacher's request. Specifically, for example, when the display magnification change request is acquired from the teacher in a state where the xy monitor 101 is displayed as shown in FIG. 3, the display control unit 41 displays the target position and the operation position as shown in FIG. 4A. It is only necessary to reduce the target area for displaying the trajectory on the xy monitor 101 and increase the trajectory display magnification. Further, when the display area change request is acquired from the teacher while the xy monitor 101 is displayed as shown in FIG. 4A, the display control unit 41 displays the locus of the target position and the operation position as xy as shown in FIG. 4B. The target area displayed on the monitor 101 may be changed while maintaining the display magnification. The display control unit 41 can acquire a display magnification change request or a display area change request from a teacher using a keyboard, a mouse, or a touch panel.

また表示制御部41は、図4Aに示すように目標位置と動作位置の軌跡にTCPの進行方向(目標位置と動作位置の変化方向)を表示しても良い。例えば、工程毎に軌跡上に進行方向を矢印で表示しても良いし、2以上の所定数の連続する工程毎に1つの矢印で進行方向を表示しても良いし、全行程を通じた目標位置の軌跡と動作位置の軌跡に1つずつの矢印で進行方向を表示しても良い。進行方向を示す形態は、三角形等の図形でも良い。   Further, the display control unit 41 may display the TCP traveling direction (the change direction of the target position and the operation position) on the locus of the target position and the operation position as shown in FIG. 4A. For example, the direction of travel may be displayed with an arrow on the trajectory for each process, or the direction of travel may be displayed with one arrow for each of a predetermined number of consecutive processes of 2 or more, or the target throughout the entire process The traveling direction may be displayed by one arrow for each of the position locus and the operation position locus. The form indicating the traveling direction may be a figure such as a triangle.

以上説明した実施形態によると、目標位置と動作位置とが比較可能に画面表示されるため、教示者は、力制御モードにおける目標位置と動作位置とを検証しながらコマンドのパラメーター(目標位置と目標力)を設定することができる。したがって、コマンドのパラメーターを最適化する作業が容易になり、教示に要する時間を短縮することができる。そして目標位置と動作位置とが同一座標系に表示されることで、目標位置と動作位置との比較はさらに容易になる。また目標位置と動作位置の軌跡を表示したり、目標位置と動作位置を動画表示したり、目標位置と動作位置の変化方向を表示したり、目標位置と動作位置の表示区間を設定できるため、目標位置と動作位置との比較はさらに容易である。   According to the embodiment described above, the target position and the operation position are displayed on the screen so that the target position and the operation position can be compared. Therefore, the instructor can check the target position and the operation position in the force control mode while verifying the command parameters (target position and target position). Force) can be set. Therefore, the work of optimizing the command parameters is facilitated, and the time required for teaching can be shortened. Since the target position and the operation position are displayed in the same coordinate system, the comparison between the target position and the operation position is further facilitated. You can also display the locus of the target position and motion position, display the video of the target position and motion position, display the change direction of the target position and motion position, and set the display section of the target position and motion position, The comparison between the target position and the operation position is easier.

(2)他の実施形態
上記実施形態では、制御装置3の制御部32が力由来補正量ΔSを導出し、力由来補正量ΔSと目標位置Sとに基づいて教示端末4の表示制御部41が動作位置を導出する例を説明したが、教示端末4が作用力fと目標力fstとに基づいて力由来補正量ΔSを導出しても良いし、また、教示端末4は、動作位置を導出する代わりに、制御装置3の制御部32から取得しても良い。
(2) In another embodiment the above embodiment, the control unit control unit 32 of 3 to derive a force derived correction amount [Delta] S, the force from the correction amount [Delta] S and the display control unit of the target position S t and the teaching terminal 4 based on the 41 illustrates the example in which the operation position is derived, the teaching terminal 4 may derive the force-derived correction amount ΔS based on the acting force f s and the target force f st, and the teaching terminal 4 Instead of deriving the operation position, it may be acquired from the control unit 32 of the control device 3.

また上記実施形態では、力由来補正量ΔSを含む動作位置と目標位置との軌跡表示を示したが、目標位置とエンコーダーの検出値が示す位置とを示してもよい。また本発明は、ロボット1を教示する段階で教示端末4に目標位置と動作位置とを表示する形態に限らず、教示後にロボット1が稼働している段階に教示端末4やティーチングペンダント5や制御装置3の画面に目標位置と動作位置とを表示する形態にも適用できる。   In the above embodiment, the locus display of the operation position including the force-derived correction amount ΔS and the target position is shown, but the target position and the position indicated by the detection value of the encoder may be indicated. The present invention is not limited to a mode in which the target position and the operation position are displayed on the teaching terminal 4 at the stage of teaching the robot 1, but the teaching terminal 4, the teaching pendant 5, and the control when the robot 1 is operating after teaching. The present invention can also be applied to a form in which the target position and the operation position are displayed on the screen of the apparatus 3.

また上記実施形態では、目標位置と動作位置とを2成分ずつ二次元座標系に表示したが、目標位置と動作位置とを1成分ずつ時間の関数として表示しても良い。例えば、上述した目標位置と動作位置のX成分をxモニター131と同様に時間の関数として表示しても良い。また、目標位置のXYZ成分と動作位置のXYZ成分とを3次元コンピューターグラフィックスで表示しても良い。   In the above embodiment, the target position and the motion position are displayed in the two-dimensional coordinate system by two components. However, the target position and the motion position may be displayed by one component as a function of time. For example, the X component of the target position and the operation position described above may be displayed as a function of time as with the x monitor 131. Further, the XYZ component of the target position and the XYZ component of the operation position may be displayed by three-dimensional computer graphics.

また上記実施形態では、6軸単腕ロボットの制御装置に本発明を適用した例を説明したが、本発明が5軸以下のロボットに適用できることも、7軸以上のロボットに適用できることも、双腕ロボットに適用できることも、いうまでもない。   In the above embodiment, an example in which the present invention is applied to a control device for a 6-axis single-arm robot has been described. However, the present invention can be applied to a robot having 5 axes or less, a robot having 7 axes or more, Needless to say, it can be applied to arm robots.

1…ロボット、2…エンドエフェクター、3…制御装置、4…教示端末、41…姿勢設定部、42…導出部、5…ティーチングペンダント、A1〜A6…アーム部材、E1〜E6…エンコーダー、FS…力覚センサー、GP…重心位置、J1〜J6…関節、M1〜M6…モーター、W…ワーク、d…仮想粘性係数、k…仮想弾性係数、m…仮想慣性係数 DESCRIPTION OF SYMBOLS 1 ... Robot, 2 ... End effector, 3 ... Control apparatus, 4 ... Teaching terminal, 41 ... Posture setting part, 42 ... Derivation part, 5 ... Teaching pendant, A1-A6 ... Arm member, E1-E6 ... Encoder, FS ... Force sensor, GP ... center of gravity, J1-J6 ... joint, M1-M6 ... motor, W ... work, d ... virtual viscosity coefficient, k ... virtual elastic coefficient, m ... virtual inertia coefficient

Claims (11)

マニピュレーターと、
前記マニピュレーターに設けられる力検出器と、
目標位置に基づいて前記マニピュレーターを駆動するアクチュエーターと、
を備えるロボットを制御するロボット制御装置において、
目標力と前記力検出器の出力とに基づいて導出される前記マニピュレーターの動作位置と、前記目標位置とを画面に表示する表示制御部、
を備えるロボット制御装置。
A manipulator,
A force detector provided in the manipulator;
An actuator for driving the manipulator based on a target position;
In a robot control device for controlling a robot comprising:
A display control unit for displaying on the screen the operation position of the manipulator derived based on the target force and the output of the force detector, and the target position;
A robot control device comprising:
前記表示制御部は、前記目標位置と前記動作位置とを同一座標平面に表示する、
請求項1に記載のロボット制御装置。
The display control unit displays the target position and the operation position on the same coordinate plane.
The robot control apparatus according to claim 1.
前記表示制御部は、3次元の前記目標位置と3次元の前記動作位置とを2次元座標平面に投影した軌跡を表示する、
請求項2に記載のロボット制御装置。
The display control unit displays a trajectory obtained by projecting the three-dimensional target position and the three-dimensional motion position onto a two-dimensional coordinate plane;
The robot control apparatus according to claim 2.
前記表示制御部は、前記目標位置と前記動作位置とを時間の関数として表示する、
請求項1から3のいずれか一項に記載のロボット制御装置。
The display control unit displays the target position and the operation position as a function of time;
The robot controller according to any one of claims 1 to 3.
前記表示制御部は、表示区間を取得し、前記表示区間に対応する前記目標位置と前記動作位置を表示する、
請求項1から4のいずれか一項に記載のロボット制御装置。
The display control unit acquires a display section, and displays the target position and the operation position corresponding to the display section.
The robot controller according to any one of claims 1 to 4.
前記表示区間は、前記マニピュレーターを制御するコマンドの識別子によって特定される、
請求項5に記載のロボット制御装置。
The display section is specified by an identifier of a command that controls the manipulator.
The robot control apparatus according to claim 5.
前記表示区間は、時間によって特定される、
請求項5または6に記載のロボット制御装置。
The display section is specified by time.
The robot control apparatus according to claim 5 or 6.
前記表示制御部は、前記目標位置と前記動作位置の変化方向を表示する、
請求項1から7のいずれか一項に記載のロボット制御装置。
The display control unit displays a change direction of the target position and the operation position;
The robot control apparatus according to any one of claims 1 to 7.
前記表示制御部は、前記目標位置と前記動作位置をリアルタイムに表示する、
請求項1から8のいずれか一項に記載のロボット制御装置。
The display control unit displays the target position and the operation position in real time.
The robot control apparatus according to any one of claims 1 to 8.
表示された前記目標位置と前記動作位置とに基づく教示者の教示を受け付ける教示部をさらに備える、
請求項1から9のいずれか一項に記載のロボット制御装置。
A teaching unit for receiving a teaching of a teacher based on the displayed target position and the operation position;
The robot control device according to any one of claims 1 to 9.
請求項1に記載の前記ロボットと前記ロボット制御装置とを備える、
ロボットシステム。
The robot according to claim 1 and the robot controller.
Robot system.
JP2015112890A 2015-06-03 2015-06-03 Robot control device and robot system Withdrawn JP2016221653A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2015112890A JP2016221653A (en) 2015-06-03 2015-06-03 Robot control device and robot system
CN201610380562.2A CN106239516B (en) 2015-06-03 2016-06-01 Robot control device, robot, and robot system
US15/171,326 US10112297B2 (en) 2015-06-03 2016-06-02 Robot control apparatus, robot, and robot system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015112890A JP2016221653A (en) 2015-06-03 2015-06-03 Robot control device and robot system

Publications (1)

Publication Number Publication Date
JP2016221653A true JP2016221653A (en) 2016-12-28

Family

ID=57746333

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015112890A Withdrawn JP2016221653A (en) 2015-06-03 2015-06-03 Robot control device and robot system

Country Status (1)

Country Link
JP (1) JP2016221653A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019008337A1 (en) 2018-12-07 2020-06-10 Fanuc Corporation CONTROL DEVICE OF A ROBOT FOR CARRYING OUT A MANUAL OPERATION BY MEANS OF A CONTROL DEVICE
US10836039B2 (en) 2017-02-17 2020-11-17 Seiko Epson Corporation Control device and robot system
JP7171102B1 (en) 2022-03-22 2022-11-15 株式会社トライフォース・マネジメント Method of using force sensor, program for using force sensor and force sensor

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6445586A (en) * 1987-08-13 1989-02-20 Omron Tateisi Electronics Co Robot controller
JPH05150826A (en) * 1991-11-26 1993-06-18 Hitachi Constr Mach Co Ltd Robot controller
JPH05204442A (en) * 1992-01-24 1993-08-13 Matsushita Electric Ind Co Ltd Teaching device for robot
JPH06289923A (en) * 1993-04-02 1994-10-18 Hitachi Metals Ltd Automatic teaching method for robot
JPH07266269A (en) * 1994-03-25 1995-10-17 Hitachi Metals Ltd Machining method using force control of robot
JPH0985655A (en) * 1995-09-18 1997-03-31 Fanuc Ltd Robot teaching operation panel
JP2011045937A (en) * 2009-08-25 2011-03-10 Denso Wave Inc Robot system
JP2011224696A (en) * 2010-04-19 2011-11-10 Yaskawa Electric Corp Robot teaching replaying device and teaching replaying method
JP2014128857A (en) * 2012-12-28 2014-07-10 Yaskawa Electric Corp Robot teaching system and robot teaching method

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6445586A (en) * 1987-08-13 1989-02-20 Omron Tateisi Electronics Co Robot controller
JPH05150826A (en) * 1991-11-26 1993-06-18 Hitachi Constr Mach Co Ltd Robot controller
JPH05204442A (en) * 1992-01-24 1993-08-13 Matsushita Electric Ind Co Ltd Teaching device for robot
JPH06289923A (en) * 1993-04-02 1994-10-18 Hitachi Metals Ltd Automatic teaching method for robot
JPH07266269A (en) * 1994-03-25 1995-10-17 Hitachi Metals Ltd Machining method using force control of robot
JPH0985655A (en) * 1995-09-18 1997-03-31 Fanuc Ltd Robot teaching operation panel
JP2011045937A (en) * 2009-08-25 2011-03-10 Denso Wave Inc Robot system
JP2011224696A (en) * 2010-04-19 2011-11-10 Yaskawa Electric Corp Robot teaching replaying device and teaching replaying method
JP2014128857A (en) * 2012-12-28 2014-07-10 Yaskawa Electric Corp Robot teaching system and robot teaching method

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10836039B2 (en) 2017-02-17 2020-11-17 Seiko Epson Corporation Control device and robot system
DE102019008337A1 (en) 2018-12-07 2020-06-10 Fanuc Corporation CONTROL DEVICE OF A ROBOT FOR CARRYING OUT A MANUAL OPERATION BY MEANS OF A CONTROL DEVICE
US11858130B2 (en) 2018-12-07 2024-01-02 Fanuc Corporation Controller of robot for performing manual operation by operation device
JP7171102B1 (en) 2022-03-22 2022-11-15 株式会社トライフォース・マネジメント Method of using force sensor, program for using force sensor and force sensor
JP2023140173A (en) * 2022-03-22 2023-10-04 株式会社トライフォース・マネジメント Method of using force sensor, force sensor using program and force sensor
JP7417312B2 (en) 2022-03-22 2024-01-18 株式会社トライフォース・マネジメント How to use a force sensor, force sensor usage program, and force sensor

Similar Documents

Publication Publication Date Title
CN106239516B (en) Robot control device, robot, and robot system
JP6924145B2 (en) Robot teaching method and robot arm control device
US10173325B2 (en) Robot, robot control apparatus and robot system
US9481088B2 (en) Robot control device, robot, and robot system
US20190358817A1 (en) System and method for instructing a robot
US10864632B2 (en) Direct teaching method of robot
JP7363098B2 (en) How to control the robot
WO2011021375A1 (en) Control device and control method for robot arm, assembly robot, control program for robot arm, and integrated electronic circuit for controlling robot arm
JP2015085445A (en) Robot control device, robot, and robot control method
JP2015202534A (en) Robot control device and robot system for robot moved according to input power
WO2018212265A1 (en) Robot system and robot system control method
JP2016190292A (en) Robot control apparatus, robot system, and robot control method
JP2016221653A (en) Robot control device and robot system
CN112405566A (en) Robot control device
WO2015137162A1 (en) Control device, robot system, and method for generating control data
Avalos et al. Real-time teleoperation with the Baxter robot and the Kinect sensor
JP6697544B2 (en) Optimizer and vertical articulated robot equipped with the same
US20220134571A1 (en) Display Control Method, Display Program, And Robot System
JP7423943B2 (en) Control method and robot system
JP6668629B2 (en) Robot controller and robot system
Mitsantisuk et al. Haptic human-robot collaboration system based on delta robot with gravity compensation
JP2021121451A (en) Teaching method and robot system
Yu et al. Manipulator handling device for assembly of large‐size panels
JP2016179523A (en) Robot control device and robot system
JP2020097101A (en) Robot device, robot system, robot device control method, method of manufacturing article using robot device, control program, and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180518

RD05 Notification of revocation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7425

Effective date: 20180906

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20181116

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190320

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190507

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20190708