JP2017030058A - Robot, robot control device and robot system - Google Patents

Robot, robot control device and robot system Download PDF

Info

Publication number
JP2017030058A
JP2017030058A JP2015149344A JP2015149344A JP2017030058A JP 2017030058 A JP2017030058 A JP 2017030058A JP 2015149344 A JP2015149344 A JP 2015149344A JP 2015149344 A JP2015149344 A JP 2015149344A JP 2017030058 A JP2017030058 A JP 2017030058A
Authority
JP
Japan
Prior art keywords
display
manipulator
robot
control unit
force
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2015149344A
Other languages
Japanese (ja)
Other versions
JP2017030058A5 (en
Inventor
泰裕 下平
Yasuhiro Shimodaira
泰裕 下平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2015149344A priority Critical patent/JP2017030058A/en
Priority to CN201610380562.2A priority patent/CN106239516B/en
Priority to US15/171,326 priority patent/US10112297B2/en
Publication of JP2017030058A publication Critical patent/JP2017030058A/en
Publication of JP2017030058A5 publication Critical patent/JP2017030058A5/ja
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technique for allowing a state of a manipulator to be easily recognized.SOLUTION: A robot includes a manipulator driven by drive sections and a force sensor. The drive sections are controlled on the basis of the force sensor, and the manipulator has an indicator displaying parameters related to a motion state of the manipulator.SELECTED DRAWING: Figure 2

Description

本発明は、ロボット、ロボット制御装置およびロボットシステムに関する。   The present invention relates to a robot, a robot control device, and a robot system.

ロボットの動作状態をディスプレイやティーチングペンダントに表示する技術が知られている(特許文献1,2、参照)。特許文献1,2において、ディスプレイやティーチングペンダントを視認することにより、ロボットの動作状態を認識できる。   A technique for displaying an operation state of a robot on a display or teaching pendant is known (see Patent Documents 1 and 2). In Patent Documents 1 and 2, by visually recognizing a display or a teaching pendant, the operation state of the robot can be recognized.

特開2007−196298号公報JP 2007-196298 A 特開2013−202731号公報JP2013-202731A

しかしながら、ディスプレイやティーチングペンダントに動作状態が表示されていても、ロボットのどの部分の動作状態を表しているかを直感的に認識することが困難であるという問題があった。また、動作状態を確認するためにディスプレイやティーチングペンダントを視認しなければならず、実際に動作しているロボットから一旦目を離さなければならないという問題があった。
本発明は、前記問題を解決するために創作されたものであって、マニュピレーターの状態を容易に認識できる技術の提供を目的とする。
However, even if the operation state is displayed on the display or the teaching pendant, there is a problem that it is difficult to intuitively recognize which part of the robot represents the operation state. In addition, there is a problem that the display or teaching pendant must be visually recognized in order to confirm the operation state, and the eye must be taken away from the actually operating robot.
The present invention was created to solve the above-described problems, and an object of the present invention is to provide a technique that can easily recognize the state of a manipulator.

前記目的を達成するためのロボットは、駆動部によって駆動されるマニュピレーターと、力覚センサーとを含むロボットであって、駆動部は、力覚センサーに基づいて制御され、マニュピレーターは、マニュピレーターの運動状態に関するパラメーターを表示する表示器を有する。   The robot for achieving the object includes a manipulator driven by a driving unit and a force sensor, and the driving unit is controlled based on the force sensor, and the manipulator is a motion state of the manipulator. Has a display for displaying the parameters.

前記の構成において、マニュピレーターの運動状態に関するパラメーターを表示する表示器がマニュピレーターに備えられる。これにより、マニュピレーターそのものを視認しながら表示器を視認できるとともに、表示器がマニュピレーターの運動状態を表していることを直感的に認識できる。また、力覚センサーに基づいてマニュピレーターを制御すると、マニュピレーターの運動状態が複雑となったり、予測困難となったりするが、表示器を視認することによりマニュピレーターの動作状態を容易に認識できる。   In the above-described configuration, the manipulator is provided with a display for displaying a parameter related to the motion state of the manipulator. Thereby, while visually recognizing the manipulator itself, the display device can be visually recognized, and it can be intuitively recognized that the display device represents the motion state of the manipulator. Further, when the manipulator is controlled based on the force sensor, the manipulator's motion state becomes complicated or difficult to predict, but the manipulator's operating state can be easily recognized by viewing the display.

なお請求項に記載された各手段の機能は、構成自体で機能が特定されるハードウェア資源、プログラムにより機能が特定されるハードウェア資源、又はそれらの組み合わせにより実現される。また、これら各手段の機能は、各々が物理的に互いに独立したハードウェア資源で実現されるものに限定されない。   Note that the function of each means described in the claims is realized by hardware resources whose function is specified by the configuration itself, hardware resources whose function is specified by a program, or a combination thereof. The functions of these means are not limited to those realized by hardware resources that are physically independent of each other.

ロボットシステムの模式図である。It is a schematic diagram of a robot system. ロボットの斜視図である。It is a perspective view of a robot. ロボットシステムのブロック図である。It is a block diagram of a robot system. パラメーターの一覧表である。It is a list of parameters. 表示器の正面図である。It is a front view of a display. 他の実施形態のロボットの斜視図である。It is a perspective view of the robot of other embodiments. 他の実施形態のロボットの斜視図である。It is a perspective view of the robot of other embodiments.

以下、本発明の実施の形態を以下の順序にしたがって添付図面を参照しながら説明する。なお、各図において対応する構成要素には同一の符号が付され、重複する説明は省略される。
(1)ロボットシステムの構成:
(2)他の実施形態:
Hereinafter, embodiments of the present invention will be described in the following order with reference to the accompanying drawings. In addition, the same code | symbol is attached | subjected to the corresponding component in each figure, and the overlapping description is abbreviate | omitted.
(1) Robot system configuration:
(2) Other embodiments:

(1)ロボットシステムの構成:
本発明の第一実施例にかかるロボットシステムは、図1に示すように、ロボット1と、制御装置3(ロボット制御装置)と、を備えている。制御装置3は、本発明のロボット制御装置を構成する。制御装置3は、専用のコンピューターであってもよいし、ロボット1のためのプログラムがインストールされた汎用のコンピューターであってもよい。
(1) Robot system configuration:
As shown in FIG. 1, the robot system according to the first embodiment of the present invention includes a robot 1 and a control device 3 (robot control device). The control device 3 constitutes the robot control device of the present invention. The control device 3 may be a dedicated computer or a general-purpose computer in which a program for the robot 1 is installed.

ロボット1は、1つのマニュピレーターMを備える単腕ロボットであり、マニュピレーターMはアームAとエンドエフェクター2と表示器Dとを備える。アームAは6つの関節J1〜J6を備える。関節J1〜J6によって6個のアーム部材A1〜A6が連結される。関節J2、J3、J5は曲げ関節であり、関節J1、J4、J6はねじり関節である。アームAのうち最も先端側のアーム部材A6には、関節J6を介して、力覚センサーFSとエンドエフェクター2とが装着される。アーム部材A2〜A6のそれぞれの両端には関節J1〜J6が存在する。エンドエフェクター2はグリッパーによってワークWを把持する。エンドエフェクター2の所定位置をツールセンターポイント(TCP)と表す。TCPの位置はエンドエフェクター2の位置の基準となる。力覚センサーFSは、6軸の力検出器である。力覚センサーFSは、互いに直交する3個の検出軸方向の力の大きさと、当該3個の検出軸まわりのトルクの大きさとを検出する。   The robot 1 is a single arm robot including one manipulator M, and the manipulator M includes an arm A, an end effector 2 and a display D. The arm A includes six joints J1 to J6. Six arm members A1 to A6 are connected by joints J1 to J6. Joints J2, J3, and J5 are bending joints, and joints J1, J4, and J6 are torsional joints. The force sensor FS and the end effector 2 are attached to the most distal arm member A6 of the arm A through the joint J6. Joints J1 to J6 exist at both ends of each of the arm members A2 to A6. The end effector 2 grips the workpiece W with a gripper. A predetermined position of the end effector 2 is represented as a tool center point (TCP). The position of the TCP is a reference for the position of the end effector 2. The force sensor FS is a 6-axis force detector. The force sensor FS detects the magnitudes of the forces in the three detection axis directions orthogonal to each other and the magnitudes of the torques around the three detection axes.

ロボット1が設置された空間を規定する座標系をロボット座標系と表す。本実施形態において、ロボット座標系は、水平面上において互いに直交するX軸とY軸と、鉛直上向きを正方向とするZ軸とによって規定される3次元の直交座標系である。またX軸周りの回転角をRXで表し、Y軸周りの回転角をRYで表し、Z軸周りの回転角をRZで表す。X,Y,Z方向の位置により3次元空間における任意の位置を表現でき、RX,RY,RZ方向の回転角により3次元空間における任意の姿勢(回転方向)を表現できる。以下、特に示さない限り、位置と表記した場合、姿勢も意味し得ることとする。また、特に示さない限り、力と表記した場合、RX,RY,RZ方向に作用するトルクも意味し得ることとする。制御装置3は、アームAを駆動することによって、ロボット座標系においてTCPの位置を制御する。   A coordinate system that defines the space in which the robot 1 is installed is referred to as a robot coordinate system. In the present embodiment, the robot coordinate system is a three-dimensional orthogonal coordinate system defined by an X axis and a Y axis that are orthogonal to each other on a horizontal plane, and a Z axis that has a vertically upward direction as a positive direction. A rotation angle around the X axis is represented by RX, a rotation angle around the Y axis is represented by RY, and a rotation angle around the Z axis is represented by RZ. An arbitrary position in the three-dimensional space can be expressed by a position in the X, Y, and Z directions, and an arbitrary posture (rotation direction) in the three-dimensional space can be expressed by a rotation angle in the RX, RY, and RZ directions. Hereinafter, unless otherwise indicated, when it is expressed as a position, it can also mean a posture. Unless otherwise indicated, when expressed as force, it can also mean torque acting in the RX, RY, and RZ directions. The controller 3 controls the position of the TCP in the robot coordinate system by driving the arm A.

エンドエフェクター2は力覚センサーFSに対して相対的に移動不能に固定されており、エンドエフェクター2と力覚センサーFSとで単一の剛体が形成されると見なすことができる。従って、TCPと力覚センサーFSは、一体的に運動する。すなわち、TCPと力覚センサーFSの移動距離(回転角も含む)と移動方向(回転方向も含む)と速度(角速度)と加速度(角加速度)とは互いに一致する。また、力覚センサーFSが検出する力の大きさと方向は、TCPに作用する力の大きさと方向と一致すると見なすことができる。以下、エンドエフェクター2と力覚センサーFSとを手先部Hと総称する。   The end effector 2 is fixed so as not to move relative to the force sensor FS, and it can be considered that the end effector 2 and the force sensor FS form a single rigid body. Therefore, the TCP and the force sensor FS move integrally. That is, the movement distance (including the rotation angle), the movement direction (including the rotation direction), the speed (angular velocity), and the acceleration (angular acceleration) of the TCP and the force sensor FS coincide with each other. Further, the magnitude and direction of the force detected by the force sensor FS can be considered to coincide with the magnitude and direction of the force acting on the TCP. Hereinafter, the end effector 2 and the force sensor FS are collectively referred to as a hand portion H.

図2は、マニュピレーターMの斜視図である。マニュピレーターMのうち力覚センサーFSには、表示器Dが取り付けられている。表示器Dは、液晶ディスプレイであってもよいし、有機EL(Electroluminescenc)ディスプレイであってもよいし、LED(Light Emitting Diode)等の発光素子がドットマトリクス状に配置されたディスプレイであってもよい。表示器Dは、2次元の画像を表示し、モノクロ画像が表示できるように構成されてもよいし、グレースケール画像が表示できるように構成されてもよいし、カラー画像が表示できるように構成されてもよい。表示器Dは、平面板状に形成されてもよいし、力覚センサーFSの外形形状に追従する曲面状に形成されてもよい。本実施形態において、表示器Dは、α軸方向とβ軸方向の辺によって構成される矩形平面状となっている。   FIG. 2 is a perspective view of the manipulator M. FIG. A display D is attached to the force sensor FS of the manipulator M. The display D may be a liquid crystal display, an organic EL (Electroluminescenc) display, or a display in which light emitting elements such as LEDs (Light Emitting Diodes) are arranged in a dot matrix. Good. The display device D may be configured to display a two-dimensional image and display a monochrome image, may be configured to display a grayscale image, or configured to display a color image. May be. The display device D may be formed in a flat plate shape, or may be formed in a curved surface shape that follows the outer shape of the force sensor FS. In the present embodiment, the display D has a rectangular planar shape constituted by sides in the α-axis direction and the β-axis direction.

図3は、ロボットシステムのブロック図である。制御装置3にはロボット1の制御を行うための制御プログラムがインストールされている。制御装置3は、プロセッサーやRAMやROMを含むコンピューターを備える。コンピューターがROM等の記録媒体に記録された制御プログラムを実行することにより、制御装置3は、機能構成としての駆動制御部31と表示制御部32とを備えることとなる。駆動制御部31と表示制御部32とは、制御装置3のハードウェア資源とソフトウェア資源とが協働して実現する機能構成である。なお、駆動制御部31と表示制御部32とは、必ずしもソフトウェア資源によって実現されなくてもよく、ASIC(Application Specific Integrated Circuit)によって実現されてもよい。   FIG. 3 is a block diagram of the robot system. A control program for controlling the robot 1 is installed in the control device 3. The control device 3 includes a computer including a processor, RAM, and ROM. When the computer executes a control program recorded on a recording medium such as a ROM, the control device 3 includes a drive control unit 31 and a display control unit 32 as functional configurations. The drive control unit 31 and the display control unit 32 are functional configurations realized by cooperation of hardware resources and software resources of the control device 3. Note that the drive control unit 31 and the display control unit 32 do not necessarily have to be realized by software resources, but may be realized by an ASIC (Application Specific Integrated Circuit).

駆動制御部31は、力覚センサーFSに基づいて、駆動部としてのモーターM1〜M6を制御する。具体的に、駆動制御部31は、手先部Hの運動状態が目標の運動状態に近づくように、力覚センサーFSの出力信号に基づいて、マニュピレーターM(アームA)を制御する。手先部Hの運動状態には、マニュピレーターMの各部位の移動状態とともに、マニュピレーターMに作用する作用力の状態も含まれる。具体的に、駆動制御部31は、目標位置と目標力とがTCPにて実現されるようにアームAを制御する。目標力とは、力覚センサーFSが検出すべき力であり、TCPに作用すべき力である。Sの文字は、ロボット座標系を規定する軸の方向(X,Y,Z,RX,RY,RZ)のなかのいずれか1個の方向を表すこととする。例えば、S=Xの場合、ロボット座標系にて設定された目標位置のX方向成分がSt=Xtと表記され、目標力のX方向成分がfSt=fXtと表記される。また、Sは、S方向の位置(回転角)も表すこととする。 The drive control unit 31 controls the motors M1 to M6 as drive units based on the force sensor FS. Specifically, the drive control unit 31 controls the manipulator M (arm A) based on the output signal of the force sensor FS so that the motion state of the hand portion H approaches the target motion state. The movement state of the hand portion H includes not only the movement state of each part of the manipulator M but also the state of the acting force acting on the manipulator M. Specifically, the drive control unit 31 controls the arm A so that the target position and the target force are realized by TCP. The target force is a force to be detected by the force sensor FS and is a force to be applied to the TCP. The letter S represents one of the axis directions (X, Y, Z, RX, RY, RZ) that define the robot coordinate system. For example, in the case of S = X, X-direction component of the position specified in the robot coordinate system is denoted as S t = X t, X-direction component of the desired force is denoted as f St = f Xt. S represents the position in the S direction (rotation angle).

ロボット1は、図1に図示した構成のほかに、駆動部としてのモーターM1〜M6と、エンコーダーE1〜E6とを備える。モーターM1〜M6とエンコーダーE1〜E6とは、関節J1〜J6のそれぞれに対応して備えられており、エンコーダーE1〜E6はモーターM1〜M6の駆動位置を検出する。アームAを制御することは、駆動部としてのモーターM1〜M6を制御することを意味する。駆動制御部31は、ロボット1と通信可能なっている。駆動制御部31は、モーターM1〜M6の駆動位置の組み合わせと、ロボット座標系におけるTCPの位置との対応関係Uを記憶している。   The robot 1 includes motors M1 to M6 as drive units and encoders E1 to E6 in addition to the configuration illustrated in FIG. Motors M1 to M6 and encoders E1 to E6 are provided corresponding to the joints J1 to J6, respectively, and the encoders E1 to E6 detect the driving positions of the motors M1 to M6. Controlling the arm A means controlling the motors M1 to M6 as drive units. The drive control unit 31 can communicate with the robot 1. The drive control unit 31 stores a correspondence U between a combination of drive positions of the motors M1 to M6 and a TCP position in the robot coordinate system.

駆動制御部31は、モーターM1〜M6の駆動位置Daを取得すると、対応関係Uに基づいて、当該駆動位置Daをロボット座標系におけるTCPの位置S(X,Y,Z,RX,RY,RZ)に変換する。駆動制御部31は、TCPの位置Sと、力覚センサーFSの検出値とに基づいて、力覚センサーFSに現実に作用している作用力fSをロボット座標系において特定する。なお、力覚センサーFSは、独自の座標系において検出値を検出するが、力覚センサーFSとTCPとの相対位置・方向とが既知のデータとして記憶されているため、駆動制御部31はロボット座標系における作用力fSを特定できる。駆動制御部31は、作用力fSに対して重力補償を行う。重力補償とは、作用力fSから重力成分を除去することである。重力補償を行った作用力fSは、TCPに作用している重力以外の力と見なすことができる。TCPの姿勢ごとにTCPに作用する作用力fSの重力成分が予め調査されており、駆動制御部31は、作用力fSからTCPの姿勢に対応する重力成分を減算することにより重力補償が実現する。 Drive control unit 31 obtains the drive position D a of the motor M1-M6, based on the correspondence relationship U, the position S (X of TCP the driving position D a in the robot coordinate system, Y, Z, RX, RY , RZ). Based on the TCP position S and the detected value of the force sensor FS, the drive control unit 31 specifies the acting force f S actually acting on the force sensor FS in the robot coordinate system. The force sensor FS detects a detection value in a unique coordinate system. However, since the relative position and direction of the force sensor FS and TCP are stored as known data, the drive control unit 31 is a robot. The acting force f S in the coordinate system can be specified. The drive control unit 31 performs gravity compensation for the acting force f S. Gravity compensation is to remove the gravity component from the acting force f S. The acting force f S subjected to gravity compensation can be regarded as a force other than gravity acting on the TCP. The gravity component of the acting force f S acting on the TCP is investigated in advance for each TCP posture, and the drive control unit 31 performs gravity compensation by subtracting the gravity component corresponding to the TCP posture from the acting force f S. Realize.

駆動制御部31は、目標力fStと作用力fSとをインピーダンス制御の運動方程式に代入することにより、力由来補正量ΔSを特定する。(1)式は、インピーダンス制御の運動方程式である。

Figure 2017030058
(1)式の左辺は、TCPの位置Sの2階微分値に仮想慣性係数mを乗算した第1項と、TCPの位置Sの微分値に仮想粘性係数dを乗算した第2項と、TCPの位置Sに仮想弾性係数kを乗算した第3項とによって構成される。(1)式の右辺は、目標力fStから現実の作用力fSを減算した力偏差ΔfS(t)によって構成される。(1)式における微分とは、時間による微分を意味する。ロボット1が行う工程において、目標力fStとして一定値が設定される場合もあるし、目標力fStとして時間に依存する関数によって導出される値が設定される場合もある。 The drive control unit 31 specifies the force-derived correction amount ΔS by substituting the target force f St and the acting force f S into the equation of motion for impedance control. Equation (1) is an equation of motion for impedance control.
Figure 2017030058
The left side of the equation (1) is a first term obtained by multiplying the second-order differential value of the TCP position S by the virtual inertia coefficient m, a second term obtained by multiplying the differential value of the TCP position S by the virtual viscosity coefficient d, And a third term obtained by multiplying the position S of the TCP by the virtual elastic coefficient k. The right side of the equation (1) is constituted by a force deviation Δf S (t) obtained by subtracting the actual acting force f S from the target force f St. The differentiation in the equation (1) means differentiation with time. In the step of the robot 1 performs, to sometimes fixed value as the target force f St is set, there is a case where the value derived by a function that depends on time as the target force f St is set.

インピーダンス制御とは、仮想の機械的インピーダンスをモーターM1〜M6によって実現する制御である。仮想慣性係数mはTCPが仮想的に有する質量を意味し、仮想粘性係数dはTCPが仮想的に受ける粘性抵抗を意味し、仮想弾性係数kはTCPが仮想的に受ける弾性力のバネ定数を意味する。各パラメーターm,d,kは方向ごとに異なる値に設定されてもよいし、方向に拘わらず共通の値に設定されてもよい。力由来補正量ΔSとは、TCPが機械的インピーダンスを受けた場合に、目標力fStとの力偏差ΔfS(t)を解消するために、TCPが移動すべき位置Sの大きさを意味する。駆動制御部31は、目標位置Stに、力由来補正量ΔSを加算することにより、インピーダンス制御を考慮した補正目標位置(St+ΔS)を特定する。 The impedance control is control for realizing a virtual mechanical impedance by the motors M1 to M6. The virtual inertia coefficient m means the mass that the TCP virtually has, the virtual viscosity coefficient d means the viscous resistance that the TCP virtually receives, and the virtual elastic coefficient k is the spring constant of the elastic force that the TCP virtually receives. means. Each parameter m, d, k may be set to a different value for each direction, or may be set to a common value regardless of the direction. The force-derived correction amount ΔS means the size of the position S where the TCP should move in order to eliminate the force deviation Δf S (t) from the target force f St when the TCP receives mechanical impedance. To do. Drive control unit 31, the target position S t, by adding a force from the correction amount [Delta] S, identifies the correction target position in consideration of the impedance control (S t + ΔS).

そして、駆動制御部31は、対応関係Uに基づいて、ロボット座標系を規定する各軸の方向の補正目標位置(St+ΔS)を、各モーターM1〜M6の目標の駆動位置である目標駆動位置Dtに変換する。そして、駆動制御部31は、目標駆動位置DtからモーターM1〜M6の現実の駆動位置Daを減算することにより、駆動位置偏差De(=Dt−Da)を算出する。駆動制御部31は、駆動位置偏差Deに位置制御ゲインKpを乗算した値と、現実の駆動位置Daの時間微分値である駆動速度との差である駆動速度偏差に、速度制御ゲインKvを乗算した値とを加算することにより、制御量Dcを特定する。なお、位置制御ゲインKpおよび速度制御ゲインKvは、比例成分だけでなく微分成分や積分成分にかかる制御ゲインを含んでもよい。制御量Dcは、モーターM1〜M6のそれぞれについて特定される。以上説明した構成により、駆動制御部31は、目標位置Stと目標力fStとに基づいてアームAを制御することができる。 Then, based on the correspondence relationship U, the drive control unit 31 sets the corrected target position (S t + ΔS) in the direction of each axis that defines the robot coordinate system as the target drive position that is the target drive position of each motor M1 to M6. into a position D t. Then, the drive control unit 31, by the target drive position D t subtracting the actual drive position D a of the motor M1-M6, calculates the driving position deviation D e (= D t -D a ). Drive control unit 31, a value obtained by multiplying the position control gain K p to the driving position deviation D e, the driving speed deviation which is a difference between the driving speed is the time differential value of the actual drive position D a, the speed control gain The control amount D c is specified by adding the value multiplied by K v . Note that the position control gain K p and the speed control gain K v may include not only a proportional component but also a control gain related to a differential component and an integral component. The control amount D c is specified for each of the motors M1 to M6. With the configuration described above, the drive control unit 31 may control the arm A on the basis of the target position S t and the target force f St.

現実の作用力fSを目標力fStとするための制御が力制御であり、TCPの現実の位置Sを目標位置Stとするための制御が位置制御である。本実施形態において、駆動制御部31は、動作の内容に応じて、位置制御と力制御の双方を行うことと、位置制御のみを行うことができる。例えば、現実の作用力fSに拘わらず、図3の力由来補正量ΔSが常時0であると見なすことにより、実質的に位置制御のみを行うことができる。 A real action force f S control force control for the target force f St to a control position control for the position S of the TCP reality and the target position S t. In the present embodiment, the drive control unit 31 can perform both position control and force control and only position control according to the content of the operation. For example, regardless of the actual applied force f S , it is possible to substantially perform only the position control by assuming that the force-derived correction amount ΔS in FIG. 3 is always 0.

表示制御部32は、表示器Dを制御する。表示制御部32と表示器Dとは図示しない配線によって接続されており、表示制御部32が出力した表示画像データが示す画像を表示器Dが表示する。すなわち、表示制御部32は、表示画像データを生成し、当該表示画像データを表示器Dに出力することにより、表示器Dの表示を制御する。   The display control unit 32 controls the display device D. The display control unit 32 and the display unit D are connected by a wiring (not shown), and the display unit D displays an image indicated by the display image data output from the display control unit 32. That is, the display control unit 32 controls the display of the display D by generating display image data and outputting the display image data to the display D.

表示制御部32は、手先部Hの運動状態に関するパラメーターを表示器Dに表示させる。表示制御部32は、手先部Hの目標の運動状態に関するパラメーターを得るために目標位置Stと目標力fStとを駆動制御部31から取得する。また、表示制御部32は、TCPの現実の運動状態に関するパラメーターを得るためにTCPの位置Sと作用力fSとを駆動制御部31から取得する。なお、本実施形態において、手先部Hの運動状態は、力覚センサーFSおよびTCPの運動状態と同視できることとする。 The display control unit 32 causes the display D to display parameters related to the motion state of the hand portion H. The display control unit 32 acquires from the drive control unit 31 and the target position S t and the target force f St in order to obtain a parameter related to the target of the state of motion of the hand portion H. In addition, the display control unit 32 acquires the TCP position S and the acting force f S from the drive control unit 31 in order to obtain parameters related to the actual motion state of the TCP. In the present embodiment, it is assumed that the movement state of the hand portion H can be equated with the movement state of the force sensor FS and TCP.

駆動制御部31は、微小な制御周期(例えば4m秒)ごとに、目標位置Stと目標力fStと位置Sと作用力fSとを更新し、制御周期ごとに目標位置Stと目標力fStと位置Sと作用力fSを取得することとする。駆動制御部31が制御周期ごとに目標位置Stと目標力fStと位置Sと作用力fSとを更新することにより、マニュピレーターMに時系列の動作を行わせることが可能となるとともに、直前の運動状態を反映させてマニュピレーターMの動作を行わせることが可能となる。駆動制御部31は、制御周期ごとに目標位置Stを設定していくことにより、最終的な目標の位置までTCPを移動させることができる。 Drive control unit 31, for each minute control period (e.g., 4m seconds), and updates the target position S t and the target force f St and the position S and the action force f S, the target position S t and the target for each control cycle The force f St , the position S, and the acting force f S are acquired. By the drive control unit 31 updates the target position S t and the target force f St and the position S and the action force f S for each control cycle, it becomes possible to perform the operation of the time series manipulator M, It becomes possible to cause the manipulator M to perform an operation reflecting the previous exercise state. Drive control unit 31, by going to set the target position S t in each control cycle, it is possible to move the TCP to the position of the final target.

駆動制御部31は、最終的な目標の位置までのTCPの軌道を設定し、当該軌道を速度や加速度の上限値等の制約の下で制御周期ごとに分割した個々の位置を目標位置Stとして順次設定する。表示制御部32は、制御周期ごとの目標位置Stと目標力fStと位置Sと作用力fSに基づいて、手先部Hの運動状態に関するパラメーターを算出する。 The drive control unit 31 sets a TCP trajectory to the final target position, and each position obtained by dividing the trajectory for each control cycle under the constraints of the upper limit value of speed and acceleration is the target position St. Are set sequentially. The display control unit 32, based on action force f S between the target position S t and the target force f St and the position S of each control cycle, calculates the parameters relating to the motion state of the hand unit H.

図4は、手先部Hの運動状態(移動状態および力状態)に関するパラメーターの一覧表である。運動状態に関するパラメーターは、並進運動のパラメーターと回転運動のパラメーターとに分類できる。また、運動状態に関するパラメーターは、目標のパラメーターと現実のパラメーターとに分類できる。また、運動状態に関するパラメーターには、数値(スカラー)で表現可能なパラメーターと、矢印で表現可能なパラメーターとが含まれる。表示制御部32は、ロボット座標系において、直前時刻の目標位置Stから現在の目標位置Stまで向かうベクトルを目標の移動ベクトルとして算出する。直前時刻とは、現在よりもn個分(nは自然数)の制御周期だけ前の時刻を意味する。nが任意に設定できるように構成されてもよい。本実施形態において、n=1である。移動ベクトルは、ロボット座標系における各軸方向の移動量によって表される。移動ベクトルのうち、X,Y,Z方向の移動量で構成されるベクトルを並進ベクトルとし、RX,RY,RZ方向の移動量で構成されるベクトルを回転ベクトルと表す。 FIG. 4 is a list of parameters related to the movement state (movement state and force state) of the hand portion H. Parameters relating to the motion state can be classified into parameters for translational motion and parameters for rotational motion. Also, the parameters relating to the motion state can be classified into target parameters and actual parameters. Further, the parameters relating to the exercise state include parameters that can be expressed by numerical values (scalar) and parameters that can be expressed by arrows. The display control unit 32, in the robot coordinate system, it calculates a vector from the target position S t immediately before the time to the current target position S t as the movement vector of the target. The immediately preceding time means a time that is n times (n is a natural number) before the current control cycle. You may comprise so that n can be set arbitrarily. In this embodiment, n = 1. The movement vector is represented by a movement amount in each axis direction in the robot coordinate system. Of the movement vectors, a vector composed of movement amounts in the X, Y, and Z directions is referred to as a translation vector, and a vector composed of movement amounts in the RX, RY, and RZ directions is referred to as a rotation vector.

表示制御部32は、目標の並進ベクトルを構成するX,Y,Z方向の移動量の二乗和平方根を目標の並進距離として算出する。さらに、表示制御部32は、目標の並進距離を1制御周期の長さで除算することにより、目標の並進速度を算出する。表示制御部32は、現在の目標の並進速度から直前時刻の目標の並進速度を減算した値を、過去時刻から現在までの期間で除算することにより並進加速度を算出する。また、表示制御部32は、目標の並進距離を所定の累積開始時刻から現在まで累積することにより、目標の累積並進距離を算出する。   The display control unit 32 calculates the square sum of squares of the movement amounts in the X, Y, and Z directions constituting the target translation vector as the target translation distance. Further, the display control unit 32 calculates the target translation speed by dividing the target translation distance by the length of one control cycle. The display control unit 32 calculates the translational acceleration by dividing the value obtained by subtracting the target translational speed at the previous time from the current target translational speed by the period from the past time to the current time. The display control unit 32 calculates the target cumulative translation distance by accumulating the target translation distance from a predetermined cumulative start time to the present.

また、表示制御部32は、目標の回転ベクトルを構成するRX,RY,RZ方向の移動量の二乗和平方根を目標の回転角として算出する。さらに、表示制御部32は、目標の回転角を1制御周期の長さで除算することにより、目標の角速度を算出する。表示制御部32は、現在の目標の角速度から直前時刻の目標の角速度を減算した値を、過去時刻から現在までの期間で除算することにより角加速度を算出する。また、表示制御部32は、目標の回転角を累積開始時刻から現在まで累積することにより、目標の累積回転角を算出する。表示制御部32は、現実の位置Sについても同様の計算を行うことにより、現実の並進距離と累積並進距離と並進速度と加速度と回転角と累積回転角と回転速度と角速度と角加速度とを算出する。   Further, the display control unit 32 calculates the square root sum of squares of the movement amounts in the RX, RY, and RZ directions constituting the target rotation vector as the target rotation angle. Further, the display control unit 32 calculates the target angular velocity by dividing the target rotation angle by the length of one control cycle. The display control unit 32 calculates the angular acceleration by dividing the value obtained by subtracting the target angular velocity at the previous time from the current target angular velocity by the period from the past time to the current time. Further, the display control unit 32 calculates the target accumulated rotation angle by accumulating the target rotation angle from the accumulation start time to the present. The display control unit 32 performs the same calculation for the actual position S to obtain the actual translation distance, the cumulative translation distance, the translation speed, the acceleration, the rotation angle, the cumulative rotation angle, the rotation speed, the angular velocity, and the angular acceleration. calculate.

目標力fStはロボット座標系のベクトルで表されるが、表示制御部32は、目標力fStのベクトルのうちX,Y,Z方向の成分を並進力ベクトルとして抽出し、当該並進力ベクトルの各成分の二乗和平方根を目標の並進力の大きさとして算出する。表示制御部32は、目標力fStのベクトルのうちRX,RY,RZ方向の成分をトルクベクトルとして抽出し、当該トルクベクトルの各成分の二乗和平方根を目標のトルクの大きさとして算出する。表示制御部32は、以上のようにして算出した運動状態に関するパラメーターの数値(文字)を表す画像の表示画像データを生成し、表示器Dに出力する。 Although the target force f St is represented by a vector in the robot coordinate system, the display control unit 32 extracts X, Y, and Z direction components from the vector of the target force f St as translation force vectors, and the translation force vector. Is calculated as the target translational force. The display control unit 32 extracts the components in the RX, RY, and RZ directions from the vector of the target force f St as a torque vector, and calculates the square sum of squares of each component of the torque vector as the target torque magnitude. The display control unit 32 generates display image data of an image representing the numerical value (character) of the parameter relating to the exercise state calculated as described above, and outputs the display image data to the display D.

表示制御部32は、パラメーターを、方向を指し示す矢印で表示させることにより、運動状態に関する方向のパラメーターを表示器Dに表示させる。ここで、表示器DとTCPは一体となって移動するため、ロボット座標系におけるTCPの姿勢(RX,RY,RZ)に応じて、表示器Dの外周を構成する辺の方向を意味するα,β軸の方向も変化する。TCPの姿勢と、ロボット座標系における表示器Dのα,β軸の方向との対応関係Vが記録媒体に記録されており、表示制御部32は、対応関係Vを参照可能となっている。表示制御部32は、現在のTCPの姿勢と対応関係Vとに基づいて、現在の表示器Dのα,β軸の方向をロボット座標系において特定する。すなわち、表示制御部32は、ロボット座標系における任意の方向のベクトルから、現在の表示器Dのα軸方向の成分とβ軸方向の成分とを抽出できる。なお、αβ平面に直交する軸をγ軸とする。   The display control unit 32 causes the display D to display the parameter of the direction related to the motion state by displaying the parameter with an arrow indicating the direction. Here, since the display D and the TCP move together, α indicates the direction of the side constituting the outer periphery of the display D according to the posture (RX, RY, RZ) of the TCP in the robot coordinate system. , Β-axis direction also changes. The correspondence V between the orientation of the TCP and the directions of the α and β axes of the display D in the robot coordinate system is recorded on the recording medium, and the display control unit 32 can refer to the correspondence V. The display control unit 32 specifies the current α and β axis directions of the display D in the robot coordinate system based on the current TCP posture and the correspondence V. That is, the display control unit 32 can extract the component in the α-axis direction and the component in the β-axis direction of the current display D from a vector in an arbitrary direction in the robot coordinate system. Note that an axis orthogonal to the αβ plane is taken as a γ-axis.

表示制御部32は、ロボット座標系における並進ベクトルと並進力ベクトルから、現在の表示器Dのα軸方向の成分とβ軸方向の成分とを抽出する。そして、表示制御部32は、抽出したα軸方向の成分とβ軸方向の成分とで構成されるαβ平面内の矢印を示す表示画像データを、それぞれ並進方向と並進力方向とを指し示す表示画像データとして生成する。また、表示制御部32は、ロボット座標系における回転ベクトルとトルクベクトルから、現在の表示器Dのα軸方向の成分とβ軸方向の成分とを抽出する。そして、表示制御部32は、抽出したα軸方向の成分とβ軸方向の成分とで構成されるαβ平面内の回転軸まわりの矢印を示す表示画像データを、それぞれ回転方向と回転力方とを指し示す表示画像データとして生成する。   The display control unit 32 extracts the component in the α-axis direction and the component in the β-axis direction of the current display D from the translation vector and the translation force vector in the robot coordinate system. Then, the display control unit 32 displays display image data indicating arrows in the αβ plane composed of the extracted components in the α-axis direction and the components in the β-axis direction, respectively, indicating the translation direction and the translational force direction. Generate as data. Further, the display control unit 32 extracts the component in the α-axis direction and the component in the β-axis direction of the current display D from the rotation vector and the torque vector in the robot coordinate system. Then, the display control unit 32 displays display image data indicating arrows around the rotation axis in the αβ plane constituted by the extracted α-axis direction component and β-axis direction component, respectively, as the rotation direction and the rotational force direction. Is generated as display image data.

以上の構成により、力覚センサーFSの運動状態に関するパラメーターを表示器Dにて表示することが可能となる。なお、表示制御部32は、表示対象の運動状態に関するパラメーターを算出すればよく、必ずしもすべてのパラメーターを算出しなくてもよい。   With the above configuration, it is possible to display the parameter relating to the motion state of the force sensor FS on the display D. Note that the display control unit 32 only needs to calculate parameters related to the exercise state to be displayed, and does not necessarily need to calculate all parameters.

図5A〜5Rは、表示器Dにて表示される画像の例を示す。図5A〜5Lは、運動状態に関するパラメーターを数値で表す画像を示している。図5A〜5Hに示すように、表示制御部32は、単一の複数の運動状態に関するパラメーターの数値を表示器Dに表示させてもよい。図5I,5Jに示すように、表示制御部32は、目標と現実のパラメーターを対比可能に併記してよい。さらに、図5Jに示すように、表示制御部32は、運動状態に関するパラメーターの数値をグラフで表してもよく、目標と現実のパラメーターのグラフを対比可能に併記してもよい。また、表示制御部32は、目標と現実のパラメーター同士の差分や比の値を表示してもよい。むろん、図5Kに示すように、表示制御部32は、種類の異なるパラメーターを併記してもよい。また、図5I〜5Kに示すように、表示制御部32は、運動状態に関するパラメーター名を表示器Dに表示させてもよい。   5A to 5R show examples of images displayed on the display device D. FIG. 5A to 5L show images representing numerical values of parameters related to the exercise state. As shown in FIGS. 5A to 5H, the display control unit 32 may cause the display D to display numerical values of parameters related to a single plurality of exercise states. As shown in FIGS. 5I and 5J, the display control unit 32 may write the target and the actual parameter together so that they can be compared. Further, as shown in FIG. 5J, the display control unit 32 may represent the numerical values of the parameters relating to the exercise state in a graph, and may also indicate the graphs of the target and the actual parameters so that they can be compared. Further, the display control unit 32 may display the difference between the target and actual parameters and the value of the ratio. Of course, as shown in FIG. 5K, the display control unit 32 may write parameters of different types together. In addition, as illustrated in FIGS. 5I to 5K, the display control unit 32 may cause the display D to display parameter names related to the exercise state.

さらに、図5Lに示すように、表示制御部32は、表示器Dの姿勢に拘わらず文字の上方向が常にZ軸方向の上を向くように表示画像データを生成してもよい。すなわち、表示制御部32は、現在のTCPの姿勢と対応関係Vとに基づいて、現在の表示器Dのα,β軸の方向をロボット座標系において特定し、当該α,β軸の方向に基づいて画像を回転させてもよい。なお、表示制御部32は、運動状態に関するパラメーターの単位を表示してもよいし、単位の表示を省略してもよい。また、図示した単位は一例に過ぎず、他の単位によって運動状態に関するパラメーターが表されてもよいし、単位が切り替え可能であってもよい。表示制御部32は、運動状態に関するパラメーターの種類に応じてパラメーターを表す文字の大きさや字体や色や背景や点滅状態を切り替えてもよい。むろん、表示制御部32は、複数の運動状態に関するパラメーターを時分割で順に表示させてもよい。   Further, as shown in FIG. 5L, the display control unit 32 may generate display image data so that the upward direction of the character is always directed upward in the Z-axis direction regardless of the orientation of the display D. That is, the display control unit 32 specifies the current α and β axis directions of the display D in the robot coordinate system based on the current TCP attitude and the correspondence V, and sets the α and β axis directions in the directions of the α and β axes. The image may be rotated based on it. Note that the display control unit 32 may display a parameter unit related to the exercise state, or may omit the unit display. Moreover, the unit shown in the drawing is merely an example, and the parameter relating to the exercise state may be represented by another unit, or the unit may be switchable. The display control unit 32 may switch the size, font, color, background, and blinking state of the character representing the parameter according to the type of parameter related to the exercise state. Needless to say, the display control unit 32 may display parameters related to a plurality of exercise states in order in a time division manner.

図5M〜5Qは、運動状態に関するパラメーターの方向を表す画像を示している。図5M〜5Qに示すように、表示制御部32は、運動状態に関するパラメーターの方向を指し示す矢印の画像を表示器Dに表示させてもよい。図5O,5Pに示すように、表示制御部32は、回転ベクトルとトルクベクトルの方向を指し示す矢印として、回転ベクトルとトルクベクトルから抽出したα,β軸成分で構成される回転軸まわりに回転する矢印を表す表示画像データを生成してもよい。表示制御部32は、複数の運動状態に関するパラメーターの方向を指し示す矢印の画像を表示器Dに表示させてもよく、図5Qに示すように、目標と現実のパラメーターの方向を指し示す矢印を対比可能に併記してもよい。さらに、図5Rに示すように、表示制御部32は、パラメーターの方向を指し示す矢印とともに、当該パラメーターの大きさを示す文字を表示してもよい。   5M-5Q show images representing the direction of the parameters related to the motion state. As illustrated in FIGS. 5M to 5Q, the display control unit 32 may cause the display D to display an image of an arrow indicating the direction of the parameter related to the exercise state. As shown in FIGS. 5O and 5P, the display control unit 32 rotates around the rotation axis composed of the α and β axis components extracted from the rotation vector and the torque vector as an arrow indicating the direction of the rotation vector and the torque vector. Display image data representing an arrow may be generated. The display control unit 32 may display an image of an arrow indicating the direction of a parameter regarding a plurality of exercise states on the display D, and as shown in FIG. 5Q, the arrow indicating the direction of the target and the actual parameter can be compared It may be written together. Further, as shown in FIG. 5R, the display control unit 32 may display a character indicating the size of the parameter together with an arrow indicating the direction of the parameter.

本実施形態において、マニュピレーターM(手先部H)の運動状態に関するパラメーターを表示する表示器DがマニュピレーターMに備えられる。これにより、マニュピレーターMそのものを視認しながら表示器Dを視認できるとともに、表示器DがマニュピレーターMの運動状態を表していることを直感的に認識できる。また、マニュピレーターMに作用する作用力fSが目標力fStに近づくように制御すると、マニュピレーターMの運動状態が複雑となったり、予測困難となったりするが、表示器Dを視認することによりマニュピレーターMの動作状態を容易に認識できる。 In the present embodiment, the manipulator M is provided with a display D that displays parameters related to the motion state of the manipulator M (hand portion H). Thereby, while visually recognizing the manipulator M itself, the display D can be visually recognized, and it can be recognized intuitively that the display D represents the motion state of the manipulator M. Further, if the acting force f S acting on the manipulator M is controlled so as to approach the target force f St , the motion state of the manipulator M becomes complicated or difficult to predict. The operating state of the manipulator M can be easily recognized.

力制御を行っている場合には、マニュピレーターMやワークWに積極的に力を作用させることとなるため、マニュピレーターMやワークW等が破損しないようにマニュピレーターMの状態を注視する必要性が大きい。また、マニュピレーターMの微小な動きに応じて作用力fSが変化するため、力制御を行っている場合にはマニュピレーターMの運動状態が小刻みに変化し得る。特に力制御としてインピーダンス制御を行う場合には、マニュピレーターMの運動状態が振動状態となって小刻みに変化しやすくなる。本実施形態において、マニュピレーターMの状態を注視したままマニュピレーターMの運動状態に関するパラメーターを認識できるため、マニュピレーターMの運動状態に関するパラメーターを容易に認識できる。 When force control is performed, force is applied positively to the manipulator M or the workpiece W, so there is a great need to watch the state of the manipulator M so that the manipulator M or the workpiece W is not damaged. . In addition, since the acting force f S changes according to the minute movement of the manipulator M, the motion state of the manipulator M can change little by little when force control is performed. In particular, when impedance control is performed as force control, the motion state of the manipulator M becomes a vibration state and easily changes in small increments. In this embodiment, since the parameter regarding the motion state of the manipulator M can be recognized while gazing at the state of the manipulator M, the parameter regarding the motion state of the manipulator M can be easily recognized.

特に、プログラマーやメカ設計者やティーチング作業者が制御装置3にマニュピレーターMの動作を設定する際には、マニュピレーターMが未知の動作を行うこととなるため、表示器Dにて運動状態に関するパラメーターを視認できるメリットが大きい。また、マニュピレーターMの動作が設定された後に、オペレーターや設備保全エンジニアがマニュピレーターMが正常に動作しているか否かを判断する場合にも、マニュピレーターMの状態を注視したままマニュピレーターMの運動状態に関するパラメーターを認識できるメリットは大きい。特に異常が発生した場合にマニュピレーターMの状態を注視できるため、安全上のメリットが大きい。   In particular, when a programmer, a mechanical designer, or a teaching worker sets the operation of the manipulator M in the control device 3, the manipulator M performs an unknown operation. The merit that can be visually recognized is great. Further, when the operation of the manipulator M is set, the operator or facility maintenance engineer also determines whether or not the manipulator M is operating normally. The advantage of recognizing parameters is great. In particular, when an abnormality occurs, the state of the manipulator M can be watched.

表示制御部32は、力制御と位置制御の双方を行っている場合と、位置制御のみを行っている場合とで、表示対象とする運動状態に関するパラメーターを切り替えてもよい。例えば、表示制御部32は、力制御と位置制御の双方を行っている場合に限り、並進力方向や並進力の大きさやトルク方向やトルクの大きさ等の力状態のパラメーターを表示するようにしてもよい。むろん、表示制御部32は、力制御と位置制御の双方を行っている場合に、並進速度や並進加速度や回転方向や累積回転角や回転速度や角速度や角加速度や並進力方向等の移動状態のパラメーターを表示させてもよい。力制御と位置制御の双方を行っている場合には、マニュピレーターMの移動状態が小刻みに変化し易くなるため、位置制御のみを行う場合よりも移動状態のパラメーターの表示更新周期を小さくしてもよいし、数値の表示桁数を大きくしてもよい。また、表示制御部32は、力制御と位置制御の双方を行っている場合に、累積並進距離や累積回転角を累積してもよく、力制御の開始時刻を累積並進距離や累積回転角の累積開始時刻としてもよい。これにより、力制御によって、マニュピレーターMの軌道がどの程度延びることとなるかを容易に把握できる。   The display control unit 32 may switch the parameter relating to the exercise state to be displayed between when both force control and position control are performed and when only position control is performed. For example, only when both the force control and the position control are performed, the display control unit 32 displays the force state parameters such as the translational force direction, the magnitude of the translational force, the torque direction, and the magnitude of the torque. May be. Of course, when both the force control and the position control are performed, the display control unit 32 moves the translation speed, translation acceleration, rotation direction, accumulated rotation angle, rotation speed, angular velocity, angular acceleration, translation force direction, and the like. The parameters may be displayed. When both force control and position control are performed, the movement state of the manipulator M is likely to change in small increments. Therefore, even if the display update cycle of the movement state parameter is made smaller than when only the position control is performed. It is also possible to increase the number of digits displayed. Further, when both the force control and the position control are performed, the display control unit 32 may accumulate the cumulative translation distance and the cumulative rotation angle, and the start time of the force control is determined based on the cumulative translation distance and the cumulative rotation angle. The cumulative start time may be used. Thereby, it is possible to easily grasp how much the trajectory of the manipulator M is extended by force control.

(2)他の実施形態:
ロボット1は、必ずしも6軸の単腕ロボットでなくてもよく、マニュピレーターMの関節数は特に限定されない。ロボット1は、双腕ロボットであってもよいし、スカラーロボットであってもよい。また、力覚センサーFSは、必ずしも多軸の力センサーでなくてもよく、関節J1〜J6ごとに当該関節J1〜J6に作用するトルクを検出するトルクセンサーであってもよい。また、トルクセンサーの代わりにモーターM1〜M6の負荷に基づいてトルクが検出されてもよい。また、制御装置3は、ロボット1と独立した装置でなくてもよく、ロボット1に内蔵されてもよい。この場合、表示制御部32は、ロボット1に備えられることとなる。また、表示制御部32は、ロボット1と制御装置3以外の別の装置に備えられてもよい。
(2) Other embodiments:
The robot 1 is not necessarily a 6-axis single-arm robot, and the number of joints of the manipulator M is not particularly limited. The robot 1 may be a double arm robot or a scalar robot. The force sensor FS is not necessarily a multi-axis force sensor, and may be a torque sensor that detects torque acting on the joints J1 to J6 for each joint J1 to J6. Further, torque may be detected based on loads of the motors M1 to M6 instead of the torque sensor. The control device 3 may not be a device independent of the robot 1 but may be built in the robot 1. In this case, the display control unit 32 is provided in the robot 1. The display control unit 32 may be provided in another device other than the robot 1 and the control device 3.

表示器Dは、マニュピレーターMが有すればよく、移動可能なアーム部材A2〜A6に取り付けられもよいし、エンドエフェクター2に取り付けられてもよい。表示器Dがアーム部材A2〜A6に取り付けられる場合、表示制御部32は、表示器Dが取り付けられたアーム部材A2〜A6の運動状態に関するパラメーターを表示器Dに表示させればよい。表示制御部32は、アーム部材A2〜A6よりも根本側(アーム部材A1側)の関節J2〜J6のモーターM2〜M6の駆動位置に基づいて、表示器Dが取り付けられたアーム部材A2〜A6の現実の運動状態に関するパラメーターを取得すればよい。また、TCPの目標位置StごとにモーターM2〜M6がとるべき駆動位置が定められているため、表示制御部32は、TCPの目標位置Stに基づいて、表示器Dが取り付けられたアーム部材A2〜A6の目標の運動状態に関するパラメーターを取得すればよい。 The display D may be provided with the manipulator M, and may be attached to the movable arm members A2 to A6 or may be attached to the end effector 2. When the display D is attached to the arm members A2 to A6, the display control unit 32 may cause the display D to display parameters related to the motion states of the arm members A2 to A6 to which the display D is attached. The display control unit 32 includes arm members A2 to A6 to which the display unit D is attached based on the driving positions of the motors M2 to M6 of the joints J2 to J6 closer to the base side (arm member A1 side) than the arm members A2 to A6. What is necessary is just to acquire the parameter regarding the actual motion state of the. Further, since the driving position to the motor M2~M6 take every target position S t of the TCP is determined, the display control unit 32, based on the target position S t of the TCP, the display D is mounted arms What is necessary is just to acquire the parameter regarding the target movement state of member A2-A6.

具体的に、表示制御部32は、表示器Dが取り付けられたアーム部材A2〜A6の運動状態に関するパラメーターとして、表示器Dが取り付けられたアーム部材A2〜A6を直接連結する根本側の関節J2〜J6の回転方向やトルクを表示器Dに表示させてもよい。   Specifically, the display control unit 32 directly connects the arm members A2 to A6 to which the indicator D is attached as a parameter relating to the motion state of the arm members A2 to A6 to which the indicator D is attached. The rotation direction and torque of J6 may be displayed on the display device D.

図6は、他の実施形態にかかるロボット1の斜視図である。同図に示すように、表示器Dはアーム部材A3に取り付けられている。表示制御部32は、表示器Dが取り付けられたアーム部材A3を直接連結する根本側の関節J2の目標または現実の回転方向を表示器Dに表示させている。関節J2の現実の回転方向はエンコーダーE2の出力信号に基づいて特定でき、関節J2の目標の回転方向は目標のTCPの目標位置Stから導出できる。表示制御部32は、モーターM2の負荷から導出したトルクの大きさや方向を表示器Dに表示させてもよい。なお、関節J2の状態を表現しやすくするために、表示器Dは、関節J2の回転軸に直交する平面上に取り付けられることが望ましい。 FIG. 6 is a perspective view of a robot 1 according to another embodiment. As shown in the figure, the display D is attached to the arm member A3. The display control unit 32 causes the display D to display the target or actual rotation direction of the base joint J2 that directly connects the arm member A3 to which the display D is attached. Rotational direction of the actual joint J2 can identify on the basis of the output signal of the encoder E2, the rotational direction of the target of the joint J2 can be derived from the target position S t of the target TCP. The display control unit 32 may cause the display D to display the magnitude and direction of the torque derived from the load of the motor M2. In order to make it easy to express the state of the joint J2, it is desirable that the display D be mounted on a plane orthogonal to the rotation axis of the joint J2.

プログラマーやメカ設計者やティーチング作業者は、手先部Hの運動状態を予測できるとしても、アーム部材A2〜A6の運動状態までは予測することができない可能性がある。TCPの位置に対してアーム部材A2〜A6の位置は一意ではないからであり、アームAの駆動軸の数が大きくなるほど各アーム部材A2〜A6の運動状態の予測は困難となる。このような場合においても、アーム部材A2〜A6に表示器Dを取り付けることにより、アーム部材A2〜A6の運動状態に関するパラメーターを容易に認識できる。   Even if a programmer, a mechanical designer, or a teaching worker can predict the motion state of the hand portion H, it may not be able to predict the motion state of the arm members A2 to A6. This is because the positions of the arm members A2 to A6 are not unique with respect to the position of the TCP, and the motion state of each of the arm members A2 to A6 becomes difficult as the number of drive shafts of the arm A increases. Even in such a case, by attaching the display device D to the arm members A2 to A6, it is possible to easily recognize parameters relating to the motion states of the arm members A2 to A6.

さらに、表示器Dの個数は1個に限られず、2個以上のアーム部材A2〜A6のそれぞれに表示器Dが取り付けられてもよい。さらに、力覚センサーFSやアーム部材A2〜A6のいずれか1個に対して複数の表示器Dが取り付けられてもよい。また、駆動制御部31が制御に使用する運動状態と、表示器Dが表示する運動状態とは、必ずしも一致しなくてもよい。例えば、駆動制御部31が位置制御のみを行う状態において、表示器Dが現実の並進力やトルクの大きさを表示してもよい。   Furthermore, the number of the display devices D is not limited to one, and the display devices D may be attached to each of the two or more arm members A2 to A6. Further, a plurality of displays D may be attached to any one of the force sensor FS and the arm members A2 to A6. In addition, the exercise state used for control by the drive control unit 31 and the exercise state displayed by the display D do not necessarily need to match. For example, in a state where the drive control unit 31 performs only the position control, the display D may display the actual translation force and the magnitude of torque.

図7は、他の実施形態にかかるロボット1の斜視図である。同図に示すように、2個の表示器D1,D2が力覚センサーFSに取り付けられている。2個の表示器D1,D2は互いに直交する平面をなす。表示器D1は前記実施形態の表示器Dと同じであり、αβ平面において方向に手先部Hの運動状態に関するパラメーターの方向を指し示す矢印を表示する。これに対して、表示器D2はβγ平面において手先部Hの運動状態に関するパラメーターの方向を指し示す矢印を表示する。γ軸はαβ平面に直交する軸である。表示制御部32は、ロボット座標系における並進ベクトルと並進力ベクトルから、現在の表示器D2のβ軸方向の成分とγ軸方向の成分とを抽出する。そして、表示制御部32は、抽出したβ軸方向の成分とγ軸方向の成分とで構成されるβγ平面内の矢印を示す表示画像データを、それぞれ並進方向と並進力方向とを指し示す表示器D2の表示画像データとして生成する。以上のように2個の表示器D1,D2を備えさせることにより、手先部Hの運動状態に関するパラメーターの3次元の方向を表現できる。   FIG. 7 is a perspective view of a robot 1 according to another embodiment. As shown in the figure, two displays D1, D2 are attached to the force sensor FS. The two displays D1 and D2 form a plane orthogonal to each other. The display D1 is the same as the display D of the above embodiment, and displays an arrow indicating the direction of the parameter relating to the motion state of the hand portion H in the direction on the αβ plane. On the other hand, the display D2 displays an arrow indicating the direction of the parameter relating to the movement state of the hand portion H in the βγ plane. The γ axis is an axis orthogonal to the αβ plane. The display control unit 32 extracts the component in the β-axis direction and the component in the γ-axis direction of the current display D2 from the translation vector and the translation force vector in the robot coordinate system. The display control unit 32 then displays display image data indicating an arrow in the βγ plane composed of the extracted β-axis direction component and γ-axis direction component, respectively, indicating the translation direction and the translation force direction. It is generated as display image data of D2. By providing the two displays D1 and D2 as described above, the three-dimensional direction of the parameter relating to the motion state of the hand portion H can be expressed.

1…ロボット、2…エンドエフェクター、3…制御装置、31…駆動制御部、表示制御部32、A…アーム、A1〜A6…アーム部材、d…仮想粘性係数、Da…駆動位置、Dc…制御量、De…駆動位置偏差、Dt…目標駆動位置、E1〜E6…エンコーダー、f…力、fS…作用力、fS…目標力、FS…力覚センサー、fSt…目標力、J1〜J6…関節、K…凹部、k…仮想弾性係数、Kp…位置制御ゲイン、Kv…速度制御ゲイン、m…仮想慣性係数、M1〜M6…モーター、W…ワーク、ΔfS…力偏差、ΔS…力由来補正量 1 ... robot, 2 ... end effector, 3 ... control unit, 31 ... drive control unit, the display control unit 32, A ... arm, A1 to A6 ... arm member, d ... virtual viscosity coefficient, D a ... drive position, D c ... control amount, D e ... drive position deviation, D t ... target drive position, E1 to E6 ... encoder, f ... force, f S ... acting force, f S ... target force, FS ... force sensor, f St ... target force, J1 to J6 ... joint, K ... recess, k ... virtual modulus, K p ... position control gain, K v ... speed control gain, m ... virtual inertia coefficient, M1-M6 ... motor, W ... workpiece, Delta] f S ... Force deviation, ΔS ... Force-derived correction amount

Claims (9)

駆動部によって駆動されるマニュピレーターと、力覚センサーとを含むロボットであって、
前記駆動部は、前記力覚センサーに基づいて制御され、
前記マニュピレーターは、前記マニュピレーターの運動状態に関するパラメーターを表示する表示器を有している、
ロボット。
A robot including a manipulator driven by a driving unit and a force sensor,
The driving unit is controlled based on the force sensor,
The manipulator has a display for displaying parameters relating to the motion state of the manipulator.
robot.
前記マニュピレーターには、前記表示器が取り付け可能になっている、
請求項1記載のロボット。
The manipulator can be attached with the indicator.
The robot according to claim 1.
前記パラメーターは、少なくとも前記マニュピレーターの位置と速度と加速度と前記力覚センサーに作用する作用力のいずれかを含む、
請求項1または請求項2のいずれかに記載のロボット。
The parameter includes at least one of the position, velocity, acceleration, and acting force acting on the force sensor of the manipulator.
The robot according to claim 1 or 2.
前記パラメーターは、少なくとも前記マニュピレーターの移動方向と前記作用力の方向のいずれかを含む、
請求項1から請求項3のいずれか一項に記載のロボット。
The parameter includes at least one of a moving direction of the manipulator and a direction of the acting force.
The robot according to any one of claims 1 to 3.
前記表示器は、前記パラメーターを、方向を指し示す矢印で表示する、
請求項1から請求項4のいずれか一項に記載のロボット。
The indicator displays the parameter with an arrow indicating a direction.
The robot according to any one of claims 1 to 4.
前記パラメーターは、
少なくともセンサーが検出した前記マニュピレーターの現実の運動状態と、前記マニュピレーターの目標の運動状態のいずれかに関する、
請求項1から請求項5のいずれか一項に記載のロボット。
The parameters are
At least one of the actual motion state of the manipulator detected by the sensor and the target motion state of the manipulator
The robot according to any one of claims 1 to 5.
前記マニュピレーターは、両端の関節によって相互に連結された複数のアーム部材を含み、
前記表示器は、前記アーム部材に取り付けられ、当該アーム部材の運動状態に関する前記パラメーターを表示する、
請求項1から請求項6のいずれか一項に記載のロボット。
The manipulator includes a plurality of arm members connected to each other by joints at both ends,
The indicator is attached to the arm member and displays the parameter relating to the motion state of the arm member.
The robot according to any one of claims 1 to 6.
請求項1から請求項7のいずれか一項に記載のロボットの前記駆動部を制御する駆動制御部と、
前記マニュピレーターの運動状態に関する前記パラメーターを、前記マニュピレーターが有する前記表示器に表示させる表示制御部と、
を備えるロボット制御装置。
A drive control unit that controls the drive unit of the robot according to any one of claims 1 to 7,
A display control unit for displaying the parameter relating to the motion state of the manipulator on the display of the manipulator;
A robot control device comprising:
請求項1から請求項7のいずれか一項に記載のロボットと、
前記ロボットの前記駆動部を制御する駆動制御部と、前記マニュピレーターの運動状態に関する前記パラメーターを、前記マニュピレーターが有する前記表示器に表示させる表示制御部と、を備えるロボット制御装置と、
を含むロボットシステム。
The robot according to any one of claims 1 to 7,
A robot control device comprising: a drive control unit that controls the drive unit of the robot; and a display control unit that displays the parameter relating to the motion state of the manipulator on the display unit of the manipulator.
Including robot system.
JP2015149344A 2015-06-03 2015-07-29 Robot, robot control device and robot system Withdrawn JP2017030058A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2015149344A JP2017030058A (en) 2015-07-29 2015-07-29 Robot, robot control device and robot system
CN201610380562.2A CN106239516B (en) 2015-06-03 2016-06-01 Robot control device, robot, and robot system
US15/171,326 US10112297B2 (en) 2015-06-03 2016-06-02 Robot control apparatus, robot, and robot system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015149344A JP2017030058A (en) 2015-07-29 2015-07-29 Robot, robot control device and robot system

Publications (2)

Publication Number Publication Date
JP2017030058A true JP2017030058A (en) 2017-02-09
JP2017030058A5 JP2017030058A5 (en) 2018-08-30

Family

ID=57986639

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015149344A Withdrawn JP2017030058A (en) 2015-06-03 2015-07-29 Robot, robot control device and robot system

Country Status (1)

Country Link
JP (1) JP2017030058A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022210412A1 (en) * 2021-03-31 2022-10-06 ファナック株式会社 Robot system comprising robot equipped with display unit

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06312386A (en) * 1993-03-01 1994-11-08 Hitachi Constr Mach Co Ltd Positioning robot, device for positioning suspended load and device for detecting relative position
JP2000225592A (en) * 1998-12-02 2000-08-15 Meidensha Corp Robot controller
JP2005231010A (en) * 2004-02-23 2005-09-02 Fanuc Ltd Display device
JP2009072833A (en) * 2007-09-18 2009-04-09 Yaskawa Electric Corp Direct instructing device of robot
JP2012218139A (en) * 2011-04-14 2012-11-12 Seiko Epson Corp Motor unit and robot
JP2013086223A (en) * 2011-10-20 2013-05-13 Seiko Epson Corp Robot, and method for controlling indication of robot's movement
JP2013114737A (en) * 2011-11-28 2013-06-10 Internatl Business Mach Corp <Ibm> Method, computer program and apparatus for programming phase-change memory cell, and phase-change memory device (programming of phase-change memory cells)
CN203622451U (en) * 2013-09-28 2014-06-04 上海摩西海洋工程有限公司 Industrial robot visualizing system

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06312386A (en) * 1993-03-01 1994-11-08 Hitachi Constr Mach Co Ltd Positioning robot, device for positioning suspended load and device for detecting relative position
JP2000225592A (en) * 1998-12-02 2000-08-15 Meidensha Corp Robot controller
JP2005231010A (en) * 2004-02-23 2005-09-02 Fanuc Ltd Display device
JP2009072833A (en) * 2007-09-18 2009-04-09 Yaskawa Electric Corp Direct instructing device of robot
JP2012218139A (en) * 2011-04-14 2012-11-12 Seiko Epson Corp Motor unit and robot
JP2013086223A (en) * 2011-10-20 2013-05-13 Seiko Epson Corp Robot, and method for controlling indication of robot's movement
JP2013114737A (en) * 2011-11-28 2013-06-10 Internatl Business Mach Corp <Ibm> Method, computer program and apparatus for programming phase-change memory cell, and phase-change memory device (programming of phase-change memory cells)
CN203622451U (en) * 2013-09-28 2014-06-04 上海摩西海洋工程有限公司 Industrial robot visualizing system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022210412A1 (en) * 2021-03-31 2022-10-06 ファナック株式会社 Robot system comprising robot equipped with display unit

Similar Documents

Publication Publication Date Title
CN106239516B (en) Robot control device, robot, and robot system
US11813734B2 (en) Systems and methods for providing contact detection in an articulated arm
US10173325B2 (en) Robot, robot control apparatus and robot system
US8498745B2 (en) Robot apparatus and gripping method for use in robot apparatus
Kim et al. Multiple-degree-of-freedom counterbalance robot arm based on slider-crank mechanism and bevel gear units
WO2006022201A1 (en) Robot evaluation system and evaluation method
WO2021024586A1 (en) Control device, control system, robot system, and control method
US11613012B2 (en) Robot controller
US20170028555A1 (en) Robot control apparatus for compensating for elastic deformation of support body
JP4054984B2 (en) Robot control apparatus and control method
Zhang et al. Dynamic analysis of flexible-link and flexible-joint robots
JP2016221653A (en) Robot control device and robot system
Falck et al. DE VITO: A dual-arm, high degree-of-freedom, lightweight, inexpensive, passive upper-limb exoskeleton for robot teleoperation
JP2017071012A (en) Master slave device
JP2017030058A (en) Robot, robot control device and robot system
JP4842561B2 (en) Force controller device
Pan et al. Dynamics modeling of spraying robot using Lagrangian method with co-simulation analysis
JP2014180726A (en) Compensating device for spring constant of multi-joint robot
Silawatchananai et al. Force control of an upper limb exoskeleton for virtual reality using impedance control
JP6668629B2 (en) Robot controller and robot system
JP2016179523A (en) Robot control device and robot system
CN202507280U (en) Humanoid robot
CN111844017A (en) Display method
US20240091957A1 (en) Computation device for calculating permissible value of external force acting on robot device or workpiece, and device for controlling robot
WO2022210186A1 (en) Control device for calculating parameters for controlling position and posture of robot

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180720

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180720

RD05 Notification of revocation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7425

Effective date: 20180906

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20181116

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190628

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190709

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20190909