JPH08132372A - Control method for robot - Google Patents

Control method for robot

Info

Publication number
JPH08132372A
JPH08132372A JP27322394A JP27322394A JPH08132372A JP H08132372 A JPH08132372 A JP H08132372A JP 27322394 A JP27322394 A JP 27322394A JP 27322394 A JP27322394 A JP 27322394A JP H08132372 A JPH08132372 A JP H08132372A
Authority
JP
Japan
Prior art keywords
force
arm
information
robot
torque
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP27322394A
Other languages
Japanese (ja)
Inventor
Nobuhito Matsuhira
信人 松日楽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP27322394A priority Critical patent/JPH08132372A/en
Publication of JPH08132372A publication Critical patent/JPH08132372A/en
Pending legal-status Critical Current

Links

Landscapes

  • Manipulator (AREA)

Abstract

PURPOSE: To surely feedback to an operator force and torque information that a slave arm receives without adopting a bilateral control method. CONSTITUTION: Image display is carried out on a display 12 by putting the moving image information of the position of an arm tip portion obtained from a camera 5 fitted to a robot together upon force and torque information to act on an arm tip portion obtained from a force and torque sensor 7. An operator who conducts work while looking at the display 12, can simultaneously confirm on the display 12 in which direction of an arm 3 load is acting at present, and can execute work so as not to impose overload on the arm 3.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明はロボットの制御方法に係
り、特にオペレータに対して力・トルク情報をフィード
バックする機能を有するロボットの制御方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a robot control method, and more particularly to a robot control method having a function of feeding back force / torque information to an operator.

【0002】[0002]

【従来の技術】ロボットを遠隔操作する場合、オペレー
タが操作するマスタアームに追従するように遠隔地のス
レーブアームを駆動する、いわゆるマスタスレーブ方式
を採用することが知られている。
2. Description of the Related Art When remotely controlling a robot, it is known to employ a so-called master-slave system in which a slave arm at a remote place is driven so as to follow a master arm operated by an operator.

【0003】このようなマスタスレーブ方式では、スレ
ーブアームが作業対象物や周囲の環境から受ける反力を
マスタアームにフィードバックするというバイラテラル
制御を用いているため、オペレータが遠隔地の作業状況
を感覚的に把握することができ、作業対象物やスレーブ
アーム等に過負荷を与えることなく作業を行うことがで
きるといった特徴がある。
In such a master-slave system, bilateral control is used in which the reaction force received by the slave arm from the work object or the surrounding environment is fed back to the master arm, so that the operator senses the work situation at a remote place. The feature is that the work can be grasped and the work can be performed without overloading the work target or the slave arm.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、このよ
うなバイラテラル制御方式では、フィードバックされた
反力に応じてマスタアームを駆動するためのアクチュエ
ータ(モータや減速機など)を必要とするため、マスタ
アームの構造は大きく複雑となってしまう。そのため、
ジョイスティックなどの簡単な操縦装置では力・トルク
情報を得ることができず、マスタアームとして利用する
ことには制限があった。
However, in such a bilateral control system, an actuator (a motor, a speed reducer, etc.) for driving the master arm in accordance with the reaction force fed back is required. The structure of the arm becomes large and complicated. for that reason,
Since a simple control device such as a joystick cannot obtain force / torque information, its use as a master arm is limited.

【0005】また、力・トルク情報をフィードバックす
る場合には、物体の剛性によっては制御系が不安定にな
りやすく、制御系全体が振動してしまい作業遂行が困難
となってしまっていた。
Further, when the force / torque information is fed back, the control system tends to become unstable depending on the rigidity of the object, and the entire control system vibrates, making it difficult to carry out the work.

【0006】そこで本発明では、バイラテラル制御方式
を採用することなくスレーブアームの受ける力・トルク
情報を確実にオペレータにフィードバックすることが可
能なロボットの制御方法の提供を目的とする。
Therefore, an object of the present invention is to provide a robot control method capable of reliably feeding back force / torque information received by a slave arm to an operator without employing a bilateral control method.

【0007】[0007]

【課題を解決するための手段】上記の目的を達成するた
めに本発明は、ロボットのアーム先端部の位置情報を画
像表示するとともに、この画像情報に対して前記アーム
先端部に作用する力・トルク情報を重ね合わせて画像表
示するロボットの制御方法とした。
In order to achieve the above-mentioned object, the present invention displays the position information of the arm tip of a robot as an image, and the force acting on the arm tip with respect to this image information. The robot control method is to display the image by superimposing the torque information.

【0008】また、ロボットのアーム先端部の位置の動
画像情報に対して、前記アーム先端部に作用する力・ト
ルク情報を重ね合わせて画像表示するロボットの制御方
法とした。
Further, the control method of the robot is such that the force / torque information acting on the arm tip portion is superposed on the moving image information of the position of the arm tip portion of the robot to display the image.

【0009】また、ロボットに取り付けられたカメラか
ら得られたアーム先端部の画像情報に、前記ロボットに
取り付けられた力・トルクセンサから得られた前記アー
ム先端部に作用する力・トルク情報を重ね合わせて画像
表示するロボットの制御方法とした。
Further, the force / torque information acting on the arm tip portion obtained from the force / torque sensor attached to the robot is superimposed on the image information of the arm tip portion obtained from the camera attached to the robot. A robot control method that also displays images is used.

【0010】なお、前記アーム先端部の画像情報は、C
G(コンピュータグラフィック)処理された画像情報で
あってもよい。また、前記力・トルク情報を、前記アー
ム先端部の画像情報に重なるように表示してもよく、ま
た、前記力・トルク情報をベクトルとして画像表示して
もよい。また、前記力・トルク情報の一部のみを選択的
に表示してもよい。
The image information at the tip of the arm is C
It may be G (computer graphic) processed image information. Further, the force / torque information may be displayed so as to overlap with the image information of the arm tip portion, or the force / torque information may be displayed as a vector image. Further, only a part of the force / torque information may be selectively displayed.

【0011】[0011]

【作用】上記の制御方法を採用することにより、オペレ
ータは力・トルク情報を画像情報としてとらえることが
可能となるため、バイラテラル制御方式を採用すること
なくスレーブアームの受ける力・トルク情報を確実にオ
ペレータにフィードバックすることが可能となる。
By using the control method described above, the operator can capture the force / torque information as image information, so that the force / torque information received by the slave arm can be assured without using the bilateral control method. It is possible to feed back to the operator.

【0012】特に、オペレータはアーム先端部を注視し
て作業を行うため、アーム先端部の位置情報と同時に力
・トルク情報を表示すれば、作業効率が大幅に向上する
とともに作業の危険性を十分に低下させることができ
る。
Particularly, since the operator pays attention to the tip of the arm to perform the work, if the force / torque information is displayed at the same time as the position information of the arm tip, the work efficiency is greatly improved and the risk of the work is sufficiently increased. Can be reduced to

【0013】[0013]

【実施例】以下、図面を参照して本発明の実施例を説明
する。図1は本発明のロボットの制御方法を示すブロッ
ク図、図2はロボットによる作業状態の一例を示す概念
図、図3はアーム先端部の表示方法の一例を示す図であ
る。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing a control method of a robot of the present invention, FIG. 2 is a conceptual diagram showing an example of a working state by the robot, and FIG. 3 is a diagram showing an example of a display method of an arm tip portion.

【0014】ここではロボットによるピンの挿入作業を
例にとって説明する。図2(a) に示すようにロボット1
は、ロボット本体2 と、アーム3 と、アーム先端部に装
着されたハンド4 とを備え、さらにロボット本体2 上に
はカメラ5 が配置されている。また、アーム3 は複数の
関節6 (6a,6b,6c)を有しロボット本体2 とハンド4 と
を連結している。一方、ハンド4 の根元部分には力・ト
ルクセンサ7 が固定され、ハンド4 が把持するピンP に
作用する外力を検出する。ここで力・トルクセンサ7 と
しては例えば6軸力センサが使用される。
Here, the pin insertion work by the robot will be described as an example. Robot 1 as shown in Fig. 2 (a)
Includes a robot body 2, an arm 3, and a hand 4 attached to the tip of the arm, and a camera 5 is arranged on the robot body 2. The arm 3 has a plurality of joints 6 (6a, 6b, 6c) and connects the robot body 2 and the hand 4. On the other hand, a force / torque sensor 7 is fixed to the base portion of the hand 4 and detects an external force acting on the pin P gripped by the hand 4. Here, for example, a 6-axis force sensor is used as the force / torque sensor 7.

【0015】このような構成のロボット1 による作業方
法は、図1に示すブロックに基づいて行われる。まず、
アーム3 からは位置・角度情報と力・トルク情報とが検
出される。位置・角度情報は、各関節6a,6b,6cに設けら
れた位置・角度センサ8 により検出され、力・トルク情
報は、前述の力・トルクセンサ7 により検出される。
The work method by the robot 1 having such a configuration is performed based on the block shown in FIG. First,
Position / angle information and force / torque information are detected from the arm 3. The position / angle information is detected by the position / angle sensor 8 provided at each joint 6a, 6b, 6c, and the force / torque information is detected by the force / torque sensor 7 described above.

【0016】また、ロボット本体2 上に配置されたカメ
ラ5 からは、その位置・姿勢(パン・チルトetc.)およ
び画角・ズーム比などのカメラ設定情報と、アーム先端
部付近をとらえた画像情報とが独立して出力される。
Further, from the camera 5 arranged on the robot main body 2, camera setting information such as its position / orientation (pan / tilt etc.) and angle of view / zoom ratio, and an image captured near the tip of the arm. Information is output independently.

【0017】カメラ設定情報は、カメラ情報検出器9 に
より検出され、演算部10に入力される。また演算部10に
は、前述の位置・角度センサ8 からの信号も出力され
る。したがって演算部10では、カメラの画角の中のどの
位置にアーム先端部が映し出されているのかが演算され
る。
The camera setting information is detected by the camera information detector 9 and input to the arithmetic unit 10. The signal from the position / angle sensor 8 described above is also output to the arithmetic unit 10. Therefore, the calculation unit 10 calculates at which position within the angle of view of the camera the arm tip is projected.

【0018】例えば、基準座標系をカメラ5 の原点位置
とし、この基準座標系から見たアーム3 の一端(関節6
a)への座標変換をTcam 、アーム3 の一端(関節6a)
から見たアーム3 の他端(関節6c)への座標変換をTar
m 、アーム3 の他端(関節6c)から見たハンド4 への座
標変換をE、とすれば、カメラ5 の座標系から見たハン
ド4 の座標系への変換Xは
For example, the reference coordinate system is set as the origin position of the camera 5, and one end of the arm 3 (joint 6 is seen from the reference coordinate system).
coordinate conversion to a) Tcam, one end of arm 3 (joint 6a)
Tar transformation from the other side of arm 3 to the other end (joint 6c)
If m is the coordinate transformation from the other end of the arm 3 (joint 6c) to the hand 4 as E, the transformation X from the coordinate system of the camera 5 to the coordinate system of the hand 4 is

【0019】[0019]

【数1】 X=Tcam ・Tarm ・E …(1) と表すことができる。この式(1) によって、カメラ5 の
座標系から見たハンド4(アーム先端部)の位置・姿勢
を求めることができる。なお、式(1) に示された変換X
の変換過程は、図2(b) にロボット本体2 上に重ねて描
かれたベクトルに示されるように行われる。
## EQU1 ## X = Tcam.Tarm.E ... (1) can be expressed. From this equation (1), the position / orientation of the hand 4 (arm end) viewed from the coordinate system of the camera 5 can be obtained. In addition, the conversion X shown in the equation (1)
The conversion process is performed as shown in the vector drawn on the robot body 2 in FIG. 2 (b).

【0020】一方で、カメラ5 の位置・姿勢(パン・チ
ルトetc.)および画角・ズーム比などのカメラ設定情報
を変化させることにより、カメラ画角上でのアーム先端
部の位置や大きさはその都度変化する。演算部11内では
式(1) の演算を行うとともに、カメラ設定情報を考慮し
た補正を行うことにより、カメラ画角上でのアーム先端
部の位置を的確に算出する。
On the other hand, by changing the camera setting information such as the position / orientation (pan / tilt etc.) and the angle of view / zoom ratio of the camera 5, the position and size of the arm tip part on the angle of view of the camera can be changed. Changes each time. The position of the arm tip portion on the camera angle of view is accurately calculated by performing the calculation of Expression (1) in the calculation unit 11 and performing the correction in consideration of the camera setting information.

【0021】このようにして、カメラの画角の中のどの
位置にアーム先端部が映し出されているのかが演算さ
れ、その情報は画面制御部11に送られる。画面制御部11
は、演算部10で得られたアーム先端部の様子をCRT やLC
D などからなるディスプレイ12上に表示するための写像
変換の演算を行う。
In this way, it is calculated at which position within the angle of view of the camera the arm tip is projected, and the information is sent to the screen control unit 11. Screen control unit 11
Shows the state of the arm tip obtained by the calculation unit 10 on the CRT or LC.
Performs a mapping conversion operation for display on the display 12 including D.

【0022】また、画面制御部11には、力・トルクセン
サ7 からの情報も併せて入力されている。この際、力・
トルクセンサ7 によって得られた力・トルク情報は、一
旦座標変換部13に出力され、任意の座標系における力・
トルク情報に変換される。例えば、演算部10による位置
・角度情報の演算が、カメラ5 の座標系から見たアーム
先端部(ハンド4 )の座標系への変換を行う場合には、
座標変換部13での演算もアーム先端部(ハンド4 )の座
標系への変換を行う。
Information from the force / torque sensor 7 is also input to the screen control section 11. At this time, force
The force / torque information obtained by the torque sensor 7 is temporarily output to the coordinate conversion unit 13, and the force / torque information in an arbitrary coordinate system is output.
Converted to torque information. For example, when the calculation of the position / angle information by the calculation unit 10 converts the coordinate system of the camera 5 into the coordinate system of the arm tip (hand 4) viewed from
The calculation in the coordinate conversion unit 13 also converts the arm tip (hand 4) into the coordinate system.

【0023】そして、画面制御部11に取り込まれた力・
トルク情報は、ディスプレイ12側に出力するアーム先端
部の動画像に重ね合わせられるように処理される。すな
わち、画面制御部11では、アーム先端部の位置に係る画
像情報と、アーム先端部に作用する力・トルク情報を重
ね合わせて同時に画像表示する。
Then, the force taken in by the screen control unit 11
The torque information is processed so as to be superimposed on the moving image of the arm tip portion output to the display 12 side. That is, the screen control unit 11 superimposes the image information relating to the position of the arm tip and the force / torque information acting on the arm tip and simultaneously displays the image.

【0024】なお、ディスプレイ12への表示方法は、カ
メラ5 がとらえた実画像に対して力・トルク情報を重ね
合わせる方法を用いてもよいが、実画像をCG(コンピ
ュータグラフィックス)化した画像情報に対して力・ト
ルク情報を重ね合わせる方法を採用してもよい。すなわ
ち、あらかじめ計算機内部に用意された環境モデルや、
位置・角度センサ8 からの位置情報をもとにして、実際
のアーム3 の動きと連動して動作するような仮想的な
(計算機により表現される)ロボットアームを表示する
ことにより、アーム先端部の様子をオペレータに対して
より明確にフィードバックすることが可能である。
As a display method on the display 12, a method of superposing force / torque information on the actual image captured by the camera 5 may be used, but the actual image is a CG (computer graphics) image. A method of superposing force / torque information on information may be adopted. That is, the environment model prepared in advance in the computer,
By displaying a virtual robot arm (represented by a computer) that operates in conjunction with the actual movement of the arm 3 based on the position information from the position / angle sensor 8, the tip of the arm is displayed. It is possible to feed back the situation of to the operator more clearly.

【0025】図3は、ディスプレイ12に表示されたアー
ム先端部の動画像を示したものである。同図に示される
ように、ここではハンド4 が把持するピンP の位置に重
なるように、力・トルク情報をベクトルで表示してい
る。ここでの力・トルク情報は、ピンP の座標系を採用
し、直交する並進3軸のみをベクトル表示している。
FIG. 3 shows a moving image of the tip of the arm displayed on the display 12. As shown in the figure, here, force / torque information is displayed as a vector so as to overlap the position of the pin P gripped by the hand 4. For the force / torque information here, the coordinate system of the pin P is adopted and only the three translational axes orthogonal to each other are displayed as a vector.

【0026】以上のような構成の本発明の動作について
説明する。オペレータは、カメラ5 からの画像情報をデ
ィスプレイ12でモニタしながら、手元のジョイスティッ
クを用いて、遠隔地に配置された例えば図2に示される
ような構造のロボット1 を操作している。ロボット1 の
アーム3 の先端部に取り付けられたハンド4 にはピンP
が把持されており、対象物A に設けられた穴H への挿入
作業が行われている。
The operation of the present invention having the above configuration will be described. While monitoring the image information from the camera 5 on the display 12, the operator uses the joystick at hand to operate the robot 1 having a structure as shown in FIG. A pin P is attached to the hand 4 attached to the tip of the arm 3 of the robot 1.
Is being held, and the insertion work into the hole H provided in the object A is being performed.

【0027】このような作業においては、オペレータは
位置を指令するだけの機能しか持たないジョイスティッ
クを操作しているため、通常ではピンP と対象物A との
接触状態を確実に把握することができない。すなわち、
対象物A との間に発生している接触力の情報を何等把握
することができないため、ピンP が穴H にうまく挿入さ
れているのか、あるいは穴H に対して斜めにこじれた状
態で挿入されているのか等がわからず、ピンP を曲げた
り対象物A を破損させてしまう危険性がある。
In such work, since the operator operates the joystick which has only the function of instructing the position, it is usually impossible to reliably grasp the contact state between the pin P and the object A. . That is,
Since it is not possible to grasp any information about the contact force generated between the object A and the object A, whether the pin P is properly inserted in the hole H, or the pin P is inserted in an obliquely twisted state with respect to the hole H. There is a risk that the pin P may be bent or the object A may be damaged without knowing whether or not it is attached.

【0028】そこで本発明では、カメラ5 から得られる
画像情報を表示するディスプレイ12に対して、ピンP を
把持しているハンド4 の座標系を用いて、ピンP を穴H
に挿入・引き抜きする際に発生する並進3軸方向の接触
力F1,F2,F3をハンド4 の画像上にグラフィックス表示し
ている。
Therefore, according to the present invention, with respect to the display 12 which displays the image information obtained from the camera 5, the pin P is provided with a hole H by using the coordinate system of the hand 4 holding the pin P.
The contact forces F1, F2, and F3 in the translational three-axis directions that are generated when inserting / pulling in and out are displayed graphically on the image of the hand 4.

【0029】ここでは、ハンド4 の座標系を2本の指の
中心としているため、ベクトルの原点がちょうどピンP
の中心軸上に表示されている。また、ここでは力の大き
さをベクトルの長さに比例させて表示している。
Here, since the coordinate system of the hand 4 is the center of two fingers, the origin of the vector is just the pin P.
It is displayed on the central axis of. Also, here, the magnitude of the force is displayed in proportion to the length of the vector.

【0030】したがって、ディスプレイ12を見ながら作
業を行うオペレータは、ピンP に対して現在どの方向に
負荷が作用しているのかを、ディスプレイ12上で同時に
確認することができ、ピンP に過負荷のかからないよう
に作業を実行することができる。オペレータは力・トル
ク情報を画像情報としてとらえることが可能となるた
め、バイラテラル制御方式を採用することなくアーム3
の受ける力・トルク情報が確実にオペレータにフィード
バックされる。
Therefore, an operator working while looking at the display 12 can simultaneously confirm on the display 12 in which direction the load is currently applied to the pin P, and the pin P is overloaded. Work can be done in a non-intrusive manner. Since the operator can capture the force / torque information as image information, the arm 3 can be used without adopting the bilateral control method.
The force / torque information received by the operator is reliably fed back to the operator.

【0031】特に、オペレータはハンド4 やピンP など
のアーム先端部を注視して作業を行うことが多い。本発
明によれば、このようにアーム先端部に力・トルク情報
を表示することによって、オペレータが別のディスプレ
イの画像や数値データを見たり、注視点以外を見ること
なく作業ができるために、作業効率が大幅に向上すると
ともに作業の危険性を十分に低下させることができる。
In particular, the operator often looks at the arm 4 such as the hand 4 or the pin P to perform the work. According to the present invention, by displaying the force / torque information on the arm tip in this way, the operator can work without looking at images or numerical data on another display or looking at other than the gazing point. The work efficiency can be significantly improved and the work risk can be sufficiently reduced.

【0032】また、アーム先端部は作業時には常にモニ
タされていることから、力・トルク情報の表示位置をこ
のアーム先端部とすると、カメラ5 をズームさせたり接
近させたりしても力・トルク情報が常にディスプレイ12
に表示されることとなり、作業性が極めて良くなる。
Since the tip of the arm is constantly monitored during work, if the display position of the force / torque information is set to the tip of the arm, the force / torque information can be obtained even when the camera 5 is zoomed or moved closer. Always display 12
Will be displayed in, and the workability will be extremely improved.

【0033】以下、ディスプレイ12への各種表示方法に
ついて説明する。図3においては、力・トルクセンサ7
で検出された力・トルク情報をそのままハンド座標系に
変換して表示した。すなわち、ベクトル表示された力・
トルク情報は実際に力の作用する向きを表している。
Various display methods on the display 12 will be described below. In FIG. 3, the force / torque sensor 7
The force / torque information detected in was converted to the hand coordinate system and displayed. That is, the force displayed as a vector
The torque information represents the direction in which the force actually acts.

【0034】これに対して図4に示した表示方法は、図
3のハンド座標系とはベクトルの向きを逆向きに表示し
ている。つまりこの表示方法では負荷とは逆向きのベク
トルが示されていることになるため、オペレータがこの
ベクトルの向きにアーム3 を駆動することにより、アー
ム3 に作用する負荷が小さくなる。
On the other hand, in the display method shown in FIG. 4, the vector is displayed in the direction opposite to that of the hand coordinate system shown in FIG. That is, in this display method, a vector in the direction opposite to the load is shown. Therefore, the operator drives the arm 3 in the direction of this vector, so that the load acting on the arm 3 is reduced.

【0035】このような表示方法を採用することによ
り、ピンP の挿入作業などでこじれが生じてしまって
も、オペレータはアーム3 をどの方向に退避させればよ
いか即座にかつ直感的に判断することができるなど、緊
急の際に有用となり得る。
By adopting such a display method, the operator can immediately and intuitively determine in which direction the arm 3 should be retracted even if the pin P is twisted or otherwise twisted. Can be useful in an emergency.

【0036】なお、図4の表示の際には、ベクトルの色
を図3の場合とは変えるなどの考慮が必要であり、この
ように色の変化を持たせることによって図3の表示方法
と図4の表示方法とを切り替えて使用することも可能と
なる。例えば図3の表示方法を通常モードとして設定し
ておき、複雑な作業等の場合には図4の特殊モードに切
り替えて作業を行うことができる。なお、図4ではベク
トル表示を白抜きとしてある。
In the display of FIG. 4, it is necessary to consider that the color of the vector is changed from that of the case of FIG. 3, and the display method of FIG. It is also possible to switch and use the display method of FIG. For example, the display method of FIG. 3 can be set as the normal mode, and in the case of complicated work, the work can be performed by switching to the special mode of FIG. In FIG. 4, the vector display is outlined.

【0037】また、力・トルク情報を表示するための座
標系は、力・トルクセンサ7 の位置を基準としたセンサ
座標系、アーム3 の基部(関節6a)を基準とした座標
系、ハンド4 を基準とした座標系など、作業内容やオペ
レータの認識度合いに応じて複数準備しておき、任意の
ものを表示できるように設定しておくことが好ましい。
The coordinate system for displaying force / torque information is a sensor coordinate system based on the position of the force / torque sensor 7, a coordinate system based on the base of the arm 3 (joint 6a), and a hand 4 It is preferable to prepare a plurality of coordinate systems based on, such as a coordinate system, depending on the work content and the degree of recognition of the operator, and set them so that arbitrary ones can be displayed.

【0038】このような各種座標系は、オペレータによ
るパソコン等からの入力指定に応じて上述した画面制御
部11や座標変換部14で演算処理を行い、ディスプレイ12
上に適宜表示される。
Such various coordinate systems are subjected to arithmetic processing by the above-mentioned screen control section 11 and coordinate conversion section 14 in accordance with the input designation from the personal computer or the like by the operator, and the display 12
Displayed appropriately above.

【0039】例えば図5は、力・トルクセンサ7 の位置
を基準としたセンサ座標系に並進力を表示したものであ
る。このような表示は、前述の式(1) において、Eの代
わりに、アーム3 の他端から見た力・トルクセンサ7 へ
のセンサ座標系への変換E’を採用すれば実現する。
For example, FIG. 5 shows the translational force in the sensor coordinate system with the position of the force / torque sensor 7 as a reference. Such a display is realized by adopting the conversion E'in the sensor coordinate system of the force / torque sensor 7 viewed from the other end of the arm 3 in place of E in the above-mentioned formula (1).

【0040】また、ここではハンド4 が円柱状のピンP
を把持している実施例を示しているが、ハンド4 が扱う
他の部品がある場合には、その部品の形状に応じた各種
座標系を用意しておき必要に応じて選択できるようにし
ておく。また、ハンド4 に代わる他の工具(エンドエフ
ェクタ)を用いる場合にも、その工具の座標系を選択で
きるようにしておく。
Further, here, the hand 4 has a cylindrical pin P.
However, if there are other parts handled by the hand 4, various coordinate systems corresponding to the shapes of those parts are prepared so that they can be selected as needed. deep. Also, when using another tool (end effector) instead of the hand 4, the coordinate system of the tool should be selectable.

【0041】さらに、力・トルク情報は、その座標軸に
沿った各成分の大きさに比例させて長さや太さを変化さ
せてもよく、また合成されたベクトルとして表示しても
よい。図6では、ハンド座標系での並進力をその力の大
きさに応じた太さとして表示している。
Further, the force / torque information may be changed in length or thickness in proportion to the size of each component along the coordinate axis, or may be displayed as a combined vector. In FIG. 6, the translational force in the hand coordinate system is displayed as the thickness corresponding to the magnitude of the force.

【0042】なお、ベクトルの一部が画面の奥行き方向
と一致してしまうと、力・トルク情報がオペレータに的
確に伝わらないという問題が生じる。そのため、ディス
プレイ12の奥行き方向が力・トルク情報の座標系の任意
の成分と一致しないように、所定角度が保たれる範囲で
表示することが好ましい。この際、ディスプレイ12の奥
行き方向に近い方向のベクトルには目立つ色を用いて表
示するなどの工夫をしてもよい。
If a part of the vector coincides with the depth direction of the screen, there arises a problem that the force / torque information is not accurately transmitted to the operator. Therefore, it is preferable that the display 12 is displayed within a range in which a predetermined angle is maintained so that the depth direction of the display 12 does not match any component of the coordinate system of the force / torque information. At this time, the vector in the direction close to the depth direction of the display 12 may be displayed in a conspicuous color.

【0043】また、アーム3 にある程度の値以上の大き
な力・トルクが作用する場合には、対象物A やアーム3
が破損する恐れが高くなる。したがって、座標系の選び
方にかかわらず、ある程度の値以上の力・トルクが作用
した場合には、色を変えたりアラームを発生するなど特
殊な方法で力・トルク情報を伝達することが好ましい。
When a large force or torque of a certain value or more acts on the arm 3, the object A or the arm 3
Is more likely to be damaged. Therefore, regardless of how the coordinate system is selected, it is preferable to transmit the force / torque information by a special method such as changing the color or generating an alarm when a force / torque of a certain value or more is applied.

【0044】図7は、座標軸に3軸分の並進力と各軸回
りのモーメント力を全部表示した例である。このよう
に、力・トルクセンサ7 により検出された6自由度を全
てディスプレイ12に表示することも可能であるが、逆に
オペレータが即座かつ直感的に理解できないといった危
険性もある。そのため、作業内容や用いる工具(エンド
エフェクタ)等に応じて、必要な力情報のみ表示するこ
とが好ましい。
FIG. 7 is an example in which the translational forces for three axes and the moment force around each axis are all displayed on the coordinate axis. As described above, it is possible to display all the six degrees of freedom detected by the force / torque sensor 7 on the display 12, but on the contrary, there is a risk that the operator cannot immediately and intuitively understand. Therefore, it is preferable to display only necessary force information according to the work content, the tool (end effector) used, and the like.

【0045】例えば図8では、Z軸方向の並進力とY軸
回りのモーメントMy のみが目立つように表示されてお
り、他の力情報は目立たないように(例えば破線など
で)表示されている。このような表示方法は、例えばY
軸回りに回転する工具(ドリルやグラインダなど)をZ
軸方向に移動して使用する場合などに特に有用となる。
わずか2自由度の力情報しか表示されていない実施例で
はあるが、このように力・トルク情報を選択的に表示し
た方が、オペレータにとっては状況を理解しやすい場合
もある。
For example, in FIG. 8, only the translational force in the Z-axis direction and the moment My about the Y-axis are displayed conspicuously, and the other force information is displayed inconspicuously (for example, by a broken line). . Such a display method is, for example, Y
Z tools that rotate around the axis (such as drills and grinders)
It is particularly useful when used by moving in the axial direction.
Although this is an example in which only force information with only two degrees of freedom is displayed, it may be easier for the operator to understand the situation by selectively displaying force / torque information in this way.

【0046】また、作業内容や用いる工具に限らず、あ
る値以上の並進力やモーメントが発生した場合にのみそ
の並進力やモーメントの情報を表示したり、あるいは最
大の並進力やモーメントの情報のみ表示してもよい。
Not only the work content and the tool to be used, but also the translational force or moment information is displayed only when the translational force or moment exceeds a certain value, or only the maximum translational force or moment information is displayed. It may be displayed.

【0047】また、表示画面にはカメラからの実画像を
そのまま用い、力・トルク情報のみをスーパーインポー
ズして表示してもよい。また、前述のように、アーム先
端部をCG表示し、その上に実際のアームに作用する力
・トルク情報を表示してもよい。
The actual image from the camera may be used as it is on the display screen, and only the force / torque information may be superimposed and displayed. Further, as described above, the arm tip portion may be displayed in CG, and the force / torque information actually acting on the arm may be displayed thereon.

【0048】本発明の実施にあたっては、オペレータが
扱う操縦装置はジョイスティックに限らずマウス等の簡
単な入力装置でよく、場合によってはスイッチなどで代
用することも可能である。もちろん、従来のバイラテラ
ル制御方式に利用されるようなマスタアームを利用する
ことも可能である。
In practicing the present invention, the operating device handled by the operator is not limited to the joystick, but a simple input device such as a mouse may be used, and in some cases, a switch or the like may be substituted. Of course, it is also possible to use a master arm as used in the conventional bilateral control system.

【0049】また、力・トルクセンサの代わりに圧力セ
ンサや変位センサを利用し、力・トルクの方向がわかる
ようにアーム3 の各所に分布配置させて用いてもよい。
また、本発明は遠隔操作を目的とするロボットに限ら
ず、操縦操作がない自律作業ロボットや自動作業ロボッ
トにおいて、作業をモニタするための表示用として利用
してもよい。これによってロボット作業をより安全・確
実に実行させることができる。
Further, a pressure sensor or a displacement sensor may be used instead of the force / torque sensor, and the arm 3 may be distributedly arranged in various places so that the direction of the force / torque can be understood.
Further, the present invention is not limited to a robot intended for remote control, and may be used as a display for monitoring work in an autonomous work robot or an automatic work robot that does not have a pilot operation. As a result, the robot work can be executed more safely and reliably.

【0050】[0050]

【発明の効果】以上のように本発明によれば、オペレー
タは力・トルク情報を画像情報としてとらえることが可
能となるため、バイラテラル制御方式を採用することな
くスレーブアームの受ける力・トルク情報を確実にオペ
レータにフィードバックすることが可能となる。
As described above, according to the present invention, the operator can capture the force / torque information as image information, so that the force / torque information received by the slave arm can be obtained without adopting the bilateral control system. Can be reliably fed back to the operator.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明のロボット制御方法を示すブロック図。FIG. 1 is a block diagram showing a robot control method of the present invention.

【図2】ロボットによる作業状態の一例を示す概念図。FIG. 2 is a conceptual diagram showing an example of a working state by a robot.

【図3】アーム先端部の表示方法の一例を示す図。FIG. 3 is a diagram showing an example of a display method of an arm tip portion.

【図4】アーム先端部の表示方法の他の例を示す図。FIG. 4 is a diagram showing another example of the display method of the arm tip portion.

【図5】アーム先端部の表示方法の他の例を示す図。FIG. 5 is a diagram showing another example of the display method of the arm tip portion.

【図6】アーム先端部の表示方法の他の例を示す図。FIG. 6 is a diagram showing another example of the display method of the arm tip portion.

【図7】アーム先端部の表示方法の他の例を示す図。FIG. 7 is a diagram showing another example of the display method of the arm tip portion.

【図8】アーム先端部の表示方法の他の例を示す図。FIG. 8 is a diagram showing another example of the display method of the arm tip portion.

【符号の説明】[Explanation of symbols]

1…ロボット 2…ロボット本体 3…アーム 4…ハンド 5…カメラ 6…関節 7…力・トルクセンサ 8…位置・角度センサ 9…カメラ情報検出器 10…演算部 11…画面制御部 12…ディスプレイ 13…座標変換部 A…対象物 H…穴 P…ピン 1 ... Robot 2 ... Robot body 3 ... Arm 4 ... Hand 5 ... Camera 6 ... Joint 7 ... Force / torque sensor 8 ... Position / angle sensor 9 ... Camera information detector 10 ... Arithmetic unit 11 ... Screen control unit 12 ... Display 13 … Coordinate conversion unit A… Object H… Hole P… Pin

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】ロボットのアーム先端部の位置情報を画像
表示するとともに、この画像情報に対して前記アーム先
端部に作用する力・トルク情報を重ね合わせて画像表示
することを特徴とするロボットの制御方法。
1. A robot characterized by displaying position information of an arm tip portion of a robot as an image and superimposing force / torque information acting on the arm tip portion on the image information. Control method.
【請求項2】ロボットのアーム先端部の位置の動画像情
報に対して、前記アーム先端部に作用する力・トルク情
報を重ね合わせて画像表示することを特徴とするロボッ
トの制御方法。
2. A method of controlling a robot, characterized in that the force / torque information acting on the arm tip portion is superimposed on the moving image information of the position of the arm tip portion of the robot and displayed as an image.
【請求項3】ロボットに取り付けられたカメラから得ら
れたアーム先端部の画像情報に、前記ロボットに取り付
けられた力・トルクセンサから得られた前記アーム先端
部に作用する力・トルク情報を重ね合わせて画像表示す
ることを特徴とするロボットの制御方法。
3. The force / torque information acting on the arm tip portion obtained from a force / torque sensor attached to the robot is superimposed on the image information of the arm tip portion obtained from a camera attached to the robot. A robot control method characterized by displaying images together.
【請求項4】前記アーム先端部の画像情報は、CG(コ
ンピュータグラフィック)処理された画像情報であるこ
とを特徴とする請求項1乃至3記載のロボットの制御方
法。
4. The robot control method according to claim 1, wherein the image information of the arm tip portion is image information subjected to CG (computer graphic) processing.
【請求項5】前記力・トルク情報を、前記アーム先端部
の画像情報に重なるように表示することを特徴とする請
求項1乃至4記載のロボットの制御方法。
5. The robot control method according to claim 1, wherein the force / torque information is displayed so as to overlap the image information of the arm tip portion.
【請求項6】前記力・トルク情報はベクトルとして画像
表示されることを特徴とする請求項1乃至5記載のロボ
ットの制御方法。
6. The robot control method according to claim 1, wherein the force / torque information is displayed as a vector image.
【請求項7】前記力・トルク情報の一部のみを選択的に
表示することを特徴とする請求項1乃至6記載のロボッ
トの制御方法。
7. The robot control method according to claim 1, wherein only a part of the force / torque information is selectively displayed.
JP27322394A 1994-11-08 1994-11-08 Control method for robot Pending JPH08132372A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP27322394A JPH08132372A (en) 1994-11-08 1994-11-08 Control method for robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP27322394A JPH08132372A (en) 1994-11-08 1994-11-08 Control method for robot

Publications (1)

Publication Number Publication Date
JPH08132372A true JPH08132372A (en) 1996-05-28

Family

ID=17524833

Family Applications (1)

Application Number Title Priority Date Filing Date
JP27322394A Pending JPH08132372A (en) 1994-11-08 1994-11-08 Control method for robot

Country Status (1)

Country Link
JP (1) JPH08132372A (en)

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006000977A (en) * 2004-06-17 2006-01-05 National Univ Corp Shizuoka Univ Device for presenting action state of force between robot and environment
JP2006243875A (en) * 2005-03-01 2006-09-14 Denso Corp Operation device and method for movable section
JP2009136925A (en) * 2007-12-03 2009-06-25 Yamatake Corp Force display method and force display device
JP2016064155A (en) * 2009-03-31 2016-04-28 インテュイティブ サージカル オペレーションズ, インコーポレイテッド Synthetic representation of surgical robot
JP2018505389A (en) * 2014-12-05 2018-02-22 ユニベルシテ ドゥ ナント Method and apparatus for measuring a path in a load state
US10188472B2 (en) 2007-06-13 2019-01-29 Intuitive Surgical Operations, Inc. Medical robotic system with coupled control modes
WO2019059364A1 (en) * 2017-09-22 2019-03-28 三菱電機株式会社 Remote control manipulator system and control device
US10258425B2 (en) 2008-06-27 2019-04-16 Intuitive Surgical Operations, Inc. Medical robotic system providing an auxiliary view of articulatable instruments extending out of a distal end of an entry guide
US10271912B2 (en) 2007-06-13 2019-04-30 Intuitive Surgical Operations, Inc. Method and system for moving a plurality of articulated instruments in tandem back towards an entry guide
US10271909B2 (en) 1999-04-07 2019-04-30 Intuitive Surgical Operations, Inc. Display of computer generated image of an out-of-view portion of a medical device adjacent a real-time image of an in-view portion of the medical device
US10271915B2 (en) 2009-08-15 2019-04-30 Intuitive Surgical Operations, Inc. Application of force feedback on an input device to urge its operator to command an articulated instrument to a preferred pose
US10282881B2 (en) 2009-03-31 2019-05-07 Intuitive Surgical Operations, Inc. Rendering tool information as graphic overlays on displayed images of tools
JP2019081242A (en) * 2017-10-31 2019-05-30 セイコーエプソン株式会社 Simulation device, control device and robot
JP2019081209A (en) * 2017-10-30 2019-05-30 株式会社Ihi Manipulator device
US10368952B2 (en) 2008-06-27 2019-08-06 Intuitive Surgical Operations, Inc. Medical robotic system providing an auxiliary view including range of motion limitations for articulatable instruments extending out of a distal end of an entry guide
CN110385701A (en) * 2018-04-19 2019-10-29 远大机器人有限公司 The movement mechanism of multi-section type actuating, preferably robot, particularly preferred revolute robot
CN110549353A (en) * 2018-05-31 2019-12-10 国立大学法人名古屋大学 Force vision device, robot, and computer-readable medium storing force vision program
US10507066B2 (en) 2013-02-15 2019-12-17 Intuitive Surgical Operations, Inc. Providing information of tools by filtering image areas adjacent to or on displayed images of the tools
US10537994B2 (en) 2010-02-12 2020-01-21 Intuitive Surgical Operations, Inc. Medical robotic system providing sensory feedback indicating a difference between a commanded state and a preferred pose of an articulated instrument
US10695136B2 (en) 2007-06-13 2020-06-30 Intuitive Surgical Operations, Inc. Preventing instrument/tissue collisions
US10730187B2 (en) 2006-06-29 2020-08-04 Intuitive Surgical Operations, Inc. Tool position and identification indicator displayed in a boundary area of a computer display screen
US10772689B2 (en) 2009-08-15 2020-09-15 Intuitive Surgical Operations, Inc. Controller assisted reconfiguration of an articulated instrument during movement into and out of an entry guide
JP2021030364A (en) * 2019-08-23 2021-03-01 ファナック株式会社 Robot control device
JP2022009733A (en) * 2017-03-30 2022-01-14 ソフト ロボティクス, インコーポレイテッド User support robot control system
WO2022074998A1 (en) * 2020-10-08 2022-04-14 パナソニックIpマネジメント株式会社 Control device, robot arm system, and robot arm device control method

Cited By (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10271909B2 (en) 1999-04-07 2019-04-30 Intuitive Surgical Operations, Inc. Display of computer generated image of an out-of-view portion of a medical device adjacent a real-time image of an in-view portion of the medical device
US10433919B2 (en) 1999-04-07 2019-10-08 Intuitive Surgical Operations, Inc. Non-force reflecting method for providing tool force information to a user of a telesurgical system
JP2006000977A (en) * 2004-06-17 2006-01-05 National Univ Corp Shizuoka Univ Device for presenting action state of force between robot and environment
JP2006243875A (en) * 2005-03-01 2006-09-14 Denso Corp Operation device and method for movable section
US10137575B2 (en) 2006-06-29 2018-11-27 Intuitive Surgical Operations, Inc. Synthetic representation of a surgical robot
US11865729B2 (en) 2006-06-29 2024-01-09 Intuitive Surgical Operations, Inc. Tool position and identification indicator displayed in a boundary area of a computer display screen
US10730187B2 (en) 2006-06-29 2020-08-04 Intuitive Surgical Operations, Inc. Tool position and identification indicator displayed in a boundary area of a computer display screen
US11638999B2 (en) 2006-06-29 2023-05-02 Intuitive Surgical Operations, Inc. Synthetic representation of a surgical robot
US10737394B2 (en) 2006-06-29 2020-08-11 Intuitive Surgical Operations, Inc. Synthetic representation of a surgical robot
US10773388B2 (en) 2006-06-29 2020-09-15 Intuitive Surgical Operations, Inc. Tool position and identification indicator displayed in a boundary area of a computer display screen
US11432888B2 (en) 2007-06-13 2022-09-06 Intuitive Surgical Operations, Inc. Method and system for moving a plurality of articulated instruments in tandem back towards an entry guide
US11751955B2 (en) 2007-06-13 2023-09-12 Intuitive Surgical Operations, Inc. Method and system for retracting an instrument into an entry guide
US10695136B2 (en) 2007-06-13 2020-06-30 Intuitive Surgical Operations, Inc. Preventing instrument/tissue collisions
US11399908B2 (en) 2007-06-13 2022-08-02 Intuitive Surgical Operations, Inc. Medical robotic system with coupled control modes
US10271912B2 (en) 2007-06-13 2019-04-30 Intuitive Surgical Operations, Inc. Method and system for moving a plurality of articulated instruments in tandem back towards an entry guide
US10188472B2 (en) 2007-06-13 2019-01-29 Intuitive Surgical Operations, Inc. Medical robotic system with coupled control modes
JP2009136925A (en) * 2007-12-03 2009-06-25 Yamatake Corp Force display method and force display device
US11638622B2 (en) 2008-06-27 2023-05-02 Intuitive Surgical Operations, Inc. Medical robotic system providing an auxiliary view of articulatable instruments extending out of a distal end of an entry guide
US10368952B2 (en) 2008-06-27 2019-08-06 Intuitive Surgical Operations, Inc. Medical robotic system providing an auxiliary view including range of motion limitations for articulatable instruments extending out of a distal end of an entry guide
US11382702B2 (en) 2008-06-27 2022-07-12 Intuitive Surgical Operations, Inc. Medical robotic system providing an auxiliary view including range of motion limitations for articulatable instruments extending out of a distal end of an entry guide
US10258425B2 (en) 2008-06-27 2019-04-16 Intuitive Surgical Operations, Inc. Medical robotic system providing an auxiliary view of articulatable instruments extending out of a distal end of an entry guide
US10282881B2 (en) 2009-03-31 2019-05-07 Intuitive Surgical Operations, Inc. Rendering tool information as graphic overlays on displayed images of tools
US11941734B2 (en) 2009-03-31 2024-03-26 Intuitive Surgical Operations, Inc. Rendering tool information as graphic overlays on displayed images of tools
JP2016064155A (en) * 2009-03-31 2016-04-28 インテュイティブ サージカル オペレーションズ, インコーポレイテッド Synthetic representation of surgical robot
US10984567B2 (en) 2009-03-31 2021-04-20 Intuitive Surgical Operations, Inc. Rendering tool information as graphic overlays on displayed images of tools
US10959798B2 (en) 2009-08-15 2021-03-30 Intuitive Surgical Operations, Inc. Application of force feedback on an input device to urge its operator to command an articulated instrument to a preferred pose
US10271915B2 (en) 2009-08-15 2019-04-30 Intuitive Surgical Operations, Inc. Application of force feedback on an input device to urge its operator to command an articulated instrument to a preferred pose
US11596490B2 (en) 2009-08-15 2023-03-07 Intuitive Surgical Operations, Inc. Application of force feedback on an input device to urge its operator to command an articulated instrument to a preferred pose
US10772689B2 (en) 2009-08-15 2020-09-15 Intuitive Surgical Operations, Inc. Controller assisted reconfiguration of an articulated instrument during movement into and out of an entry guide
US10828774B2 (en) 2010-02-12 2020-11-10 Intuitive Surgical Operations, Inc. Medical robotic system providing sensory feedback indicating a difference between a commanded state and a preferred pose of an articulated instrument
US10537994B2 (en) 2010-02-12 2020-01-21 Intuitive Surgical Operations, Inc. Medical robotic system providing sensory feedback indicating a difference between a commanded state and a preferred pose of an articulated instrument
US10507066B2 (en) 2013-02-15 2019-12-17 Intuitive Surgical Operations, Inc. Providing information of tools by filtering image areas adjacent to or on displayed images of the tools
US11806102B2 (en) 2013-02-15 2023-11-07 Intuitive Surgical Operations, Inc. Providing information of tools by filtering image areas adjacent to or on displayed images of the tools
US11389255B2 (en) 2013-02-15 2022-07-19 Intuitive Surgical Operations, Inc. Providing information of tools by filtering image areas adjacent to or on displayed images of the tools
JP2018505389A (en) * 2014-12-05 2018-02-22 ユニベルシテ ドゥ ナント Method and apparatus for measuring a path in a load state
JP2022009733A (en) * 2017-03-30 2022-01-14 ソフト ロボティクス, インコーポレイテッド User support robot control system
US11660759B2 (en) 2017-03-30 2023-05-30 Soft Robotics, Inc. User-assisted robotic control systems
WO2019059364A1 (en) * 2017-09-22 2019-03-28 三菱電機株式会社 Remote control manipulator system and control device
JPWO2019059364A1 (en) * 2017-09-22 2020-01-16 三菱電機株式会社 Remote control manipulator system and control device
JP2019081209A (en) * 2017-10-30 2019-05-30 株式会社Ihi Manipulator device
JP2019081242A (en) * 2017-10-31 2019-05-30 セイコーエプソン株式会社 Simulation device, control device and robot
CN110385701A (en) * 2018-04-19 2019-10-29 远大机器人有限公司 The movement mechanism of multi-section type actuating, preferably robot, particularly preferred revolute robot
JP2019209392A (en) * 2018-05-31 2019-12-12 国立大学法人名古屋大学 Haptic visualization device, robot and haptic visualization program
CN110549353A (en) * 2018-05-31 2019-12-10 国立大学法人名古屋大学 Force vision device, robot, and computer-readable medium storing force vision program
CN110549353B (en) * 2018-05-31 2022-10-14 国立大学法人名古屋大学 Force vision device, robot, and computer-readable medium storing force vision program
US11279037B2 (en) 2018-05-31 2022-03-22 National University Corporation Nagoya University Force-sense visualization apparatus, robot, and force-sense visualization program
JP2021030364A (en) * 2019-08-23 2021-03-01 ファナック株式会社 Robot control device
WO2022074998A1 (en) * 2020-10-08 2022-04-14 パナソニックIpマネジメント株式会社 Control device, robot arm system, and robot arm device control method

Similar Documents

Publication Publication Date Title
JPH08132372A (en) Control method for robot
EP3342561B1 (en) Remote control robot system
JP3215086B2 (en) Robot controller
US20160158937A1 (en) Robot system having augmented reality-compatible display
US11613012B2 (en) Robot controller
JP7187765B2 (en) robot controller
WO2018190345A1 (en) Robot system and method for operating same
US20220250237A1 (en) Teaching device, teaching method, and recording medium
JPH0811071A (en) Controller for manipulator
JP2009078308A (en) Direct teaching device of robot
JP3220706B2 (en) Vision support device for manipulator operation
JPH0724767A (en) Remote control device for robot
JP2004188594A (en) Robot controller
US20220134557A1 (en) Control device, robot control system, program, and control method
Notheis et al. Evaluation of a method for intuitive telemanipulation based on view-dependent mapping and inhibition of movements
US20220250236A1 (en) Teaching device, teaching method, and recording medium
JPH0577183A (en) Robot control device
WO2020203819A1 (en) Remote operating device
JPH0631670A (en) Method and device of exchanging tool for manipulator
KR100321497B1 (en) Robot Motion Teach Method
KR101969727B1 (en) Apparatus for manipulating multi-joint robot and method thereof
JP3076345B2 (en) Method and apparatus for controlling master / slave manipulator
JPH08309680A (en) Manipulator control system
Itoh et al. Alternative predictive display method of motion and force information without using environment model-design of real-image-based network teleoperation system
Diftler et al. Robonaut: a telepresence-based astronaut assistant