JPH0355194A - Remote operating device for robot - Google Patents

Remote operating device for robot

Info

Publication number
JPH0355194A
JPH0355194A JP18960389A JP18960389A JPH0355194A JP H0355194 A JPH0355194 A JP H0355194A JP 18960389 A JP18960389 A JP 18960389A JP 18960389 A JP18960389 A JP 18960389A JP H0355194 A JPH0355194 A JP H0355194A
Authority
JP
Japan
Prior art keywords
robot
image
simulator
environment
simulated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP18960389A
Other languages
Japanese (ja)
Other versions
JPH08368B2 (en
Inventor
Yoshiteru Nakamura
中村 嘉輝
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP18960389A priority Critical patent/JPH08368B2/en
Publication of JPH0355194A publication Critical patent/JPH0355194A/en
Publication of JPH08368B2 publication Critical patent/JPH08368B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PURPOSE:To correct the simulation environment model easily by furnishing a display means to display the real image of the robot working environment received by a communication means and an simulated image produced by a simulated in such an arrangement that the two images are overlaid, and providing a correcting means to make identical the working environment image of the real image on the display means with the simulated image. CONSTITUTION:A real environment image photographed by a photographing means 36 for monitoring the works located in a remote place and an simulated image produced by a simulator 31 are displayed overlaid on a display means 33. If the real environment image becomes identical to the simulated image in this overlaid image, it is judged that there is no difference in the environmental position and attitude. If they are not identical, on the other hand, the object with difference in the position and attitude of the simulated image is indicated using a correcting means 34, and model of the simulated image is overlapped on the real environment image by shifting this object. Then this is noticed to the simulator 31, and correction is made to the position and attitude of the model data of simulator 31.

Description

【発明の詳細な説明】 [概・堤コ 宇宙空問などの非帛゛に遠隔な場所に、その作梁環境を
撮影する撮影手段と共に配置されたロボットを地上等か
ら遠隔操作するロボットの遠隔操作装置に関し、 シミュレーション環境モデルの位置・姿勢と実環境のそ
れとの間に相違が生じた場合に、それを簡屯に修正でき
るようにすることを目的とし、ロボット作業環境の模擬
画像をリアルタイムで表示しつつロボットの操縦をシミ
ュレーションにより行うシミュレータと、シミュレー夕
により生成したロボット操縦情報をロボットII1に送
ると共に、ロボット側からのロボット作業環境の実画像
情報を受信する通信手段と、通信手段で受信されたロボ
ット作’IST5t境の実画像とシミュレー夕で!土成
された模擬画像をオーバレイして表示する表示手段と、
表示手段上の実画像と模擬画像との作業環境画像が一致
するように、シミュレータの環境モデルに関する位置・
姿勢データを修正する修正手段とを呉備してなる。
[Detailed description of the invention] [About Tsutsumi] A remote control system for a robot that remotely controls a robot placed in an unconventionally remote place, such as in space, along with a photographing means for photographing the beam-forming environment, from the ground, etc. The purpose of this project is to create a simulated image of the robot work environment in real time, with the aim of easily correcting any discrepancies between the position and orientation of the simulation environment model and those of the actual environment regarding the operating device. A simulator that performs a simulation to operate the robot while displaying it; a communication means that sends the robot operation information generated by the simulation to the robot II1 and receives real image information of the robot working environment from the robot side; and a communication means that receives the information by the communication means. Real images and simulations of the robot work 'IST5t'! a display means for overlaying and displaying the constructed simulated image;
In order to match the working environment images of the real image and the simulated image on the display means, the position and position of the simulator regarding the environment model are adjusted.
A correction means for correcting the posture data is also provided.

[産業−Lの利用分野] 本発明は宇宙空間などの遠隔場所にあるロボットを地−
E等から遠隔操作するロボットの遠隔操作装置に係り、
特に環境モデルの位置・姿勢修正機能を備えたロボット
の遠隔操作装置に関する。
[Field of Application of Industry-L] The present invention enables robots located in remote locations such as outer space to
Concerning remote control devices for robots that are remotely controlled from E, etc.
In particular, the present invention relates to a remote control device for a robot equipped with a function for correcting the position and orientation of an environmental model.

[従来の技術] 近年の宇宙開発に伴い、環境条件の厳しい宇宙でロボッ
トに作業を行わせる必要性が生じている。例えば宇宙空
間における宇宙ステーション建造のための作業、あるい
は無人の宇宙ステーション内における各種実験等の作業
などである。これらの作業は人が容易に近づけない宇宙
での作業であるため、ロボットの操作は地上あるいは宇
宙ステーションからの遠隔操作で行われるのが一般的で
ある。
[Background Art] With recent space development, there is a need to have robots perform work in space, where the environmental conditions are harsh. For example, this includes work for building a space station in outer space, or work for various experiments inside an unmanned space station. Since these tasks are performed in space, where humans cannot easily approach them, robots are generally operated remotely from the ground or a space station.

第7図はかかるロボットの遠隔操作システムの従来利を
示すブロック図である。第7図において、宇宙空間に設
置されるロボット20は、ロボットコントローラl3で
制御されるロボットアームl4を備え、ロボットアーム
14にはアームの作業状態を監視するためのテレビカメ
ラl5と照明装置16が取り付けられており、ロボット
コントローラ20と地上との間の&Fffl情報の送受
用に通信装置l2が備えられる。またロボット20の全
体的な娑勢をとらえるためのテレビカメラ17も可能で
あれば設置される。
FIG. 7 is a block diagram showing the conventional advantages of such a robot remote control system. In FIG. 7, a robot 20 installed in outer space is equipped with a robot arm l4 controlled by a robot controller l3, and the robot arm 14 is equipped with a television camera l5 and a lighting device 16 for monitoring the working status of the arm. A communication device 12 is provided for transmitting and receiving &Fffl information between the robot controller 20 and the ground. Furthermore, a television camera 17 for capturing the overall appearance of the robot 20 is also installed if possible.

地上側装置23は、ティーチングボックス等のロボット
操縦装置l9とロボット繰縦装置コントローラl8、こ
れらの装置で発生されるロボット操作指令信号あるいは
ロボヅi−利からの監視画像信号などの送受を宇宙ロボ
ット20との間で行う通信装置7、宇宙ロボット20の
カメラ16と17で撮影された監視用の実画像を地上側
で表示するための複数のモニタテレビ8等を含み構成さ
れている。
The ground-side device 23 sends and receives robot operation command signals generated by these devices, monitoring image signals from the robot controller, etc. to the space robot 20. The space robot 20 is configured to include a communication device 7 for communication with the space robot 20, a plurality of monitor televisions 8 for displaying real images for monitoring taken by the cameras 16 and 17 of the space robot 20 on the ground side, and the like.

この遠隔操作システムでは、地上にいるオペレータは、
ロボット操縦装置19を用いてテレビモニタ8に表示さ
れるロボットの実画像を見ながらロボットアームl4を
遠隔操作して所望の作業を行わせている。
In this remote control system, the operator on the ground can
Using the robot control device 19, the robot arm l4 is remotely controlled to perform a desired task while viewing the actual image of the robot displayed on the television monitor 8.

しかしながら、この従来のロボット遠隔操作システムに
よる操作には以下のような種々の問題点がある。
However, operations using this conventional robot remote control system have various problems as described below.

例えばロボットが搭載される可能性があるスペースシャ
トルの周回軌道は数百kmの高さであり、その周回■.
1間は1〜2時間程度である。このため地上局に対して
スペースシャトルの位置が地球裏側となったりする時間
帯もあるので,地上局とスペースシャトル間の通信は直
接通信で常に行うことができず、したがって通常は静止
衛星を幾つか介した衛星通信で地上局・宇宙ロボット間
の通信を行っている。
For example, the orbit of the Space Shuttle, in which a robot may be mounted, is several hundred kilometers high, and its orbit ■.
One period is about 1 to 2 hours. For this reason, there are times when the Space Shuttle's position is on the other side of the earth relative to the ground station, so direct communication between the ground station and the Space Shuttle is not always possible. Communication between ground stations and space robots is carried out via satellite communications.

この結果、電波の伝搬長が長くなるので電波伝搬遅延が
非常に大きくなる。しかも地上側装置23でのロボット
操縦はモニタテレビ8でロボット動作を確認しつつ行う
ので、地上側装置23からロボット操作指令を発してか
ら宇宙のロボット20が希望した動作を実際に行ったか
をモニタテレビ8で確認するまでの時間は、少なくとも
地上側装置・ロボット間の伝搬遅延の2倍必要となり、
したがってロボットの操縦はロボット動作をリアルタイ
ムで確認しつつ行う場合に比較してはなはだ難しくなる
As a result, the propagation length of the radio waves becomes longer, so the radio wave propagation delay becomes very large. Moreover, since the robot operation by the ground-side device 23 is performed while checking the robot operation on the monitor television 8, after the robot operation command is issued from the ground-side device 23, it is monitored whether the robot 20 in space actually performs the desired movement. The time it takes to confirm on TV 8 is at least twice the propagation delay between the ground equipment and the robot.
Therefore, operating the robot becomes much more difficult than when operating the robot while checking its movements in real time.

また一般に衛星通信回線はその通信容量が限られており
、この衛星通信回線を通してはロボット操作指令情報の
他にも他の種々の制御情報を伝送する必要がある。この
ためロボット操作指令情報伝送に割り当て可能な通信回
線の容歇は小さく制限される。一・方、ロボットの動き
を監視するための画像情報は一般に情報量が大きい。こ
のため、容獣が小さい衛星目線を介してロボットの作業
状態を連続的な動画像信号で地1 flll1装置に迭
ることは不可能であり、ロボット監視用の画像は例えば
1秒に1枚程度の半静止画像とならざるを得ない。この
ような半静止画像はロボットの動きを間欠的にイ云える
に過ぎないため、この゛[静止画像を見ながらのロボッ
ト操縦は容易ではない。
Furthermore, satellite communication lines generally have a limited communication capacity, and it is necessary to transmit various control information in addition to robot operation command information through these satellite communication lines. Therefore, the capacity of the communication line that can be assigned to transmit robot operation command information is limited. On the other hand, image information for monitoring the movement of a robot generally has a large amount of information. For this reason, it is impossible for the robot to transmit continuous video signals of the robot's working status to the ground equipment through a small satellite, and the images for robot monitoring are, for example, one per second. It is inevitable that the image will be a semi-still image. Since such semi-still images can only show the movement of the robot intermittently, it is not easy to operate the robot while looking at these still images.

さらに、モニタテレビを見ながらロボットを遠隔操縦す
る場合には、単にロボットアーム14部分の画像をカメ
ラ15で撮影するだけでなく、ロボットが作業対象物に
対して全体としてどのような姿勢をとっているかをカメ
ラ17で撮影することが、遠隔操縦をより簡単にする上
で必要である。特にロボットの姿勢が固定的に定まらな
い宇宙空間ではなおさらである。
Furthermore, when remotely controlling a robot while watching a television monitor, the camera 15 not only captures an image of the robot arm 14, but also the overall posture of the robot relative to the workpiece. It is necessary to photograph the dolphin with the camera 17 in order to make remote control easier. This is especially true in outer space, where the robot's posture is not fixed.

ところが、宇宙ロボット20の場合、ロボットアームl
4部分を撮影するカメラ15はロボット自体に備え付け
可能であるが、ロボット全体の姿勢を撮影するカメラl
7は作業環境によっては用意することが必ずしもできな
い。このため、カメラ17が用意できない場合はカメラ
15で)II;l +;r;されたロボットアーム14
周辺の画像のみを頼りに遠隔操作を行うこととなるが、
この操作は一般に難しいものであり、満足に操作するに
はオペレータにかなりの熟練が必要である。
However, in the case of space robot 20, the robot arm l
The camera 15 for photographing the four parts can be installed on the robot itself, but the camera 15 for photographing the posture of the entire robot can be installed on the robot itself.
7 may not necessarily be available depending on the work environment. Therefore, if the camera 17 is not available, the robot arm 14 is
Remote control will be performed based only on images of the surrounding area,
This operation is generally difficult and requires considerable skill on the part of the operator to perform satisfactorily.

このように宇宙等の遠隔場所にあるロボットをモニタ画
像を見つつ遠隔操作する場合には、動作遅延のある半静
止画像を、しかも場合によってはアーム部分等の限られ
た方向のみから見た画像を頼りに操縦を行うことになる
ので、かなり熟練しないと操縦が難しいという問題があ
る。
In this way, when remotely controlling a robot in a remote location such as space while viewing a monitor image, semi-still images with movement delays, and in some cases images viewed only from a limited direction such as the arm part, are required. The problem is that it is difficult to operate unless you are very skilled, as you will have to rely on this to operate the aircraft.

そこで、このようなロボット操作の困難性を救済するロ
ボットの遠隔操作システムとして、グラフィックディス
プレイと計算機を用いてその動作を事前にチェックして
から実際のロボットへその操作データを転送し、同一動
作を行わせるシステムが提案されている。以下、このロ
ボット遠隔操作システムについて説明する。
Therefore, as a remote control system for robots that alleviates this difficulty in robot operation, we use a graphic display and a computer to check the operation in advance, and then transfer the operation data to the actual robot to perform the same operation. A system has been proposed to do this. This robot remote control system will be explained below.

第2図には、」二述のロボットの遠隔操作装置のブロッ
ク構成が示される。この装置はロボット20を宇7ji
に設置した場合のものである。
FIG. 2 shows a block configuration of the robot remote control device described above. This device supports robot 20
This is the case when installed in

第2図において、宇宙側のロボット20は、第7図で説
明したものと同じ構成であり、情報通信装置12、ロボ
ットコントローラ13、ロボットアーム14、テレビカ
メラ15、照明装置l6、テレビカメラl 7’を含み
構成される。ここでテレビカメラ15はロボットアーム
14の動きをモニタするようにロボット装置に備えられ
るものである。またデレビカメラl7はロボット装置と
作業対象物との全体的な位置・姿勢を撮影するためのカ
メラであり、種々の方向から見るため複数台のこともあ
るが、作業環境によっては用意できないこともある。
In FIG. 2, the robot 20 on the space side has the same configuration as that explained in FIG. It consists of '. Here, the television camera 15 is provided in the robot apparatus so as to monitor the movement of the robot arm 14. In addition, the camera 17 is a camera for photographing the overall position and posture of the robot device and the work object, and there may be multiple cameras for viewing from various directions, but it may not be possible to prepare one depending on the work environment. .

第3図はかかる宇宙ロボット20と作業対象物2lを含
む作業虜境の一例を示す図であり、これはちょうど前述
のテレビカメラl7からロボット装置を見た場合の外観
画像に相当する。第3図に示されるように、このロボッ
ト装置は、複数の間接を持って折り曲がり動作しつつ作
業を行う4木のアーム14と、それらアームl4の作業
を適当な位置からモニタできるように移動可能なカメラ
9 15とを備えている。2lは宇宙建造物などの作業対象
物であり、この組立てをロボット20で遠隔操作で行う
ものとする。
FIG. 3 is a diagram showing an example of a working environment including the space robot 20 and the work object 2l, and this corresponds to an external image of the robot apparatus as viewed from the aforementioned television camera 17. As shown in FIG. 3, this robot device has four wooden arms 14 that perform work while bending with multiple joints, and moves so that the work of these arms 14 can be monitored from an appropriate position. It is equipped with 9 and 15 capable cameras. 2l is a work object such as a space structure, and this assembly is performed by remote control using a robot 20.

地上側装置22は、ティーチングボックス等の操縦装置
1、操縦装置lを操作することによってロボットへの操
作指令信号を発生するロボット操縦装置コントローラ2
、コントローラ2からの操作指令信号に応じてロボット
の動作を計算機処理により模擬画像(シミュレーション
画像)を生成しつつシミュレーションする宇宙ロボット
シミュレータ3、シミュレーションにより得られた模擬
画像を表示するための画像表示装置(高精細グラフィッ
クディスプレイ)4、宇宙ロボット20との間で衛星回
線を介して情報の送受を行う通信装置7、ロボット20
から受信したロボット側の実画像を表示するためのl台
または複数台のモニタテレビ8、フレームキャンコンバ
ータ9、ロボット実画像信号と模擬画像から生成した同
定画像信号とを同一画面上に重ね合わせるオーバレイ装
置10、オーバレイ装置10で重ね合わせた画像を1 
0 表示するロボット作業痛境監視用モニタテレビ11など
を含み構成される。
The ground-side device 22 includes a control device 1 such as a teaching box, and a robot control device controller 2 that generates operation command signals to the robot by operating the control device l.
, a space robot simulator 3 that simulates the motion of the robot while generating a simulated image (simulation image) through computer processing in accordance with operation command signals from the controller 2; and an image display device for displaying the simulated image obtained by the simulation. (High-definition graphic display) 4. Communication device 7 that sends and receives information to and from the space robot 20 via a satellite line, and the robot 20
one or more monitor televisions 8 for displaying the real images of the robot side received from the robot, a frame scan converter 9, and an overlay for superimposing the robot real image signals and the identification image signals generated from the simulated images on the same screen. The images superimposed by the device 10 and the overlay device 10 are
0 It is configured to include a monitor television 11 for monitoring the pain state of the robot work to be displayed.

シミュレータ3は、ロボット20の例えば構造に関する
種々のデータを格納したロボットデータファイル5と、
ロボットが作業を行う宇宙環境や作業対象物21に関す
る種勺のデータを格納した宇宙環境データファイル6と
を備えており、これらのデータに基づきコントローラ2
からのロボット操作指令信号に応じて宇宙空間に設置さ
れたロボットの動きをシミュレーションにより求めて、
これを模擬画像として画像表示装置4にリアルタイムで
表示する。
The simulator 3 includes a robot data file 5 that stores various data regarding, for example, the structure of the robot 20;
It is equipped with a space environment data file 6 that stores detailed data regarding the space environment in which the robot works and the work object 21, and the controller 2 uses this data based on this data.
The movement of a robot installed in outer space is determined through simulation in response to robot operation command signals from
This is displayed as a simulated image on the image display device 4 in real time.

画像表示装置4における模凝画像の表示態様としては、
例えば第4図に示されるように,一つの画面を四分割し
、それぞれの分割画面に、ロボット全体の斜視画像A(
カメラ17で撮影した画像に相当)、ロボッl−20の
側而画像B、その正而画像C.および、アーム14の作
業状態を表示する画像D(カメラ15で撮影した画像に
相当)を表示するなどの方法が可能である。またこれら
の1 1 分割画面のうちの一つだけを1画面全体に拡大表示する
ことも可能である。なお、第5図は、第3図の外観構成
のロボットと宇宙構造物についてシミュレーションによ
り作成した模擬画像の一具体例を示すものである。
The display mode of the mock-up image on the image display device 4 is as follows:
For example, as shown in Fig. 4, one screen is divided into four parts, and a perspective image A (
(equivalent to the image taken with camera 17), robot l-20's side image B, and its real image C. Alternatively, a method such as displaying an image D (corresponding to an image taken by the camera 15) that displays the working state of the arm 14 is possible. It is also possible to enlarge and display only one of these 1 1 divided screens to fill the entire screen. Note that FIG. 5 shows a specific example of a simulated image created by simulation of the robot and space structure having the external configuration shown in FIG. 3.

燥縦装置Iの只体例が第6図に示される。第6図におい
て、lOOはロボットアームの6軸の間接を駆動する0
1〜06駆動釦、101はハンド開閉釦、102は編集
釦、103はLEDディスプレイ、104はロボット暴
定停止用の緊急停止川釦、105はXYZモード/増連
モード間の速度制御スイッチ、107は速度を3段階に
切り換える速度切換えスイッチである。ここで編集釦1
02は、これらの釦を押すことによりティーチング時の
ロボットの位置情報をロボット操縦装置コントローラ2
内のメモリに格納するためのものである。
A simple example of the vertical drying device I is shown in FIG. In Figure 6, lOO is the 0 that drives the six axes of the robot arm.
1 to 06 drive buttons, 101 is a hand opening/closing button, 102 is an editing button, 103 is an LED display, 104 is an emergency stop button for stopping the robot at random, 105 is a speed control switch between XYZ mode/multiple station mode, 107 is a speed changeover switch that changes the speed in three stages. Edit button 1 here
02 transmits the robot position information during teaching to the robot operating device controller 2 by pressing these buttons.
It is for storing in memory within.

以下、このロボット遠隔操作装置の動作を説明する。オ
ペレータは操縦装置1を用いて宇宙ロボット20にさせ
たい動作の操縦を行い、コント1 2 ローラ2を介してロボット操作指令信号をシミュレータ
3に送る。シミュレータ3はロボットデタファイル5と
宇宙環境データファイル6からデータを読み込み、これ
らのデータに基づき、ロボット操作指令信号に対応した
ロボッ}〜動作を計算機処理によるシミュレーションで
求め、そのシミュレーション結果の4−I擬画像を画像
表示装置4にリアルタイムで連続的な動画像により表示
する。
The operation of this robot remote control device will be explained below. The operator uses the control device 1 to control the movement that the space robot 20 wants to perform, and sends a robot operation command signal to the simulator 3 via the controller 1 2 and the roller 2 . The simulator 3 reads data from the robot data file 5 and the space environment data file 6, and based on these data, calculates the robot motion corresponding to the robot operation command signal through computer processing simulation, and calculates the 4-I of the simulation result. The pseudo image is displayed on the image display device 4 as a continuous moving image in real time.

この場合、オペレータはリアルタイムで連続動作する模
擬画像を児ながら操縦装訳1で操縦を行うことができる
ので、このロボッ1・のシミュレーション操縦を容易に
行うことができる。しかも模擬画像としては、ロボット
の全体姿勢の斜視画像A、側面画像B、正面画像C、上
面からみた画像Dなどを計算処理により随意に得て第5
図に示される如くに表示することができるので、この模
擬画像を県での操縦は一層容易である。
In this case, since the operator can operate the robot 1 while viewing the simulated images that continuously operate in real time, the operator can easily perform the simulation operation of the robot 1. Furthermore, as the simulated images, a perspective image A of the robot's overall posture, a side image B, a front image C, an image D seen from the top, etc. are arbitrarily obtained through calculation processing.
Since it can be displayed as shown in the figure, it is easier to use this simulated image in the prefecture.

シミュレー ション操縦に際しては、画像表示装置4上
で、正常に動いたロボッ1・動作のみを逐次I 3 取り出して編集しつつ一連の動作を組み立て、この動作
の確認を行った後に、その動作の操作情報を通信装置7
を介して宇宙空間のロボット2oに送る。
During simulation operation, on the image display device 4, only the movements of the robot 1 that moved normally are retrieved and edited, assembling a series of movements, and after confirming these movements, the robot 1 is operated. Information communication device 7
It is sent to robot 2o in outer space via.

ロボット20ではこの操作情報を通信装置12で受信し
、その繰作’li’7報に基づきコン1・ローラ13で
ロボットアーム14を動作させる。このロボットアーム
14の動作は理論的にはシミュレータ3で行ったロボッ
トアーム14のシミュレーション動作と同じになるはず
である。このロボットアームI4の動作はテレビカメラ
I5で撮影され、ロボットアーム14の実画像として通
信装置12によって地上側装置22に送られる。またカ
メラ17がある場合にはこれらの撮影画像も同様に地上
側装置に送られる。この場合、前述したようにこれらの
実画像は−Oq的には゛1′Wn ILiili? 像
である。
In the robot 20, this operation information is received by the communication device 12, and the robot arm 14 is operated by the controller 1 and the roller 13 based on the operation information. Theoretically, this motion of the robot arm 14 should be the same as the simulated motion of the robot arm 14 performed by the simulator 3. This motion of the robot arm I4 is photographed by a television camera I5 and sent to the ground-side device 22 by the communication device 12 as an actual image of the robot arm 14. Furthermore, if a camera 17 is provided, these captured images are also sent to the ground-side device. In this case, as mentioned above, these real images are ゛1'Wn ILili? in terms of −Oq. It is a statue.

地上側装置22では受信した実画像をモニタテレビ6で
表示する。カメラl7が存在する場合にはその画像も他
のモニタテレビ8で表示する。こ1 4 れと共にテレビカメラl5の実画像信号(NTSC信号
)をオーバーレイ装置lOに送る。
The ground-side device 22 displays the received real image on the monitor television 6. If the camera 17 is present, its image is also displayed on another monitor television 8. Along with this, the actual image signal (NTSC signal) of the television camera l5 is sent to the overlay device lO.

このオーバーレイ装置IOにはフレームスキャンコンバ
ータ9を介して同定画像が人力される。
An identification image is manually input to this overlay device IO via a frame scan converter 9.

この同定画像はシミュレーションにより作成された模凝
画像をシミュレ−タ:31ノ’lで所定『r間遅延させ
たものであり、例えばロボット20から送られたオーバ
ーレイ装置10に人力された実画像がデレビカメラ15
の撮影画像である場合には、この画像に対応する第5図
の画像Dの部分を取り出してこれをフレームスキャンコ
ンバータ9で1画面のN TS C信号に変換したもの
である。所定の遅延時間としては、地上側装置22から
ロボッ1〜操作情報を送ってから、それに応じてロボッ
1・20で操作されたロボットアームl4の動作状態を
テレビカメラ15で撮椛した実画像が地1一側:A17
1’.に到着するまでの時間に設定される。
This identification image is a simulated image created by a simulation and delayed by a predetermined length of time using a simulator of 31 no. TV camera 15
In the case of a captured image, the portion of image D in FIG. 5 corresponding to this image is extracted and converted by the frame scan converter 9 into an NTSC signal for one screen. The predetermined delay time is an actual image taken by the TV camera 15 of the operating state of the robot arm l4 operated by the robots 1 and 20 in response to the sending of the operation information from the robot 1 to the ground device 22. Ground 1-1 side: A17
1'. is set to the time it takes to arrive.

この結果、ロボット20からの実画像と同定画像とは理
論的には同じタイミングで同じ動きをするはずである。
As a result, the actual image and the identified image from the robot 20 should theoretically make the same movement at the same timing.

そこでオーバーレイ装置10によ1 5 りこの二つの画像信号を同一画面上に重ね合わせる。屯
ね合わせ方としては、一方の圃像たとえば同定画像を半
透明な画像とし、他方の画像たとえば実画像はそのまま
の画像とするなどの方法が可能である。
Therefore, the overlay device 10 superimposes these two image signals on the same screen. As a method of combining the fields, it is possible to make one field image, for example, the identification image, a semi-transparent image, and to make the other image, for example, the real image, as it is.

オーバーレイされた画像は監視用モニタテレビ11−L
に表示される。この場合、同定画像は連続的な動画像と
なり、実画像は間欠的な動作の半静止画像となる。した
がって半静止している画像に、連続的に動く同定画像が
一致することを確認していくことで、ロボット20のロ
ボットアームl4の作業状態とシミュレーションによる
作業状態との同定を行え、ロボットアームl4が操作指
令した通りに動いていることを確認できる。
The overlaid image is from the surveillance monitor TV 11-L.
will be displayed. In this case, the identified image is a continuous moving image, and the actual image is a semi-still image with intermittent motion. Therefore, by confirming that the continuously moving identification image matches the semi-stationary image, it is possible to identify the working state of the robot arm l4 of the robot 20 and the working state based on the simulation. You can confirm that it is working as instructed.

このようにシミュレータ3が生成する同定画像とロボッ
ト20からの実画像とをオーバーレイしてl台のモニタ
デレビIllに表示ずることによって、ロボットを燥作
している摸作音はロボットアーム14の作業が正しく行
われてるか否かを1台のモニタテレビ11を見るだけで
確認するこ■ 6 とができるため、ロボットの作業の監視が非常に容易に
なる。
In this way, by overlaying the identification image generated by the simulator 3 with the actual image from the robot 20 and displaying it on one monitor/device Ill, the work of the robot arm 14 can be reduced by the imitation sound that is making the robot. Since it is possible to check whether or not the robot is doing the work correctly just by looking at the single monitor television 11, it becomes very easy to monitor the work of the robot.

[発明が解決しようとする課題] 上述のロボット遠隔操作システムが正常に動作するため
には、宇宙空間等における実際の作業環境(すなわちロ
ボットと作業対象物との相対的位置・姿勢等)とシミュ
レーション計算機内の作某環境とが同一であるという条
件が伴う。しかしながら、ロボット遠隔操作の開始時,
あるいはロボットが作業を失敗した時などには、実環境
とシミュレーション環境との作業対象物の位置・公勢が
必ずしも同一とならない場合がある。特に燕重力状態の
宇宙空間では、ロボットが例えばアームで作業対象物を
つかみ損ねたような場合にも、その影響で作業対象物の
位置・姿勢が大きく変わることが子想される。
[Problem to be solved by the invention] In order for the above-mentioned robot remote control system to operate normally, it is necessary to simulate the actual working environment (i.e., the relative position and posture of the robot and the work object, etc.) in outer space etc. There is a condition that the production environment inside the computer is the same. However, at the start of robot remote control,
Alternatively, when a robot fails in a task, the position and appearance of the work object in the real environment and the simulation environment may not necessarily be the same. Particularly in outer space, where there is swallow gravity, even if a robot fails to grasp a workpiece with its arm, the position and orientation of the workpiece may change significantly as a result.

このように実環境とシミュレーションf大IQとに食い
違いが生じた場合には、シミコ.レーション計算機内の
作業対象物の位置・姿勢データを修正す1 7 る必要があるが、従来はこの環境モデルの位置・姿勢の
違いを簡単に修正できる千段がなかった。
If there is a discrepancy between the real environment and the simulated large IQ like this, Simiko. It is necessary to correct the position and orientation data of the work object in the ration calculator, but in the past there was no way to easily correct this difference in position and orientation of the environment model.

この修正方法として、作業対象物の位置・姿勢を何らか
の手段で測定し、計算機内のモデルデータに脩正をかけ
る方法も提案されるが、装置が、大掛かりとなり、現実
的ではない。
As a correction method, a method has been proposed in which the position and orientation of the workpiece is measured by some means and correction is made to the model data in the computer, but this method requires a large-scale device and is not practical.

このようにロボットが作業を失敗した時など、実際の作
業対象物の位置・公勢が計算機内の環境モデルデータと
違ってしまった場合には、この位置・姿勢の修正には非
常に多くの手間を要するという問題がある。
In this way, when the robot fails in its work or the actual position and orientation of the object to be worked on differs from the environmental model data in the computer, it takes a lot of effort to correct the position and orientation. There is a problem in that it requires time and effort.

したがって本発明の目的は、シミュレーション環境モデ
ルの位置・姿勢が実環境のそれと違ってしまったような
場合に、シミュレーション環境モデルの位置・姿勢デー
タを実環境のそれと一致するように簡単に修正を行える
ようにすることにある。
Therefore, an object of the present invention is to easily correct the position and orientation data of the simulation environment model to match that of the real environment when the position and orientation of the simulation environment model differ from those of the real environment. The purpose is to do so.

[課題を解決するための手段] 第1図は本発明に係る原理説明図である。[Means to solve the problem] FIG. 1 is a diagram explaining the principle of the present invention.

1 8 本発明に係るロボットの遠隔操作装置は、ロボット作業
環境を撮影ずる撮影ト段36と共に遠隔場所に配置され
たロボット35を遠隔操作するロボットの遠隔操作装置
であって、ロボット作業環境の模擬画像をリアルタイム
で表示しつつロボットの操縦をシミュレーションにより
行うシミュレータ31と、シミュレータ31により生成
したロボット操縦情報をロボット側に送ると共に、ロボ
ット側からのロボット作業環境の実画像情報を受信する
通信千段32と、通信千段32で受信されたロボット作
業環境の実画像とシミュレータ31で生成されたI’J
IiJ画像をオーバレイして表示する表示千段33と、
該表示千段33−Lの実画像と模擬画像の作業環境画像
が一致するように、シミュレータ31の環境モデルに関
する位置・姿勢データを修正する脩正f段34とを具備
してなる。
1 8 The remote control device for a robot according to the present invention is a remote control device for a robot that remotely controls a robot 35 placed at a remote location together with a photographing stage 36 for photographing a robot work environment, and is a device for simulating a robot work environment. A simulator 31 that simulates robot operation while displaying images in real time, and a communication stage that sends robot operation information generated by the simulator 31 to the robot side and receives real image information of the robot work environment from the robot side. 32, the actual image of the robot work environment received by the communication 1000 steps 32 and the I'J generated by the simulator 31.
A 1000-stage display 33 that displays the IiJ image as an overlay;
The simulator 34 is provided with a correction f-stage 34 for correcting the position/orientation data regarding the environment model of the simulator 31 so that the real image of the display stage 33-L and the simulated working environment image match.

[作用] 遠隔地にある作業モニター用の撮影手段36で1 9 撮影した実環境画像とシミュレータ31が生成する模擬
画像とを表示千段33上で重ね合わせて表示する。この
オーバレイ画像において、実環境画像と模擬画像とが同
一に重なれば、環境の位置・姿勢の違いはないと判断で
きる。一方、これらが重ならない場合、実環境とシミュ
レータ31内の位置・姿勢データに食い違いがあると判
断できる。
[Operation] The real environment image photographed by the work monitor photographing means 36 located at a remote location and the simulated image generated by the simulator 31 are displayed in a superimposed manner on the display 33. In this overlay image, if the real environment image and the simulated image overlap in the same way, it can be determined that there is no difference in the position and orientation of the environment. On the other hand, if these do not overlap, it can be determined that there is a discrepancy between the actual environment and the position/orientation data in the simulator 31.

そこで、オペレータは修正千段34を用いてシミュレー
タ31の生成する模擬画像の位置・姿勢に相違のある物
体を指示し、その物体の位置をずらすことにより模擬画
像のモデルが実環境画像と重なるように操作する。そし
て、完全に重なったならば、それをシミュレータ31に
通知し、それによりシミュレータ31の内部のモデルデ
ータの位置・姿勢に修正をかける。
Therefore, the operator uses the correction step 34 to indicate an object whose position and orientation are different in the simulated image generated by the simulator 31, and shifts the position of the object so that the model of the simulated image overlaps with the real environment image. Operate to. If they overlap completely, the simulator 31 is notified of this, and the position and orientation of the model data inside the simulator 31 are thereby corrected.

[実施例] 以下、本発明に係るロボット遠隔操作装置の実施例を説
明する。この実施例装置のハードウエア2 0 構成は第2図で説明した遠隔操作装置とほぼ同じである
が、相違点として、シミュレータ3にシミュレーション
により作成した環境モデルの位置・姿勢を修正するため
の條正情報人力手段が備えられている。
[Example] Hereinafter, an example of the robot remote control device according to the present invention will be described. The hardware 20 configuration of this embodiment device is almost the same as the remote control device described in FIG. Positive information manpower means are provided.

このイ蔭正情報人力手段としてはタブレット、マウス、
コントロールスティック等が利用でき、これらの手段で
修正すべきシミュレーション生成環境モデルをビックア
ップして回転、移動等を行って所望の位置・姿勢に修正
するものである。
This positive information manual means include tablets, mice,
A control stick or the like can be used, and these tools are used to start up the simulation generation environment model to be corrected, rotate it, move it, etc., and correct it to the desired position and orientation.

この実施例装置による環境モデルの位置・姿勢修正操作
が以下に説明される。
The position/orientation correction operation of the environmental model by this embodiment device will be explained below.

ロボット遠隔操作開始時あるいはロボット作業に失敗し
た時などにおいて、宇宙空間におけるロボット20と作
業対象物21との相対的位置・娑勢がシミュレータ3の
生成するそれらの環境モデルとずれが生じたものとする
。この時の宇宙ロボット側の実環境状態はテレビカメラ
l5、17で撮影されて情報伝送装置l2,7を介して
地上21 側装置22に伝送される。
When starting remote robot operation or when robot work fails, the relative position and position of the robot 20 and work object 21 in space may deviate from the environment model generated by the simulator 3. do. The actual environmental conditions on the space robot side at this time are photographed by television cameras 15 and 17 and transmitted to the ground 21 side device 22 via the information transmission devices 12 and 7.

地上側装置22ではこの実環境画像をオーバレイ装置1
 0を用いて監視用モニタTVIIに表示する。これと
共に、シミュレータ3が生成した宇宙環境のシミュレー
ション(模擬)画像も同じくオーバレイ装置10を用い
てモニタTVII上で前記の実環境画像に重ね合わせて
表示する。
The ground-side device 22 transfers this real environment image to the overlay device 1.
0 is used to display on the monitoring monitor TVII. At the same time, a simulated image of the space environment generated by the simulator 3 is also displayed on the monitor TVII using the overlay device 10, superimposed on the real environment image.

これら実環境画像とシミュレーションll!ii(f1
とがモニタTVIIの画面上で同一に重なれば、宇宙側
の実環境と地上側のシミュレーション環境との間に位置
・姿勢の違いはないことになり、修正の必要はない。一
方、両画像が同一に重ならない場合、実環境と計算機内
部のシミュレーション環境モデルの位置・姿勢データに
違いがあることが分かる。
These real environment images and simulations! ii(f1
If they overlap the same on the screen of monitor TVII, there is no difference in position and orientation between the real environment on the space side and the simulated environment on the ground side, and there is no need for correction. On the other hand, if the two images do not overlap, it can be seen that there is a difference between the position and orientation data of the real environment and the simulation environment model inside the computer.

相違があった場合、オペレータはモニタTVI1の画面
を見つつ前述の修正情報入力手段を用いてシミュレータ
3の生成画像中の位置・姿勢に違いのある物体(例えば
作支対象物)を指示し、その物体の位置を回転、移動等
させてずらすことに22 より実環境画像と重なるように指示する。
If there is a discrepancy, the operator uses the correction information input means described above while looking at the screen of the monitor TVI 1 to indicate an object (for example, an object to be supported) that has a different position or orientation in the image generated by the simulator 3, An instruction is given to shift the position of the object by rotating, moving, etc. 22 so that it overlaps with the real environment image.

そして両画像が完全に同一に重なったら、それをシミュ
レータ計算機3に通知ずる。ずるとシミュレータ3は保
持するモデルデータをその一致時のモデルデータの位置
・姿勢となるように修正をかける。この後、前述のシミ
ュレーションによるロボッ1へ遠隔操作を再開すること
になる。
When both images overlap completely, the simulator computer 3 is notified of this. Then, the simulator 3 corrects the model data it holds so that it has the position and orientation of the model data at the time of matching. After this, the remote control of the robot 1 based on the simulation described above will be resumed.

[発明の効果] 本発明によれば、シミュレーション環境モデルの位置・
姿勢が実環境のそれと相違してしまったような場合に、
シミュレーション環境モデルの位置・褒勢データを実環
境のそれを一致するように簡単に修正を行える。
[Effects of the Invention] According to the present invention, the position and
If your posture differs from that in the real environment,
The position and reward data of the simulation environment model can be easily modified to match that of the real environment.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明に係る原理説明図、 第2図はシミュレーションによるロボットの遠隔操作装
置を示すブロック図、 第3図は宇宙空間にあるロボットと作業対象物2 3 の例を示す外観図、 第4図は地上側装置の画像表示装置の分割表示方法の例
を示す図、 第5図は第4図の分割表示方法により表示されたロボッ
ト画像の具体例を示す図、 第6図は地上側装置のロボット操縦装置の具体例を示す
外観図、および、 第7図は従来のロボットの遠隔操作装置を示すブロック
図である。 図において、 】・・・ロボット操縦装置 2・・・ロボット操縦装置コントローラ3・・・宇宙ロ
ボットシミュレータ 4・・・画像表示装置(グラフィックディスプレイ) 5・・・ロボットデータフ、アイル 6・・・宇宙環境データファイル 7、12・・・情報通信装置 8・・・モニタテレビ 9・・・フレームスキャンコンバータ 2 4 10  ・ 】 1 ・ l 3 ・ l 4 ・ 1 5、 1 6 ・ 2 0 ・ 2 1 ・ 2 2 ・ ・・オーバレイ装置 ・・ロボット作業環境監視用テレビ ・・ロボットコントローラ ・・ロボットアーム 17・・・テレビカメラ ・・照明装置 ・・宇宙ロボット ・・宇宙建造物 ・・地上側装置 2 5 宇宙ロボットの外汲図 第3 図 画A象表示長夏の表示4ク11 第4 図 101 ロボット棟昶む良置の具体イク11 第6 図 19 イL 来 イタ11 第7 図
FIG. 1 is a diagram explaining the principle of the present invention, FIG. 2 is a block diagram showing a remote control device for a robot based on simulation, and FIG. 3 is an external view showing an example of a robot and a work object 2 3 in outer space. Figure 4 is a diagram showing an example of the split display method of the image display device of the ground side device, Figure 5 is a diagram showing a specific example of the robot image displayed by the split display method of Figure 4, and Figure 6 is the diagram showing the example of the split display method of the image display device of the ground side device. FIG. 7 is an external view showing a specific example of a robot control device of the side device, and a block diagram showing a conventional remote control device for a robot. In the figure, ]...Robot control device 2...Robot control device controller 3...Space robot simulator 4...Image display device (graphic display) 5...Robot data, aisle 6...Space Environmental data files 7, 12... Information communication device 8... Monitor television 9... Frame scan converter 2 4 10 ・ ] 1 ・ l 3 ・ l 4 ・ 1 5, 1 6 ・ 2 0 ・ 2 1 ・2 2 ・...Overlay device...TV for monitoring robot work environment...Robot controller...Robot arm 17...TV camera...Lighting device...Space robot...Space building...Ground-side equipment 2 5 Space External drawing of the robot 3 Drawing A Elephant display Changxia display 4 11 4 Fig. 101 Robot building shrinking Yooki concrete 11 6 Fig. 19 IL Come ita 11 Fig. 7

Claims (1)

【特許請求の範囲】 ロボット作業環境を撮影する撮影手段(36)と共に遠
隔場所に配置されたロボット(35)を遠隔操作するロ
ボットの遠隔操作装置であって、 ロボット作業環境の模擬画像をリアルタイムで表示しつ
つロボット(35)の操縦をシミュレーションにより行
うシミュレータ(31)と、該シミュレータ(31)に
より生成したロボット操縦情報をロボット側に送ると共
に、ロボット側からのロボット作業環境の実画像情報を
受信する通信手段(32)と、 該通信手段(32)で受信されたロボット作業環境の実
画像と該シミュレーター(31)で生成された模擬画像
をオーバレイして表示する表示手段(33)と、 該表示手段(33)の実画像と模擬画像との作業環境画
像が一致するように、該シミュレータ(31)の環境モ
デルに関する位置・姿勢データを修正する修正手段(3
4)と を具備してなるロボットの遠隔操作装置。
[Claims] A remote control device for a robot that remotely controls a robot (35) placed at a remote location together with a photographing means (36) for photographing a robot working environment, the device comprising: A simulator (31) that simulates the operation of the robot (35) while displaying the information, and sends the robot operation information generated by the simulator (31) to the robot side, and receives actual image information of the robot work environment from the robot side. a display means (33) for overlaying and displaying an actual image of the robot working environment received by the communication means (32) and a simulated image generated by the simulator (31); correction means (3) for correcting the position/orientation data regarding the environment model of the simulator (31) so that the working environment images of the real image and the simulated image of the display means (33) match;
4) A remote control device for a robot comprising:
JP18960389A 1989-07-21 1989-07-21 Robot remote control device Expired - Fee Related JPH08368B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP18960389A JPH08368B2 (en) 1989-07-21 1989-07-21 Robot remote control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP18960389A JPH08368B2 (en) 1989-07-21 1989-07-21 Robot remote control device

Publications (2)

Publication Number Publication Date
JPH0355194A true JPH0355194A (en) 1991-03-08
JPH08368B2 JPH08368B2 (en) 1996-01-10

Family

ID=16244077

Family Applications (1)

Application Number Title Priority Date Filing Date
JP18960389A Expired - Fee Related JPH08368B2 (en) 1989-07-21 1989-07-21 Robot remote control device

Country Status (1)

Country Link
JP (1) JPH08368B2 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0724767A (en) * 1993-07-15 1995-01-27 Toshiba Corp Remote control device for robot
JP2002144266A (en) * 2000-11-06 2002-05-21 Toshiba Corp Working system
JP2005062924A (en) * 2003-08-08 2005-03-10 Omron Corp Three-dimensional object recognition device and setting method therefor
US7149602B2 (en) * 2003-10-02 2006-12-12 Fanuc Ltd Correction data checking system for rebots
US7409018B2 (en) 2002-01-02 2008-08-05 Samsung Electronics Co., Ltd. Automatic gain controller outputting control value varying nonlinearly, and a method of outputting a gain control signal thereof
JP2009006410A (en) * 2007-06-26 2009-01-15 Fuji Electric Systems Co Ltd Remote operation support device and remote operation support program
WO2011151915A1 (en) * 2010-06-03 2011-12-08 株式会社日立製作所 Human-operated work machine system
JP2019030925A (en) * 2017-08-07 2019-02-28 三菱重工業株式会社 Work system and working method of work system
GB2581843A (en) * 2019-03-01 2020-09-02 Tra Robotics Ltd Calibration system and method for robotic cells
CN112109075A (en) * 2019-06-20 2020-12-22 欧姆龙株式会社 Control system and control method
WO2022224447A1 (en) * 2021-04-23 2022-10-27 日本電気株式会社 Control device, control method, and storage medium

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012142789A (en) * 2010-12-28 2012-07-26 Mitsubishi Heavy Ind Ltd Apparatus, remote control device, and remote control system

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0724767A (en) * 1993-07-15 1995-01-27 Toshiba Corp Remote control device for robot
JP2002144266A (en) * 2000-11-06 2002-05-21 Toshiba Corp Working system
US7409018B2 (en) 2002-01-02 2008-08-05 Samsung Electronics Co., Ltd. Automatic gain controller outputting control value varying nonlinearly, and a method of outputting a gain control signal thereof
JP2005062924A (en) * 2003-08-08 2005-03-10 Omron Corp Three-dimensional object recognition device and setting method therefor
US7149602B2 (en) * 2003-10-02 2006-12-12 Fanuc Ltd Correction data checking system for rebots
JP2009006410A (en) * 2007-06-26 2009-01-15 Fuji Electric Systems Co Ltd Remote operation support device and remote operation support program
WO2011151915A1 (en) * 2010-06-03 2011-12-08 株式会社日立製作所 Human-operated work machine system
JP5449546B2 (en) * 2010-06-03 2014-03-19 株式会社日立製作所 Human-operated work machine system
JP2019030925A (en) * 2017-08-07 2019-02-28 三菱重工業株式会社 Work system and working method of work system
GB2581843A (en) * 2019-03-01 2020-09-02 Tra Robotics Ltd Calibration system and method for robotic cells
GB2581843B (en) * 2019-03-01 2021-06-02 Arrival Ltd Calibration system and method for robotic cells
CN112109075A (en) * 2019-06-20 2020-12-22 欧姆龙株式会社 Control system and control method
WO2022224447A1 (en) * 2021-04-23 2022-10-27 日本電気株式会社 Control device, control method, and storage medium

Also Published As

Publication number Publication date
JPH08368B2 (en) 1996-01-10

Similar Documents

Publication Publication Date Title
US10980606B2 (en) Remote-control manipulator system and method of operating the same
JP3318897B2 (en) Remote controller with video monitor
Kim et al. Demonstration of a high-fidelity predictive/preview display technique for telerobotic servicing in space
JPH0355194A (en) Remote operating device for robot
JPS63196388A (en) Teaching device for remote control robot
US6009381A (en) Remote control measuring system
CA2249822A1 (en) Off-line teaching method and apparatus
CN105922262A (en) Robot and remote control equipment and remote control method thereof
JP2634880B2 (en) Robot remote control device
JPH0386484A (en) Remote operation device for robot
CN107030705B (en) House viewing system and see room robot
JP2020040184A (en) Robot system, control method of robot system, control program and recording medium
Kim et al. Advanced operator interface design with preview/predictive displays for ground-controlled space telerobotic servicing
JPH03213278A (en) Remote control support system for robot
JPH11338532A (en) Teaching device
JP2001062766A (en) User interface system for remote control of bipedal walking robot
JP3376029B2 (en) Robot remote control device
Pennington A rate-controlled teleoperator task with simulated transport delays
JPH08155863A (en) Remote robot operating system
JPH0646479A (en) Remote operation system
JP4386979B2 (en) Remote control measurement system
JPH02180581A (en) Remote control device for robot
JP2599731B2 (en) Space Robot Operation Support System
JPH03208578A (en) Remote control device for robot
JP2002096282A (en) Remote control system

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees