JPS6229196B2 - - Google Patents

Info

Publication number
JPS6229196B2
JPS6229196B2 JP56004135A JP413581A JPS6229196B2 JP S6229196 B2 JPS6229196 B2 JP S6229196B2 JP 56004135 A JP56004135 A JP 56004135A JP 413581 A JP413581 A JP 413581A JP S6229196 B2 JPS6229196 B2 JP S6229196B2
Authority
JP
Japan
Prior art keywords
operator
information
sensory
detector
manipulator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired
Application number
JP56004135A
Other languages
Japanese (ja)
Other versions
JPS57121487A (en
Inventor
Akira Tate
Kazuo Tanie
Kyoshi Komorya
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Advanced Industrial Science and Technology AIST
Original Assignee
Agency of Industrial Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Agency of Industrial Science and Technology filed Critical Agency of Industrial Science and Technology
Priority to JP56004135A priority Critical patent/JPS57121487A/en
Publication of JPS57121487A publication Critical patent/JPS57121487A/en
Publication of JPS6229196B2 publication Critical patent/JPS6229196B2/ja
Granted legal-status Critical Current

Links

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02EREDUCTION OF GREENHOUSE GAS [GHG] EMISSIONS, RELATED TO ENERGY GENERATION, TRANSMISSION OR DISTRIBUTION
    • Y02E30/00Energy generation of nuclear origin
    • Y02E30/30Nuclear fission reactors

Description

【発明の詳細な説明】 この発明はマニピユレータの操縦方法に関する
ものである。
DETAILED DESCRIPTION OF THE INVENTION The present invention relates to a method of operating a manipulator.

原子炉内などの危険な作業や不衛生な作業を行
う場合に、通常、遠隔操縦型のマニピユレータが
使用される。この種のマニピユレータは一般に、
作業環境と操縦室とを遮蔽室及び遮蔽窓で隔離
し、作業環境に作業用マニピユレータを配設し、
操縦室内に操作用マニピユレータを配設し、操作
用マニピユレータを操作者が操作し、操作用マニ
ピユレータの動きに追随する作業用マニピユレー
タによつて作業を行わせるように構成されてい
る。この場合に、炉内等の作業場所での作業対象
及び作業用マニピユレータの腕の状態はテレビカ
メラ等の視覚センサを用いて検出し、これを操縦
室内にテレビで表示して操作者に呈示し、また、
作業用マニピユレータが物をつかんだりする時の
触覚や圧覚または作業用マニピユレータの腕がど
のような位置にあるのかの位置感覚は操縦室側の
操作用マニピユレータにフイードバツクしたり、
或いは外骨格状のケースを操作者の腕にはめ、そ
れにフイードバツクして行なつている。
Remotely controlled manipulators are usually used when performing dangerous or unsanitary work such as inside a nuclear reactor. This type of manipulator is generally
The work environment and the cockpit are separated by a shielded room and a shielded window, and a work manipulator is installed in the work environment.
The operating manipulator is disposed in the cockpit, and the operator operates the operating manipulator to perform work using the work manipulator that follows the movement of the operating manipulator. In this case, the state of the work target and the arm of the work manipulator in the work area such as inside the reactor is detected using a visual sensor such as a television camera, and this is displayed on a television in the cockpit and presented to the operator. ,Also,
The sense of touch and pressure when the work manipulator grasps an object, or the position sense of the position of the work manipulator's arm, is fed back to the control manipulator in the cockpit.
Alternatively, an exoskeleton-like case is placed on the operator's arm, and feedback is provided to the operator's arm.

しかるに、このような従来の操縦方式では、変
位する作業用マニピユレータの腕の動きをテレビ
カメラ等によつて固定位置から観察しているため
に、操作者に視覚を通じて入る情報と腕から入る
情報が有機的に関連づけられていないこと、ま
た、視覚から入る情報にしてもテレビ画面から入
る作業対象側の作業用マニピユレータの状況と操
縦室側の操作用マニピユレータの状況とをたえず
見較べなければならない、などの理由から、作業
対象側の作業用マニピユレータで直接作業するこ
とに比べて、著しい作業能率の低下や操作者の疲
労が著しかつた。
However, in such conventional control methods, the movement of the arm of the displacing work manipulator is observed from a fixed position using a television camera, etc., so the information received by the operator through his eyes and the information received from the arm are different. They are not organically related, and even if information is received visually, the status of the work manipulator on the work target side, which is received from the TV screen, must be constantly compared with the status of the control manipulator on the cockpit side. For these reasons, compared to working directly with a work manipulator on the work target side, the work efficiency is significantly lowered and the operator becomes more fatigued.

この発明は上記の如き事情に鑑みてなされたも
のであつて、操作者に臨場感を与えて、操作者が
作業環境内に存在するような錯覚を操作者自身に
いだかせ、操作者が対象物に対して直接作業する
のと同等に近い作業能率を上げることができるマ
ニピユレータの操縦方法を提供することを目的と
するものである。
This invention has been made in view of the above-mentioned circumstances, and it provides a sense of realism to the operator and creates the illusion that the operator is present in the work environment. It is an object of the present invention to provide a method of operating a manipulator that can increase work efficiency to the same level as working directly on an object.

この目的に対応して、この発明の感覚情報呈示
機能をもつたマニピユレータの操縦方法は、操作
者の指令によつて動作する作業用マニピユレータ
が位置する作業環境に感覚情報検出器を配設し、
前記感覚情報検出器によつて検出した情報に基づ
く情報を前記作業環境の外の操縦室内に位置する
操作者の感覚器に前記操作者の動きに追随する感
覚呈示装置によつて与えるようにし、かつ、前記
操作者の位置及び姿勢を実時間で測定する操作者
検出装置と体記操作者検出装置の出力に基づいて
前記感覚情報検出器の位置及び姿勢を制御する駆
動装置とを用いて前記感覚情報検出器の任意の固
定位置にある三次元座標に関する位置及び姿勢を
前記操作者の前記三次元座標に対応する前記操縦
室側の三次元座標に関する位置及び姿勢に追随さ
せるようにし、前記感覚情報検出器は少なくとも
前記作業環境の視覚情報を検出する視覚情報検出
器、前記作業環境の聴覚情報を検出する聴覚情報
検出器及び前記作業用マニピユレータに作用する
力を検出する力検出器であり、前記感覚呈示装置
は少なくとも視覚呈示装置、聴覚呈示装置及び皮
膚刺激装置を含み、前記視覚呈示装置は前記操作
者の周囲の視覚情報を遮断した状態で前記視覚情
報検出器によつて検出された視覚情報に基づく視
覚情報を操作者に与え、前記聴覚呈示装置は前記
操作者の周囲の聴覚情報を遮断した状態で前記聴
覚情報検出器によつて検出された聴覚情報に基づ
く聴覚情報を操作者に与え、かつ、前記力検出器
によつて検出した情報に基づく情報を前記皮膚刺
激装置による皮膚刺激に変換して操作者に与える
ように構成したことを特徴としている。
Corresponding to this purpose, the method of operating a manipulator with a sensory information presentation function of the present invention includes disposing a sensory information detector in a work environment where a work manipulator that operates according to an operator's command is located,
providing information based on the information detected by the sensory information detector to a sensory organ of an operator located in a cockpit outside the work environment by a sensory presentation device that follows the movements of the operator; and a driving device that controls the position and orientation of the sensory information detector based on the output of the operator detection device that measures the position and orientation of the operator in real time, and the physical operator detection device. The position and attitude of the sensory information detector in terms of three-dimensional coordinates at an arbitrary fixed position are made to follow the position and attitude of the operator in terms of three-dimensional coordinates on the cockpit side corresponding to the three-dimensional coordinates, and the sense The information detector is at least a visual information detector that detects visual information of the work environment, an auditory information detector that detects auditory information of the work environment, and a force detector that detects a force acting on the work manipulator, The sensory presentation device includes at least a visual presentation device, an auditory presentation device, and a skin stimulation device, and the visual presentation device uses visual information detected by the visual information detector in a state where visual information around the operator is blocked. The auditory presentation device provides the operator with visual information based on the auditory information detected by the auditory information detector while blocking auditory information around the operator. and converts information based on information detected by the force detector into skin stimulation by the skin stimulation device and provides it to the operator.

以下この発明の詳細を一実施例を示す図面につ
いて説明する。
The details of this invention will be explained below with reference to the drawings showing one embodiment.

第1図はこの発明の原理を示している。すなわ
ち、この発明のマニピユレータの操縦方法では、
実際の作業Aを行う作業環境1にダミー2を配設
し、一方、作業環境1の外の操縦室3に操作者4
が位置する。ダミー2は作業用マニピユレータ5
と感覚情報検出器6を備えている。作業用マニピ
ユレータ5は実際の作業7を行うためのダミー2
の効果器である。また感覚情報検出器6は作業環
境1内の可視的状況や作業環境1内の音、或いは
作業用マニピユレータ5と作業対象物との接触圧
力や感触等の感覚情報を検出するものである。操
縦室3内の操作者4には環境情報を遮断して与え
ず、もつぱら、感覚情報検出器6によつて検出
し、かつ、処理装置30によつて処理した作業環
境1内の情報のみを操作者4の眼、耳、皮膚等の
感覚器10に与える。一方、ダミー2の動き、す
なわち、作業用マニピユレータ5や感覚情報検出
器6の動きすなわち任意の固定位置にある三次元
座標に関する位置及び姿勢は操作者4の体や手足
20の動きすなわち前記の三次元座標に対応する
前記操縦室側の三次元座標に関する位置及び姿勢
に追随させるようにする。こうすることにより、
操作者は作業環境内に自分が存在するような錯覚
を持ち、操作者が直接作業するのと同等の効果を
得ることができる。
FIG. 1 illustrates the principle of the invention. That is, in the manipulator operating method of this invention,
A dummy 2 is placed in a work environment 1 where actual work A is performed, while an operator 4 is placed in a cockpit 3 outside the work environment 1.
is located. Dummy 2 is the work manipulator 5
and a sensory information detector 6. The work manipulator 5 is a dummy 2 for performing the actual work 7.
It is an effect device. The sensory information detector 6 detects sensory information such as visual conditions within the work environment 1, sounds within the work environment 1, or contact pressure and feel between the work manipulator 5 and the work object. Environmental information is not provided to the operator 4 in the cockpit 3, but only information in the working environment 1 detected by the sensory information detector 6 and processed by the processing device 30 is provided. is given to the sensory organs 10 such as the eyes, ears, and skin of the operator 4. On the other hand, the movement of the dummy 2, that is, the movement of the work manipulator 5 and the sensory information detector 6, that is, the position and posture with respect to three-dimensional coordinates at an arbitrary fixed position, is the movement of the operator's body and limbs 20, that is, the three-dimensional The position and orientation of the three-dimensional coordinates on the cockpit side corresponding to the original coordinates are made to follow. By doing this,
The operator has the illusion of being present in the work environment, and can obtain the same effect as if the operator were to work directly.

第2図には上記のこの発明の原理を具体化した
場合の構成が示されている。すなわち、作業環境
1にダミー2を配設し、一方作業環境1の外の操
縦室3に操作者4が位置する。ダミー2は駆動装
置7を介して固定体8に支持されており、駆動装
置7の作動によつて直交するx、y、zの三方向
に変位し、かつ、、θで示す回転角の回転によ
つて向きを変えることができる。
FIG. 2 shows a configuration embodying the principle of the invention described above. That is, a dummy 2 is placed in a working environment 1, and an operator 4 is located in a cockpit 3 outside the working environment 1. The dummy 2 is supported by a fixed body 8 via a drive device 7, and is displaced in three orthogonal directions x, y, and z by the operation of the drive device 7, and is rotated by a rotation angle indicated by θ. The direction can be changed by

ダミー2は感覚情報検出器6として機能するテ
レビカメラ9a,9b、マイクロフオン11a,
11bが人間の眼及び耳に対応する位置に配設さ
れており、かつ、作業用マニピユレータ5が設け
られている。作業用マニピユレータ5には歪ゲー
ジ等の力感覚検出器12a,12bが取り付けら
れている。
The dummy 2 includes television cameras 9a and 9b that function as sensory information detectors 6, a microphone 11a,
11b are arranged at positions corresponding to human eyes and ears, and a working manipulator 5 is provided. The working manipulator 5 is equipped with force sensing detectors 12a and 12b such as strain gauges.

一方、操縦室3側には、感覚呈示装置13と操
作者検出装置14及び操作者腕検出装置15を備
えている。
On the other hand, the cockpit 3 side is provided with a sensation presentation device 13, an operator detection device 14, and an operator arm detection device 15.

感覚呈示装置13は三次元テレビデイスプレー
16、ヘツドフオンまたは耳内スピーカー17、
皮膚刺激装置18を備えている。
The sensory presentation device 13 includes a three-dimensional television display 16, a headphone or an in-ear speaker 17,
A skin stimulation device 18 is provided.

三次元テレビデイスプレー16は第2図及び第
3図に示ように、それぞれテレビジヨンから成る
左眼用デイスプレー19及び右眼用デイスプレー
21をケース22内に設けてある。三次元デイス
プレー16は操作者4の眼を覆うようにして用
い、この際左眼用デイスプレー19は操作者4の
左眼と対向し、また右眼用デイスプレー21は操
作者4の右眼と対向し、操作者の両眼から入つた
画像情報が操作者の中枢40において合成されて
三次元画像を感得させる。左眼用デイスプレー1
9に投影される画像はテレビカメラ9aで撮影さ
れた画像を処理装置30で画像変換したものであ
り、また右眼用デイスプレー21に投影される画
像はテレビカメラ9bで撮影された画像を処理装
置30で画像変換したものである。ケース22は
操作者4の眼のまわりを覆つて操縦室の環境から
の情報を遮断する。
As shown in FIGS. 2 and 3, the three-dimensional television display 16 includes a left-eye display 19 and a right-eye display 21, each made of a television, provided in a case 22. The three-dimensional display 16 is used so as to cover the eyes of the operator 4. At this time, the left eye display 19 faces the left eye of the operator 4, and the right eye display 21 faces the operator's 4 right eye. The image information input from both eyes of the operator are combined in the center 40 of the operator to perceive a three-dimensional image. Left eye day spray 1
The image projected on the right eye display 21 is the image taken by the television camera 9a that is converted by the processing device 30, and the image projected on the right eye display 21 is the image taken by the television camera 9b that is processed. This is an image converted by the device 30. The case 22 covers the eyes of the operator 4 and blocks information from the environment in the cockpit.

ヘツドフオン17は環境からの情報を遮断しつ
つ、作業環境1における可聴音に関する情報を操
作者の聴感覚器(耳)に与えるもので、第2図及
び第4図に示す如く、左耳用スピーカー24aか
ら出る音はマイクロフオン11aによつて検出し
た作業環境1内の音情報を処理装置30で音変換
したものであり、また右耳用スピーカー24bか
ら出る音はマイクロフオン11bによつて検出し
た作業環境1内の音情報を処理装置30で音変換
したものである。皮膚刺激装置18は操作者4の
腕等皮膚の近傍に取り付けられて使用されるもの
で、皮膚電気刺激装置25、皮膚振動刺激装置2
6を備えている。皮膚電気刺激装置25は入力に
応じた電流を出力して操作者の皮膚に通し、皮膚
を刺激して作業用マニピユレータ5に作用する力
等を感得させるものであり、また、皮膚振動刺激
装置26は入力に応じた振動を出力して操作者の
皮膚に与え、作業用マニピユレータ5に作用する
力等を感得させるものであり、それぞれ作業用マ
ニピユレータ5に取り付けた歪ゲージ等の力感覚
検出器12a,12bによつて検出された作業環
境1内の情報を処理装置30で処理された情報が
入力される。
The headphone 17 provides information about audible sounds in the work environment 1 to the operator's auditory sense organs (ears) while blocking information from the environment. The sound emitted from the right ear speaker 24a is the sound information in the work environment 1 detected by the microphone 11a converted into sound by the processing device 30, and the sound emitted from the right ear speaker 24b is detected by the microphone 11b. The sound information in the work environment 1 is converted into sound by the processing device 30. The skin stimulation device 18 is used by being attached to the skin of the operator 4, such as the arm, and includes an electrical skin stimulation device 25 and a skin vibration stimulation device 2.
It is equipped with 6. The skin electrical stimulation device 25 outputs a current according to the input and passes it through the skin of the operator to stimulate the skin and make the operator feel the force acting on the work manipulator 5. Reference numeral 26 outputs vibrations according to the input and applies them to the operator's skin, allowing the operator to sense the force acting on the work manipulator 5, and each uses a force sensing sensor such as a strain gauge attached to the work manipulator 5. Information in the work environment 1 detected by the devices 12a and 12b is processed by the processing device 30, and the information is input.

操作者検出装置14はテレビカメラ27a,2
7bやセルスポツトを備え、操作者4の位置や向
きを測定し、その情報を処理装置30を介して駆
動装置7に伝送する。駆動装置7はその入力信号
によつてダミー2、すなわち、テレビカメラ9
a,9b、マイクロフオン11a,11bの位置
及び向きを操作者4に追随して決定する。
The operator detection device 14 includes television cameras 27a, 2
7b and a cell spot, the position and direction of the operator 4 are measured, and the information is transmitted to the drive device 7 via the processing device 30. The drive device 7 drives the dummy 2, that is, the television camera 9, by its input signal.
The positions and orientations of microphones a, 9b and microphones 11a and 11b are determined following the operator 4.

操作者腕検出装置15はゴニオメータ28を備
え、ゴニオメータ28によつて操作者4の腕の動
きを測定し、その情報を処理装置30を介してマ
ニピユレータ駆動装置29を伝送し、マニピユレ
ータ駆動装置29はその入力信号に基づいて作業
用マニピユレータ5の位置及び向きを操作用マニ
ピユレータに追随して決定する。
The operator arm detection device 15 includes a goniometer 28 that measures the movement of the operator's 4 arm and transmits the information to the manipulator drive device 29 via the processing device 30. Based on the input signal, the position and orientation of the working manipulator 5 are determined to follow the operating manipulator 5.

このような構成において、操作者4の動きを、
テレビカメラ27a,27bまたはセルスポツト
等の操作者検出装置14、ゴニオメータ28等の
操作者腕検出装置15を用いて、操作者4の運動
を制限せずに実時間で測定し、その測定された操
作者の動きにあわせてダミー2を動かし、また、
そのダミー2の動きに伴つて変化する外界の像
(画像と音像)及び触感等の外界の情況を三次元
テレビデイスプレー16、ヘツドフオン17及び
皮膚刺激装置18によつて操作者4にフイードバ
ツクする。操作者4には操縦室3内の環境情報は
遮断され、作業環境1内の感覚情報のみを受け取
り、しかも、その感覚情報は自分の動きに応じて
変化するものである。このことにより、操作者に
作業環境内に自分が存在するような錯覚をいだか
せ、操作者が直接作業するのと同等に近い作業能
率を上げることができる。
In such a configuration, the movements of the operator 4 are
Using operator detection devices 14 such as television cameras 27a and 27b or cell spots, and operator arm detection devices 15 such as goniometers 28, the movement of the operator 4 is measured in real time without restriction, and the measured operation is measured. Dummy 2 moves according to the movement of the person, and
As the dummy 2 moves, external conditions such as external images (images and sound images) and tactile sensations are fed back to the operator 4 by a three-dimensional television display 16, a headphone 17, and a skin stimulation device 18. The operator 4 is blocked from environmental information within the cockpit 3 and receives only sensory information within the work environment 1, and moreover, this sensory information changes according to his or her movements. This gives the operator the illusion that he or she exists in the work environment, and can improve work efficiency that is almost equivalent to when the operator is working directly.

特にスレーブマニピユレータに作用する力を、
そのまま力として、マスタマニピユレータに伝達
するのではなくスレーブマニピユレータに作用す
る力を皮膚感覚として操作者に伝達することによ
り、操作者の危険や疲労を回避することができ
る。すなわち、スレーブマニピユレータに作用す
る力を、そのまま力として、マスタマニピユレー
タに伝達すると、例えばスレーブマニピユレータ
が事故等によつて大きな力を受けた場合に、その
大きな力がマスタマニピユレータを通じてそのま
ま操作者に伝達されることとなり、操作者にとつ
て極めて危険である。
In particular, the force acting on the slave manipulator,
By transmitting the force acting on the slave manipulator to the operator as a skin sensation, rather than directly transmitting it to the master manipulator as a force, danger and fatigue to the operator can be avoided. In other words, if the force acting on the slave manipulator is directly transmitted to the master manipulator, for example, if the slave manipulator receives a large force due to an accident, that large force will be transferred to the master manipulator. This is transmitted directly to the operator through the controller, which is extremely dangerous for the operator.

また作業の種類によつては、スレーブマニピユ
レータに大きな力を出させる必要があり、その場
合にその大きな力を操作者が出すこととなり、操
作者の疲労が著しくなることがある。
Furthermore, depending on the type of work, it may be necessary for the slave manipulator to exert a large force, and in such a case, the operator may have to exert such a large force, resulting in significant fatigue of the operator.

この発明ではこうした操作者の危険や疲労を回
避することができる。
The present invention can avoid such danger and fatigue for the operator.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図はこの発明の原理を示すブロツク図、第
2図はマニピユレータ操縦装置を示す説明図、第
3図は三次元テレビデイスプレーを示す説明図及
び第4図はヘツドフオンを示す説明図である。 1……作業環境、2……ダミー、4……操作
者、5……作業用マニピユレータ、6……感覚情
報検出器、9a,9b……テレビカメラ、11
a,11b……マイクロフオン、16……三次元
テレビデイスプレー、17……ヘツドフオン、3
0……処理装置。
Fig. 1 is a block diagram showing the principle of the invention, Fig. 2 is an explanatory drawing showing a manipulator control device, Fig. 3 is an explanatory drawing showing a three-dimensional television display, and Fig. 4 is an explanatory drawing showing a headphone. . 1... Working environment, 2... Dummy, 4... Operator, 5... Working manipulator, 6... Sensory information detector, 9a, 9b... Television camera, 11
a, 11b... Microphone, 16... Three-dimensional television display, 17... Headphone, 3
0...Processing device.

Claims (1)

【特許請求の範囲】[Claims] 1 操作者の指令によつて動作する作業用マニピ
ユレータが位置する作業環境に感覚情報検出器を
配設し、前記感覚情報検出器によつて検出した情
報に基づく情報を前記作業環境の外の操縦室内に
位置する操作者の感覚器に前記操作者の動きに追
随する感覚呈示装置によつて与えるようにし、か
つ、前記操作者の位置及び姿勢を実時間で測定す
る操作者検出装置と前記操作者検出装置の出力に
基づいて前記感覚情報検出器の位置及び姿勢を制
御する駆動装置とを用いて前記感覚情報検出器の
任意の固定位置にある三次元座標に関する位置及
び姿勢を前記操作者の前記三次元座標に対応する
前記操縦室側の三次元座標に関する位置及び姿勢
に追随させるようにし、前記感覚情報検出器は少
なくとも前記作業環境の視覚情報を検出する視覚
情報検出器、前記作業環境の聴覚情報を検出する
聴覚情報検出器及び前記作業用マニピユレータに
作用する力を検出する力検出器であり、前記感覚
呈示装置は少なくとも視覚呈示装置、聴覚呈示装
置及び皮膚刺激装置を含み、前記視覚呈示装置は
前記操作者の周囲の視覚情報を遮断した状態で前
記視覚情報検出器によつて検出された視覚情報に
基づく視覚情報を操作者に与え、前記聴覚呈示装
置は前記操作者の周囲の聴覚情報を遮断した状態
で前記聴覚情報検出器によつて検出された聴覚情
報に基づく聴覚情報を操作者に与え、かつ、前記
力検出器によつて検出した情報に基づく情報を前
記皮膚刺激装置による皮膚刺激に変換して操作者
に与えるように構成したことを特徴とする感覚情
報呈示機能をもつたマニピユレータの操縦方法。
1. A sensory information detector is provided in a work environment in which a work manipulator that operates according to an operator's command is located, and information based on the information detected by the sensory information detector is used to control operations outside the work environment. An operator detection device that provides a sensory organ of an operator located in a room with a sensory presentation device that follows the movements of the operator, and that measures the position and posture of the operator in real time; A drive device that controls the position and orientation of the sensory information detector based on the output of the operator detection device is used to determine the position and orientation of the operator with respect to three-dimensional coordinates at an arbitrary fixed position of the sensory information detector. The sensory information detector is configured to follow the position and orientation regarding the three-dimensional coordinates of the cockpit corresponding to the three-dimensional coordinates, and the sensory information detector includes at least a visual information detector that detects visual information of the working environment, and a visual information detector that detects visual information of the working environment. an auditory information detector that detects auditory information; and a force detector that detects a force acting on the work manipulator; the sensory presentation device includes at least a visual presentation device, an auditory presentation device, and a skin stimulation device; The device provides the operator with visual information based on the visual information detected by the visual information detector in a state where the visual information around the operator is blocked, and the auditory presentation device provides the operator with visual information based on the visual information detected by the visual information detector. providing the operator with auditory information based on the auditory information detected by the auditory information detector in a state where the information is blocked; and providing information based on the information detected by the force detector with the skin stimulation device. A method of operating a manipulator having a sensory information presentation function, characterized in that the manipulator is configured to convert it into skin stimulation and give it to an operator.
JP56004135A 1981-01-14 1981-01-14 System of operating manipulator Granted JPS57121487A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP56004135A JPS57121487A (en) 1981-01-14 1981-01-14 System of operating manipulator

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP56004135A JPS57121487A (en) 1981-01-14 1981-01-14 System of operating manipulator

Publications (2)

Publication Number Publication Date
JPS57121487A JPS57121487A (en) 1982-07-28
JPS6229196B2 true JPS6229196B2 (en) 1987-06-24

Family

ID=11576331

Family Applications (1)

Application Number Title Priority Date Filing Date
JP56004135A Granted JPS57121487A (en) 1981-01-14 1981-01-14 System of operating manipulator

Country Status (1)

Country Link
JP (1) JPS57121487A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63152497U (en) * 1987-03-26 1988-10-06
WO2018212226A1 (en) 2017-05-17 2018-11-22 Telexistence株式会社 Control device, robot control method, and robot control system
WO2018212225A1 (en) 2017-05-17 2018-11-22 Telexistence株式会社 Sensation imparting device, robot control system, and robot control method and program

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS57155614A (en) * 1981-03-20 1982-09-25 Toshiba Corp Remote controller
JPS57196312A (en) * 1981-05-29 1982-12-02 Meidensha Electric Mfg Co Ltd Remote controlling method of robot
JPS597500A (en) * 1982-07-07 1984-01-14 Aida Eng Ltd Divided frame of large sized press
JPS59191287U (en) * 1983-06-02 1984-12-19 三菱重工業株式会社 manipulator device
JP2561561B2 (en) * 1990-11-30 1996-12-11 株式会社フジタ Robot hand remote control system
JP3387326B2 (en) 1996-08-30 2003-03-17 ミノルタ株式会社 Video observation system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5247264A (en) * 1975-10-11 1977-04-14 Hitachi Ltd Manipulator control apparatus
JPS55101388A (en) * 1979-01-31 1980-08-02 Meidensha Electric Mfg Co Ltd Masterrsleeve type servoomanipulator

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5585289U (en) * 1978-12-05 1980-06-12
JPS55107992U (en) * 1979-01-25 1980-07-29

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5247264A (en) * 1975-10-11 1977-04-14 Hitachi Ltd Manipulator control apparatus
JPS55101388A (en) * 1979-01-31 1980-08-02 Meidensha Electric Mfg Co Ltd Masterrsleeve type servoomanipulator

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63152497U (en) * 1987-03-26 1988-10-06
WO2018212226A1 (en) 2017-05-17 2018-11-22 Telexistence株式会社 Control device, robot control method, and robot control system
WO2018212225A1 (en) 2017-05-17 2018-11-22 Telexistence株式会社 Sensation imparting device, robot control system, and robot control method and program

Also Published As

Publication number Publication date
JPS57121487A (en) 1982-07-28

Similar Documents

Publication Publication Date Title
Tachi Telexistence: Past, present, and future
US11498216B2 (en) Remote control manipulator system and control device
Tachi et al. Telesarphone: Mutual telexistence master-slave communication system based on retroreflective projection technology
Tachi Telexistence: Enabling humans to be virtually ubiquitous
WO2015083183A1 (en) Hand wearable haptic feedback based navigation device
EP3797931B1 (en) Remote control system, information processing method, and program
JPS6229196B2 (en)
Aracil et al. The human role in telerobotics
JP6360851B2 (en) Virtual space display system, game system, virtual space display program, and game program
Filgueiras et al. Vibrotactile sensory substitution on personal navigation: Remotely controlled vibrotactile feedback wearable system to aid visually impaired
JP2561561B2 (en) Robot hand remote control system
JP2015157323A (en) Remote control device, remote control system, method and program of remote control
WO2017151245A1 (en) System and method for visio-tactile sensing
KR20130117627A (en) Simulator system for micro-nano robot using real-time characteristic data
JP3538639B2 (en) Remote control device for mobile manipulator
JPS6411435B2 (en)
CN112400198A (en) Display system, server, display method and device
Tachi et al. Robotic tele-existence
US20240184367A1 (en) Sensory feedback system
Tachi Tele-existence
Ando et al. Experimental evaluation of haptic visualization interface for robot teleoperation using onomatopoeia in a haptic recognition task
JPH07314355A (en) Remote control method and device for image pickup device
US12003944B2 (en) Systems and methods for enhancing attitude awareness in ambiguous environments
US20240169676A1 (en) Rotational navigation in a virtual environment with a visual reference
US20230218270A1 (en) System and apparatus for remote interaction with an object