JPH06114766A - Remote control device for manipulator - Google Patents

Remote control device for manipulator

Info

Publication number
JPH06114766A
JPH06114766A JP26373992A JP26373992A JPH06114766A JP H06114766 A JPH06114766 A JP H06114766A JP 26373992 A JP26373992 A JP 26373992A JP 26373992 A JP26373992 A JP 26373992A JP H06114766 A JPH06114766 A JP H06114766A
Authority
JP
Japan
Prior art keywords
work
management system
system management
slave arm
control device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP26373992A
Other languages
Japanese (ja)
Inventor
Masahiro Tsuchiya
雅弘 土屋
Koji Kameshima
鉱二 亀島
Hiroshi Yamamoto
広志 山本
Tomoyuki Hamada
朋之 浜田
Keiichi Kimura
圭一 木村
Hironari Kikuchi
宏成 菊池
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP26373992A priority Critical patent/JPH06114766A/en
Publication of JPH06114766A publication Critical patent/JPH06114766A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To improve the operability series by independently computing a relative state by an operation series control system and a working series control system operated by means of a work message. CONSTITUTION:A ground series control system as an operation steries control system comprises a central processing layer CPU 101, an image measuring means 102 connected thereto, a graphic display 103, and an input output device 104. An on-track control system as a working series control system comprises a central processing unit CPU 101, a image measuring device 102, and a slave arm input output device 105. An on-track series system is caused to execute a work according to a command from the ground series control system. The respective CPUs 101 for the two systems individually control a work environment model, and perform control based on respective image measurement results such that working environment where the working is actually executed is kept equal to a work environment model, and work image level communicated is carried out therebetween.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明はオペレータが操作するマ
ニピュレータに係り、特に人間にとって耐え難い環境お
よび宇宙空間内での作業を確実に行なうに好適なマニピ
ュレータの遠隔操作装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a manipulator operated by an operator, and more particularly to a manipulator remote control device suitable for reliably performing work in an environment and human space that are intolerable to humans.

【0002】[0002]

【従来の技術】従来のマニピュレータは、複雑なマニピ
ュレータの動作を行なうのをオペレータの技術に頼る傾
向があった。例えば、マスタースレーブ形マニピュレー
タにおいては、マスターアームとスレーブアームとが同
一又は相似形になっているため、マスターアームが人間
の操作に不適な構造であったり、オペレータ自身がマス
ターアームの操作の邪魔になってしまうほど大きかった
り、また細かい操作ができないことがあった。
2. Description of the Related Art Conventional manipulators have tended to rely on the skill of the operator to perform complex manipulator operations. For example, in a master-slave manipulator, the master arm and the slave arm have the same or similar shapes, so that the master arm has a structure unsuitable for human operation, or the operator himself interferes with the operation of the master arm. It was so big that it was impossible to perform detailed operations.

【0003】また、遠隔操作においては、マニピュレー
タ自身がオペレータの視野を遮ぎり、オペレータは顔を
左右に動かしながら操作しなければならない場合があっ
た。このため、ITVなどの利用も行なわれたが、1つ
の画像では充分な視野が得られず、またテレビカメラを
多数配置すると画像とマニピュレータとの関係が変わ
り、オペレータが操作を誤ることがあった。
In the remote operation, the manipulator itself obstructs the visual field of the operator, and the operator sometimes has to operate while moving the face left and right. For this reason, ITV and the like have been used, but one image cannot provide a sufficient field of view, and when a large number of TV cameras are arranged, the relationship between the image and the manipulator changes, and the operator may make an operation error. .

【0004】最近では、コンピュータ技術の急速な進歩
により、マニピュレータやロボットの制御に計算機が取
り入れられ、制御が高度化して来ている。その一例とし
て、アイ・イー・コン'84(IECON'84)の第4
0頁〜第45頁に示されるように、形状の異なるマスタ
ーアームとスレーブアームとの手先の運動を計算機を用
いた高速座標変換演算により1対1に対応させているも
のがある。
In recent years, due to rapid progress in computer technology, computers have been incorporated into the control of manipulators and robots, and the control has become more sophisticated. As an example, the 4th of I-Econ '84
As shown on page 0 to page 45, there is one in which the motions of the hand of a master arm and a slave arm having different shapes are made to correspond one-to-one by a high-speed coordinate conversion calculation using a computer.

【0005】[0005]

【発明が解決しようとする課題】上述した従来技術は、
まだ個々の狭い技術分野にとどまり、マニピュレータを
総合的な見地から検討して人間を含めたシステム技術と
して完成していないといえる。例えば、上述の高速座標
変換演算技術の場合でも、マスタアームとスレーブアー
ムとにおいて、それぞれの基準座標と各アーム手先の位
置との2点を一致させているため各アームの運動の比率
は一定となっている。このため、スレーブアームによっ
て精密な作業を実現する場合には、マスターアームをス
レーブアームの要求動作と同様に細かな微小動作を行な
わねばならず、またこれと逆にスレーブアームが大きな
動作を必要とする場合には、同様にマスタアームを大き
く動作しなければならない。
The above-mentioned conventional technique is
It can be said that it has not been completed as a system technology that includes human beings by examining manipulators from a comprehensive viewpoint, while remaining in each narrow technical field. For example, even in the case of the above-described high-speed coordinate conversion calculation technique, since the two points, that is, the reference coordinates of the master arm and the position of the hand of each arm, are matched, the motion ratio of each arm is constant. Has become. For this reason, when the slave arm is to perform a precise work, the master arm must perform a fine and minute operation as required by the slave arm, and on the contrary, the slave arm requires a large operation. If this is the case, the master arm must also be moved largely.

【0006】このように、スレーブアームの作業は、オ
ペレータに大きな負担をかけ、その技術により作業の実
現性が決められることになる。
As described above, the work of the slave arm puts a heavy burden on the operator, and the feasibility of the work is determined by the technique.

【0007】このような、オペレータの負担に加え、I
TVを見ながら操作するときには、画像を見てテレビカ
メラの方向を考えマスターアームを操作することになり
精神的な負担も大きくなる。
In addition to the operator's burden, I
When operating while watching TV, the master arm is operated by looking at the image and considering the direction of the TV camera, which increases the mental burden.

【0008】また、宇宙の衛星軌道上を移動する例えば
人工衛星の機器を地上からマニピュレータを介して操作
するような場合、地上のマスターアームが操作されてか
らその操作信号が衛星に到達し、マニピュレータの画像
が地上に到達するまでに数秒の時間が経過する。そのた
め、地上で監視している画像が実際の状態よりも時間的
に前の状態を示すことになり、本当はマニピュレータの
アームが必要な位置にすでに到達しているのにまだ到達
していないと錯覚して、アームをオーバランさせるよう
なことになる。
Further, in the case of operating an artificial satellite device moving on the satellite orbit of space from the ground via a manipulator, the operation signal reaches the satellite after the master arm on the ground is operated, and the manipulator is operated. It takes a few seconds for the image to reach the ground. Therefore, the image monitored on the ground shows a state before the actual state in time, and the illusion is that the manipulator arm has actually reached the required position but has not yet arrived. Then the arm is overrun.

【0009】本発明の目的は、オペレータの操作するマ
スタアームの操作性を向上させることのできるマニピュ
レータの遠隔操作装置を提供するにある。
An object of the present invention is to provide a remote manipulator operation device capable of improving the operability of a master arm operated by an operator.

【0010】[0010]

【課題を解決するための手段】上記目的は、オペレータ
が操作する操作系管理システムと、この操作系管理シス
テムから出される作業指示に基づいて作業を実施するマ
ニピュレータを制御する作業系管理システムが、それぞ
れ個別に中央処理装置を持ち、個別に作業場所の状態や
作業対象物の状態を表現する環境モデルを管理して、作
業系管理システムは操作系管理システムから出された作
業指示に従って作業を実施するとともに、操作系管理シ
ステムが作業系管理システムが行う演算と同様の演算を
作業系管理システムと独立に実施し、演算結果を表示す
ることにより達成される。
The above-mentioned object is to provide an operation system management system operated by an operator and a work system management system for controlling a manipulator for performing work based on a work instruction issued from the operation system management system. Each has its own central processing unit, manages the environment model that individually expresses the state of the work place and the state of the work target, and the work management system carries out work according to the work instructions issued from the operation management system. In addition, the operation system management system performs the same calculation as the work system management system independently of the work system management system and displays the calculation result.

【0011】[0011]

【作用】オペレータが操作する操作系管理システムと、
スレーブアームを制御する作業系管理システムが、それ
ぞれ個別に中央処理装置を持ち、個別に環境モデルを管
理して、操作系管理システムと作業系管理システムが独
立に相互の状況を計算することにより、それぞれが管理
している環境モデルを一致させる。それぞれが管理して
いる環境モデルを一致させることにより、操作系管理シ
ステムと、作業系管理システムとの間で作業イメージレ
ベルの通信を行うことが可能になる。また、この様なシ
ステムにすることにより、操作系管理システムにおい
て、スレーブアームの実時間における動作をシミュレー
トして環境モデルとともに画面表示することが可能とな
る。実時間での動作をシミュレートして画面表示するこ
とにより、通信遅延による操作性の劣化を無くし、通信
の信頼性を高めることができる。
[Operation] An operation system management system operated by an operator,
The work system management system that controls the slave arm has its own central processing unit, individually manages the environment model, and the operation system management system and the work system management system independently calculate the mutual situation. Match the environment models managed by each. By matching the environment models managed by each, it becomes possible to perform work image level communication between the operation system management system and the work system management system. Further, with such a system, in the operation system management system, it is possible to simulate the real-time operation of the slave arm and display it on the screen together with the environment model. By simulating the operation in real time and displaying it on the screen, deterioration of operability due to communication delay can be eliminated and communication reliability can be improved.

【0012】[0012]

【実施例】【Example】

(第1の実施例)以下、本発明の第1の実施例を図面を
参照して説明する。
(First Embodiment) A first embodiment of the present invention will be described below with reference to the drawings.

【0013】まず、本発明の装置の一実施例を説明する
に先立って、本発明の動作原理を図7を用いて説明す
る。図7に示したマスタースレーブマニピュレータは、
マスタアーム201と、該マスタアーム201と異なる
構造のスレーブアーム202で構成されている。いま、
マスタアーム201の基準座標系をM、この基準座標系
Mからマスタアーム201の手先までの座標変換マトリ
クスをT6m、スレーブアーム202の基準座標系を
S、この基準座標系Sからスレーブアーム202の手先
までの座標変換マトリクスをT6sとし、前述した座標
変換マトリクスT6m、T6s間でのスケール変換マトリ
クスをKとすると、座標変換演算の手順は次のようにな
る。
First, prior to describing an embodiment of the apparatus of the present invention, the operating principle of the present invention will be described with reference to FIG. The master-slave manipulator shown in FIG.
It comprises a master arm 201 and a slave arm 202 having a structure different from that of the master arm 201. Now
The reference coordinate system of the master arm 201 is M, the coordinate transformation matrix from this reference coordinate system M to the tip of the master arm 201 is T 6 m, the reference coordinate system of the slave arm 202 is S, and the reference coordinate system S is referred to as the slave arm 202. Assuming that the coordinate conversion matrix up to the hand of the above is T 6 s and the scale conversion matrix between the coordinate conversion matrices T 6 m and T 6 s described above is K, the coordinate conversion calculation procedure is as follows.

【0014】すなわち、マスターアーム201の各リン
クのパラメータと各リンク連結軸の位置とから前述した
マスタアーム手先までの座標変換マトリクスT6mを求
めることができる。次にマスタアーム手先までの座標変
換マトリクスT6mとスレーブアーム手先までの座標変
換マトリクスT6sとの間でのスケール変換及び基点シ
フトを含んだ座標変換演算は次の(1)式で表わされる。
That is, the coordinate conversion matrix T 6 m from the above-mentioned master arm end to the above-mentioned coordinate conversion matrix T 6 m can be obtained from the parameter of each link of the master arm 201 and the position of each link connecting axis. Then the coordinate transformation operation contains a scale transformation and origin shift between the coordinate transformation matrix T 6 s to coordinate transformation matrix T 6 m and the slave arm the hand up to the master arm hand is expressed by the following equation (1) Be done.

【0015】 T6s=K・T6m …(1) ここでKはT 6 s = K · T 6 m (1) where K is

【0016】[0016]

【数1】 [Equation 1]

【0017】とすると、d=e=F=0のときT6sは
6mをマスタアーム201の基準座標系Mのx軸方向
にa倍、y軸方向にb倍、z軸方向にc倍にしたものと
なる。そして3軸方向に均等に拡大する場合にはa=b
=cとすればよいことになる。そして、前述した(1)式
により得られた変換マトリクスT6sに対し、スレーブ
アーム202のリンクパラメータを与え、スレーブアー
ムの各軸の目標値を逆座標変換演算により求める。この
ようにして得られたスレーブアーム202の各軸の目標
値に対し、各軸ごとにサーボ制御すれば、各アームの可
動領域内では、アームの形状に係りなくマスタアーム2
01の運動を任意に拡大または縮小してスレーブアーム
202を操作することができる。
Then, when d = e = F = 0, T 6 s is T 6 m a times in the x axis direction of the reference coordinate system M of the master arm 201, b times in the y axis direction, and z times in the z axis direction. It will be c times. Then, in the case of uniformly expanding in the three axis directions, a = b
= C will do. Then, the link parameter of the slave arm 202 is given to the conversion matrix T 6 s obtained by the above-mentioned equation (1), and the target value of each axis of the slave arm is obtained by the inverse coordinate conversion calculation. If the target value of each axis of the slave arm 202 obtained in this way is servo-controlled for each axis, the master arm 2 will move within the movable area of each arm regardless of the shape of the arm.
The slave arm 202 can be operated by arbitrarily expanding or contracting the motion of 01.

【0018】次に、a=b=c=1のとき、T6sはT6
mをマスタアーム1の基準座標系Mのx軸方向にd、y
方向にc、z方向にf平行移動したものとなる。そし
て、前述した(1)式により得られた変換マトリクスT6
sに対し、スレーブアーム202のリンクパラメータを
与え、スレーブアーム202の各軸の目標値を逆変換演
算により求める。このようにして得られたスレーブアー
ム202の各軸の目標値に対し、各軸ごとにサーボ制御
すれば、マスタアームの基準点とスレーブアームの基準
点を任意にずらして操作することができる。
Next, when a = b = c = 1, T 6 s is T 6
m in the x-axis direction of the reference coordinate system M of the master arm 1, d, y
It is a parallel translation of c in the direction and f in the z direction. Then, the conversion matrix T 6 obtained by the above equation (1)
The link parameter of the slave arm 202 is given to s, and the target value of each axis of the slave arm 202 is obtained by the inverse transformation calculation. If the target value of each axis of the slave arm 202 thus obtained is servo-controlled for each axis, the reference point of the master arm and the reference point of the slave arm can be arbitrarily shifted to operate.

【0019】次に上述した本発明の原理にもとづいて、
本発明の装置の一実施例を図4を参照して説明する。図
4に示すマスタースレーブマニピュレータは、マスタア
ーム201と、該マスタアーム201と異なる構造を持
ち作業対象物301に作業するスレーブアーム202で
構成されている。中央処理装置101は座標変換演算お
よび両アームの制御等を行う。本発明の特長である座標
変換追加装置218は、入出力装置217のキーボード
からの入力に基づき(2)式のKを作り、中央処理装置1
01に(1)式に示す座標変換を追加する指示を与える。
マスタアーム201の入出力装置204は、マスタアー
ム201の各関節角度等を中央処理装置101へ入力
し、また中央処理装置101からマスタアーム201へ
の指令値をサーボ増幅し、マスタアーム201の各関節
のアクチュエータを駆動する働きをする。スレーブアー
ム202の入出力装置206は、スレーブアーム202
の各関節角度等を中央処理装置101へ入力し、また中
央処理装置101からスレーブアーム202への指令値
をサーボ増幅し、スレーブアーム202の各関節のアク
チュエータを駆動する働きをする。
Next, based on the principle of the present invention described above,
An embodiment of the device of the present invention will be described with reference to FIG. The master-slave manipulator shown in FIG. 4 includes a master arm 201 and a slave arm 202 having a structure different from that of the master arm 201 and working on a work target 301. The central processing unit 101 performs coordinate conversion calculation and control of both arms. The coordinate conversion adding device 218, which is a feature of the present invention, creates K of the equation (2) based on the input from the keyboard of the input / output device 217, and the central processing unit 1
An instruction to add the coordinate transformation shown in the equation (1) is given to 01.
The input / output device 204 of the master arm 201 inputs each joint angle and the like of the master arm 201 to the central processing unit 101, and also servo-amplifies a command value from the central processing unit 101 to the master arm 201, so that Acts to drive joint actuators. The input / output device 206 of the slave arm 202 is
Each joint angle and the like are input to the central processing unit 101, and the command value from the central processing unit 101 to the slave arm 202 is servo-amplified to drive the actuator of each joint of the slave arm 202.

【0020】ジョイスティック207は、中央処理装置
101内部の切換えにより、マスタアーム201の代り
にスレーブアーム202、及び後述するアニメーション
画像に対する指令値を出す。ジョイスティック207の
入出力装置208は、ジョイスティック207の傾き角
の信号等を中央処理装置101へ入力し、また、中央処
理装置101からジョイスティック207への力帰還信
号をサーボ増幅し、ジョイスティック207のアクチュ
エータを駆動する働きをもつ。画像入力装置209は、
スレーブアーム202の作業を種々の方向から監視す
る。画像処理装置210は、画像入力装置209で入力
した画像にFFT等の演算を施し、パターン同定等を行
う。シミュレーション手段211は、コンピュータグラ
フィックによってスレーブアームの状態をリアルタイム
で表示するアニメーション用計算機である。オペレータ
提示用画面103は、シミュレーション手段211によ
るアニメーション画像を表示する他、アニメーション画
像と画像入力装置209で入力した実画像を重ねて表示
することもでき、さらにモード切換等のメニュー表示を
始め、中央処理装置101及びシミュレーション手段2
11とのマンマシンインタフェースの対話用出力にも用
いられる。テレビモニタ213は、画像入力装置209
の映像を表示する。入出力装置217はスケール変換定
数、基点シフト指示メニューの入力を始め、中央処理装
置101及びシミュレーション手段211とのマンマシ
ンインタフェースの対話メッセージ入力に用いられる。
By switching inside the central processing unit 101, the joystick 207 outputs a command value for the slave arm 202 instead of the master arm 201 and an animation image described later. The input / output device 208 of the joystick 207 inputs a signal of the tilt angle of the joystick 207 to the central processing unit 101, servo-amplifies a force feedback signal from the central processing unit 101 to the joystick 207, and drives the actuator of the joystick 207. It has the function of driving. The image input device 209 is
The work of the slave arm 202 is monitored from various directions. The image processing device 210 performs an operation such as FFT on the image input by the image input device 209 to perform pattern identification and the like. The simulation means 211 is an animation computer that displays the state of the slave arm in real time by computer graphics. In addition to displaying the animation image by the simulation means 211, the operator presentation screen 103 can also display the animation image and the real image input by the image input device 209 in a superimposed manner. Further, menu display such as mode switching is started and the center is displayed. Processing device 101 and simulation means 2
It is also used for output of the man-machine interface with 11. The TV monitor 213 has an image input device 209.
The image of is displayed. The input / output device 217 is used for inputting a scale conversion constant, a base point shift instruction menu, and an interactive message input of a man-machine interface between the central processing unit 101 and the simulation means 211.

【0021】次に本実施例の信号の流れの主なものを、
操作系管理システム部分を示す図2及び作業系管理シス
テム部分を示す図3を用いて説明する。なお、実際のも
のは、マスタアーム、スレーブアーム、ジョイスティッ
ク共に6自由度を持つが、以下、簡単のため3自由度と
して説明を行う。
Next, the main flow of signals in the present embodiment will be described.
The operation system management system will be described with reference to FIG. 2 and the work system management system part shown in FIG. It should be noted that although the actual one has 6 degrees of freedom for each of the master arm, the slave arm, and the joystick, the following description will be made with 3 degrees of freedom for simplicity.

【0022】マスタアーム201の各関節軸には位置検
出センサ214A〜214Cが設けられており、該位置
検出センサ214A〜214Cの信号はマスタアーム入
出力装置204で処理され、シミュレーション手段21
1へ入力される。スレーブアーム202の各関節軸には
位置検出センサ215A〜215Cが設けられており、
該位置検出センサ215A〜215Cの信号はスレーブ
アーム入出力装置206で処理され、マニピュレーショ
ン手段230へ入力される。マニピュレーション手段2
30では一般化座標への座標変換演算を行い、さらに座
標変換追加装置218の指示に基づき、第2一般化座標
への座標変換を行うことにより、スレーブアーム202
への指定値を決定する。この信号はスレーブアーム入出
力装置206を経てスレーブアーム202の各関節軸に
設けたアクチュエータ216A〜216Cを駆動する。
又同時に、マニピュレーション手段230からシミュレ
ーション手段211へ信号が送られ、オペレータ提示用
画面103上にスレーブアームのアニメーション画像が
表示される。
Position detecting sensors 214A to 214C are provided on each joint axis of the master arm 201. The signals of the position detecting sensors 214A to 214C are processed by the master arm input / output device 204, and the simulation means 21.
Input to 1. Position detection sensors 215A to 215C are provided on each joint axis of the slave arm 202,
The signals of the position detection sensors 215A to 215C are processed by the slave arm input / output device 206 and input to the manipulation means 230. Manipulation means 2
At 30, the coordinate conversion calculation to the generalized coordinates is performed, and further the coordinate conversion to the second generalized coordinate is performed based on the instruction of the coordinate conversion adding device 218, so that the slave arm 202
Determine the specified value for. This signal drives the actuators 216A to 216C provided on each joint axis of the slave arm 202 via the slave arm input / output device 206.
At the same time, a signal is sent from the manipulation means 230 to the simulation means 211, and an animation image of the slave arm is displayed on the operator presentation screen 103.

【0023】ジョイスティックにはその角度を検出する
位置検出センサ217A〜217Cが設けられており、
位置検出センサ217A〜217Cの信号はジョイステ
ィック入出力装置208で処理され、シミュレーション
手段211へ入力される。シミュレーション手段211
ではスレーブアームへの指令を決定する際に、外部から
の切換信号に基づき、マスタアームとジョイスティック
のいずれからの信号を参照するかを決定する。また、画
像入力装置209で入力された画像は、画像処理装置2
10でFFT、パターン同定が行われた後、実画像をテ
レビモニタ213で表示すると同時にシミュレーション
手段211へ送られ、必要に応じてオペレータ提示用画
面103において、アニメーション画像に重ねて表示さ
れる。
The joystick is provided with position detection sensors 217A to 217C for detecting its angle.
The signals from the position detection sensors 217A to 217C are processed by the joystick input / output device 208 and input to the simulation means 211. Simulation means 211
Then, when a command to the slave arm is determined, it is determined based on a switching signal from the outside, which signal from the master arm or the joystick is referred to. Further, the image input by the image input device 209 is the image processing device 2
After FFT and pattern identification are performed in 10, the real image is displayed on the television monitor 213 and at the same time sent to the simulation means 211, and displayed on the operator presentation screen 103 so as to be superimposed on the animation image as necessary.

【0024】次に、位置検出センサ214A〜214C
からの信号をマスタアーム入出力装置204で処理する
際の具体例を図5に示す。これはジョイスティック、ス
レーブアームのものに関しても同様である。図5におい
て位置検出センサ214A〜214Cとしては回転式パ
ルス発生器を用いている。この位置検出センサ214A
〜214Cからは90°位相のずれた1組のパルス信号
すなわちA相及びB相が回転角に応じて発生され、方向
判別回路401に入力されて回転角の方向判別が行われ
る。一方A相またはB相の信号がカウンタ402に入力
され、パルス数がカウントされる。前記方向判別回路4
01から出力される方向信号403はカウンタ402に
入力され、パルス数の増減の切換えを行う。したがっ
て、カウンタ402の値は回転角の増減に対応して増減
するので、カウンタ402の出力404を外部から読み
込むことによって回転角を検知することができる。
Next, the position detecting sensors 214A to 214C
FIG. 5 shows a specific example of processing a signal from the master arm input / output device 204. This is the same for joysticks and slave arms. In FIG. 5, rotary pulse generators are used as the position detection sensors 214A to 214C. This position detection sensor 214A
From -214C, a pair of pulse signals 90 degrees out of phase, that is, A-phase and B-phase are generated according to the rotation angle, and are input to the direction determination circuit 401 to determine the direction of the rotation angle. On the other hand, the A-phase or B-phase signal is input to the counter 402 and the number of pulses is counted. The direction discrimination circuit 4
The direction signal 403 output from 01 is input to the counter 402, and the increase / decrease of the pulse number is switched. Therefore, the value of the counter 402 increases / decreases in accordance with the increase / decrease of the rotation angle, so that the rotation angle can be detected by reading the output 404 of the counter 402 from the outside.

【0025】図6は中央処理装置101の具体的な構成
例を示す。この中にはデータの入出力制御及び加減算を
行うプロセッサ501、三角関数表やマニピュレータの
リンクパラメタなどのデータを格納するメモリ502、
掛算器503及び割算器504がバス回路505を介し
て相互に接続されている。さらにこのバス回路505に
はシリアルまたはパラレルのインタフェイス回路506
A〜506Eが接続されている。インタフェイス回路5
06A〜506Eには各アーム入出力装置206,20
4、ジョイスティック入出力装置208、シミュレーシ
ョン手段211および座標変換追加装置218がそれぞ
れ接続されている。プロセッサ501はバス回路505
を介してバス回路505に接続されている全ての機器に
アクセスし、データを処理することができる。
FIG. 6 shows a concrete configuration example of the central processing unit 101. In this, a processor 501 for controlling input / output of data and addition / subtraction, a memory 502 for storing data such as a trigonometric table and link parameters of a manipulator,
The multiplier 503 and the divider 504 are connected to each other via a bus circuit 505. Further, the bus circuit 505 includes a serial or parallel interface circuit 506.
A to 506E are connected. Interface circuit 5
06A to 506E include arm input / output devices 206, 20
4, a joystick input / output device 208, a simulation means 211, and a coordinate conversion adding device 218 are connected to each other. The processor 501 is a bus circuit 505.
All devices connected to the bus circuit 505 can be accessed through the to process data.

【0026】次に上述した本発明の装置の一実施例の動
作を説明する。マスタアーム201を動作させると、マ
スタアーム201の各関節角は位置検出センサ214A
〜214Cにより検出される。この検出信号はマスタア
ーム入出力装置204を介してシミュレーション手段2
11に入力される。シミュレーション手段211はマス
タアーム201の手先座標系MCのマスタアーム基準座
標系Mに対する相対位置関係を座標変換マトリクスT6
mとして記憶しており、一般化座標への座標変換演算を
行う。また座標変換追加装置218は、入出力装置10
4からの入力に基づき、マスタアーム201の手先運動
に対するスレーブアーム202の手先の運動の寸法比率
すなわちスケール変換定数、およびマスタアーム201
の先端の位置とスレーブアーム202の先端の位置の基
準点のシフト量を示すマトリクスKを記憶しており、シ
ミュレーション手段211に座標変換の追加を指示す
る。すると、シミュレーション手段211はマスタアー
ム座標変換マトリクスT6mに対しKを作用させる演算
を行い、スレーブアーム座標変換マトリクスT6sを得
る。シミュレーション手段211は次に、スレーブアー
ム202の手先座標系SCのスレーブアーム基準座標系
Sに対する相対位置がスレーブアーム座標変換マトリク
スT6sに一致するようにしたときのスレーブアーム2
02の各関節軸目標値を逆座標変換演算により求め、こ
れをスレーブアーム入出力装置206に出力する。
Next, the operation of the above-described embodiment of the apparatus of the present invention will be described. When the master arm 201 is operated, each joint angle of the master arm 201 is detected by the position detection sensor 214A.
Detected by ~ 214C. This detection signal is sent to the simulation means 2 via the master arm input / output device 204.
11 is input. The simulation means 211 calculates the relative positional relationship of the hand coordinate system MC of the master arm 201 with respect to the master arm reference coordinate system M by a coordinate conversion matrix T 6.
It is stored as m, and a coordinate conversion operation to generalized coordinates is performed. Further, the coordinate conversion adding device 218 is the
4, the dimensional ratio of the hand movement of the slave arm 202 to the hand movement of the master arm 201, that is, the scale conversion constant, and the master arm 201.
A matrix K indicating the shift amount of the reference point between the position of the tip of the slave arm 202 and the position of the tip of the slave arm 202 is stored, and the simulation unit 211 is instructed to add coordinate conversion. Then, the simulation means 211 performs an operation to apply K to the master arm coordinate conversion matrix T 6 m to obtain the slave arm coordinate conversion matrix T 6 s. Next, the simulation means 211 makes the slave arm 2 when the relative position of the hand coordinate system SC of the slave arm 202 to the slave arm reference coordinate system S matches the slave arm coordinate conversion matrix T 6 s.
The joint axis target value of 02 is obtained by inverse coordinate transformation calculation, and this is output to the slave arm input / output device 206.

【0027】スレーブアーム入出力装置206はアクチ
ュエータ216A〜216Cを駆動する。これにより、
マスタアーム201の手先の運動をスケール変換、基点
シフトあるいは両方を行ってスレーブアーム202の手
先の運動に伝達することができる。この結果、各アーム
の可動領域内では、アームの形状に係りなく、マスタア
ーム201の手先の運動を、任意に拡大または縮小して
スレーブアーム202の手先に伝えることができ、マス
タアーム201の操作に対してスレーブアーム202を
細かく運動させたり、粗雑であるが大きく動作を与える
ことができる。また、必要な場合、入出力装置104か
らの入力による座標変換追加装置218の指令で、シミ
ュレーション手段211は、スレーブアーム202を一
時的にマスタアーム201から切離して静止させてお
き、操作者はマスタアーム201のみを任意の位置まで
動かすようにできる。マスターアーム201が所要の位
置まで動かされた状態で、座標変換追加装置218は、
マスタアーム201とスレーブアーム202の位置のず
れ量を(2)式のd、e、fの部分に記憶しなおす。この
状態で再び入出力装置104の入力によってマスタアー
ム201とスレーブアーム202を連動させることによ
り、マスタアーム201とスレーブアーム202の動作
基準点を自由に設定し直すことができ、常にマスタアー
ム201を操縦者にとって操作し易い位置で動かすこと
ができる。
The slave arm input / output device 206 drives the actuators 216A to 216C. This allows
The movement of the hand of the master arm 201 can be transmitted to the movement of the hand of the slave arm 202 by performing scale conversion, shift of the base point, or both. As a result, in the movable region of each arm, the movement of the hand of the master arm 201 can be arbitrarily enlarged or reduced and transmitted to the hand of the slave arm 202 regardless of the shape of the arm, and the operation of the master arm 201 can be performed. On the other hand, the slave arm 202 can be finely moved, and a rough but large movement can be given. If necessary, the simulation means 211 temporarily disconnects the slave arm 202 from the master arm 201 and makes it stand still by a command from the coordinate transformation adding device 218 by an input from the input / output device 104, and the operator operates the master. Only the arm 201 can be moved to any position. With the master arm 201 moved to the required position, the coordinate conversion adding device 218
The shift amount between the positions of the master arm 201 and the slave arm 202 is stored in the d, e, and f portions of the equation (2) again. In this state, the operation reference points of the master arm 201 and the slave arm 202 can be freely set again by interlocking the master arm 201 and the slave arm 202 with the input of the input / output device 104 again. It can be moved at a position where the operator can easily operate it.

【0028】一方、ジョイスティックの位置検出センサ
217A〜217Cからの信号は、ジョイスティック入
出力装置208を経てシミュレーション手段211に入
力される。シミュレーション手段211はこの信号を時
間的に積分し、ジョイスティック207の仮想的な手先
座標系JCのジョイスティック基準座標系Jに対する相
対位置関係を座標変換マトリクスT6jとして記憶す
る。そして、前述のT6sを求める際に、外部からの切
換信号によりT6mの代りにT6jを用いることにより、
ジョイスティック207を操縦することによりスレーブ
アーム202を動かすことができる。マスタアーム20
1は、位置指令としてスレーブアーム202への指令を
出し、ジョイスティックは速度指令としてスレーブアー
ム202への指令を出すため、操作者は状況に応じて使
い易い方を選択することができる。ジョイスティック2
07を用いた場合も、スケール変換によってジョイステ
ィックを倒した際のスレーブアームの移動速度を自由に
設定できる等の利点が生じる。
On the other hand, the signals from the joystick position detection sensors 217A to 217C are input to the simulation means 211 via the joystick input / output device 208. The simulation means 211 temporally integrates this signal and stores the relative positional relationship of the virtual hand coordinate system JC of the joystick 207 with respect to the joystick reference coordinate system J as a coordinate conversion matrix T 6 j. Then, when calculating the above-mentioned T 6 s, by using T 6 j instead of T 6 m by a switching signal from the outside,
The slave arm 202 can be moved by manipulating the joystick 207. Master arm 20
1 outputs a command to the slave arm 202 as a position command, and the joystick outputs a command to the slave arm 202 as a speed command, so that the operator can select the one that is easy to use according to the situation. Joystick 2
Even when 07 is used, there is an advantage that the moving speed of the slave arm when the joystick is tilted can be freely set by scale conversion.

【0029】さらに、第2一般化座標、すなわち(2)式
のKT6mをスレーブアーム入出力装置206へ出力す
る代りに、あるいはスレーブアーム入出力装置206へ
出力すると同時にシミュレーション手段211へ出力す
ることにより、オペレータ提示用画面103において、
アニメーション画像として見ることができる。スレーブ
アーム202を動かさずにアニメーション画像を示すこ
とにより、スケール変換等の効果による動きを確認でき
るので、危険な状況に陥いることがない。
Further, instead of outputting the second generalized coordinates, that is, KT 6 m of the equation (2) to the slave arm input / output device 206, or outputting to the slave arm input / output device 206, it is also output to the simulation means 211. As a result, on the operator presentation screen 103,
It can be seen as an animated image. By displaying the animation image without moving the slave arm 202, the movement due to the effect of scale conversion or the like can be confirmed, so that a dangerous situation does not occur.

【0030】さらに、地上から宇宙にあるスレーブアー
ムを操作するときには、通信の遅れ時間を利用し、実際
のスレーブアームの動きより早く、シミュレーションさ
れた画像を見ることができ、マスタアームの誤操作をチ
ェックして修正することにも使用できる。もし、実際の
(リアルタイムでの)スレーブアームの動きを知りたい
ときには、アニメーション画像を通信の遅れ時間分だけ
おくらして表示すればよい。
Furthermore, when operating the slave arm in space from the ground, the delay time of communication can be used to see the simulated image faster than the actual movement of the slave arm, and to check the erroneous operation of the master arm. It can also be used to modify. If you want to know the actual (real-time) movement of the slave arm, you can display the animation image with a delay of communication delay.

【0031】また、スレーブアーム202を動かすのと
同時にアニメーションを表示した場合、アニメーション
は任意の方向から見た場合の表示ができるので、操作性
は向上する。
When an animation is displayed at the same time as the slave arm 202 is moved, the animation can be displayed as seen from any direction, so that the operability is improved.

【0032】また、画像入力装置209により入力され
た画像はテレビモニタ213で表示する他、オペレータ
提示用画面103のアニメーション画像に重ね表示する
ことができる。これにより、より現実的な画像情報が得
られると共に、実画像においては手前の物体の影になっ
て死角となる部分もアニメーション画像では表示できる
ので、実画像とアニメーションがお互いの欠点を補い合
うことができる。
Further, the image input by the image input device 209 can be displayed on the television monitor 213 and can be displayed over the animation image on the operator presentation screen 103. As a result, more realistic image information can be obtained, and the part of the real image that is a shadow of the object in the foreground and becomes a blind spot can also be displayed in the animation image, so that the real image and the animation can complement each other's defects. it can.

【0033】なお、この際座標変換追加装置218は第
2一般化座標への変換マトリックスKをアニメーション
画像が実画像にずれることなく重なるように決定する必
要がある。
At this time, the coordinate conversion adding device 218 needs to determine the conversion matrix K to the second generalized coordinates so that the animation image overlaps the actual image without shifting.

【0034】さらに、図4に示したように、画像入力装
置209は複数あり、種々の方向からスレーブアームを
見ているため、操作者がテレビモニタ213を見ながら
操作する際には、マスタアーム201との方向との対応
付けを常に頭においておかねばならず、基点シフト等を
行ううえでも困難となる。従って、スレーブアーム座標
変換マトリクスT6sを得る際に、i番目の画像入力装
置209とスレーブアーム202の方向を補正する座標
変換マトリクスをRiとすると、 T6s=Ri・K・T6m として、T6sを得ることにより、操作者は方向の差を
意識することなく、マスタアーム201を操作すること
ができる。Ri・Kは座標変換追加装置218により与
えられる。
Further, as shown in FIG. 4, since there are a plurality of image input devices 209 and the slave arm is viewed from various directions, when the operator operates while watching the television monitor 213, the master arm is operated. The correspondence with the direction of 201 must always be kept in mind, and it becomes difficult to perform the base point shift and the like. Therefore, when the slave arm coordinate conversion matrix T 6 s is obtained, if the coordinate conversion matrix for correcting the direction of the i-th image input device 209 and the slave arm 202 is Ri, then T 6 s = Ri · K · T 6 m As a result, by obtaining T 6 s, the operator can operate the master arm 201 without being aware of the difference in direction. Ri · K is provided by the coordinate transformation adding device 218.

【0035】ここで、i番目の画像入力装置209の視
線の方向のロール角、ピッチ角、ヨー角をαi、βi、γ
iとすると、Riは次式で与えられる。
Here, the roll angle, the pitch angle and the yaw angle in the direction of the line of sight of the i-th image input device 209 are αi, βi and γ.
If i is given, Ri is given by the following equation.

【0036】[0036]

【数2】 [Equation 2]

【0037】このような座標変換マトリックスRを導入
すると宇宙におけるスレーブアームの熱変形、慣性変形
に対応した信号をスレーブアームに与えることができ、
操作性が向上する。上記の目的の場合、アーム変形によ
る先端の姿勢のロール角、ピッチ角、ヨー角をδ、ε、
ζとし、ひずみによるx、y、z方向へのずれ位置を
p、q、rとすると、
By introducing such a coordinate transformation matrix R, a signal corresponding to thermal deformation and inertial deformation of the slave arm in space can be given to the slave arm,
Operability is improved. For the above purpose, the roll angle, pitch angle, yaw angle of the posture of the tip due to arm deformation are δ, ε,
Let ζ be the displacement positions in the x, y, z directions due to strain, p, q, r

【0038】[0038]

【数3】 [Equation 3]

【0039】と表すことができる。It can be expressed as

【0040】次に、本発明のもう一つの実施例を図7を
用いて説明する。この実施例はマスタアーム201の手
先の位置の微小変位に対し、スケール変換演算を行った
ものを、スレーブアーム202の手先の微小変位として
スレーブアーム202に伝えるようにしたものである。
そして、図2,3に示す実施例と同様にマスタアーム2
01の基準座標系をM、基準座標系Mからマスタアーム
201の手先までの座標変換マトリクスT6m、スケー
ル変換演算等のための変換マトリクスをKとする。また
スレーブアーム202の基準座標変換マトリクスをT6
sとすると、座標変換演算の手順は次のようになる。す
なわち、マスタアーム201の各リンクパラメタとその
各関節軸の位置から座標変換マトリクスT6mが求めら
れる。またスレーブアーム202の各リンクパラメタと
その手先の位置を示す座標変換マトリクスT6sが与え
られれば、スレーブアーム202の各軸の目標値が求め
られる。
Next, another embodiment of the present invention will be described with reference to FIG. In this embodiment, scale conversion calculation is performed on the minute displacement of the hand of the master arm 201, and the result is transmitted to the slave arm 202 as the minute displacement of the hand of the slave arm 202.
Then, similarly to the embodiment shown in FIGS.
The reference coordinate system of 01 is M, the coordinate conversion matrix T 6 m from the reference coordinate system M to the hand of the master arm 201, and the conversion matrix for scale conversion calculation and the like. Further, the reference coordinate conversion matrix of the slave arm 202 is set to T 6
If s, the procedure of the coordinate conversion calculation is as follows. That is, the coordinate conversion matrix T 6 m is obtained from each link parameter of the master arm 201 and the position of each joint axis thereof. Further, if each link parameter of the slave arm 202 and the coordinate conversion matrix T 6 s indicating the position of its hand are given, the target value of each axis of the slave arm 202 can be obtained.

【0041】今ある時点でマスタアーム201とスレー
ブアーム202の運動を同期させるものとすると、手先
の位置の微小変位dT6とマニピュレータ各軸の微小変
位dQとの間には次の関係がある。
Assuming that the movements of the master arm 201 and the slave arm 202 are synchronized at a certain point in time, the following relationship exists between the minute displacement dT 6 of the hand position and the minute displacement dQ of each axis of the manipulator.

【0042】 dT6=JdQ …(3) (J:ヤコビ行列) 今、マスタアーム201を微小運動MDさせたとき、そ
の各関節軸の変位の変化をdQとし、マスタアーム20
1のヤコビ行列をJとしたとき、マスタアーム201の
手先の微小運動dT6mは次の式から得られる。
DT 6 = JdQ (3) (J: Jacobian matrix) Now, when the master arm 201 is subjected to minute movement MD, the change in displacement of each joint axis is set to dQ, and the master arm 20
When the Jacobian matrix of 1 is J, the minute movement dT 6 m of the hand of the master arm 201 is obtained from the following equation.

【0043】 dT6m=Jm・dQm …(4) ここでdT6mをスケール変換してスレーブアーム20
2の手先の微小運動dT6sを次式から得る。
DT 6 m = Jm · dQm (4) Here, the scale conversion of dT 6 m is performed and the slave arm 20
The second minute movement dT 6 s is obtained from the following equation.

【0044】 dT6s=KdT6m …(5) 次にスレーブアーム202の各関節軸の微小変位dQs
をスレーブアーム202のヤコビ行列Jsの逆行列1/
(Js)を解くことにより求める。すなわち、 dQs=1/(Js)・dT6s …(6) 上式で得られたスレーブアーム202の各関節軸の微小
変位dQsをスレーブアーム202の各関節軸の位置に
加え、これをスレーブアーム202の各関節軸のサーボ
制御回路の目標値とする。
DT 6 s = KdT 6 m (5) Next, a minute displacement dQs of each joint axis of the slave arm 202.
Is the inverse matrix 1 / of the Jacobian matrix Js of the slave arm 202.
Obtained by solving (Js). That is, dQs = 1 / (Js) · dT 6 s (6) The small displacement dQs of each joint axis of the slave arm 202 obtained by the above equation is added to the position of each joint axis of the slave arm 202, and this is added to the slave. The target value of the servo control circuit of each joint axis of the arm 202 is set.

【0045】次に上述した原理にもとづいて本発明の制
御装置の他の実施例を図8を用いて説明する。なお、ジ
ョイスティック207、画像入力装置209、シミュレ
ーション手段211等の取扱いについては、最初の例に
準じるので、ここではマスタアーム201とスレーブア
ーム202の関係のみについて説明する。
Next, another embodiment of the control device of the present invention will be described with reference to FIG. 8 based on the above principle. Since the handling of the joystick 207, the image input device 209, the simulation means 211, etc. is based on the first example, only the relationship between the master arm 201 and the slave arm 202 will be described here.

【0046】図8において図2,3と同符号のものは同
一部分または相当する部分である。701は差分回路、
702は増分回路である。差分回路701はサンプリン
グタイムにおけるセンサ214A〜214Cのセンサ信
号の変化分を検出する。中央処理装置101は前述した
(3)〜(6)式で示された計算を行い、スレーブアーム2
02の各関節軸の変化分を求め、この変化分を増分回路
702に出力する。増分回路702はスレーブアーム2
02の各関節軸毎に現在目標値に中央処理装置で求めた
変化分を入力する。スレーブアーム入出力装置206は
スレーブアーム202の各関節軸に設けたアクチュエー
タ216A〜216Cを駆動する。これらアクチュエー
タ216A〜216Cにより、スレーブアーム202は
駆動されるが、その移動量は検出器215A〜215C
によって検出され、スレーブアーム入出力装置206に
フィードバックされる。その結果、マスタアーム201
の手先の運動をスケール変換してスレーブアームの手先
に伝達することができる。
In FIG. 8, the same reference numerals as those in FIGS. 2 and 3 denote the same or corresponding portions. 701 is a difference circuit,
Reference numeral 702 is an incremental circuit. The difference circuit 701 detects a change amount of the sensor signals of the sensors 214A to 214C at the sampling time. The central processing unit 101 has been described above.
Perform the calculations shown in equations (3) to (6) and set slave arm 2
The change amount of each joint axis 02 is obtained, and this change amount is output to the increment circuit 702. Incremental circuit 702 is slave arm 2
The change amount obtained by the central processing unit is input to the current target value for each joint axis 02. The slave arm input / output device 206 drives actuators 216A to 216C provided on each joint axis of the slave arm 202. The slave arm 202 is driven by these actuators 216A to 216C, and the amount of movement is detected by the detectors 215A to 215C.
Is detected by and is fed back to the slave arm input / output device 206. As a result, the master arm 201
It is possible to scale the movement of the hand of the robot and transmit it to the hand of the slave arm.

【0047】上述した本発明の制御装置の他の実施例に
おける演算回路の演算処理動作を図9を用いて説明す
る。最初に、初期位置でスタートすると、マスタアーム
1の各関節の初期値を読み込んでおく。次にマスタアー
ム1とスレーブアームの関節角を入力し、前回のデータ
との差から関節角の変化量dQmを求める。次にテーブ
ルを参照して三角関係を求め、マスタアーム1のヤコビ
行列Jmを計算する。関節角変化量dQmとヤコビ行列
Jmからマスタアーム1の手先変位dT6mを求める。
スケール変換定数Kは入力されたデータを用いて得る。
マスタアームの手先変位dT6mにKを乗じてスレーブ
アームの手先変位dT6sを求める。次にスレーブアー
ムのヤコビ逆行列1/Jsを求める。このdT6sに1
/Jsを乗じることによりスレーブアームの各関節角変
位dQsを求めスレーブアームの関節角QsとdQsの
和をとってスレーブアームの各サーボ系に結果を出力す
る。上記手続きを運転終了まで繰返し実行する。
The arithmetic processing operation of the arithmetic circuit in another embodiment of the above-described control device of the present invention will be described with reference to FIG. First, when starting at the initial position, the initial value of each joint of the master arm 1 is read. Next, the joint angles of the master arm 1 and the slave arm are input, and the change amount dQm of the joint angle is obtained from the difference from the previous data. Next, the triangular relationship is obtained by referring to the table, and the Jacobian matrix Jm of the master arm 1 is calculated. From the joint angle variation dQm and the Jacobian matrix Jm, the hand end displacement dT 6 m of the master arm 1 is obtained.
The scale conversion constant K is obtained using the input data.
The hand end displacement dT 6 m of the master arm is multiplied by K to obtain the hand end displacement dT 6 s of the slave arm. Next, the Jacobian inverse matrix 1 / Js of the slave arm is obtained. 1 to this dT 6 s
The joint angle displacement dQs of the slave arm is obtained by multiplying / Js, and the sum of the joint angles Qs and dQs of the slave arm is calculated and the result is output to each servo system of the slave arm. The above procedure is repeated until the end of operation.

【0048】この実施例によれば、図2,3に示す実施
例と同様な効果が得られると共に、マスタアーム201
とスレーブアーム202の手先位置がどこにあっても同
期スタートすることができ、かつ任意のスケール変位が
可能である。
According to this embodiment, the same effect as that of the embodiment shown in FIGS.
The slave arm 202 and the slave arm 202 can be synchronously started wherever the hand position is, and any scale can be displaced.

【0049】図11は本発明の装置のさらに他の実施例
を示すもので、この図において、図2,3と同符号のも
のは同一部分である。この実施例は、スレーブアーム2
02の手先を投影する画像入力装置209のズーム比の
変化に対応して、マスタアーム201の運動に対するス
レーブアーム202の運動のスケール変換の定数を変え
るようにしたものであり、画像入力装置209にそのズ
ームレンズの動きを検出するセンサ1001を設け、こ
のセンサ情報を座標変換追加装置218に入力する。座
標変換追加装置218はこのセンサ情報と予め求めてお
いたデータを用いて補正演算を行うことにより、スケー
ル変換マトリクスKを決定し、前述した実施例と同様に
中央処理装置101に座標変換の追加を指示し、中央処
理装置101はスレーブアーム202の運動をマスタア
ーム201のそれに対してスケール変換動作させるため
の目標値を演算する。図11において、213はテレビ
モニタである。
FIG. 11 shows still another embodiment of the apparatus of the present invention, in which the same reference numerals as those in FIGS. 2 and 3 designate the same parts. In this embodiment, the slave arm 2
The scale conversion constant of the motion of the slave arm 202 with respect to the motion of the master arm 201 is changed according to the change of the zoom ratio of the image input device 209 that projects the hand of 02. A sensor 1001 that detects the movement of the zoom lens is provided, and this sensor information is input to the coordinate conversion adding device 218. The coordinate conversion adding device 218 determines the scale conversion matrix K by performing a correction calculation using this sensor information and the data obtained in advance, and adds the coordinate conversion to the central processing unit 101 as in the above-described embodiment. The central processing unit 101 calculates a target value for causing the movement of the slave arm 202 to perform scale conversion operation with respect to that of the master arm 201. In FIG. 11, 213 is a television monitor.

【0050】次に上述した本発明の装置の他の実施例の
動作を図10に示すフローチャートを用いて説明する。
まず初期位置でスタートすると、マスタアーム201の
各関節角が読み込まれる。次にテーブルを参照して三角
関数の値が求められ、得られた三角関数の値を用いて手
先座標T6mが求められる。前述したように画像入力装
置209のズームレンズと同期させる場合、ズームレン
ズに装着したセンサ1001によりズーム比が検出さ
れ、スケール変換マトリクスKが決定される。ズームレ
ンズと同期しない場合はあらかじめ入力されたスケール
変換マトリクスKが用いられる。次にマスタアーム20
1の手先位置T6mにKを乗じてスレーブアーム202
の手先位置T6sを求める。このT6sより逆座標変換演
算でスレーブアーム202の各関節の目標値を求め、こ
れをスレーブアームの各サーボ系に出力する。上記操作
を運転終了まで繰返し実行する。
Next, the operation of another embodiment of the above-mentioned device of the present invention will be described with reference to the flow chart shown in FIG.
First, when starting at the initial position, each joint angle of the master arm 201 is read. Next, the value of the trigonometric function is obtained by referring to the table, and the hand coordinate T 6 m is obtained using the obtained value of the trigonometric function. As described above, when synchronizing with the zoom lens of the image input device 209, the zoom ratio is detected by the sensor 1001 attached to the zoom lens, and the scale conversion matrix K is determined. When not synchronized with the zoom lens, the scale conversion matrix K input in advance is used. Next, the master arm 20
Multiply K by the hand position T 6 m of 1 and slave arm 202
Find the hand position T 6 s. The target value of each joint of the slave arm 202 is obtained from this T 6 s by the inverse coordinate transformation calculation, and this is output to each servo system of the slave arm. The above operation is repeated until the operation ends.

【0051】このように構成したことにより、画像入力
装置209のズーム比を任意に変えても、マスタアーム
201の手先の運動とテレビモニタ213上のスレーブ
アーム202の手先映像の運動の大きさの比率を常に一
定に保つことができる。その結果、常に適切な操作感覚
が得られ、操作性が向上する。
With this configuration, even if the zoom ratio of the image input device 209 is arbitrarily changed, the movement of the hand of the master arm 201 and the movement of the hand image of the slave arm 202 on the television monitor 213 can be adjusted. The ratio can always be kept constant. As a result, a proper operation feeling is always obtained and operability is improved.

【0052】(第2の実施例) 1.第2の実施例説明 図1を用いて本発明の第2の実施例を説明する。(Second Embodiment) 1. Description of Second Embodiment A second embodiment of the present invention will be described with reference to FIG.

【0053】本実施例は、操作系管理システムと作業系
管理システムとからなり、操作系管理システムは、中央
処理装置101と、中央処理装置101に接続された画
像計測手段102と、中央処理装置101と画像計測手
段102に接続されたグラフィックディスプレイ103
と、中央処理装置101に接続された入出力装置104
から構成され、作業系管理システムは、中央処理装置1
01と,中央処理装置101に接続された画像計測手段
102及びスレーブアーム105とから構成される。こ
のシステムは、例えば軌道上にある作業環境モデルを操
作系管理システムと作業系管理システムの中央処理装置
101が個別に管理している。実際に作業が行われる作
業環境(例えば軌道上の宇宙船内)とこの作業環境をシ
ミュレートした作業環境モデル(コンピュータ内に構築
された環境)とは、画像計測結果に基づき常に等しくな
るように中央処理装置で管理されている。また、地上か
らの命令で軌道上のスレーブアームが作業を行うときに
は、軌道上での作業の進行に合わせて、操作系管理シス
テムの中央処理装置が作業のシュミレーションを行うこ
とにより、作業環境モデルと作業環境とを一致させてい
る。グラフィックディスプレイ103は、システムの状
況をオペレータに示し、入出力装置104を用いたオペ
レータとシステムとの対話的操作のためのインターフェ
ースの役割を果たしている。スレーブアーム入出力装置
105は、スレーブアームを制御するための情報の入出
力を行っている。
This embodiment comprises an operation system management system and a work system management system. The operation system management system includes a central processing unit 101, an image measuring means 102 connected to the central processing unit 101, and a central processing unit. Graphic display 103 connected to 101 and image measuring means 102
And an input / output device 104 connected to the central processing unit 101
The work management system consists of the central processing unit 1
01, an image measuring means 102 and a slave arm 105 connected to the central processing unit 101. In this system, for example, the operating environment management system and the central processing unit 101 of the working management system separately manage the working environment model in orbit. The work environment in which the work is actually performed (for example, in a spacecraft in orbit) and the work environment model simulating this work environment (the environment built in the computer) are centered so that they are always equal based on the image measurement results. It is managed by the processor. In addition, when the slave arm on the orbit performs work by a command from the ground, the central processing unit of the operation system management system simulates the work in accordance with the progress of the work on the orbit, thereby creating a work environment model. It matches the work environment. The graphic display 103 shows the status of the system to the operator and serves as an interface for interactive operation between the operator and the system using the input / output device 104. The slave arm input / output device 105 inputs / outputs information for controlling the slave arm.

【0054】2.第2の実施例の概要説明 図2及び図3を用いてシステム構成を説明する。2. Outline of Second Embodiment A system configuration will be described with reference to FIGS. 2 and 3.

【0055】本システムは、操作系管理システム10
6、及び、作業系管理システム107から構成される。
前記操作系管理システム106は、シミュレーション手
段211と、該シミュレーション手段211に接続され
た画像計測手段102、オペレータ提示用画面103、
入出力装置104、ジョイスティック入出力装置20
8,228,2i8、ジョイスティック207,2i
7、マスタアーム入出力装置204,224,2j4、
マスタアーム201,2j1とを含んで構成されてい
る。前記作業系管理システムは、マニピュレーション手
段230と、該マニピュレーション手段230に接続さ
れたスレーブアーム入出力装置206,226,2m
6、スレーブアーム202,2m2、画像計測手段10
2と、画像計測手段102に接続されたカメラ209,
229,2n9とを含んで構成されている。なお、前記
ジョイスティック入出力装置、前記ジョイスティック、
前記マスタアーム入出力装置、前記マスタアーム、前記
スレーブアーム入出力装置、前記スレーブアーム、前記
画像計測手段、前記カメラは複数あっても差し支えな
い。
This system comprises an operation system management system 10
6 and a work management system 107.
The operation system management system 106 includes a simulation unit 211, an image measurement unit 102 connected to the simulation unit 211, an operator presentation screen 103,
Input / output device 104, joystick input / output device 20
8, 228, 2i8, joystick 207, 2i
7, master arm input / output devices 204, 224, 2j4,
It is configured to include master arms 201 and j1. The work system management system includes a manipulation unit 230 and slave arm input / output devices 206, 226, 2 m connected to the manipulation unit 230.
6, slave arm 202, 2m2, image measuring means 10
2 and a camera 209 connected to the image measuring unit 102,
229 and 2n9. The joystick input / output device, the joystick,
There may be a plurality of the master arm input / output device, the master arm, the slave arm input / output device, the slave arm, the image measuring unit, and the camera.

【0056】また、シミュレーション手段211とマニ
ピュレーション手段230は通信手段により相互に通信
可能に接続されている。
The simulation means 211 and the manipulation means 230 are communicably connected to each other by a communication means.

【0057】本実施例では、宇宙作業用機器や作業対象
物を含む軌道上系で行なわれる作業の合理化を目的とし
て、地上の操作系管理システム(以下、地上系管理シス
テムもしくは単に地上系という)に設置された、オペレ
ータ提示用画面103との対話的操作を通して、作業に
必要なデータベースを自律的に生成する。
In the present embodiment, a ground operation system management system (hereinafter referred to as a ground system management system or simply a ground system) is provided for the purpose of rationalizing work performed in an orbit system including space work equipment and a work object. The database required for the work is autonomously generated through an interactive operation with the operator presentation screen 103 installed in.

【0058】(1)環境モデルの作成 この作業は軌道上の作業環境と地上系が持っている環境
モデル1107(5.3環境モデルの説明参照)を等し
くするために、まず、環境モデル1107に登録されて
いない物体を新たに登録する作業である。
(1) Creation of Environmental Model In order to equalize the work environment on the orbit and the environment model 1107 of the ground system (refer to the description of 5.3 Environment model), first, the environment model 1107 is created. This is a work of newly registering an unregistered object.

【0059】オペレータが、マウス、もしくはキーボー
ド等の入出力装置104を用いて、環境モデル1107
に登録したい物体の名称と、およその位置を与えると、
「建設装置(特開平2−209562)」記載の画像計
測手段102が、軌道上に置かれた物体の、正確な位置
と姿勢を計測して、環境モデル1107に登録する。以
後、前記画像計測手段は、1秒以内の周期で登録物体の
位置姿勢計測を継続し、環境モデル1107を絶えず更
新する。前記画像計測手段は、地上系管理システム10
6と、操作系管理システム(以下、軌道上系管理システ
ムもしくは単に軌道上系という)107に組みこまれ、
カメラ209,229,2n9が取り込んだ画像から作
業対象物体の位置、姿勢の計測を行う。
The operator uses the input / output device 104 such as a mouse or a keyboard to set the environment model 1107.
If you give the name of the object you want to register to and the approximate position,
The image measuring means 102 described in “Construction apparatus (Japanese Patent Laid-Open No. 2-209562)” measures an accurate position and posture of an object placed on the track and registers it in the environment model 1107. After that, the image measuring unit continues to measure the position and orientation of the registered object in a cycle of 1 second or less, and constantly updates the environment model 1107. The image measuring means is a ground management system 10
6 and an operation system management system (hereinafter, referred to as an on-orbit system management system or simply an on-orbit system) 107,
The position and orientation of the work target object is measured from the images captured by the cameras 209, 229, and 2n9.

【0060】(2)軌道上作業の計画 軌道上作業の計画は、オペレータが作成した環境モデル
1107上で作業概念レベルの表現(以後作業メッセー
ジと記す)により、オペレータ提示用画面103との対
話的操作で行われる。地上系管理システム106は、オ
ペレータが入出力装置104を用いて入力した作業メッ
セージから、作業ネットワークを作成する。作業ネット
ワークは、作業環境の微小変動や、メカ的に発生する、
誤差の影響を受けない程度に抽象化された記述方式を用
いているので、ロボット言語よりも長時間保存すること
ができる。
(2) Planning of on-orbit work The plan of on-orbit work is interactive with the operator presentation screen 103 by expressing the work concept level on the environment model 1107 created by the operator (hereinafter referred to as work message). It is done by operation. The terrestrial management system 106 creates a work network from the work message input by the operator using the input / output device 104. The work network is such that minute changes in the work environment or mechanically occur,
Since it uses a description method that is abstracted to the extent that it is not affected by errors, it can be stored for a longer time than robot languages.

【0061】(3)地上系と軌道上系の情報通信 地上系管理システム106から軌道上系管理システム1
07へは、作業ネットワーク、地上系で観測された軌道
上系環境データ(作業対象物体名、物体位置姿勢)が送
られる。軌道上系から地上系へは、画像データ、軌道上
系で観測された軌道上系環境データ(作業対象物体名、
物体位置姿勢、スレーブアーム位置姿勢)が送られる。
(3) Information communication between ground system and on-orbit system From ground system management system 106 to on-orbit system management system 1
To 07, the work network and the on-orbit system environment data (work target object name, object position and orientation) observed in the ground system are sent. From the on-orbit system to the terrestrial system, image data, orbital system environment data (work target object name,
Object position / posture, slave arm position / posture) is sent.

【0062】(4)軌道上系による計画作業の実行と地
上系での作業監視 地上系のシミュレーション手段211及び軌道上系のマ
ニピュレーション手段230をそれぞれ示す図12と図
13を参照して軌道上系による計画作業の実行と地上系
での作業監視について説明する。環境モデル1107を
ベースにして、軌道上系と地上系で互いに独立して作業
ネットワークが展開され、ロボット言語が生成される。
ロボット言語は、画像計測値に基づいてダイナミックに
生成されるデータである。ロボット言語は、即、ロボッ
トの関節角度の時系列データに変換され、地上系では作
業シミュレーションを行ない、軌道上系ではロボットを
動作させる。地上系で行なわれる作業のシミュレーショ
ンは、軌道上系が実際に行なっている作業の監視用に用
いられる。システムに異常が発生したときには、地上系
監視手段1104、軌道上系監視手段1204が単独
で、あるいは、協調して(通信異常は協調して発見でき
る)、異常個所を検出し、それに応じて対応する。
(4) Execution of planned work by on-orbit system and work monitoring on ground system Referring to FIGS. 12 and 13 showing the simulation means 211 of the ground system and the manipulation means 230 of the on-orbit system, respectively, the on-orbit system The execution of planned work and the monitoring of work on the ground will be explained. Based on the environment model 1107, work networks are independently developed in the on-orbit system and the ground system, and a robot language is generated.
The robot language is data that is dynamically generated based on the image measurement value. The robot language is immediately converted into time series data of the joint angles of the robot, and the ground system performs work simulation, and the orbital system operates the robot. The simulation of work performed on the ground system is used for monitoring the work actually performed by the on-orbit system. When an abnormality occurs in the system, the ground system monitoring means 1104 and the on-orbit system monitoring means 1204 independently or in cooperation (the communication abnormality can be detected in cooperation) detect the abnormal portion and respond accordingly. To do.

【0063】3.操作系管理システム(地上系管理シス
テム) 3.1構成の説明 地上系管理システム106のシミュレーション手段21
1は、図12に示されているように、オフラインシミュ
レータ1100と、オフラインシミュレータ1100に
接続されたオンラインシミュレータ1101及び地上系
監視手段1104と、オフラインシミュレータ1100
及びオンラインシミュレータ1101に接続された環境
モデル管理手段1103と、オフラインシミュレータ1
100及び環境モデル管理手段1103に接続されたア
ニメータ1102と、オフラインシミュレータ1100
に接続されたデータ受信装置1105と、オンラインシ
ミュレータ1101に接続されたデータ送信装置110
6と、環境モデル管理手段1103に接続された環境モ
デル1107とを含んで構成される。前記オフラインシ
ミュレータ1100は、作業ネットワーク生成手段11
08と作業ネットワーク生成手段1108に接続された
インターフェース制御手段1109とから構成される。
前記オンラインシミュレータ1101は、作業ネットワ
ーク管理手段1110と、該作業ネットワーク管理手段
1110に接続されたロボット言語生成手段1111
と、ロボット言語生成手段1111に接続されたロボッ
ト言語解釈手段1112とから構成される。前記環境モ
デル管理手段1103は、クラスフレーム検索手段11
13と、クラスフレーム検索手段1113に接続された
インスタンスフレーム発生手段1114と、インスタン
スフレーム発生手段1114に接続されたインスタンス
フレーム更新手段1115とから構成される。前記環境
モデル1107(5.3環境モデルの説明参照)は、ク
ラスフレームとインスタンスフレームから構成される。
3. Operation system management system (ground system management system) 3.1 Description of configuration Simulation means 21 of the ground system management system 106
As shown in FIG. 12, an offline simulator 1100, an online simulator 1101 connected to the offline simulator 1100 and a ground system monitoring means 1104, and an offline simulator 1100.
And an environment model management unit 1103 connected to the online simulator 1101, and an offline simulator 1
100 and an environment model management means 1103 connected to an animator 1102, and an offline simulator 1100.
Data receiving device 1105 connected to the Internet and data transmitting device 110 connected to the online simulator 1101
6 and an environment model 1107 connected to the environment model management means 1103. The off-line simulator 1100 includes a work network generating means 11
08 and interface control means 1109 connected to the work network generation means 1108.
The online simulator 1101 includes a work network management unit 1110 and a robot language generation unit 1111 connected to the work network management unit 1110.
And a robot language interpretation means 1112 connected to the robot language generation means 1111. The environment model management means 1103 is the class frame search means 11
13, an instance frame generating means 1114 connected to the class frame searching means 1113, and an instance frame updating means 1115 connected to the instance frame generating means 1114. The environment model 1107 (refer to the description of 5.3 environment model) includes a class frame and an instance frame.

【0064】3.2機能の説明 オフラインシミュレータ1100は、環境モデル110
7の作成と、軌道上作業計画の作成とをオペレータ提示
用画面103との対話的操作を用いて行なうための機能
を備える。作業ネットワーク生成手段1108は、入出
力装置104を用いてオペレータが入力した作業メッセ
ージに基づいて作業ネットワーク(5.2作業ネットワ
ークの説明参照)を生成する。インターフェース制御手
段1109は、オペレータとオペレータ提示用画面10
3との対話的操作を制御する(制御の詳細は、7.オペ
レータ提示用画面の項参照)。
3.2 Description of Functions The offline simulator 1100 has the environment model 110.
7 and the on-orbit work plan are created by using an interactive operation with the operator presentation screen 103. The work network generation means 1108 generates a work network (see 5.2 Description of work network) based on the work message input by the operator using the input / output device 104. The interface control means 1109 uses the operator and the operator presentation screen 10
Controls the interactive operation with 3 (For details of the control, refer to the section of 7. Screen for presenting operator).

【0065】オンラインシミュレータ1101は、作業
ネットワークで表現された軌道上作業を実行するための
データを生成する。作業ネットワーク管理手段1110
は、作業ネットワークを管理し、オペレータの要求に応
じて、ロボット言語生成手段1111に渡す。ロボット
言語生成手段1111は、作業ネットワークに基づいて
ロボット言語を生成する。ロボット言語解釈手段111
2は、ロボット言語を関節角度の時系列データに変換す
る。
The online simulator 1101 generates data for executing the on-orbit work represented by the work network. Work network management means 1110
Manages the work network and transfers it to the robot language generation means 1111 in response to the operator's request. The robot language generation means 1111 generates a robot language based on the work network. Robot language interpreting means 111
2 converts the robot language into time series data of joint angles.

【0066】環境モデル管理手段1103は、インタフ
ェース制御手段1109を介して入力されるオペレータ
の指示、画像計測手段102によって入力される計測デ
ータ、軌道上作業の実行に伴う作業環境の更新などによ
って、作業環境と環境モデル1107との間に矛盾が起
こらないように環境モデル1107を管理する。クラス
フレーム検索手段1113は、入出力装置104を用い
て、インターフェース制御手段1109を介してオペレ
ータが入力する作業対象物体名すなわちクラス名から、
クラスフレーム(5.3環境モデルの説明参照)を検索
する。インスタンスフレーム発生手段1114は、検索
されたクラスに属するインスタンスを発生する。インス
タンスフレーム更新手段1115は、画像計測値や、イ
ンターフェース制御手段1109や、ロボット言語解釈
手段1112から渡されるデータに基づいて、インスタ
ンスフレームを更新する。
The environment model management means 1103 performs the work by the operator's instruction input via the interface control means 1109, the measurement data input by the image measurement means 102, the work environment update accompanying the execution of the on-orbit work, and the like. The environment model 1107 is managed so that no contradiction occurs between the environment and the environment model 1107. The class frame search unit 1113 uses the input / output device 104 to extract the work target object name, that is, the class name input by the operator via the interface control unit 1109.
Search for class frames (see 5.3 Description of environment model). The instance frame generating means 1114 generates an instance belonging to the searched class. The instance frame update means 1115 updates the instance frame based on the image measurement value, the data passed from the interface control means 1109, and the robot language interpretation means 1112.

【0067】アニメータ1102は、環境モデル110
7に基づいてグラフィックアニメーションを作成し、オ
ペレータ提示用画面103に表示する。データ受信装置
1105は軌道系のマニピュレーション手段230から
送られてくるデータを受信する。データ送信装置110
6は前記マニピュレーション手段230へデータを送信
する。地上系監視手段1104は、常にシステムの動作
状態を監視して、異常があればオフラインシミュレータ
1100へ通知する。
The animator 1102 is the environment model 110.
A graphic animation is created based on 7, and displayed on the operator presentation screen 103. The data receiving device 1105 receives the data sent from the orbital manipulation means 230. Data transmission device 110
6 transmits data to the manipulation means 230. The terrestrial system monitoring means 1104 constantly monitors the operating state of the system and notifies the offline simulator 1100 of any abnormality.

【0068】3.3動作の説明 次に、環境モデル1107の作成時のシステムの動作を
説明する。環境モデル1107の作成時には、オペレー
タ割込みによる対象指示プロセスと、システムによる対
象物体自動計測プロセスが同時に機能している。ここ
で、1つのプロセスは複数のプロセスにより階層化され
て構成されているが、個々のプロセスは自律分散化して
いる。すなわち、個々のプロセスは、ある条件が満たさ
れたときだけ起動し、なんらかの作業をする。この様な
システムでは、プロセス間の実行順序(流れ図)は存在
しない。
3.3 Description of Operation Next, the operation of the system when the environment model 1107 is created will be described. When the environment model 1107 is created, the target instruction process by the operator interrupt and the target object automatic measurement process by the system are simultaneously functioning. Here, one process is hierarchically configured by a plurality of processes, but each process is autonomously distributed. That is, each process starts and does some work only when a certain condition is satisfied. In such a system, there is no execution order (flow chart) between processes.

【0069】そこで、まず、オペレータによる対象指示
プロセスを説明する。インタフェース制御手段1109
は、アニメータ1102を通して、対話メッセージとコ
マンドメニューをオペレータ提示用画面103に出力す
る。すると、オペレータは、オペレータ提示用画面10
3に表示された対話メッセージに従って、入出力装置1
04を用いて作業対象物体クラス名称を入力する。この
クラス名称は、インターフェース制御手段1109を介
して、環境モデル管理手段1103へ渡される。環境モ
デル管理手段1103では、クラス名称に相当するクラ
スフレーム(5.3環境モデルの説明参照)を環境モデ
ル1107から検索し、クラスに属するインスタンスフ
レーム(5.3環境モデルの説明参照)を生成して環境
モデル1107に追加する。一方、アニメータ1102
は、常に環境モデルを描画データに変換して、オペレー
タ提示用画面103に表示しているので、環境モデルの
更新結果(この場合は作業対象物体の登録状況)は、
即、オペレータ提示用画面103に反映される。
Therefore, first, the target designation process by the operator will be described. Interface control means 1109
Outputs an interactive message and a command menu to the operator presenting screen 103 through the animator 1102. Then, the operator displays the operator presentation screen 10
Input / output device 1 according to the dialogue message displayed in 3.
Use 04 to input the work target object class name. This class name is passed to the environment model management means 1103 via the interface control means 1109. The environment model management unit 1103 searches the environment model 1107 for a class frame (see 5.3 Description of environment model) corresponding to the class name, and generates an instance frame belonging to the class (see 5.3 description of environment model). Environment model 1107. Meanwhile, animator 1102
Always converts the environment model into drawing data and displays it on the operator presentation screen 103, so the update result of the environment model (in this case, the registration status of the work target object) is
Immediately, it is reflected on the operator presentation screen 103.

【0070】マウスによる作業対象物体の位置修正を行
なうときには、インタフェース制御手段1109が、マ
ウス座標を3次元座標(作業対象物体位置座標)に変換
させる。すると、インスタンスフレーム更新手段111
5は、このデータをもらって、生成したインスタンスの
位置スロット(5.3環境モデルの説明参照)を更新す
る。
When the position of the work target object is corrected by the mouse, the interface control means 1109 transforms the mouse coordinates into three-dimensional coordinates (work target object position coordinates). Then, the instance frame updating means 111
5 receives this data and updates the position slot of the created instance (see 5.3 Description of environment model).

【0071】次にシステムによる対象物体自動計測プロ
セスについて説明する。上記のプロセスが働いていない
ときにはインターフェース制御手段1109から出され
る画像計測要求に基づいて、画像計測手段102が、作
業対象物体の位置姿勢を自動計測する。すると、インス
タンスフレーム更新手段1115は、この計測値に基づ
いて、生成したインスタンスフレームの位置、及び姿勢
スロットを更新する。すると、アニメータ1102は、
これらの更新状況をオペレータ提示用画面103に出力
する。
Next, the target object automatic measurement process by the system will be described. When the above process is not working, the image measuring unit 102 automatically measures the position and orientation of the work target object based on the image measuring request issued from the interface control unit 1109. Then, the instance frame updating means 1115 updates the position and orientation slot of the generated instance frame based on this measured value. Then, the animator 1102
These update statuses are output to the operator presentation screen 103.

【0072】つぎに、軌道上作業の計画と計画作業の実
行時のシステムの動作を説明する。
Next, the on-orbit work plan and the operation of the system when the planned work is executed will be described.

【0073】インタフェース制御手段1109が、アニ
メータ1102を介して、オペレータ提示用画面103
に対話メッセージとコマンドメニューを表示する。これ
に従って、オペレータは、入出力装置104を用いて、
作業メッセージを入力する。インタフェース制御手段1
109は、入力された作業メッセージを受取り、作業ネ
ットワーク生成手段1108に渡す。すると作業ネット
ワーク生成手段1108は、作業メッセージを解釈し
て、作業ネットワークを生成する(5.2作業ネットワ
ークの説明参照)。生成された作業ネットワークは、作
業ネットワーク管理手段1110に記憶される。作業ネ
ットワーク管理手段1110は、オペレータからの作業
実行要求を受け取ると、ただちに、指定された作業ネッ
トワークをロボット言語生成手段1111に渡す。ロボ
ット言語生成手段1111は、作業環境モデル1107
を参照しながら、作業ネットワークを動作スキーマ(動
作の最小単位のこと、詳細は5.2で述べる)のレベル
にまで展開してからロボット言語に変換する。得られた
ロボット言語はロボット言語解釈手段1112に渡さ
れ、ロボット言語解釈手段1112は、ロボット言語を
解釈して、スレーブアーム・シミュレータを動かすため
の関節角の時系列データを生成し、インスタンスフレー
ム更新手段1115に渡す。インスタンスフレーム更新
手段1115による環境モデル1107のインスタンス
フレーム更新状況は、即、アニメータ1102を介し
て、オペレータ提示用画面103に表示される。このと
き、オペレータは、オペレータ提示用画面103を見な
がら、軌道上に設置されたロボットの作業状況を監視す
ることができる。ロボット言語を生成する過程で、画像
計測要求がでた場合には、計測結果に基づいて環境モデ
ル1107を修正し、この環境モデル1107をもとに
してロボット言語に変換する。
The interface control means 1109 makes the operator presenting screen 103 via the animator 1102.
Display an interactive message and a command menu on. Accordingly, the operator uses the input / output device 104 to
Enter a work message. Interface control means 1
109 receives the input work message and passes it to the work network generation means 1108. Then, the work network generation means 1108 interprets the work message and generates a work network (see 5.2 Description of work network). The generated work network is stored in the work network management means 1110. Upon receiving the work execution request from the operator, the work network management means 1110 immediately passes the designated work network to the robot language generation means 1111. The robot language generation means 1111 uses a work environment model 1107.
, The working network is expanded to the level of a motion schema (the minimum unit of motion, details will be described in 5.2), and then converted into a robot language. The obtained robot language is passed to the robot language interpreting means 1112, which interprets the robot language to generate time series data of joint angles for moving the slave arm simulator, and updates the instance frame. Pass to means 1115. The instance frame update status of the environment model 1107 by the instance frame update means 1115 is immediately displayed on the operator presentation screen 103 via the animator 1102. At this time, the operator can monitor the work status of the robot installed on the track while looking at the operator presentation screen 103. When an image measurement request is issued in the process of generating a robot language, the environment model 1107 is modified based on the measurement result, and the environment model 1107 is converted into a robot language.

【0074】地上系監視手段1104は、システムの動
作状態(異常の有無)を定期的にオフラインシミュレー
タ1100に通知する。また、地上系監視手段1104
は、前記オフラインシミュレータから非常停止命令を受
信すると、ただちに、システムを停止させる。
The ground system monitoring means 1104 periodically notifies the offline simulator 1100 of the operating state of the system (whether there is an abnormality). In addition, the ground system monitoring means 1104
Stops the system immediately upon receiving an emergency stop command from the offline simulator.

【0075】4.作業系管理システム(軌道上系管理シ
ステム) 4.1構成の説明 軌道上系管理システム107のマニピュレーション手段
230は、オンラインシミュレータ1101と、オンラ
インシミュレータ1101に接続された環境モデル管理
手段1103,スレーブアーム制御装置1216及びデ
ータ受信装置1205と、スレーブアーム制御装置12
16に接続されたデータ送信装置1206と、軌道上系
監視手段1204と、環境モデル管理手段1103に接
続された環境モデル1107とを含んで構成されてい
る。前記オンラインシミュレータ1101は、作業ネッ
トワーク管理手段1110と、作業ネットワーク管理手
段1110に接続されたロボット言語生成手段1111
と、ロボット言語生成手段1111に接続されたロボッ
ト言語解釈手段1112とから構成される。前記環境モ
デル管理手段1103はインスタンスフレーム更新手段
1115を含んで構成され、画像計測手段102に接続
される。前記環境モデル1107(5.2参照)は、ク
ラスフレームと、インスタンスフレームから構成され
る。データ受信装置1205とデータ送信装置1206
は、地上系のシミュレーション手段211のデータ送信
装置1106及びデータ受信装置1105とそれぞれ通
信可能となっている。スレーブアーム制御装置1216
には、衛星動作手段260及びスレーブアーム入出力装
置105が接続される。
4. Work system management system (on-orbit system management system) 4.1 Description of configuration Manipulation means 230 of the on-orbit system management system 107 includes an online simulator 1101, an environment model management means 1103 connected to the online simulator 1101, and slave arm control. Device 1216 and data receiving device 1205, and slave arm control device 12
16 and a data transmission device 1206 connected to the 16; an on-orbit system monitoring means 1204; and an environment model 1107 connected to the environment model management means 1103. The online simulator 1101 includes a work network management unit 1110 and a robot language generation unit 1111 connected to the work network management unit 1110.
And a robot language interpretation means 1112 connected to the robot language generation means 1111. The environment model managing means 1103 is configured to include an instance frame updating means 1115 and is connected to the image measuring means 102. The environment model 1107 (see 5.2) is composed of a class frame and an instance frame. Data receiving device 1205 and data transmitting device 1206
Can communicate with the data transmitting device 1106 and the data receiving device 1105 of the terrestrial simulation means 211, respectively. Slave arm controller 1216
The satellite operation means 260 and the slave arm input / output device 105 are connected to the.

【0076】4.2機能の説明 オンラインシミュレータ1101は、作業ネットワーク
を用いて、軌道上作業を実行するためのデータを生成す
る。作業ネットワーク管理手段1110は、作業ネット
ワークを管理し、オペレータ、あるいは、軌道上系監視
手段1204からの要求(6.システムの安全管理参
照)に応じて、ロボット言語生成手段1111に渡す。
ロボット言語生成手段1111は、作業ネットワークか
らロボット言語を生成し、ロボット言語解釈手段111
2に渡す。ロボット言語解釈手段1112は、ロボット
言語を関節角度の時系列データに変換する。環境モデル
管理手段1103は、画像計測手段102による計測デ
ータや、軌道上作業の実行に伴う作業環境の更新に対し
て、作業環境と作業環境モデル1107が常に等しくな
るように環境モデル1107を管理する。
4.2 Description of Function The online simulator 1101 uses the work network to generate data for executing on-orbit work. The work network management means 1110 manages the work network and transfers it to the robot language generation means 1111 in response to a request from the operator or the on-orbit system monitoring means 1204 (see 6. System safety management).
The robot language generation means 1111 generates a robot language from the work network, and the robot language interpretation means 111.
Pass to 2. The robot language interpretation unit 1112 converts the robot language into joint angle time series data. The environment model management unit 1103 manages the environment model 1107 so that the work environment and the work environment model 1107 are always the same with respect to the measurement data by the image measurement unit 102 and the update of the work environment accompanying the execution of the on-orbit work. .

【0077】データ受信装置1205はシミュレーショ
ン手段211から送られてくるデータを受信する。デー
タ送信装置1206は前記シミュレーション手段へデー
タを送信する。軌道上系監視手段1204は、常にシス
テムの動作状態を監視して、異常があれば、オフライン
シミュレータ1100へ通知する。スレーブアーム制御
装置1216は、スレーブアーム制御データを作成し、
スレーブアーム入出力装置105へ制御データを渡す。
スレーブアーム制御装置1216は、姿勢制御を行う場
合、姿勢制御データを作成し衛星動作手段260にわた
す。制御データ生成方法に関しては「可動物を備えた人
工衛星の制御装置」(特願平 )に記載されている
方法が適用可能である。
The data receiving device 1205 receives the data sent from the simulation means 211. The data transmission device 1206 transmits data to the simulation means. The on-orbit system monitoring means 1204 constantly monitors the operating state of the system and notifies the offline simulator 1100 of any abnormality. The slave arm control device 1216 creates slave arm control data,
Control data is passed to the slave arm input / output device 105.
When performing the attitude control, the slave arm control device 1216 creates attitude control data and sends it to the satellite operation means 260. As for the control data generation method, the method described in "Control device for artificial satellite equipped with movable object" (Japanese Patent Application No. Hei 10) is applicable.

【0078】4.3動作の説明 作業ネットワーク管理手段1110は、オペレータから
作業ネットワーク実行要求を受け取ると、作業ネットワ
ークをロボット言語生成手段1111に渡す。ロボット
言語生成手段1111は、環境モデル1107を参照し
ながら、作業ネットワークを動作スキーマ(動作の最小
単位のこと、詳細は5.2で述べる)のレベルにまで展
開してからロボット言語に変換する。ロボット言語を生
成する過程で、画像計測要求がでた場合には、計測結果
に基づいて環境モデル1107を修正して、これをもと
にしてロボット言語に変換する。得られたロボット言語
は、ロボット言語解釈手段1112と、スレーブアーム
制御装置1216に渡される。ロボット言語解釈手段1
112は、ロボット言語を解釈して、スレーブアームを
動かすための関節角の時系列データを生成し、インスタ
ンスフレーム更新手段1115に渡す。また、スレーブ
アーム制御装置1216が、姿勢制御を行う場合、姿勢
制御データを作成し、衛星動作手段260にわたす。ス
レーブアーム制御装置1216は、スレーブアームを制
御するためのデータを生成し、スレーブアーム入出力装
置206に渡す。最後に軌道上系監視手段1204は、
軌道上系管理システム107の動作状態(異常の有無)
を定期的にオフラインシミュレータに送信する。また、
オフラインシミュレータから非常停止命令を受信する
と、ただちに、軌道上系管理システム107を停止させ
る。
4.3 Description of Operation When the work network management means 1110 receives a work network execution request from the operator, it passes the work network to the robot language generation means 1111. The robot language generation unit 1111 refers to the environment model 1107, expands the work network to the level of the operation schema (the minimum unit of operation, details will be described in 5.2), and then converts it into the robot language. When an image measurement request is issued in the process of generating a robot language, the environment model 1107 is modified based on the measurement result, and based on this, the environment model 1107 is converted into a robot language. The obtained robot language is passed to the robot language interpretation means 1112 and the slave arm control device 1216. Robot language interpretation means 1
112 interprets the robot language, generates time series data of joint angles for moving the slave arm, and passes it to the instance frame updating means 1115. When the slave arm control device 1216 performs attitude control, attitude control data is created and passed to the satellite operation means 260. The slave arm control device 1216 generates data for controlling the slave arm and transfers the data to the slave arm input / output device 206. Finally, the on-orbit system monitoring means 1204
Operating status of the on-orbit management system 107 (whether there is any abnormality)
Is sent to the offline simulator on a regular basis. Also,
Upon receiving the emergency stop command from the offline simulator, the on-orbit system management system 107 is stopped immediately.

【0079】5.通信方式 5.1作業概念レベルの通信階層 次に、図14を参照して本実施例の地上系と軌道上系と
の間で取り交わされる通信方式を説明する。地上系から
軌道上系には、作業ネットワークと、地上系監視手段1
104からのメッセージが送られる。軌道上系から地上
系には、画像データと、軌道上系の画像計測手段による
画像計測値(作業対象物体の位置と姿勢)と軌道上系監
視手段1204からのメッセージが送られる。
5. Communication Method 5.1 Communication Hierarchy at Work Concept Level Next, a communication method exchanged between the ground system and the on-orbit system of the present embodiment will be described with reference to FIG. From the ground system to the on-orbit system, a work network and ground system monitoring means 1
A message from 104 is sent. From the on-orbit system to the ground system, image data, image measurement values (position and orientation of the work target object) by the image measurement means of the on-orbit system, and a message from the on-orbit system monitoring means 1204 are sent.

【0080】図14に示す通信方式は、データベース送
信1300、オペレーションコード送信1301、リタ
ーンコード受信1302、地上系軌道上系状況計算13
03、状況一致?1304、オペレーション進行処理1
305、異常回避処理1306、データベース受信13
07、オペレーションコード受信1308、リターンコ
ード送信1309、地上系、軌道上系状況計算131
0、状況一致?1311、オペレーション進行処理13
12、異常回避処理1313の各手順を含んで構成され
る。手順1300から手順1306までが送信側の手
順、手順1307から手順1313までが受信側の手順
である。
The communication system shown in FIG. 14 is a database transmission 1300, an operation code transmission 1301, a return code reception 1302, a ground system orbit system condition calculation 13
03, situation match? 1304, operation progress processing 1
305, abnormality avoidance processing 1306, database reception 13
07, operation code reception 1308, return code transmission 1309, ground system, orbit system status calculation 131
0, match situation? 1311, operation progress processing 13
12, and the abnormality avoidance processing 1313 is included. Procedures 1300 to 1306 are procedures on the transmitting side, and procedures 1307 to 1313 are procedures on the receiving side.

【0081】本通信方式の動作を次に説明する。まず、
手順1300で送信側がデータベースを送信すると、手
順1307で受信側がデータベースを受信する。次に、
手順1301で送信側がオペレーションコードを送信す
ると、手順1308で受信側がオペレーションコードを
受信する。次に、1309で受信側がリターンコードを
送信すると、手順1302で送信側がリターンコードを
受信する。次に、手順1303と手順1310で送信側
と受信側が、ともに地上系と軌道上系の状況計算を行
い、手順1304と手順1311で地上系と軌道上系の
状況(状況計算の結果)が一致しているかどうかを確認
する。ここで、もし状況が一致したならば、オペレーシ
ョンの進行処理が行われる。もし状況が一致しなけれ
ば、システム異常と判断され、安全管理ネットワークが
示すルールに従って異常回避処理が行われる。
The operation of this communication system will be described below. First,
When the sender transmits the database in procedure 1300, the receiver receives the database in procedure 1307. next,
When the transmitting side transmits the operation code in procedure 1301, the receiving side receives the operation code in procedure 1308. Next, when the receiving side transmits the return code in 1309, the transmitting side receives the return code in step 1302. Next, in steps 1303 and 1310, the transmitting side and the receiving side both calculate the status of the terrestrial system and the on-orbit system, and in steps 1304 and 1311, the status of the terrestrial system and the orbital system (status calculation result) is calculated. Check if you are doing. Here, if the situations match, operation progress processing is performed. If the situations do not match, it is determined that the system is abnormal, and the abnormality avoidance processing is performed according to the rule indicated by the safety management network.

【0082】5.2作業ネットワークの説明 作業ネットワークは、作業ネットワーク生成手段110
8が、オペレータの入力メッセージから生成する、作業
概念レベルの作業機作業表現方式である。作業ネットワ
ークを用いれば、作業機(マニピュレータ等)に対して
計画された作業を、作業環境の揺らぎ(微小変動)から
影響を受けない程度に抽象化して記述することができ
る。ここで、作業ネットワークの1実施例carryの記述
方法と意味を示す。
5.2 Description of Work Network The work network is the work network generating means 110.
8 is a work machine work expression system at the work concept level, which is generated from an operator's input message. If the work network is used, the work planned for the work machine (manipulator, etc.) can be described in an abstract manner to the extent that it is not affected by fluctuations (small fluctuations) in the work environment. Here, the description method and meaning of one embodiment carry of the work network will be shown.

【0083】 carry(A,[P1,P2],B) (7) 意味:物体Aを地点P1と地点P2を通って地点Bまで運ぶ。Carry (A, [P1, P2], B) (7) Meaning: The object A is carried to the point B through the points P1 and P2.

【0084】ここで、AとBは共に作業対象物体の名前
で、Aは運ぶもの、BはAを設置させるものを指す。P1とP
2はワールド座標系における位置座標である。ロボット
言語生成手段1111は、以下に示す展開規則に従っ
て、まず作業ネットワークを動作スキーマのレベルに展
開する。つぎに、環境モデル1107を参照しながら、
動作スキーマからロボット言語を生成する。展開規則を
以下に示す。
Here, both A and B are the names of the objects to be worked, A is the object to be carried, and B is the object on which A is installed. P1 and P
2 is the position coordinate in the world coordinate system. The robot language generation means 1111 first expands the work network to the level of the operation schema according to the following expansion rules. Next, referring to the environment model 1107,
Robot language is generated from motion schema. The expansion rules are shown below.

【0085】 carry(A,[P1,P2],B) =grasp(A)→path[P1,P2]→attach_to(B) (8) この式では、grasp(A)とattach_to(B)が動作スキ
ーマである。
Carry (A, [P1, P2], B) = grasp (A) → path [P1, P2] → attach_to (B) (8) In this expression, grasp (A) and attach_to (B) operate. It is a schema.

【0086】 grasp(A)=approach_point→grsp_point (9) attach_to(B)=approach_point→attach_point (10) 式(3)と式(4)は動作スキーマの展開式である。これ
らの式のapproach_point(つぎの動作に望むための基
準位置、姿勢)やgrasp_point(物体把持動作のために
スレーブ・マニピュレータ手先がとらなければならない
位置、姿勢)やattach_point(把持物体を設置するた
めにスレーブ・マニピュレータ手先が取らなければなら
ない位置、姿勢)は、作業対象物体(AあるいはB)の
形状、位置、姿勢に依存して決められる。そこで、環境
モデル1107のAまたはBに関するフレーム(5.3
参照)を参照する。さらにgrasp_pointとattach_poin
tは、正確かつ確実な位置決め精度を要求される動作な
ので、approach_pointに臨んだときに再計測する。こ
れらの行程を経て、ロボット言語が生成される。
Grasp (A) = approach_point → grsp_point (9) attach_to (B) = approach_point → attach_point (10) Expressions (3) and (4) are expansion expressions of the operation schema. In these expressions, approach_point (reference position and posture for the next motion), grasp_point (position and posture that the slave manipulator hand must take for the object gripping motion) and attach_point (to set the gripped object) The position and orientation that the slave manipulator hand must take are determined depending on the shape, position and orientation of the work target object (A or B). Therefore, the frame (5.3 of A or B of the environment model 1107)
See). Furthermore, grasp_point and attach_poin
Since t is an operation that requires accurate and reliable positioning accuracy, it is remeasured when approach_point is encountered. Through these steps, a robot language is generated.

【0087】5.3環境モデルの説明 環境モデル1107は、フレーム構造で記述されてい
る。また、フレーム間の関係は、すべて階層関係になっ
ている。また、フレーム自体も階層構造になっていて、
フレームの下にはいくつかのスロットが、定義されてい
る。同時にスロットの下にはファシット、ファシットの
下にはバリューが定義されている。以下、まず、環境モ
デル1107の構造を説明する。
5.3 Description of Environment Model The environment model 1107 is described by a frame structure. Also, the relationships between the frames are all hierarchical. Also, the frame itself has a hierarchical structure,
Below the frame, several slots are defined. At the same time, fasit is defined under the slot, and value is defined under the fasit. Hereinafter, first, the structure of the environment model 1107 will be described.

【0088】環境モデルは、クラスフレームとインスタ
ンスフレームから構成されている。クラスに対してイン
スタンスは下位階層になっている。クラスフレームに
は、物体の形状と、操作する上で特徴となる事項(つか
み方、取付け方、センシング方法など)が格納される。
操作する上での特徴を記述するには、詳細なデータが必
要であるため、下位階層に新たなクラスを定義する。こ
のように、クラスには幾つかの種類があり、種類の名前
とその定義は明確にされている。インスタンスフレーム
には、物体固有の名称、物体の位置,姿勢と他の物体と
の接続関係と接続状態(単に置かれているだけとか、取
り付けられている、などの違い)が記述される。
The environment model is composed of a class frame and an instance frame. Instances are subordinate to classes. The class frame stores the shape of an object and items that are characteristic for operation (grasping, mounting, sensing method, etc.).
Since detailed data is required to describe the operational characteristics, a new class is defined in the lower hierarchy. As you can see, there are several kinds of classes, and the kind names and their definitions are clarified. In the instance frame, the name unique to the object, the position and orientation of the object, the connection relationship between other objects, and the connection state (differences such as being simply placed or being attached) are described.

【0089】6.システムの安全管理 6.1概要 システムに異常が発生した場合には、軌道上系管理シス
テム107は、自律動作により、安全な状態に移って、
待機、または、終了する。まず、作業ネットワーク管理
手段1110が、システム異常の状態(通信遮断、軌道
上系管理システム107の故障、地上系管理システム1
06の故障)を分析して、安全管理用の作業ネットワー
クを、ロボット言語生成手段1111にわたす。この後
の動作は、5.3記載の軌道上系管理システムの動作と
同じである。
6. System Safety Management 6.1 Overview When an abnormality occurs in the system, the on-orbit system management system 107 moves to a safe state by autonomous operation,
Wait or end. First, the work network management means 1110 causes the system abnormal state (communication interruption, failure of the on-orbit system management system 107, ground system management system 1).
(06 failure) is analyzed and the work network for safety management is passed to the robot language generation means 1111. The subsequent operation is the same as the operation of the on-orbit system management system described in 5.3.

【0090】6.2通信遮断の場合 ノイズによる一時的な通信不良時には、作業機を一時停
止させ、通信復帰通知が来るまで待機する。
6.2 In case of communication interruption In the case of temporary communication failure due to noise, the working machine is temporarily stopped and waits until a communication recovery notice comes.

【0091】通信器の故障などによる、永続的な通信不
良時には、以下の手順を踏んで、初期姿勢に戻す。
In the case of a permanent communication failure due to a communication device failure or the like, the following steps are taken to return to the initial posture.

【0092】(1)作業機を初期姿勢に戻す。(1) Return the working machine to the initial posture.

【0093】(2)作業機が作業中(例えば、把持物体
がある場合)の場合には、その時点で最低限の作業を行
って、作業対象を安全な位置に設置(例えば、把持物体
を一番近くの取付け装置に取り付ける)してから、初期
姿勢に戻す。
(2) When the work machine is working (for example, when a gripping object is present), a minimum amount of work is performed at that time to set the work target at a safe position (for example, when gripping the object. Attach it to the nearest attachment device) and then return to the initial posture.

【0094】(3)地上系監視手段1104から、通信
復帰通知が来るまで待機する。
(3) It waits until a communication return notification is received from the ground system monitoring means 1104.

【0095】6.3軌道上系管理システムの故障の場合 (1)軌道上系監視手段1204は、異常事態発生を、
地上系監視手段1104に通知する。
6.3 Failure of the on-orbit system management system (1) The on-orbit system monitoring means 1204 indicates that an abnormal situation has occurred.
Notify the ground system monitoring means 1104.

【0096】(2)作業機を停止させてから、軌道上系
管理システム107を停止させる。
(2) After stopping the working machine, the on-orbit system management system 107 is stopped.

【0097】6.4地上系管理システムの故障の場合 (1)地上系監視手段1104は、異常事態発生を、軌
道上系監視手段1204に通知して、地上系管理システ
ム106を停止させる。
6.4 Failure of Ground System Management System (1) The ground system monitoring means 1104 notifies the on-orbit system monitoring means 1204 of the occurrence of an abnormal situation and stops the ground system management system 106.

【0098】(2)異常事態発生を知らされた軌道上系
管理システム107は、作業機を初期姿勢に戻す。
(2) The on-orbit system management system 107 notified of the occurrence of the abnormal situation returns the working machine to the initial posture.

【0099】(3)作業機が作業中(例えば、把持物体
がある場合)の場合には、その時点で最低限の作業を行
って、作業対象を安全な位置に設置(例えば、把持物体
を一番近くの取付け装置に取り付ける)してから、初期
姿勢に戻す。
(3) When the working machine is working (for example, when a gripping object is present), a minimum amount of work is performed at that time, and the work target is set at a safe position (for example, when the gripping object is placed). Attach it to the nearest attachment device) and then return to the initial posture.

【0100】(4)地上系監視手段1104から、地上
系管理システム復帰通知が来るまで待機する。
(4) It waits until a ground system management system return notification is received from the ground system monitoring means 1104.

【0101】6.5安全管理ネットワーク システムの安全管理ルールは、図15のような状態遷移
図で表現される。状態遷移図では、ネットワークの状態
変数から、次に進む「節」が1つ決まる。ネットワーク
の「枝」は、前記作業ネットワークに対応している。従
って、システムのあらゆる異常から来る擾乱に対して、
現時点までの作業手順と無関係に状態変数が1つ定ま
り、次に選択すべき「枝」と「節」が1つ決まる。この
性質のために、動的な行動計画立案能力を要求される自
律システムに対して、この手法(状態遷移図を用いた行
動計画ルール表現法)は有効である。
6.5 Safety Management Network The safety management rule of the system is expressed by the state transition diagram as shown in FIG. In the state transition diagram, one "section" to proceed to is determined from the state variables of the network. The "branch" of the network corresponds to the working network. Therefore, for disturbances from any anomaly in the system,
One state variable is determined regardless of the work procedure up to the present time, and one "branch" and "section" to be selected next is determined. Due to this property, this method (action plan rule expression method using state transition diagram) is effective for an autonomous system that requires dynamic action planning ability.

【0102】ところで、図15の状態遷移図は、状態遷
移図を用いた行動計画ルール表現法の1実施例で、軌道
上系には、A,B2つの取付け装置と、作業機、およ
び、作業対象物体が存在し、作業機によるAからB、ま
たは、BからAへの物体移動作業を想定している。この
場合の状態変数になる情報、および、状態変数(r**
で表記)を以下に示す。
By the way, the state transition diagram of FIG. 15 is an embodiment of the action plan rule expression method using the state transition diagram. In the on-orbit system, two attachment devices A and B, a working machine, and a work are installed. It is assumed that the target object exists and that the work machine moves the object from A to B or from B to A. Information that becomes the state variable in this case, and the state variable (r **
Is shown below).

【0103】 (1)軌道上系監視手段からの異常通知 ・通信異常/通信復帰・・・・・・・・・・・・・・(r00/r01) ・軌道上系管理システムの異常/復帰・・・・・・・(r10/r11) ・地上系管理システムの異常/復帰・・・・・・・・(r20/r21) (2)作業機の作業状況 ・物体を把持している/いない・・・・・・・・・・(r30/r31) ・取付け装置Aに近い/Bに近い・・・・・・・・・(r40/r41) (3)状態変数の時間変化 ・x秒以上変化していない/変化している・・・・・(r50/r51) 次に、状態遷移図から作成したルールリストを示す。(1) Abnormality notification from on-orbit system monitoring means-Communication error / recovery of communication ... (r00 / r01) -Orbit system management system error / recovery・ ・ ・ ・ (R10 / r11) ・ Abnormality / recovery of ground management system ・ ・ ・ ・ ・ ・ (r20 / r21) (2) Working status of work equipment ・ Gripping object / Not ... (r30 / r31) ・ Close to the mounting device A / Close to B ... (r40 / r41) (3) Time change of state variable ・ x No change / change for more than a second ... (r50 / r51) Next, the rule list created from the state transition diagram is shown.

【0104】 if (r01 & r11 & r21 & r31 & r4* & r5*) then n0 if (r00 & r11 & r21 & r31 & r4* & r5*) then n1 if (r00 & r11 & r21 & r30 & r40 & r5*) then n3 if (r00 & r11 & r21 & r30 & r41 & r5*) then n4 if (r01 & r10 & r2* & r3* & r4* & r51) then n2 if (r01 & r10 & r2* & r3* & r4* & r50) then n5 if (r01 & r11 & r20 & r31 & r4* & r5*) then n2 if (r01 & r11 & r20 & r30 & r40 & r5*) then n3 if (r01 & r11 & r20 & r30 & r41 & r5*) then n4 7.オペレータ提示用画面 オペレータ提示用画面103は、オペレータが、地上系
管理システム106から、軌道上系管理システム107
を遠隔操作するために、軌道上の作業環境のグラフィッ
ク・アニメーションをマウスで操作しながら、新しい作
業環境のモデルの作成、作業の計画、作業の実行を行う
ための専用環境を備えている。図16にオペレータ提示
用画面103の外観図を示す。図16に示すようにオペ
レータ提示用画面103には作業環境モデル1107を
表示するメインウィンドウの他、キーコマンド入力用ウ
ィンドウ2枚、画像計測状況をオペレータに提示するた
めの実画像ウィンドウ1枚が表示される。
If (r01 & r11 & r21 & r31 & r4 * & r5 *) then n0 if (r00 & r11 & r21 & r31 & r4 * & r5 *) then n1 if (r00 & r11 & r21 & r30 & r40 & R5 *) then n3 if (r00 & r11 & r21 & r30 & r41 & r5 *) then n4 if (r01 & r10 & r2 * & r3 * & r4 * & r51) then n2 if (r01 & r10 & r2 * & R3 * & r4 * & r50) then n5 if (r01 & r11 & r20 & r31 & r4 * & r5 *) then n2 if (r01 & r11 & r20 & r30 & r40 & r5 *) then n3 if (r01 & r11 & r20 & r30 & r41 & r5 *) then n4 7. Operator Presenting Screen The operator presenting screen 103 is displayed by the operator from the ground system management system 106 to the on-orbit system management system 107.
In order to remotely control the robot, it is equipped with a dedicated environment for creating a new work environment model, planning work, and executing work while operating the graphic animation of the work environment in orbit with the mouse. FIG. 16 shows an external view of the operator presentation screen 103. As shown in FIG. 16, on the operator presentation screen 103, in addition to the main window that displays the work environment model 1107, two key command input windows and one real image window for presenting the image measurement status to the operator are displayed. To be done.

【0105】本実施例のシステムは、大きく分けると
(1)環境モデルの作成、(2)軌道上作業の計画、
(3)計画作業の実行という3種類の操作モードを持っ
ている。
The system of this embodiment is roughly divided into (1) creation of an environment model, (2) planning of on-orbit work, and
(3) It has three types of operation modes: execution of planned work.

【0106】7.1環境モデルの作成モード 環境モデルの作成モードは、作業対象物体を新しく環境
モデル1107に登録するモードである。具体的には、
アイコンなどでオペレータ提示画面に表示された候補モ
デルのリストのなかから、作業環境には存在するが、環
境モデル中に登録されていない物体モデルをオペレータ
がマウスで選びだし、実画像上に重ねあわせる。
7.1 Environment Model Creation Mode The environment model creation mode is a mode in which a work target object is newly registered in the environment model 1107. In particular,
From the list of candidate models displayed on the operator presentation screen with icons etc., the operator selects with the mouse an object model that exists in the work environment but is not registered in the environment model, and overlays it on the actual image. .

【0107】ここで、オペレータ誤りの原因になる位置
のあいまいさ(実画像と物体モデルが正確に位置合わせ
をされない可能性)と、形状のあいまいさ(似ているが
違うモデルが選ばれてしまう可能性)は、画像計測手段
102により処理することができる。位置のあいまいさ
の処理の具体例は、「建設装置」(特開平2−209562)
に記載されている。形状のあいまいさは、「リアルタイ
ム一般化ハフ変換装置」(特願平02−313350)記載の装
置を使って、候補モデルのリスト(環境モデルのクラス
フレーム群)の中から、作業環境には存在するが環境モ
デル中に登録されていない物体モデルを、自動的に検索
して、環境モデルに登録する(環境モデルのインスタン
スフレームを発生し、位置、姿勢データを格納する)こ
とにより処理することができる。この方法では、前記カ
メラにより取り込まれた画像から、物体候補パターンを
抽出し、環境モデル中の物体モデル群との照合、検証を
繰り返しながら、最終的に正しい候補を決定する。とこ
ろが、システムに、高度な環境認識(パターン認識)能
力を持たせるためには、異なる照合階層を持つ照合アル
ゴリズムを融合する必要がある反面、照合階層の数だけ
照合モデルの記述方式が存在することが、システム実現
上の問題点ともなる。一方、環境モデルは、CADデー
タで与えることができる。そこで、一旦、CADデータ
を、アニメータ1102を通して画像データ化した後
で、ハフ変換し、ハフパラメータで記述された照合モデ
ルを生成する。
Here, the position ambiguity that causes operator error (the possibility that the actual image and the object model are not aligned correctly) and the shape ambiguity (similar but different models are selected). (Possibility) can be processed by the image measuring means 102. A specific example of the position ambiguity processing is described in “Construction device” (Japanese Patent Laid-Open No. 2-209562).
It is described in. The ambiguity of shapes exists in the work environment from the list of candidate models (class frame group of environment model) using the device described in "Real-time generalized Hough transform device" (Japanese Patent Application No. 02-313350). However, it can be processed by automatically searching for an object model that is not registered in the environment model and registering it in the environment model (generating an instance frame of the environment model and storing position and orientation data). it can. In this method, an object candidate pattern is extracted from the image captured by the camera, and a correct candidate is finally determined by repeating verification and verification with an object model group in the environment model. However, in order for the system to have a high level of environment recognition (pattern recognition) ability, it is necessary to combine collation algorithms with different collation layers, but on the other hand, there are as many collation model description methods as there are collation layers. However, it also becomes a problem in realizing the system. On the other hand, the environment model can be given by CAD data. Therefore, the CAD data is once converted into image data through the animator 1102, and then Hough transformed to generate a matching model described by Hough parameters.

【0108】ハフパラメータ抽出アルゴリズムは、25
6×256(画素)の画像空間を16×16(画素)の
小ウィンドウに分割して、各ウィンドウを個別に「リア
ルタイム一般化ハフ変換装置」(特願平02−313350)記
載の装置を用いてハフ変換することにより、ハフパラメ
ータを抽出する。
The Hough parameter extraction algorithm is 25
An image space of 6 × 256 (pixels) is divided into 16 × 16 (pixels) small windows, and each window is individually used by the device described in “Real-time generalized Hough transform device” (Japanese Patent Application No. 02-313350). Hough parameters are extracted by performing Hough transform.

【0109】照合検証ルールを以下に示す。The matching verification rule is shown below.

【0110】まず、照合パターンの表記を以下のように
定義する。
First, the notation of the matching pattern is defined as follows.

【0111】画像から抽出した物体パターン:P データベースから取りだした物体モデル:Q ここで、照合パターンQの信頼度を、PとQを抽出した
小ウィンドウWpとWqの中で、互いに重なっている小
ウィンドウの総和Sp∩qの、Qを抽出したウィンドウ
の総和Sqに対する比Rと定義する。
Object pattern extracted from the image: P Object model extracted from the database: Q Here, the reliability of the matching pattern Q is a small window that overlaps with each other in the small windows Wp and Wq from which P and Q are extracted. It is defined as the ratio R of the total sum Sp∩q of windows to the total sum Sq of windows from which Q is extracted.

【0112】次に、互いに重なっているウィンドウWp
∩qから、ハフ変換により抽出される線分パラメータ
(ρpi,θpi),(ρqi,θqi)のρ−θ空間内の距離
の総和をDと定義する。このDをSp∩qで正規化した照
合パターンを、一致度Cと定義する。
Next, windows Wp that overlap each other
The sum of the distances in the ρ-θ space of the line segment parameters (ρpi, θpi) and (ρqi, θqi) extracted from Hq transform from ∩q is defined as D. The matching pattern obtained by normalizing this D with Sp∩q is defined as the matching degree C.

【0113】すなわち、 R=Sp∩q/Sq (11) C={(|ρpi−ρqi|+k|θpi−θqi|)}/Sp∩q =D/Sp∩q (12) k:定数 (11),(12)式から次の判定ルールが求められる。That is, R = Sp∩q / Sq (11) C = {(│ρpi-ρqi│ + k│θpi-θqi│)} / Sp∩q = D / Sp∩q (12) k: constant (11 ) And (12), the following judgment rule is obtained.

【0114】 R>θ1 (13) C>θ2 (14) θ1,θ2:しきい値 ここで、(13)式と(14)式を同時に満たす照合パター
ン(Pi,Qj)の組み合わせの中で、Cが最大となるQ
jを検索パターンとする。
R> θ 1 (13) C> θ 2 (14) θ 1 , θ 2 : Thresholds Here, a combination of matching patterns (Pi, Qj) that simultaneously satisfy the expressions (13) and (14). Of the maximum C
Let j be the search pattern.

【0115】7.2軌道上作業の計画モード 軌道上作業の計画モードでは、作業機のアニメーション
をマウスで操作するという直接的な方法で作業メッセー
ジを入力する。作業メッセージの入力方法に関する詳細
は、「3次元選択方式」(特開平1-112374)に記載され
ている。
7.2 On-Orbit Work Planning Mode In the on-orbit work planning mode, a work message is input by a direct method of operating the animation of the work machine with a mouse. Details of the method of inputting the work message are described in “Three-dimensional selection method” (Japanese Patent Laid-Open No. 1-112374).

【0116】7.3計画作業の実行モード 計画作業の実行モードでは、作業実行命令を出して、作
業実行中に適時行われる画像計測の状況の確認メッセー
ジが出される。
7.3 Planned Work Execution Mode In the planned work execution mode, a work execution command is issued and a message for confirming the status of image measurement that is timely performed during work execution is issued.

【0117】8.補足 本システムは、遠隔操作装置であり、地上、あるは、海
底など、あらゆる環境下に置かれた、管理システムを遠
隔操作する上で有効である。また、複数の管理システム
が互いに遠隔操作を行う場合もある。このようなシステ
ムを実現する上で重要なのは、(1)管理システムを構
成するモジュール(本実施例では、作業ネットワーク生
成手段1108や、インタフェース制御手段1109な
ど)が、自律分散的に動作することと、(2)各モジュ
ールが動作するときに参照するための共通の記憶手段
(本実施例では、環境モデル1107)を管理システム
が個別に、あるいは、共有していることである。また、
自律分散的に動作させるためのルールの記述には、上記
5.5項記載の「状態遷移図を用いた行動計画ルール表
現法」が有効である。また、本実施例では、環境認識プ
ロセス専用に環境モデルを作成する必要がない。
8. Supplement This system is a remote control device, and it is effective for remote control of the management system placed under any environment such as the ground or the seabed. In addition, a plurality of management systems may remotely control each other. What is important for realizing such a system is (1) that the modules (in the present embodiment, the work network generation means 1108, the interface control means 1109, etc.) that constitute the management system operate in an autonomous distributed manner. (2) The management system individually or shares a common storage unit (in this embodiment, the environment model 1107) for reference when each module operates. Also,
The "action plan rule expression method using a state transition diagram" described in Section 5.5 above is effective for describing the rules for operating in an autonomous distributed manner. Further, in this embodiment, it is not necessary to create the environment model exclusively for the environment recognition process.

【0118】(第3の実施例)本発明は、実際の運用時
だけでなくオペレータの訓練、または、各機器の実用前
試験にも適用できる。まず、軌道上系管理システムを地
上の実験場に設置して、「ロボットと作業対象物の相対
運動模擬装置」(特願平3−343947)記載の相対運動演
算手段を、マニピュレーション手段230のスレーブア
ーム制御装置1216に接続することにより、宇宙機回
収ミッションのオペレータ訓練設備を構成することがで
きる。
(Third Embodiment) The present invention can be applied to not only the actual operation but also the training of the operator or the pre-practice test of each equipment. First, an on-orbit system management system is installed on the ground experimental site, and the relative motion calculation means described in "Relative motion simulator for robot and work target" (Japanese Patent Application No. 3-343947) is set as a slave of the manipulation means 230. By connecting to the arm controller 1216, operator training equipment for a spacecraft recovery mission can be configured.

【0119】[0119]

【発明の効果】本発明によれば、マニピュレータのマス
タアームの操作性が向上し、その結果マニピュレータ自
体の操作性も向上する。
According to the present invention, the operability of the master arm of the manipulator is improved, and as a result, the operability of the manipulator itself is also improved.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第1の実施例の要部構成を示すブロッ
ク図である。
FIG. 1 is a block diagram showing a configuration of a main part of a first embodiment of the present invention.

【図2】図1に示す実施例の部分の詳細構成例を示すブ
ロック図である。
FIG. 2 is a block diagram showing a detailed configuration example of a portion of the embodiment shown in FIG.

【図3】図1に示す実施例の部分の詳細構成例を示すブ
ロック図である。
FIG. 3 is a block diagram showing a detailed configuration example of a portion of the embodiment shown in FIG.

【図4】本発明の実施例の具体的全体構成例を示す斜視
図である。
FIG. 4 is a perspective view showing a specific overall configuration example of an embodiment of the present invention.

【図5】図1に示す実施例の部分の詳細構成例を示すブ
ロック図である。
5 is a block diagram showing a detailed configuration example of a portion of the embodiment shown in FIG.

【図6】図1に示す中央処理装置101の具体的構成例
を示すブロック図である。
6 is a block diagram showing a specific configuration example of a central processing unit 101 shown in FIG.

【図7】本発明の動作原理を示す説明図である。FIG. 7 is an explanatory diagram showing the operating principle of the present invention.

【図8】本発明の他の実施例によるマニピュレータ制御
システムのブロック図である。
FIG. 8 is a block diagram of a manipulator control system according to another embodiment of the present invention.

【図9】本発明の実施例における演算処理動作を示すフ
ローチャートである。
FIG. 9 is a flowchart showing an arithmetic processing operation in the embodiment of the present invention.

【図10】本発明の実施例における演算処理動作を示す
フローチャートである。
FIG. 10 is a flowchart showing an arithmetic processing operation according to the embodiment of the present invention.

【図11】本発明の他の実施例によるマニピュレータ制
御システムのブロック図
FIG. 11 is a block diagram of a manipulator control system according to another embodiment of the present invention.

【図12】図2に示す実施例の部分の詳細を示すブロッ
ク図である。
FIG. 12 is a block diagram showing details of a portion of the embodiment shown in FIG.

【図13】図3に示す実施例の部分の詳細を示すブロッ
ク図である。
13 is a block diagram showing details of a portion of the embodiment shown in FIG.

【図14】本発明の実施例における通信プロトコルを示
すブロック図である。
FIG. 14 is a block diagram showing a communication protocol in the embodiment of the present invention.

【図15】本発明の実施例で用いられる安全管理ネット
ワークの状態遷移図である。
FIG. 15 is a state transition diagram of the safety management network used in the embodiment of the present invention.

【符号の説明】[Explanation of symbols]

101 中央処理装置 102 画像計測手段 103 オペレータ提示画面(グラフィックディスプレ
イ) 104 入出力装置 105 スレーブアーム入出力装置 106 操作系管理システム(地上系管理システム) 107 作業系管理システム(軌道上系管理システム) 201 マスタアーム 202 スレーブアーム 204,224,2j4 マスタアーム入出力装置 205 中央処理装置 206,226,2m6 スレーブアーム入出力装置 207 ジョイスティック 208,228,2i8 ジョイスティック入出力装置 209,229,2n9 画像入力装置 210 画像処理装置 211 シミュレーション手段 213 テレビモニタ 214A,214B,214C 位置検出センサ 216A,216B,216C アクチュエータ 217 入出力装置 217A,217B,217C 位置検出センサ 218 座標変換追加装置 230 マニピュレーション手段 260 衛星動作手段 301 作業対象物 401 方向判別回路 402 カウンタ 501 プロセッサ 502 メモリ 503 掛算器 504 割算器 505 バス回路 506A,506B,506C,506D,506E
インタフェイス回路 701 差分回路 702 増分回路
101 Central Processing Unit 102 Image Measuring Means 103 Operator Presentation Screen (Graphic Display) 104 Input / Output Device 105 Slave Arm Input / Output Device 106 Operation System Management System (Ground System Management System) 107 Work System Management System (Orbit System Management System) 201 Master arm 202 Slave arm 204,224,2j4 Master arm input / output device 205 Central processing unit 206,226,2m6 Slave arm input / output device 207 Joystick 208,228,2i8 Joystick input / output device 209,229,2n9 Image input device 210 images Processing device 211 Simulation means 213 Television monitor 214A, 214B, 214C Position detection sensor 216A, 216B, 216C Actuator 217 Input / output device 217A, 217B, 217C Position detection sensor 218 Coordinate conversion addition device 230 Manipulation means 260 Satellite operation means 301 Work target 401 Direction determination circuit 402 Counter 501 processor 502 Memory 503 Multiplier 504 Divider 505 Bus circuit 506A, 506B, 506C, 506D, 506E
Interface circuit 701 Difference circuit 702 Incremental circuit

─────────────────────────────────────────────────────
─────────────────────────────────────────────────── ───

【手続補正書】[Procedure amendment]

【提出日】平成4年10月2日[Submission date] October 2, 1992

【手続補正1】[Procedure Amendment 1]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0016[Correction target item name] 0016

【補正方法】変更[Correction method] Change

【補正内容】[Correction content]

【0016】[0016]

【数1】 [Equation 1]

フロントページの続き (72)発明者 浜田 朋之 茨城県土浦市神立町502番地 株式会社日 立製作所機械研究所内 (72)発明者 木村 圭一 茨城県土浦市神立町502番地 株式会社日 立製作所機械研究所内 (72)発明者 菊池 宏成 茨城県土浦市神立町502番地 株式会社日 立製作所機械研究所内Front Page Continuation (72) Inventor Tomoyuki Hamada 502 Jinritsu-cho Machinery Research Center, Tsuchiura-shi, Ibaraki Prefecture Machinery Research Institute, Ltd. (72) Inventor Hironari Kikuchi 502 Jinritsucho, Tsuchiura-shi, Ibaraki Machinery Research Institute, Hiritsu Manufacturing Co., Ltd.

Claims (11)

【特許請求の範囲】[Claims] 【請求項1】 中央処理装置と画像計測手段とオペレー
タ提示用画面と入出力装置から構成される操作系管理シ
ステムと、画像計測手段とスレーブアーム入出力装置と
中央処理装置から構成される作業系管理システムとから
構成されるマニピュレータの遠隔制御装置において、作
業系管理システムは操作系管理システムから伝送される
作業メッセージに基づいて作業を実施し、操作系管理シ
ステムと作業系管理システムが独立に作業を管理し、操
作系管理システムおよび作業系管理システムでそれぞれ
独立に相互の状況を計算することを特徴とするマニピュ
レータの遠隔制御装置。
1. An operation system management system including a central processing unit, an image measuring unit, a screen for presenting an operator, and an input / output unit, and a work system including an image measuring unit, a slave arm input / output unit, and a central processing unit. In the remote control device of the manipulator consisting of the management system, the work system management system performs work based on the work message transmitted from the operation system management system, and the work system management system and the work system management system work independently. A remote control device for a manipulator, characterized in that the operating system management system and the work system management system independently calculate mutual conditions.
【請求項2】 中央処理装置と画像計測手段とオペレー
タ提示用画面と入出力装置から構成される操作系管理シ
ステムと、画像計測手段とスレーブアーム入出力装置と
中央処理装置から構成される作業系管理システムとから
構成されるマニピュレータの遠隔制御装置において、作
業系管理システムは操作系管理システムから伝送される
作業メッセージに基づいてスレーブアームによる作業を
実施し、操作系管理システムは該作業メッセージに基づ
くスレーブアームの動作を前記作業系管理システムとは
独立にシミュレートして前記オペレータ提示用画面に表
示することを特徴とするマニピュレータの遠隔制御装
置。
2. An operation system management system including a central processing unit, an image measuring unit, a screen for presenting an operator and an input / output unit, and a work system including an image measuring unit, a slave arm input / output unit and a central processing unit. In a remote control device of a manipulator including a management system, a work system management system performs work by a slave arm based on a work message transmitted from the operation system management system, and the operation system management system based on the work message. A remote control device for a manipulator, wherein the operation of a slave arm is simulated independently of the work system management system and is displayed on the operator presentation screen.
【請求項3】 操作系管理システムと作業系管理システ
ムが、それぞれ、自システムの各構成要素がアクセスす
ることができる環境モデルを格納した記憶手段と、操作
系管理システムが持つ記憶手段に格納されている環境モ
デルと作業系管理システムが持つ記憶手段に格納されて
いる環境モデルを常に等しくさせるように働く画像計測
手段とを備えてなることを特徴とする請求項1または2
に記載のマニピュレータの遠隔制御装置。
3. An operation system management system and a work system management system are respectively stored in a storage unit that stores an environment model that can be accessed by each component of the own system and a storage unit that the operation system management system has. 3. An image measuring unit that works so as to always make the environment model stored in the storage unit of the work system management system equal to each other.
A remote control device for a manipulator according to.
【請求項4】 前記環境モデルは、物体の形状と、物体
を操作する上で特徴となる事項を記述した部分と、物体
固有の名称と、物体の位置、姿勢と、他の物体との接続
関係と接続状態を記述した部分とから構成されているこ
とを特徴とする請求項3に記載のマニピュレータの遠隔
制御装置。
4. The environment model includes a shape of an object, a portion describing a characteristic feature for operating the object, a name unique to the object, a position and orientation of the object, and a connection with another object. The manipulator remote control device according to claim 3, wherein the remote control device comprises a relationship and a portion describing a connection state.
【請求項5】 作業を指示する操作系管理システムと、
該指示に基づいてスレーブアームの作業を制御する作業
系管理システムとを含んでなるマニピュレータの遠隔制
御装置において、操作系管理システムから作業系管理シ
ステムへの作業の指示は、作業概念レベルで記述された
作業ネットワークを用いて行われることを特徴とするマ
ニピュレータの遠隔制御装置。
5. An operation system management system for instructing work,
In a remote control device of a manipulator including a work system management system for controlling the work of a slave arm based on the instruction, a work instruction from the operation system management system to the work system management system is described at a work concept level. Remote control device for manipulators, characterized in that it is performed using a working network.
【請求項6】 前記作業ネットワークは、少なくとも作
業の名称と作業を実行するために必要なデータとを含ん
で構成され、階層構造で記述されることを特徴とする請
求項5に記載のマニピュレータの遠隔制御装置。
6. The manipulator according to claim 5, wherein the work network is configured to include at least a work name and data necessary for executing the work, and is described in a hierarchical structure. Remote control device.
【請求項7】 操作系管理システム及び作業系管理シス
テムは、操作系管理システムの各構成要素が作業系管理
システムに備えられた記憶手段に、作業系管理システム
の各構成要素が操作系管理システムに備えられた記憶手
段に、それぞれアクセスでき、各記憶手段に格納された
環境モデルを読み出し、書き込みできる手段を備えて成
ることを特徴とする請求項3または4に記載のマニピュ
レータの遠隔制御装置。
7. An operation system management system and a work system management system, wherein each component of the operation system management system is stored in a storage means provided in the work system management system, and each component of the work system management system is included in the operation system management system. 5. The remote control device for a manipulator according to claim 3, further comprising means capable of accessing each of the storage means provided in, and capable of reading and writing the environment model stored in each storage means.
【請求項8】 スレーブアームの作業を制御する作業系
管理システムに通信手段を介して作業を指示する操作系
管理システムと、該指示に基づいてスレーブアームの作
業を制御する作業系管理システムとを含んでなるマニピ
ュレータの遠隔制御装置において、作業系管理システム
は、通信異常事態発生を検知する手段と、状態遷移図に
より表現される安全管理ルールを記憶する手段と、通信
異常事態発生が検知されたとき前記状態遷移図を参照し
てスレーブアームの動作を指示する手段とを備えている
ことを特徴とするマニピュレータの遠隔制御装置。
8. An operation system management system for instructing a work system management system for controlling the work of the slave arm via a communication means, and a work system management system for controlling the work of the slave arm based on the command. In the remote control device of the manipulator including, the work management system detects a communication abnormality occurrence, a means for storing the safety management rule expressed by the state transition diagram, and a communication abnormality occurrence is detected. A remote control device for a manipulator, further comprising means for instructing an operation of a slave arm with reference to the state transition diagram.
【請求項9】 操作系管理システムは、作業系管理シス
テムで制御される動作に必要な情報の管理を、オペレー
タ提示用画面との対話的操作を用いて行う手段を備えて
いることを特徴とする請求項1乃至4及び7のうちのい
ずれかに記載のマニピュレータの遠隔制御装置。
9. The operation system management system is provided with means for managing information necessary for an operation controlled by the work system management system by using an interactive operation with an operator presentation screen. The remote control device for a manipulator according to any one of claims 1 to 4 and 7.
【請求項10】 操作系管理システムは、作業対象物体
を環境モデルへ入力する手段と、作業対象物体が前記入
力する手段を介して環境モデルへ入力される際の位置の
あいまいさと形状のあいまいさを処理する画像計測手段
とを備えることを特徴とする請求項3,4及び7のうち
のいずれかに記載のマニピュレータの遠隔制御装置。
10. The operation system management system includes means for inputting a work target object to an environment model, and position ambiguity and shape ambiguity when a work target object is input to the environment model via the input means. The remote control device for a manipulator according to any one of claims 3, 4 and 7, further comprising: an image measuring means for processing.
【請求項11】 操作系管理システム及び作業系管理シ
ステムの各構成要素は、前記環境モデルにアクセスしな
がら、自律分散的に動作するように構成されたものであ
ることを特徴とする請求項3,4,7及び10のうちの
いずれかに記載のマニピュレータの遠隔制御装置。
11. The operating system management system and each component of the work system management system are configured to operate in an autonomous distributed manner while accessing the environment model. , 4, 7 and 10, a remote control device for a manipulator.
JP26373992A 1992-10-01 1992-10-01 Remote control device for manipulator Pending JPH06114766A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP26373992A JPH06114766A (en) 1992-10-01 1992-10-01 Remote control device for manipulator

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP26373992A JPH06114766A (en) 1992-10-01 1992-10-01 Remote control device for manipulator

Publications (1)

Publication Number Publication Date
JPH06114766A true JPH06114766A (en) 1994-04-26

Family

ID=17393621

Family Applications (1)

Application Number Title Priority Date Filing Date
JP26373992A Pending JPH06114766A (en) 1992-10-01 1992-10-01 Remote control device for manipulator

Country Status (1)

Country Link
JP (1) JPH06114766A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07328016A (en) * 1994-06-14 1995-12-19 Olympus Optical Co Ltd Surgical manipulator system
US7348746B2 (en) 2003-02-14 2008-03-25 Honda Giken Kogyo Kabushiki Kaisha Abnormality detection system of mobile robot
WO2008129818A1 (en) * 2007-03-30 2008-10-30 Sega Corporation Motion editing device for robot and its program
US7446496B2 (en) 2003-02-14 2008-11-04 Honda Giken Kogyo Kabushiki Kaisha Abnormality detection system of mobile robot
JP2018153875A (en) * 2017-03-15 2018-10-04 株式会社オカムラ Management system, management method and program
JP2020089937A (en) * 2018-12-05 2020-06-11 三菱電機株式会社 Robot remote operation apparatus

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07328016A (en) * 1994-06-14 1995-12-19 Olympus Optical Co Ltd Surgical manipulator system
US7348746B2 (en) 2003-02-14 2008-03-25 Honda Giken Kogyo Kabushiki Kaisha Abnormality detection system of mobile robot
US7446496B2 (en) 2003-02-14 2008-11-04 Honda Giken Kogyo Kabushiki Kaisha Abnormality detection system of mobile robot
WO2008129818A1 (en) * 2007-03-30 2008-10-30 Sega Corporation Motion editing device for robot and its program
JP2018153875A (en) * 2017-03-15 2018-10-04 株式会社オカムラ Management system, management method and program
JP2020089937A (en) * 2018-12-05 2020-06-11 三菱電機株式会社 Robot remote operation apparatus

Similar Documents

Publication Publication Date Title
JP2664205B2 (en) Manipulator control system
US5047701A (en) Manipulator
JPH06314103A (en) Controller and passive sensing device
JP2010537831A (en) Inverse kinematics
Ho et al. Efficient closed-form solution of inverse kinematics for a specific six-DOF arm
Hayati et al. A unified teleoperated-autonomous dual-arm robotic system
JPH06114766A (en) Remote control device for manipulator
Kulakov et al. Information Technology for Interactive Robot Task Training Through Demonstration of Movement 1
JP2629291B2 (en) Manipulator learning control method
JP3560216B2 (en) Work support device
Penin et al. Force reflection for ground control of space robots
JP3076841B1 (en) Teaching program creation method for real environment adaptive robot
Li et al. Real-time shared control of space robots teleoperation without time delay
Ootsubo et al. Support system for slope shaping based on a teleoperated construction robot
Hayati et al. Supervisory telerobotics testbed for unstructured environments
Backes Supervised autonomy for space telerobotics
JPH0795560A (en) Method and device for measuring image and distance measuring method for remote operating system
Islam et al. On the design and development of vision-based autonomous mobile manipulation
Freund et al. Projective Virtual Reality in space applications: A telerobotic ground station for a space mission
Vertut et al. Sensor-aided and/or computer-aided bilateral teleoperator system (SCATS)
JPH08309680A (en) Manipulator control system
Batsomboon et al. Development of a mechatronic system: a telesensation system for training and teleoperation
Kelmar et al. World Modeling for Sensory Interactive Trajectory Generation
Zhang et al. A teleoperating system for underwater manipulator to practice a time limit task
Li Implementation of motion-mapping algorithms on a teleoperation humanoid mechanical arm system during the COVID-19