JP2001001284A - Robot control device using information on field of view of operator - Google Patents

Robot control device using information on field of view of operator

Info

Publication number
JP2001001284A
JP2001001284A JP11171319A JP17131999A JP2001001284A JP 2001001284 A JP2001001284 A JP 2001001284A JP 11171319 A JP11171319 A JP 11171319A JP 17131999 A JP17131999 A JP 17131999A JP 2001001284 A JP2001001284 A JP 2001001284A
Authority
JP
Japan
Prior art keywords
robot
operator
image
visual field
control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP11171319A
Other languages
Japanese (ja)
Inventor
Yukihiro Nakamura
幸博 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP11171319A priority Critical patent/JP2001001284A/en
Publication of JP2001001284A publication Critical patent/JP2001001284A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a robot control device using the information on the visual field of an operator operable with reference to the operator irrespective of the skill of the operator of a robot. SOLUTION: This robot control device comprises a monitoring part A having a CCD camera 2 which can calculate the control quantity of a robot R based on the information on the visual field of an operator OP to operate the robot R and acquire the visual field of the operator OP as an image, a recognition part B which treats the image from the monitoring part A, calculates the positional information on the index provided to the robot R, and outputs it as the characteristic quantity, and a control part C to drive an actuator by the control quantity of the actuator of the robot R calculated with reference to the characteristic quantity from the recognition part B.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、ロボットを動作さ
せる為の情報である動作情報を当該ロボットのオペレー
タの視野映像により生成することのできる、オペレータ
の視野情報を用いたロボット制御装置に関するものであ
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a robot control device using visual field information of an operator, capable of generating motion information as information for operating the robot from a visual field image of the robot operator. is there.

【0002】[0002]

【従来の技術】今日広く産業用ロボットをはじめ様々な
ロボットがあらゆる分野において導入され活躍してい
る。例えば、そこでのロボットは、教示ペンダントと呼
ばれる操作ボックスで操作される。
2. Description of the Related Art Today, various robots including industrial robots are widely used in various fields. For example, the robot there is operated by an operation box called a teaching pendant.

【0003】[0003]

【発明が解決しようとする課題】従来の教示ペンダント
によるロボットのマニュアル操作は、ロボットのベース
や手先に固定された座標軸毎に移動方向が定められたボ
タン操作により行う必要ある。そのため、オペレータが
ロボットの周辺を動きながらロボットをマニュアル操作
する場合、ロボットのベースやツールに固定された座標
を意識して、ボタン操作を行うことになり、熟練を要す
るものであった。
The manual operation of the robot using the conventional teaching pendant must be performed by operating a button whose moving direction is determined for each coordinate axis fixed to the base or hand of the robot. Therefore, when the operator manually operates the robot while moving around the robot, the button operation is performed while being conscious of the coordinates fixed to the base and the tool of the robot, which requires skill.

【0004】ここにおいて、本発明の解決すべき主要な
目的は以下の通りである。
Here, the main objects to be solved by the present invention are as follows.

【0005】本発明の第1の目的は、ロボットの操作に
熟練を要しない、オペレータの視野情報を用いたロボッ
ト制御装置を提供せんとするものである。
[0005] A first object of the present invention is to provide a robot control device using operator's visual field information, which does not require skill in operation of the robot.

【0006】本発明の第2の目的は、ロボットの操作に
特別な知識、前提を必要とせず、容易にロボットを操作
可能な、オペレータの視野情報を用いたロボット制御装
置を提供せんとするものである。
A second object of the present invention is to provide a robot control device using the visual field information of an operator which can easily operate the robot without requiring special knowledge and premise for operation of the robot. It is.

【0007】本発明の第3の目的は、オペレータを基準
にしてロボット制御を可能にする、オペレータの視野情
報を用いたロボット制御装置を提供せんとするものであ
る。
[0007] A third object of the present invention is to provide a robot control device using the visual field information of an operator, which enables robot control based on the operator.

【0008】本発明の他の目的は、明細書、図面、特
に、特許請求の範囲における各請求項の記載から自ずと
明らかとなろう。
[0008] Other objects of the present invention will become apparent from the description and drawings, and particularly from the description of each claim in the appended claims.

【0009】[0009]

【課題を解決するための手段】本発明装置は、上記課題
の解決に当たり、ロボットをオペレートするオペレータ
の視野を映像として取得するモニタリング部と、当該モ
ニタリング部からの当該映像を処理して特徴量を出力す
る認識部と、当該認識部からの当該特徴量及びロボット
の動作を規定する内部変数を基にして当該ロボットのア
クチュエータの制御量を算出すると共に当該算出した制
御量をにより当該アクチュエータを駆動させる制御部
と、を備える特徴を有する。
In order to solve the above-described problems, the present invention provides a monitoring unit for acquiring a visual field of an operator who operates a robot as an image, and processing the image from the monitoring unit to reduce a feature amount. The control unit calculates the control amount of the actuator of the robot based on the output recognition unit and the feature amount from the recognition unit and an internal variable that defines the operation of the robot, and drives the actuator based on the calculated control amount. And a control unit.

【0010】更に、具体的詳細に述べると、当該課題の
解決では、本発明が次に列挙する上位概念から下位概念
に亙る新規な特徴的構成手段を採用することにより、上
記目的を達成するように為される。
More specifically, in order to solve the above-mentioned problems, the present invention achieves the above object by adopting new characteristic constitution means ranging from a superordinate concept to a subordinate concept listed below. Made for

【0011】本発明装置の第1の特徴は、オペレータの
視界をもとにロボットを制御するためのロボット制御装
置であって、前記オペレータの視野の画像を取得するモ
ニタリング部と、当該モニタリング部により取得した前
記画像を処理して前記ロボットのアクチュエータの制御
量を定める特徴量を出力する認識部と、当該認識部によ
る前記特徴量から前記アクチュエータの制御量を算出し
当該算出した制御量により当該アクチュエータを駆動さ
せる制御部と、を備えてなるオペレータの視野情報を用
いたロボット制御装置の構成採用にある。
A first feature of the apparatus of the present invention is a robot control device for controlling a robot based on the field of view of an operator, wherein the monitoring unit acquires an image of the visual field of the operator, and the monitoring unit A recognition unit that processes the obtained image and outputs a feature amount that determines a control amount of the actuator of the robot; and a control amount of the actuator that is calculated from the feature amount by the recognition unit, and the actuator that is calculated based on the calculated control amount. And a control section for driving the robot.

【0012】本発明装置の第2の特徴は、上記本発明装
置の第1の特徴における前記モニタリング部が、前記オ
ペレータの眼球前に配置されるCCDカメラと、当該C
CDカメラによる前記画像を表示可能に前記眼球前に設
置されるディスプレイとを、備えてなるオペレータの視
野情報を用いたロボット制御装置の構成採用にある。
A second feature of the apparatus of the present invention resides in that the monitoring unit in the first feature of the above-described apparatus of the present invention further comprises: a CCD camera disposed in front of the operator's eyeball;
And a display installed in front of the eyeball so as to be able to display the image by a CD camera.

【0013】本発明装置の第3の特徴は、上記本発明装
置の第1又は第2の特徴における前記制御部が、前記認
識部にて出力された特徴量と、前記オペレータに対する
前記ロボットの相対運動を規定する操作パラメータとか
ら、前記アクチュエータに対する前記制御量を算出可能
とする手段であるオペレータの視野情報を用いたロボッ
ト制御装置の構成採用にある。
A third feature of the apparatus of the present invention resides in that the control unit in the first or second feature of the above-described apparatus of the present invention is characterized in that the control unit outputs the feature amount output by the recognition unit and the relative amount of the robot to the operator. Another object of the present invention is to adopt a configuration of a robot controller using visual field information of an operator, which is a means capable of calculating the control amount for the actuator from an operation parameter defining a motion.

【0014】本発明装置の第4の特徴は、上記本発明装
置の第3の特徴における前記制御量が、前記特徴量と前
記操作パラメータとの関係に応じて、前記オペレータの
希望する前記ロボットの運動を予め規定されている量で
あるオペレータの視野情報を用いたロボット制御装置の
構成採用にある。
A fourth feature of the present invention is that the control amount in the third feature of the present invention is such that the control amount of the robot desired by the operator depends on the relationship between the characteristic amount and the operation parameter. An object of the present invention is to adopt a configuration of a robot control device using the visual field information of the operator, which is a predetermined amount of movement.

【0015】本発明装置の第5の特徴は、上記本発明装
置の第1、第2、第3又は第4の特徴における前記認識
部が、前記モニタリング部からの前記画像を基準として
検索され、前記ロボットに備えられた指標の位置情報を
特徴量として算出する為の参照画像を予め保有してなる
オペレータの視野情報を用いたロボット制御装置の構成
採用にある。
A fifth feature of the device of the present invention is that the recognition unit in the first, second, third or fourth feature of the device of the present invention is searched with reference to the image from the monitoring unit, Another object of the present invention is to adopt a configuration of a robot control device using field-of-view information of an operator that has a reference image for calculating position information of an index provided in the robot as a feature amount in advance.

【0016】本発明装置の第6の特徴は、上記本発明装
置の第5の特徴における前記認識部が、前記モニタリン
グ部からの前記画像と前記参照画像間でカラー相関演算
処理を行い、当該画像中の相関が最大の位置をそれぞれ
当該参照画像に対する特徴量として算出する手段である
オペレータの視野情報を用いたロボット制御装置の構成
採用にある。
According to a sixth feature of the present invention, in the fifth feature of the present invention, the recognizing unit performs a color correlation operation between the image from the monitoring unit and the reference image, and The present invention resides in adopting a configuration of a robot control device using visual field information of an operator, which is a means for calculating a position having a maximum correlation in each of them as a feature amount for the reference image.

【0017】[0017]

【発明の実施の形態】以下、添付図面を参照しながら、
発明の実施の形態を装置例につき説明する。
BRIEF DESCRIPTION OF THE DRAWINGS FIG.
Embodiments of the present invention will be described with reference to an example of an apparatus.

【0018】(装置例)図1は、オペレータの視野情報
を用いたロボット制御装置βを説明するための図であ
る。同図は、具体的な実現形態の一例を併せて示してい
る。
(Example of Apparatus) FIG. 1 is a diagram for explaining a robot control apparatus β using information on the visual field of an operator. The figure also shows an example of a specific implementation.

【0019】オペレータの視野情報を用いたロボット制
御装置βは、オペレータOPの視野の映像をモニタリン
グするモニタリング部Aと、モニタリング部Aから得ら
れた映像から特徴量を算出する認識部Bと、認識部Bに
より当該算出された特徴量とロボットの動作を規定する
ロボット内部変数を基にしてアクチュエータの制御量を
算出しアクチュエータを駆動する制御部Cとにより構成
される。
The robot controller β using the visual field information of the operator comprises: a monitoring unit A for monitoring an image of the visual field of the operator OP; a recognition unit B for calculating a characteristic amount from the video obtained from the monitoring unit A; The control section C is configured to calculate the control amount of the actuator based on the calculated feature amount by the section B and the robot internal variables that define the operation of the robot and to drive the actuator.

【0020】ここで、認識部B及び制御部Cは、例えば
WindowsをOSとした市販のコンピュータを用
い、当該コンピュータに画像処理ボートを備えて、認識
部Bの画像処理を高速に行える環境を整備する構成にて
実現できる。
Here, the recognition unit B and the control unit C use, for example, a commercially available computer using Windows as an OS, and provide an image processing boat in the computer to provide an environment in which the image processing of the recognition unit B can be performed at high speed. Configuration.

【0021】また、具体例な説明の為に、具体例とし
て、ロボットRは2つの車輪R1、R2を有し、個々の
車輪R1、R2にはアクチュエータとして独立したモー
タを有すると共に、回転速度を検出するパルスエンコー
ダを完備し、ロボットRの各モータには、パルスエンコ
ーダからの値をフィードバックとするモータ回転速度の
サーボループが組んであるものとする。そして、ロボッ
トR外部の制御部Cからシリアル通信を介してモータの
回転軸速度を司令値として受取り、個々のモータの回転
数を司令値となる様に制御することになる。
For a specific description, as a specific example, the robot R has two wheels R1 and R2, each of the wheels R1 and R2 has an independent motor as an actuator, and has a rotational speed. It is assumed that a pulse encoder to be detected is completed, and each motor of the robot R has a servo loop of a motor rotation speed that uses a value from the pulse encoder as feedback. Then, the rotation axis speed of the motor is received as a command value from the control unit C outside the robot R via serial communication, and the number of rotations of each motor is controlled to be the command value.

【0022】次に、オペレータの視野情報を用いたロボ
ット制御装置βの構成要素につき詳説する。モニタリン
グ部Aは、没入型ヘッドマウントディスプレイ1をオペ
レータOPが装着した際に眼球の位置にCCDカメラ2
が配置され、没入型ヘッドマウントディスプレイ1には
CCDカメラ2で得た映像(図1における、ヘッドマウ
ントディスプレイ1に表示される映像D)を提示する一
方、CCDカメラ2で得た映像を分岐させて、NTSC
信号に変換すると共に、認識部Bに送信する。なお、図
1におけるカメラ座標系3は、実際には映像されない。
Next, the components of the robot controller β using the visual field information of the operator will be described in detail. When the operator OP wears the immersive head-mounted display 1, the monitoring unit A moves the CCD camera 2 to the position of the eyeball.
Are provided, and the image obtained by the CCD camera 2 (the image D displayed on the head mounted display 1 in FIG. 1) is presented to the immersive head mounted display 1 while the image obtained by the CCD camera 2 is branched. And NTSC
The signal is converted to a signal and transmitted to the recognition unit B. Note that the camera coordinate system 3 in FIG. 1 is not actually imaged.

【0023】認識部Bは、モニタリング部Aからの映像
(CCDカメラ映像)と予め登録されている複数の参照
画像間でカラー相関演算処理を行い、CCDカメラ映像
中の相関が最大の位置をそれぞれの参照画像に対する特
徴量として算出する。
The recognizing unit B performs a color correlation operation between the image (CCD camera image) from the monitoring unit A and a plurality of reference images registered in advance, and determines the position of the maximum correlation in the CCD camera image. Is calculated as a feature amount for the reference image.

【0024】[0024]

【外1】 [Outside 1]

【0025】[0025]

【表1】 [Table 1]

【0026】[0026]

【外2】 [Outside 2]

【0027】表1により決定された行動に対して、表2
により各車輪R1、R2に備えたモータ軸の回転速度を
司令値として算出し、シリアル通信を介してロボットR
に送信する。表2におけるvdは各軸のモータの回転軸
速度に関する司令値である。
For the action determined by Table 1, Table 2
Calculates the rotation speed of the motor shaft provided for each of the wheels R1 and R2 as a command value.
Send to Vd in Table 2 is a command value related to the rotation axis speed of the motor of each axis.

【0028】[0028]

【表2】 [Table 2]

【0029】これにより、司令値を受けたロボットR
は、個々のモータの回転数を司令値となるように制御さ
れる。なお、表1におけるなす角θと行動の関係(ロボ
ットRの行動則)及び表2における行動とモータの司令
値との関係は、ロボットRとオペレータOPの相対的位
置姿勢により、ロボットRに如何なる動きを為さしめる
かにより、決定されるものであり、ロボットRの制御内
容に応じて適宜決定されるものである。
Thus, the robot R receiving the command value
Is controlled so that the rotation speed of each motor becomes a command value. The relationship between the angle θ and the behavior in Table 1 (the behavior rule of the robot R) and the relationship between the behavior and the command value of the motor in Table 2 depend on the relative position and orientation of the robot R and the operator OP. This is determined depending on whether or not a movement is made, and is appropriately determined according to the control content of the robot R.

【0030】また、被制御対象であるロボットRの制御
パラメータ(上記においては各モータの司令値に相当)
の種類及びその数により、マーカーMの相対的位置の基
準となるベクトルの数は定まるものである。
The control parameters of the robot R to be controlled (corresponding to the command value of each motor in the above)
The number of vectors serving as a reference for the relative position of the marker M is determined by the type and the number thereof.

【0031】以上、本発明の実施形態を説明したが、本
発明は必ずしも上記した事項に限定されるものではな
く、本発明の目的を達し、下記する効果を奏する範囲に
おいて、適宜変更実施可能である。
Although the embodiment of the present invention has been described above, the present invention is not necessarily limited to the above-mentioned matter, and can be appropriately modified and implemented within the scope of achieving the object of the present invention and having the following effects. is there.

【0032】[0032]

【発明の効果】本発明によれば、オペレータOPがロボ
ットに備えたマーカーMをヘッドマウントディスプレイ
1越しに見ることにより、任意の位置にいるオペレータ
OPは、操作パラメータとマーカー/モータ配置で定め
られる一定の相対運動をロボットにさせることができ
る。よって、従来行えなかったオペレータOP中心にロ
ボット操作を行うことができ、作業能率の向上を図ると
共に、熟練を要しないで容易にロボット操作をなすこと
が可能になるといった優れた効果を奏する。
According to the present invention, the operator OP looks at the marker M provided on the robot through the head mounted display 1, and the operator OP at an arbitrary position is determined by the operation parameters and the marker / motor arrangement. A certain relative movement can be made to the robot. Therefore, the robot operation can be performed mainly on the operator OP, which has not been conventionally performed, and it is possible to improve the work efficiency, and it is possible to easily perform the robot operation without skill.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施形態であるオペレータの視野情
報を用いたロボット制御装置の説明図である。
FIG. 1 is an explanatory diagram of a robot control device using visual field information of an operator according to an embodiment of the present invention.

【符号の説明】[Explanation of symbols]

β…オペレータの視野情報を用いたロボット制御装置 1…没入型ヘッドマウントディスプレイ 2…CCDカメラ 3…カメラ座標系 A…モニタリング部 B…認識部 C…制御部 D…没入型ヘッドマウントディスプレイに表示される映
像 M…マーカー OP…オペレータ R…ロボット R1、R2…車輪
β: Robot controller using operator's visual field information 1… Immersive head mounted display 2… CCD camera 3… Camera coordinate system A… Monitoring unit B… Recognition unit C… Control unit D… Displayed on the immersive head mounted display M… Marker OP… Operator R… Robot R1, R2… Wheel

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】オペレータの視界をもとにロボットを制御
するためのロボット制御装置であって、 前記オペレータの視野の画像を取得するモニタリング部
と、 当該モニタリング部により取得した前記画像を処理して
前記ロボットのアクチュエータの制御量を定める特徴量
を出力する認識部と、 当該認識部による前記特徴量から前記アクチュエータの
制御量を算出し当該算出した制御量により当該アクチュ
エータを駆動させる制御部と、を備える、 ことを特徴とするオペレータの視野情報を用いたロボッ
ト制御装置。
1. A robot controller for controlling a robot based on an operator's field of view, comprising: a monitoring unit for acquiring an image of the operator's field of view; and a processor for processing the image acquired by the monitoring unit. A recognition unit that outputs a characteristic amount that determines a control amount of the actuator of the robot; and a control unit that calculates a control amount of the actuator from the characteristic amount by the recognition unit and drives the actuator with the calculated control amount. A robot controller using visual field information of an operator.
【請求項2】前記モニタリング部は、 前記オペレータの眼球前に配置されるCCDカメラと、 当該CCDカメラによる前記画像を表示可能に前記眼球
前に設置されるディスプレイとを、備える、 ことを特徴とする請求項1に記載のオペレータの視野情
報を用いたロボット制御装置。
2. The monitoring unit according to claim 1, further comprising: a CCD camera arranged in front of the eyeball of the operator; and a display installed in front of the eyeball so as to display the image by the CCD camera. The robot control device using the visual field information of the operator according to claim 1.
【請求項3】前記制御部は、 前記認識部にて出力された特徴量と、前記オペレータに
対する前記ロボットの相対運動を規定する操作パラメー
タとから、前記アクチュエータに対する前記制御量を算
出可能とする手段である、 ことを特徴とする請求項1又は2に記載のオペレータの
視野情報を用いたロボット制御装置。
3. The control unit, wherein the control unit can calculate the control amount for the actuator from the feature amount output by the recognition unit and an operation parameter that defines a relative motion of the robot with respect to the operator. The robot control device using the visual field information of the operator according to claim 1 or 2, wherein:
【請求項4】前記制御量は、 前記特徴量と前記操作パラメータとの関係に応じて、前
記オペレータの希望する前記ロボットの運動を予め規定
されている量である、 ことを特徴とする請求項3に記載のオペレータの視野情
報を用いたロボット制御装置。
4. The method according to claim 1, wherein the control amount is a predetermined amount of motion of the robot desired by the operator according to a relationship between the feature amount and the operation parameter. 4. A robot control device using the visual field information of the operator according to 3.
【請求項5】前記認識部は、 前記モニタリング部からの前記画像を基準として検索さ
れ、前記ロボットに備えられた指標の位置情報を特徴量
として算出する為の参照画像を予め保有する、 ことを特徴とする請求項1、2、3又は4に記載のオペ
レータの視野情報を用いたロボット制御装置。
5. The recognizing unit retrieves a reference image for retrieving based on the image from the monitoring unit and calculating position information of an index included in the robot as a feature amount in advance. The robot control device using the visual field information of the operator according to claim 1, 2, 3, or 4.
【請求項6】前記認識部は、 前記モニタリング部からの前記画像と前記参照画像間で
カラー相関演算処理を行い、当該画像中の相関が最大の
位置をそれぞれ当該参照画像に対する特徴量として算出
する手段である、 ことを特徴とする請求項5に記載のオペレータの視野情
報を用いたロボット制御装置。
6. The recognition unit performs a color correlation operation between the image from the monitoring unit and the reference image, and calculates a position having a maximum correlation in the image as a feature amount for the reference image. The robot control apparatus using the visual field information of the operator according to claim 5, wherein the robot control means is means.
JP11171319A 1999-06-17 1999-06-17 Robot control device using information on field of view of operator Pending JP2001001284A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11171319A JP2001001284A (en) 1999-06-17 1999-06-17 Robot control device using information on field of view of operator

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11171319A JP2001001284A (en) 1999-06-17 1999-06-17 Robot control device using information on field of view of operator

Publications (1)

Publication Number Publication Date
JP2001001284A true JP2001001284A (en) 2001-01-09

Family

ID=15921050

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11171319A Pending JP2001001284A (en) 1999-06-17 1999-06-17 Robot control device using information on field of view of operator

Country Status (1)

Country Link
JP (1) JP2001001284A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011089885A1 (en) * 2010-01-25 2011-07-28 パナソニック株式会社 Danger presentation device, danger presentation system, danger presentation method, and program
CN108664026A (en) * 2018-05-16 2018-10-16 西安交通大学 A kind of automatic running intelligent carriage and its control method based on optical identification code

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011089885A1 (en) * 2010-01-25 2011-07-28 パナソニック株式会社 Danger presentation device, danger presentation system, danger presentation method, and program
US8816874B2 (en) 2010-01-25 2014-08-26 Panasonic Corporation Danger presentation device, danger presentation system, danger presentation method and program
CN108664026A (en) * 2018-05-16 2018-10-16 西安交通大学 A kind of automatic running intelligent carriage and its control method based on optical identification code

Similar Documents

Publication Publication Date Title
US11345042B2 (en) Robot system equipped with video display apparatus that displays image of virtual object in superimposed fashion on real image of robot
US11197730B2 (en) Manipulator system
US5309140A (en) Feedback system for remotely operated vehicles
EP1693164A1 (en) Robot imaging device comprising a camera mounted on a movable positioning structure
WO2018190345A1 (en) Robot system and method for operating same
JP2018202514A (en) Robot system representing information for learning of robot
US11458618B2 (en) Collaborative operation support device
JPH0811071A (en) Controller for manipulator
JP3912584B2 (en) Remote control device
JPH0421105A (en) Stereoscopic teaching device for manipulator
JP2001001284A (en) Robot control device using information on field of view of operator
KR20010076786A (en) Remote-Controlled Robot System and Method using VR technology
JPS6334093A (en) Visual device
Capurro et al. A binocular active vision system using space variant sensors: Exploiting autonomous behaviors for space application
JPH09131681A (en) Instruction device
JPH0430981A (en) Control unit for television camera of remote control type robot
JPH02205494A (en) Method and device following image of manipulator and manipulator device equipped with the same device
JPH07328971A (en) Manipulator with tv camera
JPH05134737A (en) Teaching device of robot
JP3350687B2 (en) Robot control method and robot control device
JPH07205068A (en) Coordinate system setting method of robot
US20220214685A1 (en) Remote operating device
WO2023047625A1 (en) Information processing device, information processing method, robot apparatus, and method of controlling same
JPH0740264A (en) Three dimensional movement indicating device
JP2920788B2 (en) Monitoring method and device for remote operation

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040427

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040506

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20050104