JPS62165212A - Robot work teaching system - Google Patents

Robot work teaching system

Info

Publication number
JPS62165212A
JPS62165212A JP631386A JP631386A JPS62165212A JP S62165212 A JPS62165212 A JP S62165212A JP 631386 A JP631386 A JP 631386A JP 631386 A JP631386 A JP 631386A JP S62165212 A JPS62165212 A JP S62165212A
Authority
JP
Japan
Prior art keywords
robot
robots
display
data
environmental
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP631386A
Other languages
Japanese (ja)
Inventor
Fujio Nakajima
中島 不二雄
Hideki Shitanda
四反田 秀樹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Advanced Industrial Science and Technology AIST
Original Assignee
Agency of Industrial Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Agency of Industrial Science and Technology filed Critical Agency of Industrial Science and Technology
Priority to JP631386A priority Critical patent/JPS62165212A/en
Publication of JPS62165212A publication Critical patent/JPS62165212A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To operate plural robots by simulating a robot program while watching motions of plural robots, those of plural environmental objects, and positional relations between robots and environmental objects which are displayed on a display device. CONSTITUTION:An environmental object editer 1 is used to teach three- dimensional shapes of plural robots, those of environmental objects existing in working spaces of robots, and relative positional relations between them to generate shape data 1.4. In case of simulation, a debugger 3 is first started to display robots and environmental objects in the initial state on the display device and a graphic processing part 6 receives extents of angular movement of joints of individual robots and extents of movement of grasped objects from plural robot locus calculating parts 5.1 and 5.2 and refers to shape data 1.4 and converts it to display data and transmits this data to a display device 7. Thus, parallel works and cooperative working of plural robots are taught and simulated to use considerably efficiently the development time required for robot teaching.

Description

【発明の詳細な説明】 産業上の利用分野 本発明は複数台のロボットに対する作業教示システム。[Detailed description of the invention] Industrial applications The present invention is a work teaching system for multiple robots.

従来の技術 従来、ロボット言語で記述されたプログラムをディスプ
レイ上にアニメーション的に表示して人間が対話的にシ
ミュレートを行うロボット作業教示システムは、その対
象を単体のロボットに限定したものであった。従って、
例えば大きな物体や軟らかい物体の把持・搬送作業のよ
うに複数台のロボット腕を必要とする作業を教示し、シ
ミュレートする方法がなかった。
Conventional technology Conventionally, robot work teaching systems, in which a program written in a robot language is displayed on a display in an animated manner and simulated interactively by a human, have been limited to single robots. . Therefore,
For example, there was no way to teach and simulate tasks that require multiple robot arms, such as grasping and transporting large or soft objects.

発明が解決しようとする問題点 ロボット作業教示システムにおいて、教示およびシミュ
レーションを実行できる対象を単体ロボットだけでなく
複数台のロボットへ拡張することを目的とする。
Problems to be Solved by the Invention In a robot work teaching system, it is an object of the invention to expand the objects that can be taught and simulated not only to a single robot but also to a plurality of robots.

問題点を解決するための手段 上記の問題点を解決するための重要な手段として、複数
台のロボットによる並列作業・共同作業を記述したロボ
ットプログラムを解読し中間コード列へ翻訳する言語処
理部と、この中間コード列を解読しロボットプログラム
を実行させるために必要となる複数のプロセスを生成し
、これら複数個のプロセスに対するスケジューリング、
排他制御を行ってロボットプログラムの並列処理を実現
して複数台のロボットに対する動作命令を生成する実行
処理部と、これら複数ロボットに対する動作命令の実行
順序制御および実行させるべき対象ロボットの管理を行
って動作命令をロボット軌道算出部へ送信するタイミン
グの同期制御を行う協調動作制御部を実現する。
Means to Solve the Problems As an important means to solve the above problems, we have developed a language processing unit that decodes robot programs that describe parallel and collaborative work by multiple robots and translates them into intermediate code strings. , generate multiple processes necessary to decode this intermediate code string and execute the robot program, and schedule these multiple processes.
An execution processing unit that performs exclusive control to achieve parallel processing of robot programs and generates motion commands for multiple robots, and controls the execution order of motion commands for these multiple robots and manages target robots to be executed. A cooperative motion control unit that performs synchronized control of the timing of transmitting motion commands to the robot trajectory calculation unit is realized.

更に教示システムとして必要となるデバッガ−。Furthermore, a debugger is required as a teaching system.

ロボット軌道算出部、グラフィック処理部、ディスプレ
イ、環境物体の形状や物理的性質等のデータを生成する
ための環境物体エディターを付与して、従来の技術では
不可能であった複数台のロボットに対する作業教示7ス
テムを実現する。
Equipped with a robot trajectory calculation unit, a graphics processing unit, a display, and an environmental object editor to generate data on the shape and physical properties of environmental objects, making it possible to work with multiple robots that was impossible with conventional technology. Realize the teaching 7 stem.

作   用 上記の手段および構成を有するロボット作業教示システ
ムによシ、従来不可能であった複数台のロボットに対す
る作業教示が可能となるだけでなく、上記ロボット軌道
算出部を実機であるロボット本体と置き換えることも可
能になり、複数台のロボットを統括制御するロボットコ
ントローラとして利用することが可能になる。これによ
り教示システムと制御装置を別々に開発する必要はなく
、開発費の大幅な削減をはかれる。
Operation The robot work teaching system having the above means and configuration not only makes it possible to teach work to multiple robots, which was previously impossible, but also allows the robot trajectory calculation section to be combined with the actual robot body. It also becomes possible to replace the robot and use it as a robot controller to centrally control multiple robots. This eliminates the need to develop a teaching system and a control device separately, resulting in a significant reduction in development costs.

実施例 図に示すように本発明のロボット作業教示システムは、
環境物体エディタ1.言語処理部2.デバッガ−3,実
行処理部4.協調動作制御部5゜2つのロボット軌道算
出部5.1 および5.2.グラフィック処理部6およ
びディスプレイアよシ構成される。更に図中、環境管理
データ1,1.2つのロボット機構データ1.2 およ
び1.3.形状データ1.4は環境管理エディタ1によ
って生成されるデータを示し、ロボットプログラム2.
1 は言語処理部2への入力、中間コード2.2 は言
語処理部2の出力を示している。また図中、矢印はデー
タの流れおよび処理の流れを表わしたものである。図て
はロボット軌道算出部およびロボット機構データをそれ
ぞれ2つした示していないが、これらは任意の複数個で
あっても何ら影響はない。
As shown in the embodiment diagram, the robot work teaching system of the present invention has the following features:
Environmental object editor 1. Language processing unit 2. Debugger-3, execution processing unit 4. Cooperative motion control unit 5゜Two robot trajectory calculation units 5.1 and 5.2. It is composed of a graphic processing section 6 and a display unit. Furthermore, in the figure, environmental management data 1, 1. and two robot mechanism data 1.2 and 1.3. Shape data 1.4 indicates data generated by environment management editor 1, and robot program 2.4 indicates data generated by environment management editor 1.
1 indicates the input to the language processing unit 2, and intermediate code 2.2 indicates the output of the language processing unit 2. Further, in the figure, arrows represent the flow of data and the flow of processing. Although the figure does not show two robot trajectory calculation units and two robot mechanism data, there is no effect even if there are any plurality of these.

以下に本発明のロボット作業教示システを用いて実際に
複数台のロボットへの作業教示およびシミュレーション
を実行する手順について図を用いて説明する。まず、環
境物体エディタ1を用いて複数台のロボットおよびロボ
ットの作業空間内に存在する環境物体の3次元形状およ
び相対位置関係を教示し、形状データ1.4 を生成す
る。更にロボットが作業対象とする環境物体が有する物
理重性質や属性、即ち把持点、接近点、退避点等を教示
し環境物体に関するデータベースである環境管理データ
1.1 を生成する。また、使用するロボットの関節角
数、関節の種類等の機構ノ(ラメータを教示しロボット
機構データ1.2 および1.3を生成する。
Below, a procedure for actually teaching a plurality of robots to work and performing a simulation using the robot work teaching system of the present invention will be explained with reference to the drawings. First, using the environmental object editor 1, the three-dimensional shapes and relative positional relationships of a plurality of robots and environmental objects existing in the robot's work space are taught, and shape data 1.4 is generated. Furthermore, the robot is taught the physical properties and attributes of the environmental objects that the robot works on, such as grasping points, approach points, retreat points, etc., and generates environmental management data 1.1, which is a database regarding environmental objects. It also teaches the mechanism parameters such as the number of joint angles and types of joints of the robot to be used, and generates robot mechanism data 1.2 and 1.3.

次にロボット言語を用いて複数台のロボットに実行させ
る作業を記述したロボットプログラム2.1 を作成し
言語処理部2へ入力し、中間コード2.2 を得る。
Next, a robot program 2.1 is created using robot language to describe the work to be performed by a plurality of robots, and is input to the language processing unit 2 to obtain intermediate code 2.2.

ここまでの手順が作業の教示に相当し、これ以降は中間
コード列2.2 で表現されたロボットプログラムのシ
ミュレーションを実行することとなる。但し、中間コー
ド列2.2 とロボット言語で記述されたロボットプロ
グラム2.1 とはクロスリファレンステーブルによっ
て対応付けられているので利用者から見れば、オリジナ
ルのロボットプログラム2.1 を直接シミュレートし
ている環境が提供されていることとなる。
The procedure up to this point corresponds to the teaching of the work, and from this point on, a simulation of the robot program expressed in the intermediate code string 2.2 will be executed. However, since the intermediate code string 2.2 and the robot program 2.1 written in the robot language are correlated by a cross-reference table, from the user's perspective, the original robot program 2.1 is directly simulated. This means that an environment is provided that allows for

シミュレーションでは、まずデバッカ−3を起動してデ
ィスプレイ上に初期状態におけるロボットおよび環境物
体の表示を得る。次に、ブレークポイント、ワンステッ
プ実行等の通常のプログラムデバッグ用コマンドを入力
し実行処理部4を起動する。実行処理部4は中間コード
列2.2 を入力、解読し、この中間コード列2.2 
f、実行するために必要となる複数個のプロセスを生成
し、これら複数のプロセスに対するスケジューリング。
In the simulation, the debugger 3 is first started to display the robot and environmental objects in an initial state on the display. Next, normal program debugging commands such as breakpoint and one-step execution are inputted to start the execution processing section 4. The execution processing unit 4 inputs and decodes the intermediate code string 2.2.
f. Generate multiple processes necessary for execution and schedule these multiple processes.

排他制御を行ってロボットプログラム2.1 で記述さ
れている並列処理を実現して複数台ロボ7)に対する動
作命令を生成する。この動作命令コードの中に環境物体
の位置・姿勢データが未定義である場合には環境管理デ
ータ1.1 を参照して値を確定する。更に、前記動作
命令が環境物体の把持あるいは把持解除命令である場合
には、環境管理データ1.1 に表現されている環境物
体間の接続関係を更新する。
Exclusive control is performed to realize the parallel processing described in the robot program 2.1 and generate operation commands for the plurality of robots 7). If the position/orientation data of the environmental object is undefined in this action command code, the value is determined by referring to the environmental management data 1.1. Further, if the operation command is a command to grasp or release an environmental object, the connection relationship between the environmental objects expressed in the environmental management data 1.1 is updated.

協調動作制御部5は、実行処理部4で生成された複数台
のロボットに関する動作命令を受は取り、実行順序制御
および実行させるべき対象となるロボットの管理を行っ
て、前記動作命令をロボット軌道算出部5.1 および
5.2へ送信すべきタイミングに関する同期制御を行う
The cooperative motion control section 5 receives and receives motion commands for a plurality of robots generated by the execution processing section 4, controls the execution order and manages robots to be executed, and adjusts the motion commands to robot trajectories. Performs synchronization control regarding the timing of transmission to calculation units 5.1 and 5.2.

上記動作命令を受は取ったロボット軌道算出部5.1 
あるいは5.2は、各々の機構に対応したロボット機構
データ1.2 あるいは1.3 を参照し、各関節角移
動量を算出する。この際、ロボットが環境物体を把持し
たまま移動する場合ては、この環境物体に関する移動量
も合わせて算出する。
Robot trajectory calculation unit 5.1 that received the above operation command
Alternatively, 5.2 refers to robot mechanism data 1.2 or 1.3 corresponding to each mechanism and calculates each joint angle movement amount. At this time, if the robot moves while holding an environmental object, the amount of movement regarding this environmental object is also calculated.

最後にグラフィック処理部6は、複数個のロボット軌道
算出部5.1  および5.2 より各々のロボットに
関する関節角移動量および把持物体の移動量を受は取り
、形状データ1.4 を参照して表示用デ〜りへ変換し
ディスプレイ7へ送信する。
Finally, the graphic processing unit 6 receives the joint angle movement amount and the movement amount of the grasped object for each robot from the plurality of robot trajectory calculation units 5.1 and 5.2, and refers to the shape data 1.4. The data is converted into a display data and sent to the display 7.

また、グラフィック処理部6は直接デバッガ3によシ制
御されているのでデバッガ3からの停止命令、視点変更
命令等が通知されれば直ちに実行する。更にデバッガ3
から干渉チェック命令が通知されればロボットの動作表
示中に環境物体との干渉をチェックし、干渉が検出され
ればその旨をデバッガ3へ通知する。なお、以上シミュ
レーションを実行する処理の流れについて説明したが、
シミュレーション実行中は、デバッガ3.実行処理部4
.協調動作制御部6.複数個のロボット軌道算出部5.
1 および5.2.グラフィック処理部6、のすべての
処理部は並列に動作している。
Furthermore, since the graphic processing section 6 is directly controlled by the debugger 3, when it is notified of a stop command, viewpoint change command, etc. from the debugger 3, it immediately executes it. Furthermore, debugger 3
When an interference check command is notified from the robot, interference with environmental objects is checked while the robot's motion is displayed, and if interference is detected, the debugger 3 is notified of this fact. The process flow for executing the simulation has been explained above, but
During simulation execution, debugger 3. Execution processing unit 4
.. Cooperative operation control unit 6. Multiple robot trajectory calculation units 5.
1 and 5.2. All the processing units of the graphic processing unit 6 are operating in parallel.

発明の効果 本発明により、複数台のロボットによる並列作業や共同
作業を教示・シミュレートすることが可能となり、ロボ
ット教示に要する開発期間の大福な効率化が期待できる
。また、本発明のロボット作業教示システムは複数台ロ
ボッl、に対する制御装置として利用することもできる
ので開発費の削減に大きく寄与する。
Effects of the Invention The present invention makes it possible to teach and simulate parallel work and collaborative work by a plurality of robots, and can be expected to greatly improve the efficiency of the development period required for robot teaching. Further, the robot work teaching system of the present invention can be used as a control device for a plurality of robots, which greatly contributes to reducing development costs.

【図面の簡単な説明】[Brief explanation of drawings]

図は本発明の一実施例によるロボット作業教示システム
の構成図である。 1・・・・・・環境物体エディタ、1.1 ・・・・環
境管理データ、1.2,1.3・・・・・ロボット機構
データ、1.4・・・・・形状データ、2・・・・・・
言語処理部、2.1  ・・・・・ロボットプログラム
、2.2 ・・・・・・中間コード列、3・・・・・・
デバッガ、4・・・・・・実行処理部、6・・・・・・
協調動作制御部、5.1.5.2  ・・・・ロボット
軌道算出部、6・・・・・・グラフィック処理部、7・
・・・・・ディスプレイ。 特許出願人  工業技術院長  等々力  達(−一つ
データ
The figure is a configuration diagram of a robot work teaching system according to an embodiment of the present invention. 1...Environmental object editor, 1.1...Environmental management data, 1.2, 1.3...Robot mechanism data, 1.4...Shape data, 2・・・・・・
Language processing section, 2.1...Robot program, 2.2...Intermediate code string, 3...
Debugger, 4... Execution processing section, 6...
Cooperative motion control unit, 5.1.5.2...Robot trajectory calculation unit, 6...Graphic processing unit, 7.
·····display. Patent applicant Tatsu Todoroki, Director of the Agency of Industrial Science and Technology (-One Data

Claims (2)

【特許請求の範囲】[Claims] (1)複数台のロボットに対する並列作業・共同作業を
記述したロボットプログラムを解読し中間コード列へ翻
訳する言語処理部と、ロボットおよびロボットの作業空
間内に存在する環境物体に関する形状を定義し、更に環
境物体間の相対位置関係、接続関係、環境物体が固有に
保有する物理的性質・属性を表現した環境管理データ、
個々のロボットの機構データを表現したロボット機構デ
ータ、衝突チェックや3次元形状の表示に必要となる形
状データを生成する環境物体エディタと、前記ロボット
プログラムに対するデバッグ要求を受けつけるデバッガ
ー部と、前記3次元形状を表示するディスプレイと、前
記環境管理データを利用して前記中間コード列を解読し
、前記ロボットプログラムを実行するために必要となる
複数のプロセスを生成し、これら複数プロセスに対する
スケジューリング、排他制御を行って前記ロボットプロ
グラムの並列処理を実現して複数台のロボットに対する
動作命令を生成し、かつ実行に伴って変化する環境管理
データを動的に管理する実行処理部と、前記複数台のロ
ボットに対する動作命令の実行順序制御および実行させ
るべき対象ロボットの管理を行って動作命令の送信タイ
ミングの同期制御を行う協調動作制御部と、前記ロボッ
ト機構データを参照しながら個々のロボットに対する動
作命令を実行して関節角移動量およびロボットの移動に
伴う把持物体の移動量を算出する複数個のロボット軌道
算出部と、前記形状データを参照し前記ロボット移動量
および把持物体の移動量よりロボットおよび把持物体の
移動表示を行うための表示用データヘ変換し、更に視点
変更・干渉チェック等のデバッグ要求を実現するグラフ
ィック処理部を具備し、人間が前記ディスプレイ上に表
示される複数台のロボットおよび複数個の環境物体の動
き、更にロボットと環境物体との位置関係を見ながら前
記ロボットプログラムのシミュレーションを行うことを
特徴とするロボット作業教示システム。
(1) A language processing unit that decodes a robot program that describes parallel work/cooperative work for multiple robots and translates it into an intermediate code string, and defines the shape of the robot and environmental objects that exist in the robot's work space. Furthermore, environmental management data that expresses the relative positional relationships and connection relationships between environmental objects, and physical properties and attributes unique to environmental objects;
an environmental object editor that generates robot mechanism data representing the mechanism data of individual robots and shape data necessary for collision checking and display of three-dimensional shapes; a debugger unit that receives debugging requests for the robot program; A display that displays the shape and the environment management data are used to decipher the intermediate code string, generate a plurality of processes necessary to execute the robot program, and perform scheduling and exclusive control over the plurality of processes. an execution processing unit that realizes parallel processing of the robot program to generate operation commands for the plurality of robots, and dynamically manages environmental management data that changes with execution; a cooperative motion control section that controls the execution order of motion commands, manages target robots to be executed, and synchronizes the transmission timing of motion commands; and a cooperative motion control section that executes motion commands for individual robots while referring to the robot mechanism data. a plurality of robot trajectory calculation units that calculate the joint angle movement amount and the movement amount of the gripped object accompanying the movement of the robot; It is equipped with a graphics processing unit that converts data into display data for moving display, and also realizes debugging requests such as viewpoint changes and interference checks, and allows humans to display multiple robots and multiple environments displayed on the display. A robot work teaching system characterized in that the robot program is simulated while observing the movement of the object and the positional relationship between the robot and environmental objects.
(2)グラフィック処理部およびディスプレイを着脱可
能にし、更に複数個のロボット軌道算出部を同数のロボ
ット実機本体で置換可能にし、複数台のロボットに対す
る制御装置としての利用を可能とすることを特徴とする
特許請求の範囲第1項記載のロボット作業教示システム
(2) The graphic processing unit and the display are removable, and the plurality of robot trajectory calculation units can be replaced with the same number of actual robot bodies, so that it can be used as a control device for multiple robots. A robot work teaching system according to claim 1.
JP631386A 1986-01-17 1986-01-17 Robot work teaching system Pending JPS62165212A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP631386A JPS62165212A (en) 1986-01-17 1986-01-17 Robot work teaching system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP631386A JPS62165212A (en) 1986-01-17 1986-01-17 Robot work teaching system

Publications (1)

Publication Number Publication Date
JPS62165212A true JPS62165212A (en) 1987-07-21

Family

ID=11634880

Family Applications (1)

Application Number Title Priority Date Filing Date
JP631386A Pending JPS62165212A (en) 1986-01-17 1986-01-17 Robot work teaching system

Country Status (1)

Country Link
JP (1) JPS62165212A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62274404A (en) * 1986-05-23 1987-11-28 Kobe Steel Ltd Off-line teaching system for robot
JPS63261403A (en) * 1987-04-18 1988-10-28 Yaskawa Electric Mfg Co Ltd Mutual interference checking system for robot
JPH01204107A (en) * 1988-02-09 1989-08-16 Agency Of Ind Science & Technol Simulation device for foot mechanism
WO2021166398A1 (en) * 2020-02-17 2021-08-26 オムロン株式会社 Processing device and processing method
JPWO2022191255A1 (en) * 2021-03-09 2022-09-15

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59183408A (en) * 1983-04-01 1984-10-18 Mitsubishi Electric Corp Robot control system
JPS59229619A (en) * 1983-06-10 1984-12-24 Hitachi Ltd Work instructing system of robot and its using
JPS60195615A (en) * 1984-03-16 1985-10-04 Hitachi Ltd Method for teaching attitude of multi-joint robot
JPS60205720A (en) * 1984-03-30 1985-10-17 Matsushita Electric Ind Co Ltd Robot operation teaching device
JPS60217407A (en) * 1984-04-13 1985-10-31 Hitachi Ltd System for avoiding interference of robot by adjustment of timing

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59183408A (en) * 1983-04-01 1984-10-18 Mitsubishi Electric Corp Robot control system
JPS59229619A (en) * 1983-06-10 1984-12-24 Hitachi Ltd Work instructing system of robot and its using
JPS60195615A (en) * 1984-03-16 1985-10-04 Hitachi Ltd Method for teaching attitude of multi-joint robot
JPS60205720A (en) * 1984-03-30 1985-10-17 Matsushita Electric Ind Co Ltd Robot operation teaching device
JPS60217407A (en) * 1984-04-13 1985-10-31 Hitachi Ltd System for avoiding interference of robot by adjustment of timing

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62274404A (en) * 1986-05-23 1987-11-28 Kobe Steel Ltd Off-line teaching system for robot
JPS63261403A (en) * 1987-04-18 1988-10-28 Yaskawa Electric Mfg Co Ltd Mutual interference checking system for robot
JPH01204107A (en) * 1988-02-09 1989-08-16 Agency Of Ind Science & Technol Simulation device for foot mechanism
WO2021166398A1 (en) * 2020-02-17 2021-08-26 オムロン株式会社 Processing device and processing method
JPWO2022191255A1 (en) * 2021-03-09 2022-09-15
WO2022191255A1 (en) * 2021-03-09 2022-09-15 京セラ株式会社 System control device, robot control method, terminal device, terminal control method, and robot control system

Similar Documents

Publication Publication Date Title
CN107932504B (en) PyQt-based mechanical arm operation control system
Stark et al. Telerobotics: Display, control, and communication problems
Elhajj et al. Haptic information in internet-based teleoperation
JP5225720B2 (en) Apparatus and method for generating and controlling robot motion
Sagardia et al. A platform for bimanual virtual assembly training with haptic feedback in large multi-object environments
Liang et al. Robot teleoperation system based on mixed reality
Huang et al. A virtual demonstrator environment for robot imitation learning
Pelliccia et al. Task-based motion control of digital humans for industrial applications
JPS62165212A (en) Robot work teaching system
Trendel et al. CardsFlow: an end-to-end open-source physics environment for the design, simulation and control of musculoskeletal robots
Griffin Shared control for dexterous telemanipulation with haptic feedback
Cichon et al. Robotic teleoperation: Mediated and supported by virtual testbeds
JP2003266347A (en) Motion editing device for leg type moving robot and motion editing method
Graves et al. A modular software system for distributed telerobotics
JPH04123108A (en) Robot simulator device
Xu et al. A Novel Robot Teaching System Based on Mixed Reality
JPH01131904A (en) Robot operation supporting system
Girard et al. A Motion Mapping System for Humanoids that Provides Immersive Telepresence Experiences
Zeltzer et al. Task‐level interaction with virtual environments and virtual actors
Lopez-Nicolas et al. Simulation tools for active learning in robot control and programming
Benitez et al. A 3D simulation environment for kinematic task of the PUMA 560 robot
Sun et al. Direct virtual-hand interface in robot assembly programming
Rezeck et al. Framework for haptic teleoperation of a remote robotic arm device
Zollo et al. A bio-inspired neuro-controller for an anthropomorphic head-arm robotic system
Universityof Teaching Robotic Assembly Tasks Using a 3D Simulation Environment