JPH07210234A - 操作制御装置および操作制御方法 - Google Patents

操作制御装置および操作制御方法

Info

Publication number
JPH07210234A
JPH07210234A JP433894A JP433894A JPH07210234A JP H07210234 A JPH07210234 A JP H07210234A JP 433894 A JP433894 A JP 433894A JP 433894 A JP433894 A JP 433894A JP H07210234 A JPH07210234 A JP H07210234A
Authority
JP
Japan
Prior art keywords
robot
operation information
information
environment
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP433894A
Other languages
English (en)
Inventor
Minoru Sekiguchi
実 関口
Tamami Sugasaka
玉美 菅坂
Kazuo Asakawa
和雄 浅川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP433894A priority Critical patent/JPH07210234A/ja
Publication of JPH07210234A publication Critical patent/JPH07210234A/ja
Withdrawn legal-status Critical Current

Links

Landscapes

  • Numerical Control (AREA)
  • Manipulator (AREA)
  • Feedback Control In General (AREA)

Abstract

(57)【要約】 【目的】ロボットの制御指令を生成する操作制御装置お
よび操作制御方法に関し,ロボットのプログラミングの
問題とニューラルネットワーク等の学習の問題を解決
し,学習を基本とする真の意味での自律移動ロボットを
提供するための,より適切な教示用の操作情報を得るこ
とを目的とする。 【構成】操作環境生成手段4により,コンピュータの人
工現実感を用いてそのロボットと動作状況を構築し,操
作検出手段2から検出された操作情報をもとに人工現実
世界のロボットを動作させ,その反応を逐次フィードバ
ック手段5によりフィードバックして,体感手段6によ
り身体感覚的に表示する。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は,ロボット等の教示に用
いる操作制御装置および操作制御方法に関するものであ
る。
【0002】
【従来の技術】従来のロボット制御技術は,例えば所望
する動作の全手順を記述したプログラムを予めロボット
に対してプログラミングすることにより,プログラム通
りの作業を遂行させることを基本としている。
【0003】一方,人間の動作を遠隔設置されたロボッ
トの動作に直接変化させるようなマスタ・スレーブ方式
のロボットも用いられている。この方式では,ロボット
の作業状態を人間の手足の感覚や視覚としてフィードバ
ックさせ,人間が直接作業を行うような人工現実感を利
用したシステムを使用し,作業環境の変化や多様な作業
内容に対処している。
【0004】
【発明が解決しようとする課題】プログラムにより動作
するロボットに,作業を効率良くまた的確に実行させる
ためには,前もってすべての作業を想定してプログラミ
ングしておかなければならず,プログラム量が膨大にな
るという欠点がある。また,ロボットが設置されている
環境が変化したり,作業内容が変更になった場合には,
その都度プログラムの変更が必要となる。しかし,環境
の変化や作業内容の変更に適応させるためのプログラム
の変更は難しいことが多く,すぐにはプログラムを変更
することができない。また,その手間もかなり大変であ
る。
【0005】このように,人間がすべてプログラムする
ことで動作するような従来のロボットは,環境の変化に
柔軟に対応できない。したがって,自然環境のような時
々刻々と状態が変化する中で,ロボットが環境に柔軟に
対応して作業できるようにすることは困難であった。
【0006】また,マスタ・スレーブ方式のロボットで
は,人間がロボットに対して要求する動作を常に直接的
に生成しなければならず,人間の負担は決して軽くはな
らない。まして,環境が動的に変化するような環境下で
は,人間が常に介在してロボットの動作を制御する必要
があり,ロボットの自律という意味において,プログラ
ミングの問題を解決したことにはならない。
【0007】このようなプログラミングの問題を解決す
るためには,ニューロコンピュータなどのような学習機
能を持ったシステムが望ましい。しかし,強力な学習機
能を持つため,人間のように学習しながら柔軟に環境の
変化に適応できる技術として期待されるニューラルネッ
トは,学習が遅いという欠点がある。また,人間は失敗
を繰り返しつつ成長していくことが許されるが,ロボッ
トを用いる作業は失敗が許されない場合がほとんどであ
る。そのため,たとえニューラルネットを用いて柔軟に
仕事を遂行できるロボットができたとしても,未学習の
状態で実際の作業環境に投入するわけにはいかない。
【0008】また,ニューロコンピュータの学習には何
らかの教師信号を必要とするものが多いが,この教師信
号を作ることが困難な場合が多い。人間が直接ロボット
を教示できれば,人間の動きを直接ロボットの教師信号
とすることができるので,教師信号となりうる操作情報
を簡単に取得する装置が必要とされる。
【0009】本発明は上記問題点の解決を図り,人間の
操作をロボット教示用の情報として直接使用することに
より,膨大なプログラムとプログラミングの煩雑さをな
くし,また,ロボット動作の反応をフィードバックによ
って直接体感できるようにし,コンピュータにより構築
した仮想環境を利用することにより,現実環境の物理的
制約を取り除き,多様なかつ適切で精度の高い操作情報
から簡単に教師信号を生成することを可能にして,学習
を基本とする真の意味での自律ロボットを提供可能にす
ることを目的とする。
【0010】
【課題を解決するための手段】本発明の原理を図1を用
いて説明する。図1において,1は操作教示装置,2は
操作検出手段,3は操作情報記憶手段,4は操作環境生
成手段,5はフィードバック手段,6は体感手段を表
す。
【0011】操作教示装置1は,CPUおよびメモリ等
からなるコンピュータによって構成される。操作検出手
段2は,例えばロボットを操作または教示する人間であ
る操作者の手や足,頭などの3次元的な動きや音声など
を検出する手段からなる。
【0012】操作情報記憶手段3は操作検出手段2で検
出された操作情報を記憶する。記憶された操作情報は教
示対象となるロボットへの教師信号となりうる情報であ
る。操作環境生成手段4は,コンピュータ内に構築され
る仮想現実感環境(バーチャルリアリティ,以下「仮想
世界」という)において,ロボットが動作する環境を記
述した環境モデルを構築し,さらに,ロボットの機能と
動きを模擬したロボットモデル(以下「仮想ロボット」
という)を構築し,仮想ロボットを操作検出手段2によ
り検出した操作情報に合わせて動かす。
【0013】フィードバック手段5は,操作検出手段2
により得た操作情報に基づいて,各動作に対する反応情
報を体感的表示方法を用いてフィードバックする。体感
的に表示される反応情報とは,視覚的,聴覚的な情報だ
けでなく,例えば障害物に衝突した時や急発進した時の
加重圧感等を含むような,全身体的に知覚される方法に
より表わされる情報である。
【0014】体感手段6は,フィードバック手段5から
の動作の反応情報を視覚,聴覚および体感的に表現する
装置から構成される。例えば1次元以上の方向に動きう
る椅子,ディスプレイまたは3次元メガネ,スピーカ等
からなる。
【0015】以上のように,操作教示装置1は,コンピ
ュータ内に構築された仮想世界の環境モデルで,操作検
出手段2により検出した操作情報に合わせて仮想ロボッ
トを動かし,さらに,この仮想ロボットが何らかの障害
物に衝突したり,ある物体を持ち上げたりする際の反力
あるいはそのシーンや音などの視覚的および聴覚的な状
況情報をフィードバック手段5により体感手段6へフィ
ードバックし,体感手段6により,これらのコンピュー
タ内の仮想世界の状況を本装置のオペレータに対し「現
実的な感覚」として送出する。
【0016】
【作用】本発明の操作制御装置は,検出した操作情報を
ロボットに対する教師信号として直接使用することを可
能にする。これにより従来のプログラミングを不要に
し,操作内容を変更する場合の煩雑さを軽減する。
【0017】また,ロボットとその操作環境をコンピュ
ータ内に仮想的に構築することにより,対象となるロボ
ットが実際に存在するか否かにかかわらず,そのロボッ
トへの教師信号を生成することができる。さらに,実際
には失敗や誤操作の許されないような状況や通常では再
現が不可能であるような特殊な状況での操作を,簡便に
かつ安全に行うことを可能とする。
【0018】さらに,操作に対する反応を体感的にフィ
ードバックすることにより,操作の可否を体感的に判断
することが可能となり,操作情報の適否の判断精度を高
めることができる。
【0019】
【実施例】図2は本発明の一実施例における構成図であ
る。操作検出・体感装置20は,入力装置およびセンサ
(21〜27)により操作に関わる動きや変化を検出
し,ワークステーション30の操作情報記憶部31へ検
出した操作情報を送出し,また,人工現実感装置33か
らのフィードバック情報を受け取り,体感的に表示す
る。
【0020】操作検出・体感装置20は図1中の操作検
出手段2と体感手段6を実現する装置で,本実施例で
は,操作検出手段2と体感手段6が1つの装置として構
成されているが,別個の装置として構成されていてもよ
い。
【0021】操作検出・体感装置20は,ロボットの移
動速度等を変化させるアクセル・ブレーキ21,方向情
報を収集するハンドル22,オペレータの音声による指
示等の音声情報を収集するマイクロフォン23,オペレ
ータの表情やジェスチャ等の視覚情報を収集するカメラ
24,光ファイバの屈折率の違いを利用してオペレータ
の身体の3次元的な動きを検出するデータ収集スーツ2
5,仮想世界を視覚的に表す3Dメガネ(3次元立体メ
ガネ)26,1次元以上の方向に動作可能で,仮想世界
での位置,方向および傾き情報や,仮想世界での動作に
よる反応情報,例えば加速や減速による重力感等をフィ
ードバックする体感フィードバック機構付き椅子27等
から構成される。ハンドル22は,マウス,キーボー
ド,ジョイスティック等の他の形態の入力装置でもよ
い。
【0022】操作検出・体感装置20は,体感フィード
バック機構付き椅子27によりX,Y,Z方向への移動
とα,β,γ方向への回転とを組み合わせた動きを生成
し,操作検出・体感装置20全体を動かすことにより,
オペレータがあたかも3次元空間内で実際にロボットを
制御しているような現実感を表現する。例えば加減速時
には,装置全体がα方向に回転し,オペレータは加減速
感を体感することができる。3Dメガネ26は,コンピ
ュータグラフィックスあるいは実写画面を体感フィード
バック機構付き椅子27と連動して表示する。3Dメガ
ネ26の代わりにディスプレイ表示装置を用いることも
できる。またスピーカ等を用いて障害物に衝突した時の
衝撃音のような音的情報を出力することも可能である。
【0023】ワークステーション30の操作情報記憶部
31は,図1中の操作情報記憶手段3を実現する装置で
あり,操作検出・体感装置20からの操作情報を記憶
し,人工現実感装置33へ操作情報を送出し,通信部3
4を介して教示対象のロボット35またはロボットを制
御するコンピュータ40等へ,直接もしくは変換して送
出する。
【0024】人工現実感装置33は,図1中の操作環境
生成手段4とフィードバック手段5とを実現する装置で
ある。コンピュータの仮想世界を利用して,予め設定さ
れた環境モデルと仮想ロボットを3次元で構築し,操作
情報記憶部31からの操作情報に基づき実際のロボット
または仮想ロボットを動かすためのアクチュエータ指令
を生成し,仮想世界の状況を操作検出・体感装置20へ
体感的にフィードバックする。
【0025】環境モデルは,例えば住宅内や工場,オフ
ィス,公園などを記述した環境のように現実に存在する
環境だけでなく仮想的な環境でもよい。仮想ロボット
は,実際に対象となるロボットの機能あるいは動作を模
擬したロボットモデルに限らず,実体のない仮想ロボッ
トであってもよく,また自動車や飛行機等のような機械
であってもよい。したがって,アクチュエータ指令に
は,実際のロボットに対する指令と,仮想世界下の仮想
ロボットに対する指令との2つがあるが,実際のセンサ
やアクチュエータが使用されているかどうかの差異があ
るだけなので,一般性は失われない。
【0026】一方,フィードバックされる反応情報とし
てインピーダンス制御を用いることができる。さらに,
操作情報によりフィードバックされる反応情報の量,す
なわち仮想ロボット側の動作速度やフィードバックされ
る加重圧等を変化させることができる。すなわち,人間
にある装置の操作方法を習得させようとする場合,人間
の操作方法の能力を良否に応じて,モデル側の動作速度
や人間へフィードバックする反力の大小を調節する機構
をつけることによって,個人個人の能力に見合った学習
を可能とするように構成できる。
【0027】教示対象となるロボット35には,通信部
36,センサ37があり,ワークステーション30の通
信部34から送出される操作情報や変換生成した教師信
号をリアルタイムで,または後から一括して受信する。
【0028】次に,自動車型自動走行型ロボット(以下
「自走ロボット」という)を工場構内という実際に存在
する環境下を走行させる場合の教示を例に,処理を説明
する。
【0029】まず,初期設定を行う。工場構内の環境は
環境エディタ等を使って記述され,自走ロボットの機能
や動きが設定される。使用する入力装置を設定する。使
用できる入力装置は対象となるロボットによって異な
る。体感フィードバック機構付き椅子27以外に,簡単
な構成例としてアクセル・ブレーキ21,ハンドル22
および3Dメガネ26を設定する。アクセル・ブレーキ
21で加速および減速度を検出し,ハンドル22で操舵
角を検出する。オペレータは,3Dメガネ26により,
実際に工場構内にいて自走ロボットを操作しているよう
な感覚をもつことができる。
【0030】操作検出・体感装置20は,各入力装置を
通して操作により生ずる動きや変化を逐次検出する。例
えばアクセルが踏み込みまれると,その踏み込み量から
「加速度」を検出し,ハンドルが切られると,そのハン
ドル切り角から「操舵角」を検出する。
【0031】操作情報記憶部31は「加速度」や「操舵
角」を操作情報として記憶し,人工現実感装置33に送
出する。操作情報を記憶する場合,全部もしくは部分的
に記憶するというように,記憶方法を選択することがで
きる。ロボットの教示のために記憶すべきコマンドやセ
ンサ信号のレベルについては,あらかじめ設定すること
ができる。
【0032】人工現実感装置33は,「加速度」と「操
舵角」から変換されたアクチュエータ指令をコマンドと
して,環境モデル下の仮想自走ロボットの走行や方向転
換を行い,その動きに応じて周囲の景色も変化させる。
【0033】並列してセンシング処理が実行され,検出
された「加速度」等により生じる仮想世界での変化を
「体感信号」として体感アクチュエータ指令に変換し,
操作検出・体感装置20で表示する。アクセルを強く踏
んで急に加速すると,オペレータは後方へ押しつけられ
るような加速感を感じたり,ハンドルを急に切ると横方
向へ引っ張られるような感覚を感じる。3Dメガネ26
に投影される景色も仮想自走ロボットの走行によって逐
次変化する。
【0034】ここで,走行する通路が分岐点に差し掛か
り,右折のために,オペレータは3Dメガネ26の視界
をもとに仮想自走ロボットが通路をはずれないようにハ
ンドルを右へ切る操作を行うとする。前述のように,逐
次検出されるハンドルの切れ角は「操舵角」へ変換さ
れ,アクチュエータ指令を受けた仮想ロボットも進行方
向を変える。操作情報記憶部31は,この分岐点を記憶
し,操作が変化する地点(または時点)を記憶する。
【0035】また,通路途中に障害物があれば速度を落
とし,障害物を避ける空間があるかどうかを仮想ロボッ
トのセンサによりセンシングし,回避可能であれば,左
右どちらかの近い方へハンドルを切って障害物を避ける
という障害物回避操作を行う。
【0036】以上のような操作が終点まで繰り返され,
オペレータは,フィードバックされる仮想世界のあらゆ
る状況から,自分の操作の適否を即座に判断しながら仮
想ロボットを操作して,より適切な操作を選択すること
ができる。
【0037】また,操作情報記憶部31には,ロボット
の教示に必要な操作情報が記憶されているので,これら
の操作情報を,対象となるロボット35へ通信部34お
よび通信部36を介して送出する。またはロボットを制
御するコンピュータ40へ通信部34および通信部41
を介して送出する。送出する操作情報は,そのままの状
態で全て送出してもよいが,一般には加工して,必要な
情報のみを実際のロボット37,42への制御情報とし
て送出する。
【0038】操作情報記憶部31は,操作情報を記憶す
る場合に,センサ信号とそれに関連する一連の操作情報
を他と区別して記憶する。例えばある分岐点から次の分
岐点まで直線の通路を同じ速度で走行し,操作検出・体
感装置20からの操作情報に変化がない場合には,その
期間の操作情報は記憶されず,次の分岐点に達したとこ
ろで,分岐点の検出というセンサ信号と,方向変換とい
う新たな操作情報が記憶される。このように検出された
一連の操作情報にラベル名を付け,特に障害物回避のよ
うな特殊な操作は他の操作と区別し,障害物回避操作と
いうようなラベル名を付けて記憶する。このように操作
情報の部分にラベル名を付けることで,ひと続きの操作
手順の中から必要な操作情報を部分的に取り出すことが
可能である。
【0039】以上のようにして,得られた操作情報を,
ラベル名により呼び出し,通信または記憶媒体を介して
ロボット35またはロボットを制御するコンピュータ4
0等へ送出することで,対象となるロボットを教示す
る。
【0040】また教示対象となるロボットがニューロコ
ンピュータなどの学習機能を持つ場合には,操作情報か
らそのロボットに適した教師信号を生成して送出する。
次に,各部の処理の流れを図を用いて説明する。
【0041】図3に初期設定処理フローチャートを示
す。ステップ301で,対象となるロボットが使用され
る環境を設定する。環境は前述したように,現実または
仮想のどちらの環境でもよく,空間的要素に加えて動的
変化も設定する。
【0042】ステップ302で,対象ロボットを設定す
る。ロボットは実際に存在するロボットだけでなく,機
能や動きにより構築される仮想のロボット,または自動
車および飛行機などの機械でもよい。
【0043】ステップ303で,操作検出・体感装置の
うち,使用する入力装置を設定する。ステップ302に
おいて選択したロボットにより,選択の範囲は変化す
る。ハンドル,マウス,ジョイスティック,キーボー
ド,アクセル・ブレーキ等から選択する。
【0044】以上の初期設定には,デフォルトの設定環
境,例えば飛行シミュレーション,自動車教習などの環
境をいくつか用意しておくことで,簡単に設定できるよ
うにすることも可能である。
【0045】図4は,操作情報記憶部の処理フローチャ
ートである。ステップ401で,対象となるロボットま
たは仮想ロボットの起点(初期位置)を記憶する。
【0046】ステップ402で,最初の操作情報が入力
されたかどうかを確認する。ステップ403で,操作情
報の入力が変化したかどうかを判断し,変化があるまで
待機し,変化すればステップ404の処理へ進む。
【0047】ステップ404で,分岐点等におけるセン
サ信号とその操作情報を記憶し,ラベル名を付ける処理
などを行う。ステップ405で,終点(終了)であるか
どうかを判断し,終点でなければ,ステップ403の処
理へ戻り,終点であればステップ406で終点を記憶
し,処理を終了する。
【0048】次に,人工現実感装置の処理フローチャー
トを図5に示す。ステップ501から504は操作情報
入力ルーチンであり,ステップ505から509はセン
シングルーチンである。
【0049】ステップ501で,操作情報の入力がある
まで待機し,入力があるとステップ502へ進む。ステ
ップ502で,入力された操作情報をアクチュエータ指
令に変換する。例えば,「アクセルの踏み込み量」は
「加速度」,「推進用モータの操作量」へ,「ハンドル
の切り角」は「操舵角」,「操舵用モータの操作量」へ
と変換される。
【0050】ステップ503で,変換されたアクチュエ
ータ指令を送り,ロボットを動かす。アクチュエータ指
令は,設定されたロボットが実際環境下で動作するロボ
ットであれば実際の操作情報として,または仮想世界下
の仮想ロボットであればシミュレーション情報として送
出される。
【0051】ステップ504で,アクチュエータ指令に
より,実環境下のロボットまたは仮想世界下の仮想ロボ
ットが移動等の動作を行う。以上の入力ルーチンは一定
の制御間隔でループしている。
【0052】次に,センシングルーチンについて説明す
る。このルーチンは,操作情報入力ルーチンと並列的に
常時動作している。ステップ505で,センシングを実
行し,センサ信号を検出する。ロボットのセンサには,
接触センサ,加速度センサ,距離センサなどがある。加
速度センサはX,Y,Z方向とそれぞれの軸に対する回
転方向α,β,γ,の6軸方向の加速度を検出できるの
が最良であるが,X,Yだけ,またはX,Y,Zだけで
もよい。しかし,この場合は,ロボットの動きをリアル
に再現し,体感できなくなる可能性がある。
【0053】ステップ506で,検出したセンサ信号を
体感信号に変換する。操作検出・体感装置には,3次元
的な加速度を体感できるように,α,β,γ方向に回転
するような体感椅子が装備されているが,これを使っ
て,X,Y,Z方向の加速度を表現させる必要がある。
そのため,次式のような変換式を用いて加速度を変換す
る。
【0054】Aα=f(X),Bβ=g(Y),Γγ=
h(Z) 最も簡単な関数は,f()=C(Constant)のような比
例関係である。α,β,γ方向の回転加速度に対して
は,体感椅子の各軸を傾ける速度を変えることによって
実現する。すなわち,変換は, VAα=f’(α),VBβ=g’(β),VΓγ=
h’(γ) という式で表すことができる。
【0055】ステップ507では,ステップ506で入
力信号を体感装置での座標系に変換した結果からアクチ
ュエータ指令を生成し,操作検出・体感装置のアクチュ
エータへ送る。
【0056】ステップ508で,操作検出・体感装置を
作動して,装置があたかも実際に移動しているかのよう
にオペレータに体感させる。一方,ステップ509で
は,ロボットに搭載したTVカメラやマイクロフォン等
を介して,現場の状況を表示装置に表示する。この表示
装置には,障害物センサやスピードセンサ等からの警告
類も表示される。
【0057】次に,本装置を接続した実際のロボットの
動作処理を特に異常回避動作を例に,図6を用いて説明
する。図6はロボットの異常回避動作フローチャートで
ある。
【0058】ステップ601から606は異常回避動作
ルーチンであり,ステップ607から611はセンシン
グルーチンである。ステップ601で,操作情報(以下
「コマンド」という)が入力され,異常回避動作ルーチ
ンとセンシングルーチンが開始する。
【0059】ステップ602で,コマンドを実行する。
自走ロボットであれば走行する。ステップ603で,セ
ンサの監視を同時に行う。ステップ604で,センサ異
常があるかどうか,すなわちセンサ信号から障害物が認
識できたかどうかなどを判断し,異常がなければステッ
プ602および603の処理を繰り返すが,異常があっ
た場合には,ステップ605へ進む。
【0060】ステップ605で,予め教示された障害物
回避などの異常回避動作を行う。ステップ606で,異
常回避動作を完了させたならば,ステップ602の処理
へ戻る。
【0061】センシングルーチンのステップ607から
611については,図5におけるセンシングルーチンの
ステップ505〜509と基本的には同一であるので,
説明を省略する。
【0062】以前に記憶した動作を実現中に予期しない
障害物などが現われた場合など,このように通常処理か
ら異常回避動作を起動して対処するが,その操作に対す
る反応をオペレータは体感装置を通じて体感することが
できる。
【0063】このような体感フィードバックを利用し
て,ロボットと教示するだけでなく,オペレータの操作
習得に使用することもできる。例えばオペレータが自動
車の運転方法を習得する場合,実際の自動車がなくて
も,予め自動車と運転する環境とを仮想世界として構築
しておけばよい。オペレータの運転が検出され,その操
作情報に基づき仮想自動車が動作されていくが,急ハン
ドルを切るというような操作により生じる危険や凍結路
面のような特殊な状況下での操作を,オペレータは体感
的に知ることができ,より適切な運転方法を習得してい
くことが可能となる。
【0064】
【発明の効果】以上説明したように,本発明によれば,
検出した人間の操作を操作情報として蓄積しそのまま再
現するだけで,ロボットが動作可能になる。また,人工
現実感を利用することでオペレータは実際の現場にいな
くてもロボットに対する教示が可能になる。逆にロボッ
ト側の動作に連動させてオペレータ側の体感装置を動か
せば,人間に対する教示装置にもなる。例えば,コンピ
ュータ内に自動車や飛行機などのモデルを構築し,オペ
レータの動きに合わせてモデルが動作することによっ
て,自動車や飛行機などの操作方法を実際に体感しなが
ら学習,習得することが可能となる。
【0065】操作のフィードバック情報として,位置と
力の両方の制御を行い,これらを融合して処理できるイ
ンピーダンス制御を用いる。これにより,急激に衝突し
た場合には,急激なショックを与え,柔らかいものに衝
突した場合には,柔らかいショックを与えるようなこと
が実現でき,より実際に近い体感を提供することができ
る。
【0066】本装置を人間に対する教習用装置として使
用する場合,人間の操作方法の能力の良否に応じて,モ
デル側の動作速度や人間へフィードバックする反力の大
小を調節する手段により,個人個人の能力に見合った学
習が可能となる。
【図面の簡単な説明】
【図1】本発明の原理を説明する図である。
【図2】本発明の構成例を示す図である。
【図3】一実施例における初期設定処理のフローチャー
トを示す図である。
【図4】一実施例における操作情報記憶部の処理のフロ
ーチャートを示す図である。
【図5】一実施例における人工現実感装置の処理のフロ
ーチャートを示す図である。
【図6】一実施例におけるロボットの異常回避動作処理
のフローチャートを示す図である。
【符号の説明】
1 操作教示装置 2 操作検出手段 3 操作情報記憶手段 4 操作環境生成手段 5 フィードバック手段 6 体感手段 20 操作検出・体感装置 30 ワークステーション 31 操作情報記憶部 33 人工現実感装置 34 通信部

Claims (4)

    【特許請求の範囲】
  1. 【請求項1】 ロボットに対する制御指令を生成する操
    作制御装置において,操作者の動きまたは音声を検出す
    ることにより,ロボットに対する操作情報を入力する第
    1の手段(2) と,該ロボットの置かれる環境と該ロボッ
    トのモデルをコンピュータ内において動的に構築し,前
    記操作情報に基づいて該ロボットモデルの動作をシミュ
    レートする第2の手段(4) と,前記第2の手段(4) によ
    り構築されたロボットモデルの各動作により生じる反力
    を含む反応情報をフィードバックする第3の手段(5)
    と,前記第3の手段(5) からの動作の反応情報を身体感
    覚的に表示する第4の手段(6) と,前記操作情報を記憶
    し,変換し,送出する第5の手段(3) とを有することを
    特徴とする操作制御装置。
  2. 【請求項2】 請求項1記載の操作制御装置において,
    前記第3の手段(5) は,前記ロボットモデルの動作によ
    り生じる反応情報としてインピーダンス制御を用いるこ
    とを特徴とする操作制御装置。
  3. 【請求項3】 請求項1記載の操作制御装置において,
    前記第3の手段(5) は,前記第1の手段(2) により得た
    操作情報の良否に応じて,前記ロボットモデルの動作速
    度またはフィードバックする反力の大小を調節する機構
    を持つことを特徴とする操作制御装置。
  4. 【請求項4】 ロボットに対し動作を教示する操作制御
    方法において,ロボットの置かれる環境と該ロボットの
    モデルをコンピュータ内において動的に構築し,ロボッ
    トに対する操作情報を検出し,検出した操作情報に基づ
    いて前記ロボットモデルを動作させ,そのロボットモデ
    ルの各動作より生じる反応情報をフィードバックして,
    操作者が体感できるように表示し,かつ一連の前記操作
    情報を記憶し,その操作情報に基づいてロボットに対す
    る教師信号を生成することを特徴とする操作制御方法。
JP433894A 1994-01-20 1994-01-20 操作制御装置および操作制御方法 Withdrawn JPH07210234A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP433894A JPH07210234A (ja) 1994-01-20 1994-01-20 操作制御装置および操作制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP433894A JPH07210234A (ja) 1994-01-20 1994-01-20 操作制御装置および操作制御方法

Publications (1)

Publication Number Publication Date
JPH07210234A true JPH07210234A (ja) 1995-08-11

Family

ID=11581663

Family Applications (1)

Application Number Title Priority Date Filing Date
JP433894A Withdrawn JPH07210234A (ja) 1994-01-20 1994-01-20 操作制御装置および操作制御方法

Country Status (1)

Country Link
JP (1) JPH07210234A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016189924A1 (ja) * 2015-05-28 2016-12-01 株式会社日立製作所 ロボット操作装置およびプログラム
CN106951095A (zh) * 2017-04-07 2017-07-14 胡轩阁 基于三维扫描技术的虚拟现实互动方法以及系统
JPWO2019107455A1 (ja) * 2017-11-28 2020-11-19 川崎重工業株式会社 技能伝承機械装置
CN112847337A (zh) * 2020-12-24 2021-05-28 珠海新天地科技有限公司 一种用于工业机器人自主操作应用程序的方法

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016189924A1 (ja) * 2015-05-28 2016-12-01 株式会社日立製作所 ロボット操作装置およびプログラム
JPWO2016189924A1 (ja) * 2015-05-28 2018-01-11 株式会社日立製作所 ロボット操作装置およびプログラム
US10625416B2 (en) 2015-05-28 2020-04-21 Hitachi, Ltd. Robot operation device and program
CN106951095A (zh) * 2017-04-07 2017-07-14 胡轩阁 基于三维扫描技术的虚拟现实互动方法以及系统
JPWO2019107455A1 (ja) * 2017-11-28 2020-11-19 川崎重工業株式会社 技能伝承機械装置
CN112847337A (zh) * 2020-12-24 2021-05-28 珠海新天地科技有限公司 一种用于工业机器人自主操作应用程序的方法

Similar Documents

Publication Publication Date Title
US10875188B2 (en) Universal motion simulator
Boman International survey: Virtual-environment research
US5680524A (en) Synthetic environment employing a craft for providing user perspective reference
US5914720A (en) Method of using multiple perceptual channels to increase user absorption of an N-dimensional presentation environment
US20040054512A1 (en) Method for making simulator program and simulator system using the method
EP2499550A1 (en) Avatar-based virtual collaborative assistance
JPH07210234A (ja) 操作制御装置および操作制御方法
JP2001216015A (ja) ロボットの動作教示装置
CN109213306A (zh) 一种机器人远程控制平台及其设计方法
CN112017488A (zh) 一种基于ar的教育机器人系统及学习方法
JPWO2005066918A1 (ja) シュミレーション装置
JP2024509342A (ja) 別個の装置を使用してインテリジェント車両を操作するための装置、システム、および方法
Seet et al. A unified pilot training and control system for underwater robotic vehicles (URV)
JPH10254345A (ja) シミュレート装置
CN114896817A (zh) 一种车辆在环融合测试系统及方法
Bejczy Challenges of human-robot communication in telerobotics
JP7258426B2 (ja) シミュレーションシステム、シミュレーションプログラムおよび学習装置
Thalmann et al. Virtual and real humans interacting in the virtual world
Huang Adaptive washout filter design with human visual-vestibular based (HVVB) for VR-based motion simulator
WO2022061468A1 (en) Head joystick interface system and methods thereof
Onishi et al. Development of PC-based 3D dynamic human interactive robot simulator
Graefe et al. Three examples of learning robots
Sylari Hand-Gesture Based Programming of Industrial Robot Manipulators
CN115482362A (zh) 虚拟场景中多数字目标与用户的相对位置检测方法和系统
Abdelgawad et al. A Station with Multiple Head-Mounted Displays for Learning Advanced Driver Assistance Systems

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20010403