JPH0386484A - ロボットの遠隔操作装置 - Google Patents
ロボットの遠隔操作装置Info
- Publication number
- JPH0386484A JPH0386484A JP1219736A JP21973689A JPH0386484A JP H0386484 A JPH0386484 A JP H0386484A JP 1219736 A JP1219736 A JP 1219736A JP 21973689 A JP21973689 A JP 21973689A JP H0386484 A JPH0386484 A JP H0386484A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- simulator
- orientation
- measuring means
- posture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000004088 simulation Methods 0.000 claims abstract description 21
- 238000004891 communication Methods 0.000 claims abstract description 15
- 230000007613 environmental effect Effects 0.000 claims abstract description 8
- 230000033001 locomotion Effects 0.000 claims description 20
- 238000005259 measurement Methods 0.000 claims description 3
- 230000036544 posture Effects 0.000 description 17
- 238000000034 method Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 10
- 230000005484 gravity Effects 0.000 description 4
- 238000012544 monitoring process Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 3
- 230000004044 response Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Landscapes
- Manipulator (AREA)
- Feedback Control In General (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Control Of Position Or Direction (AREA)
- Selective Calling Equipment (AREA)
Abstract
(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
め要約のデータは記録されません。
Description
【発明の詳細な説明】
[概要]
宇宙空間などの遠隔場所にあるロボットを、シミュレー
タを用いて遠隔操作するロボットの遠隔操作装置に関し
。
タを用いて遠隔操作するロボットの遠隔操作装置に関し
。
ロボットの置かれている実環境での対象物の位置・姿勢
とシミュレータ内における環境モデルのそれとの間に食
い違いが生じた場合に、これを自動的に修正できるよう
にすることを目的とし。
とシミュレータ内における環境モデルのそれとの間に食
い違いが生じた場合に、これを自動的に修正できるよう
にすることを目的とし。
計W機を用いてシミュレーション画像を表示しつつロボ
ット動作のシミュレーションを行うシミュレータを使用
したロボットの遠隔操作装置において、遠隔場所のロボ
ットが作業する実環境にある物体の位置と姿勢を測る位
置姿勢測定手段とを備え、この位置姿勢測定手段で得ら
れた実環境物体の位置姿勢データに基づきシミュレータ
内にある環境モデルの位置姿勢データが修正されるよう
に構成される。
ット動作のシミュレーションを行うシミュレータを使用
したロボットの遠隔操作装置において、遠隔場所のロボ
ットが作業する実環境にある物体の位置と姿勢を測る位
置姿勢測定手段とを備え、この位置姿勢測定手段で得ら
れた実環境物体の位置姿勢データに基づきシミュレータ
内にある環境モデルの位置姿勢データが修正されるよう
に構成される。
[産業上の利用分野]
本発明は、宇宙空間などの遠隔場所にあるロボットをシ
ミュレータを用いて遠隔操作するロボットの遠隔操作装
置に係り、特にシミュレータ内にある環境モデルの位置
・姿勢を修正する機能を備えたロボットの遠隔操作装置
に関する。
ミュレータを用いて遠隔操作するロボットの遠隔操作装
置に係り、特にシミュレータ内にある環境モデルの位置
・姿勢を修正する機能を備えたロボットの遠隔操作装置
に関する。
[従来の技術]
近年の宇宙開発に伴い、環境の厳しい宇宙でロボットに
作業を行わせる必要性が生じている。例えば宇宙空間に
おける宇宙ステーション建造のための作業、あるいは無
人の宇宙ステーション内における各種実験等の作業など
である。これらの作業は人が容易に近づけない宇宙での
作業であるため、ロボットの操作は地上あるいは宇宙ス
テーションからの遠隔操作で行われるのが一般的である
。
作業を行わせる必要性が生じている。例えば宇宙空間に
おける宇宙ステーション建造のための作業、あるいは無
人の宇宙ステーション内における各種実験等の作業など
である。これらの作業は人が容易に近づけない宇宙での
作業であるため、ロボットの操作は地上あるいは宇宙ス
テーションからの遠隔操作で行われるのが一般的である
。
かかる遠隔操作を行う遠隔操作システムとしては、ロボ
ットが作業をする実環境の画像をカメラで撮影し、その
画像を衛星通信回線を介してリアルタイムで地上側に送
り、地上側のオペレータがテレビモニタでその実環境画
像を監視しながらロボットを遠隔操作するものが考えら
れる。
ットが作業をする実環境の画像をカメラで撮影し、その
画像を衛星通信回線を介してリアルタイムで地上側に送
り、地上側のオペレータがテレビモニタでその実環境画
像を監視しながらロボットを遠隔操作するものが考えら
れる。
しかしながら、上述の方法では、ロボットと地上装置と
を結ぶ衛星通信回線での電波伝搬遅延が大きいこと1画
像データの情報量が大きいにもかかわらず利用できる衛
星通信回線の容量が小さいこと、さらに実環境下での制
約により、ロボットの作業状態を種々の方向から撮影で
きないことなどの理由により、ロボットをスムーズに遠
隔操作することは難しく、操作にはかなりの熟練が必要
である。
を結ぶ衛星通信回線での電波伝搬遅延が大きいこと1画
像データの情報量が大きいにもかかわらず利用できる衛
星通信回線の容量が小さいこと、さらに実環境下での制
約により、ロボットの作業状態を種々の方向から撮影で
きないことなどの理由により、ロボットをスムーズに遠
隔操作することは難しく、操作にはかなりの熟練が必要
である。
そこで、このようなリアルタイム操作によるロボット操
縦の問題点を解決する手法として、グラフィックデイス
プレィと計算機を用いたシミュレータによりロボット動
作のシミュレーションを地上側で行い、そのシミュレー
ションによりロボット動作を事前に検証しておいてから
、宇宙側ロボットへシミュレーションで生成した操作デ
ータを転送し、それによりシミュレーションで行ったの
と同一の動作を宇宙側ロボットに行わせる方法が提案さ
れている。
縦の問題点を解決する手法として、グラフィックデイス
プレィと計算機を用いたシミュレータによりロボット動
作のシミュレーションを地上側で行い、そのシミュレー
ションによりロボット動作を事前に検証しておいてから
、宇宙側ロボットへシミュレーションで生成した操作デ
ータを転送し、それによりシミュレーションで行ったの
と同一の動作を宇宙側ロボットに行わせる方法が提案さ
れている。
第5図にはかかるシミュレータを用いたロボットの遠隔
操作システムが示される。第5図において、宇宙空間に
設置されるロボット20は、ロボットコントローラ13
で制御されるロボットアーム14を備え、ロボットアー
ム14にはアームの作業状態を監視するためのテレビカ
メラ15と照明装置16が取り付けられており、ロボッ
ト20と地上との間の各種情報の送受用に通信装置12
が備えられる。またロボット20の全体的な位置・姿勢
をとらえるためのテレビカメラ17も可能であれば設置
される。
操作システムが示される。第5図において、宇宙空間に
設置されるロボット20は、ロボットコントローラ13
で制御されるロボットアーム14を備え、ロボットアー
ム14にはアームの作業状態を監視するためのテレビカ
メラ15と照明装置16が取り付けられており、ロボッ
ト20と地上との間の各種情報の送受用に通信装置12
が備えられる。またロボット20の全体的な位置・姿勢
をとらえるためのテレビカメラ17も可能であれば設置
される。
第6図はかかる宇宙ロボット20と作業対象物21を含
む実環境の一利を示す図であり、これはちょうど前述の
テレビカメラ17からロボット20を見た場合の外観画
像に相当する。第6図に示されるように、このロボット
20は、複数の関節を持って折り曲がり動作しつつ作業
を行う4本のアーム14と、それらアーム14の作業を
適当な位置からモニタできるように移動可能なカメラ1
5とを備えている。21は宇宙建造物などの作業対象物
であり、この組み立てをロボット20で遠隔操作で行う
ものとする。
む実環境の一利を示す図であり、これはちょうど前述の
テレビカメラ17からロボット20を見た場合の外観画
像に相当する。第6図に示されるように、このロボット
20は、複数の関節を持って折り曲がり動作しつつ作業
を行う4本のアーム14と、それらアーム14の作業を
適当な位置からモニタできるように移動可能なカメラ1
5とを備えている。21は宇宙建造物などの作業対象物
であり、この組み立てをロボット20で遠隔操作で行う
ものとする。
地上装置22は、ティーチングボックス等の操縦装置l
、操縦装置1を操作することによってロボットへの操作
指令信号を発生するロボット操縦コントローラ2.コン
トローラ2からの操作指令信号に応じてロボット動作の
シミュレーションを計算機処理により模擬画像(シミュ
レーション画像)を表示しつつ行う宇宙ロボットシミュ
レータ3、シミュレーションにより得られた模擬画像を
表示するための画像表示装置(高精細グラフィックデイ
スプレィ)4.宇宙ロボット20との間で衛星回線を介
して情報の送受を行う通信装置7゜ロボット20から受
信したロボット側の実画像を表示するための1台または
複数台のモニタテレビ8、フレームキャンコンバータ9
.ロボット実画像信号と模擬画像から生成したロボット
動作同定用の画像信号とを重ねあわせるオーバレイ装置
10、オーバレイ装置10で重ね合わせた画像を同一画
面上に表示するロボット作業環境監視用のモニタテレビ
11などを含み構成される。
、操縦装置1を操作することによってロボットへの操作
指令信号を発生するロボット操縦コントローラ2.コン
トローラ2からの操作指令信号に応じてロボット動作の
シミュレーションを計算機処理により模擬画像(シミュ
レーション画像)を表示しつつ行う宇宙ロボットシミュ
レータ3、シミュレーションにより得られた模擬画像を
表示するための画像表示装置(高精細グラフィックデイ
スプレィ)4.宇宙ロボット20との間で衛星回線を介
して情報の送受を行う通信装置7゜ロボット20から受
信したロボット側の実画像を表示するための1台または
複数台のモニタテレビ8、フレームキャンコンバータ9
.ロボット実画像信号と模擬画像から生成したロボット
動作同定用の画像信号とを重ねあわせるオーバレイ装置
10、オーバレイ装置10で重ね合わせた画像を同一画
面上に表示するロボット作業環境監視用のモニタテレビ
11などを含み構成される。
シミュレータ3は、ロボット20の例えば構造に関する
種々のモデルデータを格納したロボットデータファイル
5と、ロボットが作業を行う宇宙環境や作業対象物21
に関する種々のモデルデータを格納した宇宙環境データ
ファイル6とを備えており、これらのデータに基づきコ
ントローラ2からのロボット操作指令信号に応じて宇宙
空間に設置されたロボットの動きをシミュレーションに
より求めて、これを模擬画像として画像表示装置4にリ
アルタイムで表示する。
種々のモデルデータを格納したロボットデータファイル
5と、ロボットが作業を行う宇宙環境や作業対象物21
に関する種々のモデルデータを格納した宇宙環境データ
ファイル6とを備えており、これらのデータに基づきコ
ントローラ2からのロボット操作指令信号に応じて宇宙
空間に設置されたロボットの動きをシミュレーションに
より求めて、これを模擬画像として画像表示装置4にリ
アルタイムで表示する。
画像表示装置4における模擬画像の表示態様としては1
例えば第7図に示されるように、一つの画面を四分割し
、それぞれの分割画面に、ロボット全体の斜視画像A(
カメラ17で撮影した画像に相当)、ロボット20の側
面画像B、その正面画像C1および、アーム14の作業
状態を表示する画像D(カメラ15で撮影した画像に相
当)を表示するなどの方法が可能である。またこれらの
分割画面のうちの一つだけをI画面全体に拡大表示する
ことも可能である。
例えば第7図に示されるように、一つの画面を四分割し
、それぞれの分割画面に、ロボット全体の斜視画像A(
カメラ17で撮影した画像に相当)、ロボット20の側
面画像B、その正面画像C1および、アーム14の作業
状態を表示する画像D(カメラ15で撮影した画像に相
当)を表示するなどの方法が可能である。またこれらの
分割画面のうちの一つだけをI画面全体に拡大表示する
ことも可能である。
このロボット遠隔操作システムによるロボット操作を以
下にする。オペレータは操縦装置1を用いて宇宙ロボッ
ト20に行わせたい動作の操縦を行い、コントローラ2
を介してロボットの操作指令信号をシミュレータ3に送
る。シミュレータ3はロボットデータファイル5と宇宙
環境データファイル6からデータを読み込み、これらの
ブタに基づき、ロボット操作指令信号に対応したロボッ
ト動作を計算機処理によりシミュレーションで求め、そ
のシミュレーション結果の模擬画像を画像表示装置4に
リアルタイムで連続的な動画像として表示する。
下にする。オペレータは操縦装置1を用いて宇宙ロボッ
ト20に行わせたい動作の操縦を行い、コントローラ2
を介してロボットの操作指令信号をシミュレータ3に送
る。シミュレータ3はロボットデータファイル5と宇宙
環境データファイル6からデータを読み込み、これらの
ブタに基づき、ロボット操作指令信号に対応したロボッ
ト動作を計算機処理によりシミュレーションで求め、そ
のシミュレーション結果の模擬画像を画像表示装置4に
リアルタイムで連続的な動画像として表示する。
この場合、オペレータはリアルタイムで動作する!i凝
両画像見ながら操縦装置1を用いて操縦を行えるので、
このロボットのシミュレーション操縦は容易である。特
に模擬画像として、ロボットの全体姿勢の斜視画像A、
側面画像B、正面画像C1上面からみた画像りなどを計
算処理により得て第7図に示される如くに表示できるの
で、操縦は一層容易である。
両画像見ながら操縦装置1を用いて操縦を行えるので、
このロボットのシミュレーション操縦は容易である。特
に模擬画像として、ロボットの全体姿勢の斜視画像A、
側面画像B、正面画像C1上面からみた画像りなどを計
算処理により得て第7図に示される如くに表示できるの
で、操縦は一層容易である。
シミュレーション操作に際しては2画像表示装置4上で
、正常に動いたロボット動作のみを逐次取り出して編集
しつつ一連の動作を組み立て、この動作の検証を行った
後に、その動作の操作情報を通信装置7に介して宇宙空
間のロボット20に送る。
、正常に動いたロボット動作のみを逐次取り出して編集
しつつ一連の動作を組み立て、この動作の検証を行った
後に、その動作の操作情報を通信装置7に介して宇宙空
間のロボット20に送る。
ロボット20ではこの操作情報を通信装置12で受信し
、その操作情報に基づきコントローラ13でロボットア
ーム14を動作させる。このロボットアーム14の動作
は理論的にはシミュレータ3で行ったロボットアーム1
4のシミュレーション動作と同じになるはずである。こ
のロボットアーム14の動作はテレビカメラ15で撮影
され、ロボットアーム14の実画像として通信装置12
によって地上装置22に送られる。またカメラ17があ
る場合にはこれらの撮影画像も同様に地上装置22に送
られる。
、その操作情報に基づきコントローラ13でロボットア
ーム14を動作させる。このロボットアーム14の動作
は理論的にはシミュレータ3で行ったロボットアーム1
4のシミュレーション動作と同じになるはずである。こ
のロボットアーム14の動作はテレビカメラ15で撮影
され、ロボットアーム14の実画像として通信装置12
によって地上装置22に送られる。またカメラ17があ
る場合にはこれらの撮影画像も同様に地上装置22に送
られる。
地上装置22では受信した実画像をモニタテレビ8で表
示する。カメラ17が存在する場合にはその画像も他の
モニタテレビ8で表示する。これと共にテレビカメラ1
5の実画像信号(NTSC信号)をオーバーレイ装置l
Oに送る。
示する。カメラ17が存在する場合にはその画像も他の
モニタテレビ8で表示する。これと共にテレビカメラ1
5の実画像信号(NTSC信号)をオーバーレイ装置l
Oに送る。
このオーバレイ装置10にはフレームスキャンコンバー
タ9を介してロボット動作同定用の画像が入力される。
タ9を介してロボット動作同定用の画像が入力される。
この同定用の画像は、ロボット20側から送られてきた
実画像と動作タイミングが一致するように模擬画像を遅
延させたものであり、モニタテレビ11上で実画像と模
擬画像の動きが一致していることを確かめることで、望
みどおりのロボット動作がロボット20側でなされたこ
とを確認できるものである。
実画像と動作タイミングが一致するように模擬画像を遅
延させたものであり、モニタテレビ11上で実画像と模
擬画像の動きが一致していることを確かめることで、望
みどおりのロボット動作がロボット20側でなされたこ
とを確認できるものである。
[発明が解決しようとする課題]
上述のシミュレータによる遠隔操作装置は、ロボットに
大きな動きをさせる場合には、他との干渉の問題などか
らみて非常に有効なものと考えられる。
大きな動きをさせる場合には、他との干渉の問題などか
らみて非常に有効なものと考えられる。
しかし9手首センサや手のひらセンサ等の多くのセンサ
を使用する細かい作業には向いておらず、このような細
かい作業を行う場合には、シミュレータを用いずにロボ
ット操作装置で直接に遠隔地にあるロボットを動かした
ほうがよいと考えられる。
を使用する細かい作業には向いておらず、このような細
かい作業を行う場合には、シミュレータを用いずにロボ
ット操作装置で直接に遠隔地にあるロボットを動かした
ほうがよいと考えられる。
この場合、ロボットを直接に遠隔操作することにより、
宇宙ロボットの実環境における作業対象物の位置・姿勢
が変化し、それにより地上側のロボットシミュレータ内
の環境モデルの位置・姿勢データとの間で食い違いが生
じることになる。
宇宙ロボットの実環境における作業対象物の位置・姿勢
が変化し、それにより地上側のロボットシミュレータ内
の環境モデルの位置・姿勢データとの間で食い違いが生
じることになる。
方、シミュレーションによる遠隔操作が正常に動作する
ためには、宇宙空間の実環境とシミュレータ内の環境モ
デルとが同一であるということが条件となる。したがっ
て、上述の直接遠隔操作の後に再びシミュレーション遠
隔操作を行おうとしても、うまくいかないことになる。
ためには、宇宙空間の実環境とシミュレータ内の環境モ
デルとが同一であるということが条件となる。したがっ
て、上述の直接遠隔操作の後に再びシミュレーション遠
隔操作を行おうとしても、うまくいかないことになる。
またシミュレーションによる遠隔操作だけを行っている
場合でも、ロボットが作業に失敗した時9例えばアーム
で作業対象物をつかみ損ねたような時には、無重力状態
の宇宙空間でのことであるため、実環境での作業対象物
の位置・姿勢が大きく変わることが予想され、シミュレ
ータ内の環境モデルと大きく食い違うことになる。
場合でも、ロボットが作業に失敗した時9例えばアーム
で作業対象物をつかみ損ねたような時には、無重力状態
の宇宙空間でのことであるため、実環境での作業対象物
の位置・姿勢が大きく変わることが予想され、シミュレ
ータ内の環境モデルと大きく食い違うことになる。
このように実環境とシミュレーションによる環境モデル
との間に食い違いが生じた場合には、シミュレータ内の
作業対象物の位置・姿勢データを修正する必要があるが
、従来はこの環境モデルの位置・姿勢の食い違いを簡単
に修正できる手段がなかった。
との間に食い違いが生じた場合には、シミュレータ内の
作業対象物の位置・姿勢データを修正する必要があるが
、従来はこの環境モデルの位置・姿勢の食い違いを簡単
に修正できる手段がなかった。
一つの提案される修正方法としては9作業対象物の位置
・姿勢を多数のセンサを用いて測定し。
・姿勢を多数のセンサを用いて測定し。
計算機内のモデルデータに修正をかける方法もあるが、
装置が大掛かりとなり、現実的ではない。
装置が大掛かりとなり、現実的ではない。
このようにロボットが作業を失敗した時など。
実際の作業対象物の位置・姿勢がシミュレータ内の環境
モデルデータと違ってしまった場合には。
モデルデータと違ってしまった場合には。
この位置・姿勢の修正に非常に多くの手間を要するとい
う問題がある。
う問題がある。
したがって本発明の目的は、シミュレーション環境モデ
ルの位置・姿勢が実環境のそれと違ってしまったような
場合に、シミュレーション環境モデルの位置・姿勢デー
タを実環境のそれと一致させるように自動的に修正を行
えるようにすることにある。
ルの位置・姿勢が実環境のそれと違ってしまったような
場合に、シミュレーション環境モデルの位置・姿勢デー
タを実環境のそれと一致させるように自動的に修正を行
えるようにすることにある。
[課題を解決するための手段]
第1図は本発明に係る原理説明図である。図中、41は
ロボット動作のシミュレータ、42は通信機、43は画
像表示器、45はロボット側の実環境を撮影するカメラ
、46はロボットである。
ロボット動作のシミュレータ、42は通信機、43は画
像表示器、45はロボット側の実環境を撮影するカメラ
、46はロボットである。
本発明に係るロボットの遠隔操作装置は、計算機を用い
てシミュレーション画像を表示しつつロボット動作のシ
ミュレーションを行うシミュレタ41を使用したロボッ
トの遠隔操作装置において、遠隔場所のロボット46が
作業する実環境にある物体の位置と姿勢を測る位置姿勢
測定手段47または48を備え、この位置姿勢測定手段
で得られた実環境物体の位置姿勢データに基づきシミュ
レータ41内にある環境モデルの位置姿勢データが修正
されるよう構成されるものである。
てシミュレーション画像を表示しつつロボット動作のシ
ミュレーションを行うシミュレタ41を使用したロボッ
トの遠隔操作装置において、遠隔場所のロボット46が
作業する実環境にある物体の位置と姿勢を測る位置姿勢
測定手段47または48を備え、この位置姿勢測定手段
で得られた実環境物体の位置姿勢データに基づきシミュ
レータ41内にある環境モデルの位置姿勢データが修正
されるよう構成されるものである。
この位置姿勢測定手段は、一つの形態としてロボット側
に備え付けることができ、この位置姿勢測定手段47で
得られた位置姿勢データが通信機42によってシミュレ
ータ側に送られるように構成できる。
に備え付けることができ、この位置姿勢測定手段47で
得られた位置姿勢データが通信機42によってシミュレ
ータ側に送られるように構成できる。
またこの位置姿勢測定手段は、他の形態として、シミュ
レータ41側に備え付、けることができ、この位置姿勢
測定手段48により、ロボット測から送られてくる実環
境の画像から物体の位置姿勢データが得られるように構
成できる。
レータ41側に備え付、けることができ、この位置姿勢
測定手段48により、ロボット測から送られてくる実環
境の画像から物体の位置姿勢データが得られるように構
成できる。
[作 用 ]
シミュレータ41側の環境モデルの状態がロボット46
側の実環境の状態と食い違ってしまった場合、実環境に
おける物体の位置と姿勢を位置姿勢測定手段47または
48で測り、この結果得られた位置姿勢データに環境モ
デルのそれを一致させる。
側の実環境の状態と食い違ってしまった場合、実環境に
おける物体の位置と姿勢を位置姿勢測定手段47または
48で測り、この結果得られた位置姿勢データに環境モ
デルのそれを一致させる。
位置姿勢測定手段はロボット46側に設けることができ
、その場合、その測定手段47で得られた位置姿勢デー
タは通信機42でシミュレータ41側に送られ、それに
より環境モデルの修正が行われる。
、その場合、その測定手段47で得られた位置姿勢デー
タは通信機42でシミュレータ41側に送られ、それに
より環境モデルの修正が行われる。
また位置姿勢測定手段はシミュレータ41側に設けるこ
ともでき、その場合、カメラ45で撮影された実環境の
画像がシミュレータ41側に送られ、この画像に基づき
位置姿勢測定手段48で位置姿勢データが求められ、こ
れを用いて環境モデルの修正が行われる。
ともでき、その場合、カメラ45で撮影された実環境の
画像がシミュレータ41側に送られ、この画像に基づき
位置姿勢測定手段48で位置姿勢データが求められ、こ
れを用いて環境モデルの修正が行われる。
[実施例]
以下9図面を参照して本発明の詳細な説明する。 第2
図には本発明の一実施例としてのロボットの遠隔操作装
置が示される。この第2図中、前述の従来例で説明した
ものと同じ参照番号のものは同一機能の回路であるので
、これらについては詳しい説明を省略する。
図には本発明の一実施例としてのロボットの遠隔操作装
置が示される。この第2図中、前述の従来例で説明した
ものと同じ参照番号のものは同一機能の回路であるので
、これらについては詳しい説明を省略する。
従来例との相違点として、宇宙ロボット20側には、宇
宙の実環境におかれた物体1例えば作業対象物21の位
置(距離)を測定するレーザレーダ19と、対象物21
をカメラ17で撮影した画像に基づき対象物21の姿勢
を推定する姿勢推定装置18とが備えられていることで
ある。
宙の実環境におかれた物体1例えば作業対象物21の位
置(距離)を測定するレーザレーダ19と、対象物21
をカメラ17で撮影した画像に基づき対象物21の姿勢
を推定する姿勢推定装置18とが備えられていることで
ある。
この姿勢推定装置18は、計算機内部に対象とする物体
のモデルを持ち、モデルマツチング手法により3次元空
間に存在する物体の姿勢を推定するものである。この推
定アルゴリズムとしては種々の方法が提案されており2
例えば本出願人に係る特開平1−106187 (特願
昭62−262731)、特開平1−106188 (
特願昭62−262732)、および特開平1−106
189(特願昭62−262733)の各公報において
も「3次元空間に存在する物体の姿勢推定方法」と称さ
れる方法が提案されている。
のモデルを持ち、モデルマツチング手法により3次元空
間に存在する物体の姿勢を推定するものである。この推
定アルゴリズムとしては種々の方法が提案されており2
例えば本出願人に係る特開平1−106187 (特願
昭62−262731)、特開平1−106188 (
特願昭62−262732)、および特開平1−106
189(特願昭62−262733)の各公報において
も「3次元空間に存在する物体の姿勢推定方法」と称さ
れる方法が提案されている。
第3図はこの姿勢推定方法の概念を概略的に説明する図
である。この推定方法は、物体を撮影して得た2次元画
像の濃淡情報から抽出したその物体の姿勢に関する特徴
パラメータと、その物体のモデルについて種々の姿勢を
想定して生成したそのモデルの姿勢に関するモデル側の
特徴パラメータ(以下、モデルパラメータと称する)の
群とを照合してマツチングをとることによって対象物体
の姿勢を推定するものである。
である。この推定方法は、物体を撮影して得た2次元画
像の濃淡情報から抽出したその物体の姿勢に関する特徴
パラメータと、その物体のモデルについて種々の姿勢を
想定して生成したそのモデルの姿勢に関するモデル側の
特徴パラメータ(以下、モデルパラメータと称する)の
群とを照合してマツチングをとることによって対象物体
の姿勢を推定するものである。
第3図において、カメラで撮影された撮影画像32から
対象物の姿勢を表す特徴パラメータが抽出される。一方
、対象物31のモデルデータ33からはそのモデルの種
々の姿勢に関するモデルパラメータが抽出され、これら
特徴パラメータとモデルパラメータとのパラメータマツ
チングにより対象物の姿勢が推定される。
対象物の姿勢を表す特徴パラメータが抽出される。一方
、対象物31のモデルデータ33からはそのモデルの種
々の姿勢に関するモデルパラメータが抽出され、これら
特徴パラメータとモデルパラメータとのパラメータマツ
チングにより対象物の姿勢が推定される。
パラメータとしては対象物の面ベクトルと重心位置ベク
トルが用いられる。例えばモデルは第4図に示されるよ
うに、多面体の各面の頂点座標A−Hで表現され、この
モデルの各面について面ベクトルと重心位置が計算され
る。そして対象物内に適当に設けた回軸中心*Oが始点
となるよう各面ベクトルを移動させ、またこの回軸中心
*Oを始点とし重心位置を終点とする重心位置ベクトル
を作る。
トルが用いられる。例えばモデルは第4図に示されるよ
うに、多面体の各面の頂点座標A−Hで表現され、この
モデルの各面について面ベクトルと重心位置が計算され
る。そして対象物内に適当に設けた回軸中心*Oが始点
となるよう各面ベクトルを移動させ、またこの回軸中心
*Oを始点とし重心位置を終点とする重心位置ベクトル
を作る。
一方、カメラ側では、撮影した対象物31の2次元画像
の濃淡値により対象物を領域分割してそれを構成する各
面32..32□、323を切り出し、これら各面につ
いての面積S、、S2゜S3と重心位置(X+ 、”J
+ ) 、(X2yz )、(X3 、y3)を求める
。
の濃淡値により対象物を領域分割してそれを構成する各
面32..32□、323を切り出し、これら各面につ
いての面積S、、S2゜S3と重心位置(X+ 、”J
+ ) 、(X2yz )、(X3 、y3)を求める
。
そしてモデル側の各ベクトルを回軸中心*0の回りで回
転させつつ、カメラ側で抽出したデータとパラメータマ
ツチングさせ、マツチングの一致時におけるモデルの姿
勢から、対象物の姿勢を推定するものである。なお、モ
デルはレーザレーダ19で測定された位置データに基づ
きその大きさが縮小、拡大されてパラメータマツチング
に使用される。
転させつつ、カメラ側で抽出したデータとパラメータマ
ツチングさせ、マツチングの一致時におけるモデルの姿
勢から、対象物の姿勢を推定するものである。なお、モ
デルはレーザレーダ19で測定された位置データに基づ
きその大きさが縮小、拡大されてパラメータマツチング
に使用される。
次に実施例のロボット遠隔操作装置の動作を説明する。
宇宙ロボット20側の実環境とシミュレータ3内の環境
モデルのデータ6とに食い違いが生じた場合、宇宙ロボ
ット20側において。
モデルのデータ6とに食い違いが生じた場合、宇宙ロボ
ット20側において。
レーザレーダ19と姿勢推定装置18とを用いて、実環
境の対象物21の位置測定と姿勢推定とを行い、その結
果得られた位置データと姿勢データを通信装置12,7
を用いて地上装置22側に送る。
境の対象物21の位置測定と姿勢推定とを行い、その結
果得られた位置データと姿勢データを通信装置12,7
を用いて地上装置22側に送る。
地上装置22では、この実環境での位置データと姿勢デ
ータをシミュレータ3に送り、シミュレータ3はシミュ
レータ3内に備えられた宇宙環境データファイル6の内
容を、送られてきた実環境の位置データを姿勢データに
一致するようその位置姿勢データの修正を行う。これに
より宇宙の実環境とシミュレータ内の環境モデルとが一
致することになり、以降、シミュレーションによる遠隔
操作が正常に行われるようになる。
ータをシミュレータ3に送り、シミュレータ3はシミュ
レータ3内に備えられた宇宙環境データファイル6の内
容を、送られてきた実環境の位置データを姿勢データに
一致するようその位置姿勢データの修正を行う。これに
より宇宙の実環境とシミュレータ内の環境モデルとが一
致することになり、以降、シミュレーションによる遠隔
操作が正常に行われるようになる。
本発明の実施にあたっては種々の変形形態が可能である
。例えば上述の実施例では、宇宙における対象物21の
位置測定を行うレーザレーダ19と姿勢推定を行う姿勢
推定装置18とを宇宙ロボット20側に備え付けたが2
本発明はこれに限られるものではなく、これらの機能を
地上装置22側に備え付けることも可能である。
。例えば上述の実施例では、宇宙における対象物21の
位置測定を行うレーザレーダ19と姿勢推定を行う姿勢
推定装置18とを宇宙ロボット20側に備え付けたが2
本発明はこれに限られるものではなく、これらの機能を
地上装置22側に備え付けることも可能である。
すなわち1例えば特開平1−106187で提案された
ような、対象物21の実画像データに基づきその対象物
の位置と姿勢を推定する位置姿勢推定装置を地上装置2
2側に設け、この装置を用いて、宇宙ロボット20側か
ら送られてきた実環境画像から対象物21の位置データ
と姿勢データを得るようにしてもよい。
ような、対象物21の実画像データに基づきその対象物
の位置と姿勢を推定する位置姿勢推定装置を地上装置2
2側に設け、この装置を用いて、宇宙ロボット20側か
ら送られてきた実環境画像から対象物21の位置データ
と姿勢データを得るようにしてもよい。
またこの位置姿勢推定装置では十分な精度の位置情報が
得られないような場合には、宇宙ロボット20側にレー
ザレーダ19を置き、一方、地上装置22側には姿勢推
定のみを行う姿勢推定装置18を置くようにしてもよい
。
得られないような場合には、宇宙ロボット20側にレー
ザレーダ19を置き、一方、地上装置22側には姿勢推
定のみを行う姿勢推定装置18を置くようにしてもよい
。
[発明の効果]
本発明によれば、シミュレータ内の環境モデルの位置・
姿勢が実環境のそれと食い違ってしまったような場合に
も、これらを一致させるよう自動的に修正を行うことが
可能になる。
姿勢が実環境のそれと食い違ってしまったような場合に
も、これらを一致させるよう自動的に修正を行うことが
可能になる。
第1図は本発明に係る原理説明図。
第2図は本発明の一実施例としてのロボットの遠隔操作
装置を示すブロック図。 第3図はモデルを使った特徴パラメータマツチングによ
る姿勢推定の概念を示す図。 第4図はモデルの面ベクトルおよび重心位置ベクトルの
抽出方法を説明する図。 第5図はシミュレータを用いたロボット遠隔操作装置の
従来例を示す図。 第6図は宇宙空間にあるロボットと作業対象物の外観の
例を示す図、および。 第7図は地上装置のシミュレータにより生成された分割
表示画像の一例を示す図である。 図において。 l・・・ロボット操縦装置 2・・・ロボット操縦装置コントローラ3・・・宇宙ロ
ボットシミュレータ 4・・・画像表示装置(グラフィックデイスプレィ) 5・・・ロボットデータファイル 6・・・宇宙環境データファイル 7.12・・・通信装置 8・・・モニタテレビ 9・・・フレームスキャンコンバータ 10・・・オーバレイ装置 11・・・ロボット作業環境監視用テレビ13・・・ロ
ボットコントローラ 14・・・ロボットアーム 15.17・・・テレビカメラ 16・・・照明装置 18・・・姿勢推定装置 19・・・レーザレーダ 20・・・宇宙ロボット 21・・・宇宙建造物 22・・・地上装置
装置を示すブロック図。 第3図はモデルを使った特徴パラメータマツチングによ
る姿勢推定の概念を示す図。 第4図はモデルの面ベクトルおよび重心位置ベクトルの
抽出方法を説明する図。 第5図はシミュレータを用いたロボット遠隔操作装置の
従来例を示す図。 第6図は宇宙空間にあるロボットと作業対象物の外観の
例を示す図、および。 第7図は地上装置のシミュレータにより生成された分割
表示画像の一例を示す図である。 図において。 l・・・ロボット操縦装置 2・・・ロボット操縦装置コントローラ3・・・宇宙ロ
ボットシミュレータ 4・・・画像表示装置(グラフィックデイスプレィ) 5・・・ロボットデータファイル 6・・・宇宙環境データファイル 7.12・・・通信装置 8・・・モニタテレビ 9・・・フレームスキャンコンバータ 10・・・オーバレイ装置 11・・・ロボット作業環境監視用テレビ13・・・ロ
ボットコントローラ 14・・・ロボットアーム 15.17・・・テレビカメラ 16・・・照明装置 18・・・姿勢推定装置 19・・・レーザレーダ 20・・・宇宙ロボット 21・・・宇宙建造物 22・・・地上装置
Claims (1)
- 【特許請求の範囲】 1、計算機を用いてシミュレーション画像を表示しつつ
ロボット動作のシミュレーションを行うシミュレータ(
41)を使用したロボットの遠隔操作装置において、 遠隔場所のロボットが作業する実環境にある物体の位置
と姿勢を測る位置姿勢測定手段(47;48)を備え、 この位置姿勢測定手段(47;48)で得られた実環境
物体の位置姿勢データに基づきシミュレータ内にある環
境モデルの位置姿勢データが修正されるように構成され
たロボットの遠隔操作装置。 2、位置姿勢測定手段(47)はロボット側に備えられ
ており、この位置姿勢測定手段(47)で得られた位置
姿勢データが通信手段(42)によってシミュレータ側
に送られるように構成された請求項1記載のロボットの
遠隔操作装置。 3、位置姿勢測定手段(48)はシミュレータ(41)
側に備えられており、この位置姿勢測定手(48)によ
りロボット側から送られてくる実環境の画像から物体の
位置姿勢データが得られるように構成された請求項1記
載のロボットの遠隔操作装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP1219736A JPH0386484A (ja) | 1989-08-25 | 1989-08-25 | ロボットの遠隔操作装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP1219736A JPH0386484A (ja) | 1989-08-25 | 1989-08-25 | ロボットの遠隔操作装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH0386484A true JPH0386484A (ja) | 1991-04-11 |
Family
ID=16740182
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP1219736A Pending JPH0386484A (ja) | 1989-08-25 | 1989-08-25 | ロボットの遠隔操作装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH0386484A (ja) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO1993025355A1 (en) * | 1992-06-05 | 1993-12-23 | Fujitsu Limited | Simulation method for manipulator and apparatus therefor, simulation and control method for manipulator and apparatus therefor, and control method for manipulator and apparatus therefor |
JP2002144266A (ja) * | 2000-11-06 | 2002-05-21 | Toshiba Corp | 作業システム |
JP2009006410A (ja) * | 2007-06-26 | 2009-01-15 | Fuji Electric Systems Co Ltd | 遠隔操作支援装置および遠隔操作支援プログラム |
JP2013527040A (ja) * | 2010-05-26 | 2013-06-27 | ザ・ボーイング・カンパニー | 検査センサを配置する方法及びシステム |
JP2016018472A (ja) * | 2014-07-10 | 2016-02-01 | 日本電気株式会社 | 制御装置、制御システム、および制御方法 |
JP2017097602A (ja) * | 2015-11-24 | 2017-06-01 | 三菱重工業株式会社 | 無人機の制御装置および制御方法 |
CN109001986A (zh) * | 2018-09-20 | 2018-12-14 | 南京邮电大学 | 一种网络化柔性机械臂控制仿真平台及其工作方法 |
WO2022181688A1 (ja) * | 2021-02-26 | 2022-09-01 | ファナック株式会社 | ロボットの設置位置測定装置、設置位置測定方法、ロボット制御装置、教示システムおよびシミュレーション装置 |
-
1989
- 1989-08-25 JP JP1219736A patent/JPH0386484A/ja active Pending
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO1993025355A1 (en) * | 1992-06-05 | 1993-12-23 | Fujitsu Limited | Simulation method for manipulator and apparatus therefor, simulation and control method for manipulator and apparatus therefor, and control method for manipulator and apparatus therefor |
US5526254A (en) * | 1992-06-05 | 1996-06-11 | Fujitsu Limited | Simulation method and apparatus for manipulator apparatus, simulation and control method and apparatus for manipulator apparatus, and control method and apparatus for manipulator apparatus |
JP2002144266A (ja) * | 2000-11-06 | 2002-05-21 | Toshiba Corp | 作業システム |
JP2009006410A (ja) * | 2007-06-26 | 2009-01-15 | Fuji Electric Systems Co Ltd | 遠隔操作支援装置および遠隔操作支援プログラム |
JP2013527040A (ja) * | 2010-05-26 | 2013-06-27 | ザ・ボーイング・カンパニー | 検査センサを配置する方法及びシステム |
JP2016018472A (ja) * | 2014-07-10 | 2016-02-01 | 日本電気株式会社 | 制御装置、制御システム、および制御方法 |
JP2017097602A (ja) * | 2015-11-24 | 2017-06-01 | 三菱重工業株式会社 | 無人機の制御装置および制御方法 |
CN109001986A (zh) * | 2018-09-20 | 2018-12-14 | 南京邮电大学 | 一种网络化柔性机械臂控制仿真平台及其工作方法 |
WO2022181688A1 (ja) * | 2021-02-26 | 2022-09-01 | ファナック株式会社 | ロボットの設置位置測定装置、設置位置測定方法、ロボット制御装置、教示システムおよびシミュレーション装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11801607B2 (en) | Utilizing optical data to control operation of a snake-arm robot | |
US4956790A (en) | Instruction system of remote-control robot | |
US7714895B2 (en) | Interactive and shared augmented reality system and method having local and remote access | |
Bejczy et al. | The phantom robot: predictive displays for teleoperation with time delay | |
JP2021000678A (ja) | 制御システムおよび制御方法 | |
JP3343682B2 (ja) | ロボット動作教示装置および動作教示方法 | |
JP3924495B2 (ja) | 遠隔操作制御装置 | |
US11422625B2 (en) | Proxy controller suit with optional dual range kinematics | |
KR102518766B1 (ko) | 데이터 생성 장치, 데이터 생성 방법, 데이터 생성 프로그램 및 원격 조작 시스템 | |
JPH0386484A (ja) | ロボットの遠隔操作装置 | |
JPH0355194A (ja) | ロボットの遠隔操作装置 | |
JPH01209505A (ja) | 遠隔操作ロボットの教示装置 | |
JPH0421105A (ja) | マニピユレータの立体教示装置 | |
Kim | Virtual reality calibration for telerobotic servicing | |
JP3376029B2 (ja) | ロボットの遠隔操作装置 | |
JPH03213278A (ja) | ロボットの遠隔操作支援方式 | |
CN107363831B (zh) | 基于视觉的遥操作机器人控制系统及方法 | |
JPS5916912B2 (ja) | イドウホウコウキヨウジソウチ | |
JP2634880B2 (ja) | ロボットの遠隔操作装置 | |
Banda et al. | Investigations on collaborative remote control of virtual robotic manipulators by using a Kinect v2 sensor | |
JPH03287394A (ja) | 遠隔ハンドリング装置 | |
JPH0646479A (ja) | 遠隔操作システム | |
Nishida et al. | Development of Pilot Assistance System with Stereo Vision for Robot Manipulation | |
JPH0795560A (ja) | 遠隔操作システムの画像計測方法及びその装置並びに距離計測方法 | |
WO2021192271A1 (ja) | ロボット制御システム、ロボット制御方法、およびロボット制御プログラム |