JP3376029B2 - Robot remote control device - Google Patents

Robot remote control device

Info

Publication number
JP3376029B2
JP3376029B2 JP17527793A JP17527793A JP3376029B2 JP 3376029 B2 JP3376029 B2 JP 3376029B2 JP 17527793 A JP17527793 A JP 17527793A JP 17527793 A JP17527793 A JP 17527793A JP 3376029 B2 JP3376029 B2 JP 3376029B2
Authority
JP
Japan
Prior art keywords
robot
monitor
joint angle
camera
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP17527793A
Other languages
Japanese (ja)
Other versions
JPH0724767A (en
Inventor
道 宏 植之原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP17527793A priority Critical patent/JP3376029B2/en
Publication of JPH0724767A publication Critical patent/JPH0724767A/en
Application granted granted Critical
Publication of JP3376029B2 publication Critical patent/JP3376029B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Manipulator (AREA)
  • Control Of Position Or Direction (AREA)

Description

【発明の詳細な説明】 【0001】 【産業上の利用分野】本発明はロボットの遠隔操作装置
に係り、特にカメラ等の撮影手段を用いてロボットから
の一定距離以内に接近物体がないかどうかを判定するロ
ボットの遠隔操作装置に関する。 【0002】 【従来の技術】宇宙開発も本格的な実用開発の段階を迎
え、宇宙空間においてさまざまな作業を行う必要が生ま
れつつある。とくに現在、米国・カナダ・ヨーロッパお
よび日本の国際協力により設計作業が進みつつある宇宙
ステーションFREEDOMの運用が開始されると、常
時数人の宇宙飛行士がステーションに滞在し、材料合成
などの各種の実験・測定等を行うようになる。 【0003】また、宇宙ステーションを運用しはじめる
と、ステーションの保守・点検も定期的に行う必要が生
じてくる。そのために、環境条件の厳しい真空の宇宙空
間での作業をロボットに行わせる必要性が存在する。こ
れらの作業は地上あるいは宇宙ステーション内の加圧さ
れた室内からの遠隔操作により行われるのが一般的であ
る。 【0004】また、原子力開発においても、今後、老朽
化してゆく既存の原子力発電所の保守・解体作業などの
高レベル放射能環境でのさまざまな作業が必要となって
くると考えられ、やはり遠隔操作によるロボット作業の
必要性が強まりつつある。 【0005】遠隔操作型のロボットとしては、ロボット
の動作を指令するのにマスターアームを使用するマスタ
スレーブマニピュレータや、動作指令にジョイスティッ
クを使用するものなどがある。またロボットの姿勢を指
令するものや、ロボットの速度を指令するものなど、さ
まざまな種類が存在する。 【0006】一般に遠隔操作をする作業員は、実際の作
業を行う危険な作業環境からは離れた位置にいるため
に、カメラを作業場所に配置し、モニタにより作業環境
の様子を把握することが行われる。 【0007】しかし、カメラによる作業環境の把握には
以下のような問題点が存在する。 【0008】1) 立体感が喪失する。モニタに表示さ
れる2次元の映像からは奥行き方向の距離が把握しにく
い。また、画面奥行き方向の距離がわかりにくいため
に、カメラの方向を頻繁に変化させると、カメラの向い
ている方向の把握が困難になる。 【0009】2) ロボットの操作時にカメラのパン・
チルトの操作も同時に行わなければならずに、作業性が
低下する。 【0010】3) ロボットの操作とともにカメラの向
きを随時変更してゆくことにより、モニタに表示されて
いる画面がどの方向を向いたものであるかがわかりにく
くなる。 【0011】4) それとともにジョイスティックなど
の操縦方向とモニタ画面の方向が一致しなくなることに
よる違和感が生じる。 【0012】5) 全体の位置関係の把握が困難な場合
が存在する。アーム先端などをアップで撮している画面
ではアーム先端以外でのまわりの環境との位置関係が把
握できない。一方、全体を撮影している画面では細かい
部分まで見えず、また周囲の物体の背後の様子が見えな
い。 【0013】以上のような問題点を解決するために、こ
れまでにもさまざまな研究や開発が行われてきた。例え
ば、特開昭58−137574号公報に記載されたもの
は2台のテレビカメラを並置し、その立体虚像に対して
操作ロボットを作業する様にしたマニピュレータの操縦
装置とすることにより立体感の喪失を補い、遠隔操作型
のマスタスレーブマニピュレータの作業性の向上を目指
している。特開昭53−33521号公報に記載された
ものはマニピュレータの動きに合わせてテレビカメラの
向きを制御し、常にマニピュレータの手先部がモニタの
ほぼ中央付近に観察できるようにすることにより、カメ
ラのパン・チルトの操作を不要とすることにより作業性
の向上を目指している。特開昭63−11291号公報
に記載されたものはテレビカメラの位置と姿勢を計測
し、モニタTVの画面上のマニピュレータ本体の動作方
向とジョイスティックなどの操作位置の操作方向が常に
一致するように座標系を変更してゆくことにより、操作
時の違和感をなくすことを目指している。 【0014】しかしながら、立体視により画面奥行き感
を補う方法では大まかな物体の前後関係を把握できるも
のの、奥行き方向の詳細な変位はわかりにくく、正確な
位置決めを行う際などにはやはりカメラの向きを変えた
りすることにより確認をする必要があった。また、マニ
ピュレータの動きとともにカメラのパンとチルトを自動
制御する方法は、カメラのパン・チルトのコントローラ
が必要となる上に、作業者が注視したい箇所は作業や状
況により変化し、必ずしもマニピュレータの手先がモニ
タ中央に来ればよいとは限らないという問題がある。ま
た、マニピュレータの動きとともにカメラが連続的に動
くよりも、ある範囲内の動きの間はカメラが静止してい
た方が位置関係が把握しやすい場合も存在する。 【0015】以上のように遠隔操作時における、立体感
の喪失やカメラの方向制御の問題は部分的な解決方法は
いろいろ提案されているものの、いずれも機能が十分で
はなく、遠隔操作ロボットの作業性が高まらずその適用
範囲が広がらない原因ともなっている。 【0016】一方、近年、テレイグジスタンスの研究が
行われるようになってきており、これらの問題点を根本
的に解決する方法として注目されている。作業者にヘッ
ドマウンテッドディスプレイを装着させ、そこに立体映
像を表示し、作業者の視線や頭部の動きを計測すること
により、視線や頭部の動きに連動させてカメラを制御す
ることによりあたかも作業現場にいるような臨場感を与
えようというものである。しかし、テレイグジスタンス
もいまだ研究段階にとどまっており、ヘッドマウンテッ
ドディスプレイは重く高価である。また、十分な視野を
得るためには人間が作業を行うときに覗きこんだりする
ようにカメラが向きだけでなく位置も移動することが望
まれるが、カメラにそこまでの移動能力を持たせるのは
コスト的にも機能的にも困難であり、本質的に解決困難
な点を含んでいる。 【0017】 【発明が解決しようとする課題】このように従来のロボ
ットの遠隔操作装置では、作業環境に設置されたテレビ
カメラの映像をモニタにより観察しながら作業を行うた
めに、立体感が喪失したりカメラのパンやチルトを制御
することによる作業性の低下や操縦方向と画面方向の違
いによる違和感が存在したりしていた。 【0018】そこで本発明の目的は、ロボットの作業環
境およびロボット自身の形状データを利用し、ロボット
と干渉のおそれがある近接物体などの各種情報を画面に
表示することにより、モニタ画面での立体感の喪失など
を補うことにより作業性の高いロボットの遠隔操作装置
を提供することである。 【0019】 【課題を解決するための手段】上記の目的を達成するた
めに本発明は、遠隔場所に配置されたロボットを遠隔操
作するロボットの遠隔操作装置において、ロボットの作
業環境を撮影する撮影手段と、ロボットの作業環境およ
びロボット自身の形状データを有する環境モデル部と、
ロボットの現在の関節角度を関節角度センサの信号値と
して入力する関節角度入力部と、ロボットからの一定距
離以内に物体がないかどうかをロボットの関節角度と前
記形状データとから判定する干渉判定部と、ロボットか
らの一定距離以内に物体がある場合に、前記形状データ
と前記撮影手段の位置および向きとからこの物体の画像
を計算機により演算するオーバレイ表示部と、前記撮影
手段により撮影された実画像と前記オーバレイ表示部の
画像とをオーバレイ表示することが可能なモニタと、を
備えることを特徴とする。 【0020】 【0021】 【0022】 【0023】 【作用】ロボットから一定距離以内に物体があることが
判明したときには、物体の形状データおよびカメラの位
置および向きの値からその物体のモニタ内表示を算出し
モニタにオーバレイ表示することにより操作者に物体の
存在を知らせるので、操作者は衝突する以前に移動方向
を変更することにより衝突を避けることができる。ま
た、オーバレイ表示されていないときには一定距離以内
に接近している物体がないことが保証されているので、
操作者はまわりの物体とロボットとの接近を確認するた
めに、ロボットの移動を一端停止させ、カメラを切り替
えて位置を確認することが不要になり、作業性を向上さ
せることができる。 【0024】また、遠隔場所に配置されたロボットを遠
隔操作するロボットの遠隔操作装置において、ロボット
の作業環境を撮影する撮影手段と、ロボットの作業環境
およびロボット自身の形状データを有する環境モデル部
と、ロボットの現在の関節角度および関節角速度をセン
サの信号値として入力する関節角度角速度入力部と、関
節角度角速度入力部の出力であるロボットの関節角度お
よび関節角速度の値からあらかじめ指定された時間経過
後のロボット関節角度を算出するロボット未来位置予測
部と、ロボット未来位置予測部の出力であるあらかじめ
指定された時間経過後のロボットの関節角度の値とロボ
ット自身および作業環境の形状データからあらかじめ指
定された時間経過後のロボットからの一定距離以内に物
体がないかどうかを判定する干渉判定部と、ロボットか
らの一定距離以内に接近物体がないかどうかをロボット
の関節角度と前記形状データとから判定する干渉判定部
と、ロボットからの一定距離以内に物体がある場合に、
前記形状データと前記撮影手段の位置および向きとから
この接近物体の画像を計算機により演算するオーバレイ
表示部と、前記撮影手段により撮影された実画像と前記
オーバレイ表示部の画像とをオーバレイ表示することが
可能なモニタと、を備えることを特徴とする。これによ
れば、ロボットの現在の関節角度および角速度の値か
ら、現在の角速度が維持されたとした場合の、あらかじ
め指定された時間経過後のロボット関節角度の値を計算
し、その指定時間経過後のロボット関節角度の値と前記
形状データから、指定時間経過後にロボットと一定距離
以内に接近している物体がないかどうかを干渉判定計算
を行うことにより常時判定を行う。ロボットと一定距離
以内に接近している物体があることが判明したときに
は、物体の形状データおよびカメラの位置および向きの
値からその物体のモニタ内表示を算出しモニタにオーバ
レイ表示することにより操作者に物体の存在を知らせる
ので、操作者は現在のロボットの移動速度を維持した場
合に衝突することがわかるので、事前に移動方向を変更
することにより衝突を避けることができる。 【0025】また、前記オーバレイ表示部が、物体をモ
ニタにオーバレイ表示するだけでなく、ロボットの形状
データ、ロボットの関節角度およびカメラ位置および向
きの値からロボットのモニタ内表示を算出しモニタにオ
ーバレイ表示することを特徴とする。これによれば、前
記オーバレイ表示部が、物体をモニタにオーバレイ表示
するだけでなく、ロボットの形状データ、ロボットの関
節角度およびカメラ位置および向きの値からロボットの
モニタ内表示を算出しモニタにオーバレイ表示すること
により、ロボットが作業環境の物体の背後に位置するた
めに隠れて見えない場合にも、ロボットの現在位置を把
握することが可能になり、ロボットが物体の背後に隠れ
るためにカメラを切り替える必要がなくなるために作業
性を向上させることができる。 【0026】また、ロボットの作業環境を撮影する撮影
手段とともに遠隔場所に配置されたロボットを遠隔操作
するロボットの遠隔操作装置において、撮影手段により
撮影された実画像を表示することが可能であるとともに
指示装置によりモニタを指示すると指示されたモニタ内
座標を出力することが可能なモニタと、ロボットの作業
環境およびロボット自身の形状データを有する環境モデ
ル部と、指示装置により指示されたモニタ内座標値に表
示されているロボットの作業環境物体を形状データおよ
びカメラの位置と向きから求める指示物体算出部と、ロ
ボットの現在の関節角度を関節角度センサ信号の値から
入力する関節角度入力部と、ロボットの関節角度の値か
ら指示装置により指示された物体の座標系として形状デ
ータに定義されている座標系でのロボット先端位置およ
び姿勢を算出するロボット相対位置算出部と、ロボット
相対位置算出部の出力であるロボット先端の位置および
姿勢の値をモニタにオーバレイ表示する相対位置オーバ
レイ部とを有することを特徴とする。これによれば、
ニタを指示装置により指示すると指示されたモニタ内座
標値の値が計算機に入力される。モニタ内座標値の値が
入力されると、ロボットの作業環境およびロボット自身
の形状データとカメラの位置と向きから指示されたモニ
タ内座標値に表示されている物体を求め、形状データ内
においてその指示された物体に定義された座標系原点の
変位および姿勢を獲得する。以後、ロボットの関節角度
の値および前記指示物体座標系原点の変位および姿勢の
値からロボット先端の指示物体座標での相対位置および
姿勢を常時計算し、その数値をモニタにオーバレイ表示
することにより、操作者はロボットを位置決めする目標
の相対変位や迂回しようとしている物体との相対変位を
数値で常時知ることができるために、画面奥行き方向の
変位も含め正確な相対位置の把握が可能となる。また、
指示装置によりモニタを指示するだけで、表示する相対
変位の対象物体を変更することが可能であるために、作
業状況の変化に伴い、随時対象物体を変更してゆくこと
により、その状況に応じた必要な情報を得ることがで
き、ロボットの移動に伴いカメラを随時切り替えて行く
必要もなくなり作業性を向上させることができる。 【0027】 【実施例】以下、図面を参照して本発明の実施例を説明
する。まず図1を参照して本発明の第1実施例を説明す
る。図1に示されるように、ロボットの遠隔操作装置
は、作業環境において作業を行うロボット1と、作業環
境の状況をモニタするための撮影手段2であるテレビカ
メラと、テレビカメラで撮影された画像を作業者が観察
するためのモニタ3と、ロボットの現在の関節角度をロ
ボットコントローラから入力する関節角度入力部4と、
ロボットの作業環境およびロボット自身の形状データを
3次元ソリッドモデルとして有する環境モデル部5と、
ロボットの関節角度の値と形状データから、ロボットと
あらかじめ指定された一定距離以内に接近している物体
が存在するかどうかを判定する干渉判定部6と、干渉判
定部6で一定距離以内に接近している物体が存在するこ
とが判明した場合に、接近物体のモニタ内表示を求めモ
ニタにオーバレイ表示するオーバレイ表示部7から構成
される。 【0028】環境モデル部5は、ロボットの作業環境お
よびロボット自身を物体に相当するソリッドの組み合わ
せで表現して保持しており、各ソリッドはそのソリッド
を構成する面・ループ・稜線および頂点のデータを保持
するとともに、そのソリッドに固定された座標系が定義
され、その座標系の基準となる座標系からの変位および
座標変位行列の値を保持している。 【0029】また、各面はその面を構成するループのデ
ータおよびその面の方程式を保持しており、各ループは
そのループを構成する稜線のデータを保持している。各
稜線はその稜線の両端点のデータおよび稜線の両側の面
のデータおよび稜線の両端点に接続されている他の稜線
のデータを保持している。各頂点はその座標値の値を保
持している。従って、形状のソリッドとしての情報を完
全に保持しており、各ソリッド間の干渉の有無の判定に
必要な情報を保持している。 【0030】また、作業環境を構成する物体に関して
は、実際の形状と等しくなるようにモデリングされた表
示用ソリッドとともに、実際の形状よりもあらかじめ指
定された距離だけ拡張した形状でモデリングされている
干渉判定用ソリッドが環境モデル部5には含まれてい
る。つまり、作業環境を構成する物体に関しては、全ソ
リッドについて、表示用ソリッドとともに干渉判定用ソ
リッドが存在している。干渉判定用ソリッドの拡張幅は
オーバレイ表示するかどうかの基準となるロボットと作
業環境の物体との距離に等しくしてある。 【0031】また、ロボット1および撮影手段2は、一
般に人間にとって適さない作業環境に設置されており、
作業者はその作業環境から離れた安全な場所でモニタ3
を見ながら、ジョイスティックやマスタアームなどのロ
ボットの動作入力装置によりロボットの動作を指示す
る。 【0032】次に、図1を参照して本実施例の作用につ
いて説明する。関節角度入力部4は、ロボットコントロ
ーラから一定の時間間隔で関節角度の値を入力する。干
渉判定部6は、関節角度入力部4の出力であるロボット
1の現在の関節角度の値を入力する。 【0033】干渉判定部にはあらかじめロボット1の運
動学方程式が設定されており、関節角度の値からロボッ
トの環境モデル部5に含まれるロボットを構成する各ソ
リッドの座標変換行列の値を算出し設定する。ロボット
を構成する全ソリッドの座標変換行列の値を設定した後
に、環境モデル部5に含まれる作業環境を構成する全干
渉判定用ソリッドとロボットを構成する全ソリッドの間
の干渉判定計算を行う。干渉してる物体が存在する場合
には、ロボットとあらかじめ指定された距離以内に接近
している物体が存在することになる。なぜならば、干渉
判定用ソリッドは実際の形状よりも、あらかじめ指定さ
れた距離だけ拡張した形状にモデリングされているから
である。 【0034】干渉判定部6で干渉している物体が検出さ
れた場合には、その干渉物体名をオーバレイ表示部7に
通知する。オーバレイ表示部はあらかじめ撮影手段2で
あるテレビカメラの位置・姿勢および焦点距離等の値を
保持しており、干渉判定部の出力である干渉物体の表示
用ソリッドの形状データを環境モデル部5から入力し、
投影変換計算を行うことによりモニタでの表示を算出
し、モニタ3にオーバレイ表示する。 【0035】従って、ロボットがまわりの作業環境物体
とあらかじめ指定された距離以内に接近すると、モニタ
3にその物体が撮影手段2で撮影された実画像とともに
オーバレイ表示されるために、その状況がモニタ3を常
時注視しながら作業を行っている作業者には一目瞭然に
わかり、衝突する前にロボットの運動方向を変更するこ
とが可能になる。また、作業者の操作によりロボットが
接近物体から遠ざかり、干渉判定部6が接近物体がない
と出力するようになった場合には、オーバレイ表示部7
はオーバレイ表示を中止する。よって、作業者はロボッ
トが接近物体から遠ざかったことがやはり一目瞭然にわ
かる。 【0036】さらに、あらかじめ指定した距離以内に接
近した場合にはオーバレイ表示がされることがわかって
いるために、作業者は必要以上にロボットとまわりの作
業環境物体との位置関係を把握するために、カメラを切
り替えたりする必要がなくなり、作業性の向上がはから
れる。 【0037】次に図2を参照して本発明の第2実施例に
ついて説明する。図2に示されるように、ロボットの遠
隔操作装置は、作業環境において作業を行うロボット8
と、作業環境の状況をモニタするための撮影手段9であ
るテレビカメラと、テレビカメラで撮影された画像を作
業者が観察するためのモニタ10と、ロボットの現在の
関節角度および角速度の値から、ロボットコントローラ
から入力する関節角速度の値が維持されたと仮定した場
合に、あらかじめ設定された時刻後のロボット関節角度
の値を算出するロボット未来位置予測部12と、ロボッ
トの作業環境およびロボット自身の形状データを3次元
ソリッドモデルで有する環境モデル部13と、ロボット
の関節角度の値と形状データから、ロボットとあらかじ
め指定された一定距離以内に接近している物体が存在す
るかどうかを判定する干渉判定部14と、干渉判定部1
4で一定距離以内に接近している物体が存在することが
判明した場合に、接近物体のモニタ内表示を求めたモニ
タにオーバレイ表示するオーバレイ表示部15から構成
される。 【0038】環境モデル部13は、ロボットの作業環境
およびロボット自身を物体に相当するソリッドの組み合
わせで表現して保持しており、各ソリッドはそのソリッ
ドを構成する面・ループ・稜線および頂点のデータを保
持するとともに、そのソリッドに固定された座標系が定
義され、その座標系の基準となる座標系からの変位およ
び座標変換行列の値を保持している。 【0039】また、各面はその面を構成するループのデ
ータおよびその面の方程式を保持しており、各ループは
そのループを構成する稜線のデータを保持している。各
稜線はその稜線の両端点のデータおよび稜線の両側の面
のデータおよび稜線の両端点に接続されている他の稜線
のデータを保持している。各頂点はその座標値の値を保
持している。従って、形状のソリッドとしての情報を完
全保持しており、各ソリッド間の干渉の有無の判定に必
要な情報を保持している。 【0040】また、作業環境を構成する物体に関して
は、実際の形状と等しくなるようにモデリングされた表
示用ソリッドとともに、実際の形状よりもあらかじめ指
定された距離だけ拡張した形状でモデリングされている
干渉判定用ソリッドが環境モデル部5には含まれてい
る。つまり、作業環境を構成する物体に関しては、全ソ
リッドについて、表示用ソリッドとともに干渉判定用ソ
リッドが存在している。干渉判定用ソリッドの拡張幅は
オーバレイ表示するかどうかの基準となるロボットと作
業環境の物体との距離に等しくしてある。 【0041】また、ロボット8および撮影手段9は、一
般に人間にとって適さない作業環境に設置されており、
作業者はその作業環境から離れた安全な場所でモニタ1
0を見ながらジョイスティックやマスタアームなどのロ
ボットの動作入力装置によりロボットの動作を指示す
る。 【0042】次に、本実施例の作用を図2を参照して説
明する。関節角度角速度入力部11は、ロボットコント
ローラから一手の時間間隔で関節角度および角速度の値
を入力する。 【0043】ロボット未来位置予測部12は、関節角度
角速度入力部11の出力であるロボットの関節角度θお
よび各速度ωの値から、角速度ωが一定で維持されたと
仮定した場合の、あらかじめ設定された時間△t経過後
のロボット関節角度θnを以下のように算出する。 【0044】 θn=θ+ω×△t (1) 干渉判定部14は、ロボット未来位置予測部12の出力
であるロボット8のあらかじめ設定された時間△t経過
後の関節角度の値を入力する。干渉判定部14にはあら
かじめロボット8の運動学方程式が設定されており、関
節角度の値からロボットの環境モデル部13に含まれる
ロボットを構成する各ソリッドの座標変換行列の値を算
出し設定する。ロボット8を構成する全ソリッドの座標
変換行列の値を設定した後に、環境モデル部13に含ま
れる作業環境を構成する全干渉判定用ソリッドとロボッ
トを構成する全ソリッドの間の干渉判定計算を行う。干
渉している物体が存在する場合には、ロボットとあらか
じめ指定された距離以内に接近している物体が存在する
ことになる。なぜならば、干渉判定用ソリッドは実際の
形状よりも、あらかじめ指定された距離だけ拡張した形
状にモデリングされているからである。 【0045】干渉判定部14で干渉している物体が検出
された場合には、その干渉物体名をオーバレイ表示部1
5に通知する。オーバレイ表示部15はあらかじめ撮影
手段9であるテレビカメラの位置・姿勢および焦点距離
等の値を保持しており、干渉判定部14の出力である干
渉物体の表示用ソリッドの形状データを環境モデル部1
3から入力し、投影変換計算を行うことによりモニタで
の表示を算出し、モニタ10にオーバレイ表示する。 【0046】従って、現在の速度を維持した場合に、ロ
ボット8がまわりの作業環境物体とあらかじめ指定され
た距離以内に接近する状況になると、モニタ10にその
物体が撮影手段9で撮影された実画像とともにオーバレ
イ表示されるために、その状況がモニタ10を常時注視
しながら作業を行っている作業者には一目瞭然にわか
り、衝突する前にロボットの運動方向を変更することが
可能になる。また、作業者の操作によりロボットが接近
物体から遠ざかり、干渉判定部14が接近物体がないと
出力するようになった場合には、オーバレイ表示部15
はオーバレイ表示部を中止する。よって、作業者はロボ
ットがまわりの作業環境の物体とは衝突しない運動方向
にあることがやはり一目瞭然にわかる。 【0047】さらに、現在の速度を維持した場合にあら
かじめ設定した時間経過後にあらかじめ指定した距離以
内に接近する場合にはオーバレイ表示がされることがわ
かっているために、作業者は必要以上にロボットとまわ
りの作業環境物体との位置関係や現在のロボットの運動
方向を把握するために、カメラを切り替えたりする必要
がなくなり、作業性の向上がはかられる。 【0048】また、第1実施例と第2実施例とを組み合
わせることにより、あらかじめ指定した距離以内に接近
している物体が存在する場合にはある色でオーバレイ表
示を行い、現在の速度を維持したときにあらかじめ指定
した距離以内に接近する場合には別の色でオーバレイ表
示するようにすることにより、ロボットとまわりの物体
との位置関係およびロボットの運動方向をより詳細に作
業者に通知することが可能になる。 【0049】さらに、環境モデル部に含まれるロボット
の形状データ・関節角度の値およびカメラの位置・向き
の値からロボットのモニタ内表示を算出し、モニタにオ
ーバレイ表示することにより、たとえロボットが他の物
体の背後に隠れて見えない位置にいる場合でも、オーバ
レイ表示によりロボット位置を把握することが可能にな
る。その結果、作業者がカメラを切り替える必要が少な
くなるとともに、カメラを切り替えることにより視野方
向の変化による違和感の発生を防ぐことができ、作業性
の向上をはかることができる。 【0050】次に図3を参照して本発明の第3実施例に
ついて説明する。図3に示されるように、本実施例は、
作業環境において作業を行うロボット16と、作業環境
の状況をモニタするための撮影手段17であるテレビカ
メラと、テレビカメラで撮影された画像を作業者が観察
するためのモニタ18と、モニタ内座標値を指示する指
示装置19と、指示装置19により指示されたモニタ内
座標値に表示されている物体の環境モデル部22で定義
された物体名を求める指示物体算出部20と、現在の関
節角度をロボットコントローラから入力する関節角度入
力部21と、ロボットの作業環境およびロボット自身の
形状データを3次元ソリッドモデルで有する環境モデル
部22と、ロボットの関節角度の値と形状データに含ま
れる指示物体の座標変換行列の値から、ロボット先端の
指示物体座標系での位置および姿勢の値を算出するロボ
ット相対位置算出部23と、ロボット相対位置算出部2
3で算出された指示物体座標系でのロボット先端位置お
よび姿勢の値をモニタ画面にオーバレイ表示する相対位
置オーバレイ部24から構成される。 【0051】環境モデル部22は、ロボットの作業環境
およびロボット自身を物体に相当するソリッドの組み合
わせで表現して保持しており、各ソリッドはそのソリッ
ドを構成する面・ループ・稜線および頂点のデータを保
持するとともに、そのソリッドに固定された座標系が定
義され、その座標系の基準となる座標系からの変位およ
び座標変換行列の値を保持している。また、各面はその
面を構成するループのデータおよびその面の方程式を保
持しており、各ループはそのループを構成する稜線のデ
ータを保持している。各稜線はその稜線の両端点のデー
タおよび稜線の両側の面のデータおよび稜線の両端点に
接続されている他の稜線のデータを保持している。各頂
点はその座標値の値を保持している。 【0052】また、ロボット16および撮影手段17
は、一般に人間にとって適さない作業環境に設置されて
おり、作業者はその作業環境から離れた安全な場所でモ
ニタ18を見ながらジョイスティックやマスタアームな
どのロボットの動作入力装置によりロボットの動作を指
示する。 【0053】次に、本実施例の作用を図3を参照して説
明する。作業者が指示装置19を用いてモニタ18を指
示すると、指示されたモニタ内座標値の値が指示物体算
出部20に入力される。指示装置19は通常、計算機の
マウスやタッチペンなどである。指示物体算出部20で
は、あらかじめ設定されたカメラの位置・向きおよび焦
点距離の値などと環境モデル部22に含まれる形状デー
タから、指示装置19で指示されたモニタ内座標値に表
示されている物体を求める。 【0054】以下に指示されたモニタ内座標値に表示さ
れている物体を求める方法を説明する。 【0055】まずカメラの位置・向きおよび焦点距離な
どの値と環境モデル部22に含まれる形状データから、
代表的な陰面消去法であるZバッファ法で用いられるZ
バッファを計算する。つまり、モニタの分解能の大きさ
の配列を用意し、配列の各要素をモニタの各画素に対応
させ、各画素に表示されている物体のスクリーン座標で
奥行き方向座標値であるZ値を各配列要素に記憶させ
る。スクリーン座標とは、モニタ画面内にXY軸を、モ
ニタ画面と垂直方向にZ軸をとり、モニタ画面中心を原
点にとる座標系のことである。また、この配列をZバッ
ファと呼ぶ。通常、陰面消去ではZバッファの各要素に
RGBの色を表すデータおよびZ値を記憶させるが、こ
こでは色データのかわりに表示されている物体のソリッ
ド名を記憶させる。このようなZバッファをあらかじめ
計算し記憶しておくことにより、指示装置19で指示さ
れたモニタ内座標値におけるZバッファの値を参照する
だけで指示された物体名を求めることができる。なお、
カメラの向きや倍率を変更した場合には、Zバッファを
再計算する必要がある。 【0056】ロボット相対位置算出部23では、関節角
度入力部21からロボットの関節角度の値を入力し、あ
らかじめ設定されているロボット16の運動学方程式を
計算することにより、基準となる座標系でのロボット1
6の先端位置および姿勢の値を計算した後に、指示物体
算出部20の出力である指示物体の座標変換行列を環境
モデル部22から入力し、座標変換計算を行うことによ
り、指示物体の座標系でのロボット先端位置および姿勢
の値を算出する。 【0057】相対位置オーバレイ部24では、ロボット
相対位置算出部23の出力である指示物体の座標系での
ロボット先端位置および姿勢の値をモニタにオーバレイ
表示する。従って、作業者は撮影手段17であるテレビ
カメラで撮影された作業環境が表示されているモニタを
注視しながら作業を行いながら、オーバレイ表示されて
いる指示装置により指示した物体とロボット先端との相
対変位の値を見ることとができる。モニタ画面からは奥
行き方向の位置関係が把握できにくいことが多いが、以
上のようにその場の状況で重要となる物体との相対位置
が数値でモニタ上に表示させることにより、作業者は相
対位置変位を数値として正確に把握することが可能にな
り、カメラをいろいろ切り替えて位置関係を把握する必
要がなくなり、作業性の向上をはかることができる。 【0058】また、マウスやタッチペンなどの指示装置
によりモニタを指示するだけで、モニタ画面に表示する
相対座標値の対象となる物体を変更することが可能であ
るので、ロボットの移動に伴い随時対象物体を変更して
ゆくことにより、ひとつのカメラによる画面を見続ける
ことにより作業を遂行することも可能になる。ひとつの
カメラによる画面で作業を実行することにより、カメラ
切り替えによる時間が節約できるだけでなく、カメラ切
り替えによる視野方向の変化やカメラ視野方向とジョイ
スティックなどの操作方向の違いによる違和感の発生を
防ぐことができ、作業性の向上がはかられる。なお、座
標値の値はモニタ画面上にオーバレイ表示できない場合
には隣接する計算機画面等に表示してもかまわない。ま
た、第一の実施例および第二の実施例と組み合わせるこ
とが可能である。 【0059】 【発明の効果】以上説明したように、本発明の構成によ
れば、ロボットの作業環境およびロボット自身の形状デ
ータを利用し、近接物体などの各種情報を作業環境の実
画像にオーバレイ表示することにより、モニタ画面を通
しての作業における立体感の喪失などの情報の欠落を補
い、ロボットの遠隔操作における作業性の向上をはかる
ことができる。
DETAILED DESCRIPTION OF THE INVENTION [0001] BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a robot remote control device.
In particular, from the robot using the photographing means such as a camera
To determine whether there is an approaching object within a certain distance of
The present invention relates to a remote control device for a bot. [0002] [Prior Art] Space development also welcomes the stage of full-scale practical development
Need to perform various tasks in outer space.
It is getting. Especially in the United States, Canada, Europe and
Space is undergoing design work through international cooperation between Japan and Japan
When the operation of the station FREEDOM starts,
A few astronauts stay at the station and synthesize materials
Various experiments and measurements will be performed. [0003] Also, the space station begins to operate.
Stations need to be regularly maintained and inspected.
Will come. For this reason, the vacuum space
There is a need to have the robot do the work between. This
These operations are performed on pressurized ground or space stations.
It is generally performed by remote control from a closed room.
You. [0004] In the nuclear power development,
Maintenance and dismantling of existing nuclear power plants
Various tasks in high-level radioactive environment are required
Robot operation by remote control.
The need is growing. [0005] Remote control robots include robots.
Using a master arm to command the operation of
Use the joystick for slave manipulators or operation commands.
And others that use In addition, the posture of the robot is
Commands, commands for robot speed, etc.
There are various types. [0006] In general, a worker who operates a remote control requires an actual work.
Work away from dangerous working environments
The camera at the work place and monitor the work environment
The state of is performed. [0007] However, in order to grasp the working environment using a camera,
The following problems exist. 1) The three-dimensional effect is lost. Displayed on the monitor
The distance in the depth direction from the two-dimensional image
No. Also, because the distance in the screen depth direction is difficult to understand
When the direction of the camera is changed frequently,
It becomes difficult to grasp the direction in which it is moving. 2) Pan the camera when operating the robot.
Tilt operation must be performed at the same time.
descend. 3) The direction of the camera along with the operation of the robot
By changing the setting at any time, the
It is difficult to see which direction the screen is facing.
It becomes. 4) A joystick and the like
Control direction and monitor screen direction no longer match
This causes a sense of incongruity. 5) When it is difficult to grasp the overall positional relationship
Exists. Screen shot with the tip of the arm up
The position relationship with the surrounding environment other than the arm tip
I can't grip. On the other hand, on the screen where
I can't see the part, and I can't see the situation behind the surrounding objects
No. [0013] To solve the above problems,
Various researches and developments have been performed until then. example
For example, those described in JP-A-58-137574
Has two TV cameras side by side,
Manipulator operation for operating an operating robot
The remote control type compensates for the loss of three-dimensional effect by using a device.
Aims to Improve Master-Slave Manipulator Workability
are doing. JP-A-53-33521.
The thing of the TV camera according to the movement of the manipulator
Controls the orientation so that the manipulator's
By being able to observe near the center,
Operability by eliminating the need for pan / tilt operation
Aiming to improve. JP-A-63-11291
The items described in the section measure the position and orientation of the TV camera
How to operate the manipulator on the monitor TV screen
Direction and the operation direction of the operation position such as a joystick
By changing the coordinate system to match,
We aim to eliminate the discomfort of time. However, the sense of depth of the screen due to the stereoscopic view.
Can compensate for the approximate context of the object
However, detailed displacement in the depth direction is difficult to understand and accurate
I changed the direction of the camera when positioning.
Confirmation was required. Also Mani
Automatic pan and tilt of the camera with the movement of the
Control method is camera pan / tilt controller
Is necessary, and where the operator wishes to
May change depending on the situation, and the manipulator
There is a problem that it is not always necessary to come to the center. Ma
In addition, the camera moves continuously with the movement of the manipulator.
Rather, the camera is stationary during movement within a certain area.
In some cases, it is easier to grasp the positional relationship. As described above, the three-dimensional effect at the time of remote control.
Problem of camera loss and camera orientation control is a partial solution
Although various suggestions have been made,
Without increasing the workability of the remote control robot
It also causes the range not to expand. On the other hand, in recent years, research on telexistence has been
And to address these issues at the root
It is attracting attention as a solution to the problem. Head to workers
Attach a mounted display and stereoscopic image there
Displaying images and measuring worker's gaze and head movement
Controls the camera in conjunction with the gaze and head movement.
Gives a sense of presence as if you were at the work site
It is something to try. But telexistence
It is still in the research stage, and the head mount
Display is heavy and expensive. Also, have a sufficient field of view
In order to get it, humans peek when doing work
It is expected that the camera moves not only in the direction but also in the position.
But the camera has the ability to move that far
Difficult in terms of cost and function, inherently difficult to solve
It contains various points. [0017] As described above, the conventional robot
The remote control unit uses a TV set in the work environment.
Work while observing the camera image on the monitor
Control the camera's pan and tilt for loss of stereoscopic effect
The work direction and screen direction
There was a sense of incongruity. Therefore, an object of the present invention is to provide a robot working ring.
Using the shape data of the environment and the robot itself
Various information such as nearby objects that may interfere with
Displaying causes loss of stereoscopic effect on the monitor screen, etc.
Remote control device for robots with high workability by supplementing
It is to provide. [0019] Means for Solving the Problems To achieve the above object,
The present invention is directed to remotely controlling a robot located at a remote location.
In the robot remote control device,
The shooting means for shooting the working environment, the robot working environment and
An environment model unit having shape data of the robot and the robot itself,
The current joint angle of the robot is determined by the signal value of the joint angle sensor.
Angle input unit for inputting a fixed distance from the robot
The robot's joint angle
An interference determination unit that determines from the shape data
If there is an object within a certain distance of
And an image of the object from the position and orientation of the photographing means.
An overlay display unit for calculating the
Means of the actual image taken by the means and the overlay display section
A monitor capable of displaying an overlay with the image.
It is characterized by having. [0020] [0021] [0022] [0023] [Function] The presence of an object within a certain distance from the robot
If found, the shape data of the object and the position of the camera
Calculate the display on the monitor from the position and orientation values.
By displaying an overlay on the monitor, the operator
Notifying the presence, the operator can move in the direction
Can be avoided by changing. Ma
Also, within a certain distance when no overlay is displayed
Is guaranteed that no objects are near
The operator confirms that the robot is approaching the surrounding objects
Stop the robot movement once and switch the camera
It is no longer necessary to check the position
Can be made. Also,Move a remotely located robot
In a remote control device for a robot that remotely operates, the robot
Means for photographing the work environment of the robot and the work environment of the robot
Model part with shape data of robot and robot itself
And the robot's current joint angle and joint angular velocity
A joint angle / angular velocity input unit for inputting the
The joint angle of the robot, which is the output of the
Time specified in advance from the value of the joint and angular velocity
Robot Future Position Prediction to Calculate Post Robot Joint Angle
Unit and the output of the robot future position prediction unit
The value of the robot joint angle and the robot after the specified time has elapsed
From the shape data of the
Object within a certain distance from the robot after a specified time
An interference determination unit that determines if there is no body
The robot checks whether there is an approaching object within a certain distance of
Determination unit for determining from the joint angle of the object and the shape data
And if there is an object within a certain distance from the robot,
From the shape data and the position and orientation of the photographing unit
An overlay that calculates the image of this approaching object using a computer
A display unit, the real image taken by the photographing means and the
It is possible to overlay display the image of the overlay display section.
A possible monitor. This
IfThe current joint angle and angular velocity values of the robot?
If the current angular velocity is maintained,
Calculates the value of the robot joint angle after the specified time has elapsed
And the value of the robot joint angle after the specified time has elapsed and
A certain distance from the robot after a specified time elapses from the shape data
Interference judgment calculation whether there is no object approaching within
, The determination is always made. Fixed distance with robot
When it is determined that there is an object within
Is the shape data of the object and the position and orientation of the camera.
Calculates the display on the monitor of the object from the value and overwrites the monitor
Inform the operator of the presence of an object by displaying a ray
Therefore, if the operator maintains the current speed of the robot,
Change the direction of movement in advance
By doing so, collisions can be avoided. Also,The overlay display section monitors the object.
In addition to displaying overlays on the robot, the shape of the robot
Data, robot joint angles and camera position and orientation
The display on the monitor of the robot is calculated from the
It is characterized by displaying a valley. According to this,
The overlay display section displays the object on the monitor as an overlay
Not only the robot's shape data,
From the values of the knot angle and camera position and orientation, the robot
Calculate the display in the monitor and overlay display on the monitor
Allows the robot to stay behind objects in the work environment
The current position of the robot, even if
Robots can hide behind objects
Work to eliminate the need to switch cameras
Performance can be improved. [0026]In addition, shooting to shoot the working environment of the robot
Remotely control a robot located in a remote place with means
Remote control device of a robot
It is possible to display the actual image taken
When the monitor is instructed by the pointing device, the monitor
Monitor capable of outputting coordinates and robot work
Environment model with environment and robot's own shape data
Displayed on the monitor and the coordinate values in the monitor specified by the pointing device.
The robot's work environment object shown is
A pointing object calculation unit that is determined from the position and orientation of the camera
The current joint angle of the bot is calculated from the value of the joint angle sensor signal.
The joint angle input part to input and the value of the joint angle of the robot
Shape data as the coordinate system of the object specified by the pointing device
Robot tip position in the coordinate system defined in the
Robot relative position calculation unit for calculating robot posture
The position of the robot tip, which is the output of the relative position calculator,
Relative position over to display posture value on monitor
And a ray portion. According to this,Mo
Monitor seat that has been instructed to indicate
The value of the standard value is input to the computer. The value of the coordinate value in the monitor is
When entered, the robot's work environment and the robot itself
Monitor specified from the shape data of the camera and the position and orientation of the camera.
Find the object displayed at the coordinate value in the
In the coordinate system origin defined for the indicated object
Acquire displacement and attitude. Hereafter, the joint angle of the robot
And the displacement and orientation of the origin of the pointing object coordinate system
From the value, the relative position of the robot tip in the pointing object coordinates and
Posture is constantly calculated and the numerical value is displayed on the monitor as an overlay
By doing so, the operator can position the robot
Relative displacement of the object and the relative displacement
Because you can always know by numerical values,
It is possible to accurately grasp the relative position including the displacement. Also,
By simply pointing the monitor with the pointing device, the relative
Since it is possible to change the object to be displaced,
Changing the target object at any time as the business situation changes
Can obtain the necessary information according to the situation.
Switch cameras as the robot moves
There is no need to do so, and workability can be improved. [0027] Embodiments of the present invention will be described below with reference to the drawings.
I do. First, a first embodiment of the present invention will be described with reference to FIG.
You. As shown in FIG. 1, a remote control device for a robot
Is a robot that performs work in a work environment,
TV camera which is a photographing means 2 for monitoring the state of the environment
Workers observe images taken with camera and TV camera
And the current joint angle of the robot
A joint angle input unit 4 input from the bot controller,
The robot working environment and the robot's own shape data
An environment model unit 5 having a three-dimensional solid model;
From the value of the joint angle of the robot and the shape data,
Objects approaching within a certain distance specified in advance
An interference determination unit 6 for determining whether or not
Check that there is an object approaching within a certain distance
Is found, the display of the approaching object is displayed on the monitor.
Consists of an overlay display unit 7 for overlay display on the monitor
Is done. The environment model unit 5 includes a robot working environment and
Of the solid that corresponds to the object and the robot itself
Each solid is represented by a solid
Holds data of faces, loops, edges, and vertices that make up
And the coordinate system fixed to the solid is defined
And the displacement from the coordinate system that is the reference of the coordinate system and
Holds the value of the coordinate displacement matrix. Further, each surface is a data of a loop constituting the surface.
Data and its surface equations.
It holds the data of the ridge lines that make up the loop. each
The ridge is the data of both ends of the ridge and the faces on both sides of the ridge
Data and other edges connected to both ends of the edge
Holds the data. Each vertex stores its coordinate value.
I have Therefore, the information as a solid of the shape is completely completed.
Fully retained to determine the presence or absence of interference between solids
Holds necessary information. Further, regarding the objects constituting the working environment,
Is a table modeled to be equal to the actual shape
Along with the indicating solid,
Modeled with a shape expanded by a specified distance
The solid for interference determination is included in the environment model part 5.
You. In other words, the objects that make up the work environment
For the lid, together with the display solid,
There is a lid. The expanded width of the collision detection solid is
Robot and work as a reference for whether to display overlay
It is equal to the distance to the object in the industrial environment. Further, the robot 1 and the photographing means 2
Generally, it is installed in a work environment that is not suitable for humans,
The worker can monitor 3 in a safe place away from the work environment.
While watching the joystick or master arm.
Indicate the robot's motion with the bot's motion input device
You. Next, the operation of this embodiment will be described with reference to FIG.
Will be described. The joint angle input unit 4 is a robot control
The value of the joint angle is input from the controller at regular time intervals. Dried
The negotiation determination unit 6 is a robot which is an output of the joint angle input unit 4.
Enter the value of the current joint angle of 1. The operation of the robot 1 is determined in advance in the interference determination unit.
A dynamic equation is set, and the robot
Software that constitutes the robot included in the environment model section 5
Calculate and set the value of the coordinate transformation matrix of the lid. robot
After setting the value of the coordinate transformation matrix of all solids that compose
In addition, the whole of the working environment included in the environment model part 5
Between the solid for negotiation determination and all solids constituting the robot
Is calculated. When there is an interfering object
Within a specified distance of the robot
There is an object that is doing. Because of the interference
Judgment solids are specified in advance rather than the actual shape.
Because it is modeled as a shape that is extended by a certain distance
It is. The interference judging section 6 detects an interfering object.
Is displayed, the name of the interference object is displayed on the overlay display section 7.
Notice. The overlay display section must be
The values of the position / posture and focal length of a certain TV camera
Display of the interference object that is held and is the output of the interference determination unit
Input the shape data of the solid from the environment model part 5,
Calculate display on monitor by performing projection conversion calculation
Then, an overlay is displayed on the monitor 3. Therefore, when the robot moves around the work environment,
When approaching within a predetermined distance, the monitor
3 shows the object together with the actual image taken by the photographing means 2.
In order to be displayed as an overlay,
At-a-glance for workers working while watching
Understand and change the direction of motion of the robot before colliding.
And become possible. Also, the robot is operated by the operator.
Moving away from the approaching object, the interference determination unit 6 has no approaching object
Is output, the overlay display section 7
Stops overlay display. Therefore, the worker
It is clear at a glance that the object has moved away from the approaching object
Call Further, contact within a predetermined distance is performed.
If you get close, you will see an overlay display
Workers need to work with the robot more than necessary.
Turn off the camera to grasp the positional relationship with
There is no need to change, and workability is improved.
It is. Next, referring to FIG. 2, a second embodiment of the present invention will be described.
explain about. As shown in FIG.
The remote operation device is a robot 8 that works in a work environment.
And photographing means 9 for monitoring the state of the work environment.
Create a TV camera and images taken with the TV camera.
A monitor 10 for the trader to observe and the current
From the values of joint angle and angular velocity, the robot controller
Assuming that the value of the joint angular velocity input from
The robot joint angle after a preset time
Robot future position prediction unit 12 for calculating the value of
3D work environment and robot's own shape data
Environment model unit 13 having a solid model and robot
From the joint angle value and shape data of the robot,
There is an object approaching within the specified distance
Interference determination unit 14 that determines whether the
In 4 there is an object approaching within a certain distance
If found, the monitor requesting display of the approaching object on the monitor
Composed of an overlay display unit 15 for displaying an overlay on the data
Is done. The environment model section 13 is a robot working environment.
Combination of robot and robot itself
Each solid is represented by its solid
Data of faces, loops, edges, and vertices that make up
And the coordinate system fixed to the solid is defined.
Displacement from the coordinate system that is the reference of the coordinate system.
And the values of the coordinate transformation matrix. Further, each surface is a data of a loop constituting the surface.
Data and its surface equations.
It holds the data of the ridge lines that make up the loop. each
The ridge is the data of both ends of the ridge and the faces on both sides of the ridge
Data and other edges connected to both ends of the edge
Holds the data. Each vertex stores its coordinate value.
I have Therefore, the information as a solid of the shape is completely completed.
All are retained and are necessary for determining the presence or absence of interference between solids.
Holds important information. Further, regarding the objects constituting the working environment,
Is a table modeled to be equal to the actual shape
Along with the indicating solid,
Modeled with a shape expanded by a specified distance
The solid for interference determination is included in the environment model part 5.
You. In other words, the objects that make up the work environment
For the lid, together with the display solid,
There is a lid. The expanded width of the collision detection solid is
Robot and work as a reference for whether to display overlay
It is equal to the distance to the object in the industrial environment. Further, the robot 8 and the photographing means 9
Generally, it is installed in a work environment that is not suitable for humans,
The worker monitors the monitor 1 in a safe place away from the work environment.
While watching 0, use a joystick or master arm
Indicate the robot's motion with the bot's motion input device
You. Next, the operation of this embodiment will be described with reference to FIG.
I will tell. The joint angle angular velocity input unit 11 is a robot controller.
Value of joint angle and angular velocity at time interval of one hand from roller
Enter The robot future position prediction unit 12 calculates the joint angle
The robot joint angle θ and the output of the angular velocity
And the value of each speed ω, the angular speed ω was kept constant
Assuming that a predetermined time Δt has elapsed
Is calculated as follows. [0044]         θn = θ + ω × △ t (1) The interference determination unit 14 outputs the output of the robot future position prediction unit 12
The preset time Δt of the robot 8 which is
Enter the value of the later joint angle. The interference determination unit 14
The kinematic equation of the robot 8 has been set,
Included in the environment model part 13 of the robot from the value of the knot angle
Calculate the value of the coordinate transformation matrix for each solid that composes the robot
Set out. Coordinates of all solids that make up robot 8
After setting the value of the transformation matrix, it is included in the environment model unit 13.
Solids and robots that make up all interference
Perform interference determination calculation between all solids that compose the object. Dried
If there is an object in negotiation,
There is an object approaching within the previously specified distance
Will be. Because the solid for collision determination is
A shape expanded by a predetermined distance from the shape
This is because it is modeled in a shape. An interfering object is detected by the interference determination unit 14.
Is displayed, the name of the interfering object is displayed in the overlay display unit 1.
Notify 5 The overlay display unit 15 shoots in advance
Position / posture and focal length of TV camera which is means 9
And the like, and the output of the interference determination unit 14
Environmental model part 1
Input from 3 and perform projection conversion calculation to monitor
Is calculated and displayed on the monitor 10 as an overlay. Therefore, if the current speed is maintained,
The bot 8 is designated in advance as the surrounding work environment object.
When the vehicle approaches within the distance, the monitor 10
The object is overlaid with the actual image taken by the photographing means 9.
To be displayed on the monitor 10
At a glance
Change the direction of motion of the robot before colliding.
Will be possible. In addition, the robot approaches by the operation of the worker
Moving away from the object, the interference determination unit 14 determines that there is no approaching object
When output is started, the overlay display unit 15
Stops the overlay display section. Therefore, the worker
The direction of movement that the robot does not collide with objects in the surrounding work environment
Is clearly understood at a glance. Further, when the current speed is maintained,
After the preset time elapses, the distance
If you are approaching the inside, you will see an overlay display.
Worker is more likely to talk with the robot than necessary
Work environment and the current robot motion
Need to switch cameras to know direction
And workability is improved. Further, the first embodiment and the second embodiment are combined.
Approaching within a specified distance
If there is an object that is
Specify and pre-specify when maintaining the current speed
If you approach within the specified distance, the overlay
By showing the robot and the surrounding objects
The position relationship with the robot and the movement direction of the robot
It becomes possible to notify the trader. Further, the robot included in the environment model section
Shape data, joint angle values, camera position and orientation
Calculate the display on the monitor of the robot from the value of
By displaying the valley, even if the robot
Even if you are hidden behind your body,
Ray display makes it possible to grasp the robot position.
You. As a result, there is less need for the operator to switch cameras.
And changing the camera to view
It can prevent discomfort from occurring due to changes in orientation and can improve workability.
Can be improved. Next, referring to FIG. 3, a third embodiment of the present invention will be described.
explain about. As shown in FIG.
A robot 16 for working in a work environment, and a work environment
TV camera as a photographing means 17 for monitoring the situation of
Workers observe images taken with camera and TV camera
And a finger for indicating a coordinate value in the monitor.
Indicating device 19 and the monitor indicated by the indicating device 19
Defined by the environment model part 22 of the object displayed in the coordinate value
An instructed object calculating unit 20 for obtaining the obtained object name;
Enter joint angles to input joint angles from the robot controller
The force unit 21 and the working environment of the robot and the robot itself
Environment model with shape data as a three-dimensional solid model
Part 22 and included in the value and shape data of the joint angle of the robot
From the coordinate transformation matrix of the pointing object
Robot that calculates the position and orientation values in the pointing object coordinate system
Robot relative position calculator 23 and robot relative position calculator 2
Robot tip position in the pointing object coordinate system calculated in Step 3
Relative position for displaying overlay and posture values on the monitor screen
And an overlay unit 24. The environment model section 22 is a robot work environment.
Combination of robot and robot itself
Each solid is represented by its solid
Data of faces, loops, edges, and vertices that make up
And the coordinate system fixed to the solid is defined.
Displacement from the coordinate system that is the reference of the coordinate system.
And the values of the coordinate transformation matrix. Also, each side
Stores the data of the loops that make up a surface and the equations for that surface
Each loop has its edge data
Data. Each ridge line is the data of both end points of the ridge line.
Data on both sides of the edge
Holds data of other connected edges. Each peak
A point holds the value of its coordinate value. The robot 16 and the photographing means 17
Is installed in a work environment that is generally unsuitable for humans.
Workers are in a safe place away from the work environment.
Joystick and master arm
Which robot motion input device
Show. Next, the operation of this embodiment will be described with reference to FIG.
I will tell. The operator points the monitor 18 using the pointing device 19.
When indicated, the indicated coordinate value in the monitor is
It is input to the output unit 20. The pointing device 19 is usually
Examples include a mouse and a touch pen. In the pointing object calculation unit 20,
Is the preset camera position / orientation and focus.
Point distance values and shape data included in the environment model part 22
From the monitor to the coordinate values in the monitor designated by the pointing device 19.
Find the object shown. The coordinates displayed in the monitor indicated below are displayed on the screen.
A method for finding the object that has been moved will be described. First, the position and orientation of the camera and the focal length
From which value and the shape data included in the environment model unit 22,
Z used in Z buffer method which is a typical hidden surface elimination method
Calculate the buffer. In other words, the resolution of the monitor
Array, and each element of the array corresponds to each pixel of the monitor
And the screen coordinates of the object displayed at each pixel
The Z value which is the coordinate value in the depth direction is stored in each array element.
You. Screen coordinates are XY axes in the monitor screen.
Take the Z axis in the direction perpendicular to the
A coordinate system for points. In addition, this array is
Call it fa. Normally, in hidden surface elimination,
Data representing RGB colors and Z values are stored.
In this example, the object is displayed instead of the color data.
Remember the name. Such a Z buffer is
By calculating and storing the information, it is possible to specify the
Refers to the value of the Z buffer at the specified monitor coordinate value
It is possible to obtain the designated object name only by using. In addition,
When the camera direction or magnification is changed, the Z buffer
Need to recalculate. The robot relative position calculator 23 calculates the joint angle
Enter the value of the joint angle of the robot from the degree input unit 21 and
The kinematic equations of the robot 16 set in advance are
By calculating, the robot 1 in the reference coordinate system
After calculating the values of the tip position and posture of No. 6, the pointing object
The coordinate transformation matrix of the pointing object output from the calculation unit 20 is stored in the environment
By inputting from the model unit 22 and performing coordinate transformation calculation
Of the robot tip in the coordinate system of the pointing object
Is calculated. In the relative position overlay section 24, the robot
In the coordinate system of the pointing object, which is the output of the relative position calculation unit 23,
Overlay robot tip position and posture values on monitor
indicate. Therefore, the operator is the photographing means 17 of the television
Monitor that displays the working environment captured by the camera
While working while watching, the overlay is displayed
Phase between the object pointed by the pointing device
You can see the value of pair displacement. From the monitor screen
In many cases, it is difficult to grasp the positional relationship between directions.
As shown above, the relative position to the object that is important in the current situation
Is displayed on the monitor in numerical values,
It is possible to accurately grasp the displacement against position as a numerical value.
Need to switch cameras to understand the positional relationship.
There is no need to do so, and workability can be improved. An indicating device such as a mouse or a touch pen
Display on the monitor screen just by instructing the monitor by
It is possible to change the target object of the relative coordinate value.
Therefore, change the target object at any time as the robot moves
Keep watching the screen with one camera by going
This also makes it possible to carry out the work. one
By performing work on the camera screen, the camera
Switching not only saves time, but also
Change the view direction by changing
Occurrence of discomfort due to differences in the operation direction of sticks etc.
Can be prevented and workability can be improved. The seat
When the value of the standard value cannot be overlaid on the monitor screen
May be displayed on an adjacent computer screen or the like. Ma
In combination with the first and second embodiments,
And it is possible. [0059] As described above, according to the structure of the present invention,
The robot's working environment and the robot's own shape data.
Data such as nearby objects using the data
By displaying an overlay on the image,
The lack of information such as loss of three-dimensional feeling
To improve workability in remote operation of robots
be able to.

【図面の簡単な説明】 【図1】本発明のロボットの遠隔操作装置の第1実施例
の構成を示すブロック図。 【図2】本発明のロボットの遠隔操作装置の第2実施例
の構成を示すブロック図。 【図3】本発明のロボットの遠隔操作装置の第3実施例
の構成を示すブロック図。 【符号の説明】 1 ロボット 2 撮影手段 3 モニタ 4 関節角度入力部 5 環境モデル部 6 干渉判定部 7 オーバレイ表示部 8 ロボット 9 撮影手段 10 モニタ 11 関節角度角速度入力部 12 ロボット未来位置予測部 13 環境モデル部 14 干渉判定部 15 オーバレイ表示部 16 ロボット 17 撮影手段 18 モニタ 19 指示装置 20 指示物体算出部 21 関節角度入力部 22 環境モデル部 23 ロボット相対位置算出部 24 相対位置オハーレス部
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a block diagram showing the configuration of a first embodiment of a remote control device for a robot according to the present invention. FIG. 2 is a block diagram showing the configuration of a second embodiment of the robot remote control device according to the present invention. FIG. 3 is a block diagram showing the configuration of a third embodiment of the robot remote control device according to the present invention. [Description of Signs] 1 robot 2 imaging means 3 monitor 4 joint angle input unit 5 environment model unit 6 interference determination unit 7 overlay display unit 8 robot 9 imaging unit 10 monitor 11 joint angle angular velocity input unit 12 robot future position prediction unit 13 environment Model unit 14 Interference determination unit 15 Overlay display unit 16 Robot 17 Imaging means 18 Monitor 19 Pointing device 20 Pointing object calculation unit 21 Joint angle input unit 22 Environment model unit 23 Robot relative position calculation unit 24 Relative position ohaless unit

───────────────────────────────────────────────────── フロントページの続き (58)調査した分野(Int.Cl.7,DB名) B25J 3/00 - 3/04 B25J 9/10 - 9/22 B25J 13/00 - 13/08 B25J 19/02 - 19/06 G05D 3/12 ──────────────────────────────────────────────────続 き Continued on the front page (58) Field surveyed (Int. Cl. 7 , DB name) B25J 3/00-3/04 B25J 9/10-9/22 B25J 13/00-13/08 B25J 19 / 02-19/06 G05D 3/12

Claims (1)

(57)【特許請求の範囲】 【請求項1】遠隔場所に配置されたロボットを遠隔操作
するロボットの遠隔操作装置において、ロボットの作業
環境を撮影する撮影手段と、ロボットの作業環境および
ロボット自身の形状データを有する環境モデル部と、ロ
ボットの現在の関節角度を関節角度センサの信号値とし
て入力する関節角度入力部と、ロボットからの一定距離
以内に物体がないかどうかをロボットの関節角度と前記
形状データとから判定する干渉判定部と、ロボットから
の一定距離以内に物体がある場合に、前記形状データと
前記撮影手段の位置および向きとからこの物体の画像を
計算機により演算するオーバレイ表示部と、前記撮影手
段により撮影された実画像と前記オーバレイ表示部の画
像とをオーバレイ表示することが可能なモニタと、を備
えることを特徴とするロボットの遠隔操作装置。
(57) [Claim 1] In a robot remote control device for remotely controlling a robot located at a remote place, a photographing means for photographing the work environment of the robot, the work environment of the robot and the robot itself An environment model unit having shape data of the robot, a joint angle input unit that inputs the current joint angle of the robot as a signal value of the joint angle sensor, and a joint angle of the robot that determines whether there is an object within a certain distance from the robot. An interference determination unit that determines from the shape data, and an overlay display unit that calculates an image of the object by a computer from the shape data and the position and orientation of the imaging unit when an object is within a certain distance from the robot. And a monitor capable of overlay-displaying a real image photographed by the photographing means and an image of the overlay display unit. Remote control apparatus for a robot, characterized in that it comprises a.
JP17527793A 1993-07-15 1993-07-15 Robot remote control device Expired - Fee Related JP3376029B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP17527793A JP3376029B2 (en) 1993-07-15 1993-07-15 Robot remote control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP17527793A JP3376029B2 (en) 1993-07-15 1993-07-15 Robot remote control device

Publications (2)

Publication Number Publication Date
JPH0724767A JPH0724767A (en) 1995-01-27
JP3376029B2 true JP3376029B2 (en) 2003-02-10

Family

ID=15993324

Family Applications (1)

Application Number Title Priority Date Filing Date
JP17527793A Expired - Fee Related JP3376029B2 (en) 1993-07-15 1993-07-15 Robot remote control device

Country Status (1)

Country Link
JP (1) JP3376029B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11534241B2 (en) 2015-12-24 2022-12-27 Olympus Corporation Medical manipulator system and image display method therefor

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4427905B2 (en) * 2001-01-24 2010-03-10 富士電機システムズ株式会社 Robot monitoring system
JP2003103038A (en) * 2001-09-28 2003-04-08 Ishikawajima Harima Heavy Ind Co Ltd Robot game system
JP2009006410A (en) * 2007-06-26 2009-01-15 Fuji Electric Systems Co Ltd Remote operation support device and remote operation support program
JP6838027B2 (en) * 2018-10-31 2021-03-03 ファナック株式会社 Robot system
JP7490452B2 (en) * 2020-05-19 2024-05-27 株式会社東芝 Working robot operation support device, method, and program
CN115519546B (en) * 2022-10-25 2023-06-27 中国科学院国家空间科学中心 Space science experiment robot is cooperated to world based on intelligent vision

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01209505A (en) * 1988-02-17 1989-08-23 Toshiba Corp Teaching device for remote control robot
JP2634880B2 (en) * 1988-10-24 1997-07-30 富士通株式会社 Robot remote control device
JP2637528B2 (en) * 1988-12-29 1997-08-06 富士通株式会社 Robot remote control device
JPH08368B2 (en) * 1989-07-21 1996-01-10 富士通株式会社 Robot remote control device
JPH03213278A (en) * 1990-01-12 1991-09-18 Fujitsu Ltd Remote control support system for robot
JPH0577174A (en) * 1991-09-20 1993-03-30 Nec Corp Robot control device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11534241B2 (en) 2015-12-24 2022-12-27 Olympus Corporation Medical manipulator system and image display method therefor

Also Published As

Publication number Publication date
JPH0724767A (en) 1995-01-27

Similar Documents

Publication Publication Date Title
EP3342561B1 (en) Remote control robot system
JP4844453B2 (en) Robot teaching apparatus and teaching method
JP5022868B2 (en) Information processing apparatus and information processing method
JP3343682B2 (en) Robot operation teaching device and operation teaching method
JP6445092B2 (en) Robot system displaying information for teaching robots
JP2012011498A (en) System and method for operating robot arm
JP2014079824A (en) Work screen display method and work screen display device
JPH0811071A (en) Controller for manipulator
JP2019101765A (en) Tracking image presentation system for moving object
CN112894820A (en) Flexible mechanical arm remote operation man-machine interaction device and system
JP3376029B2 (en) Robot remote control device
JP7306871B2 (en) ROBOT OPERATING DEVICE, ROBOT, ROBOT OPERATING METHOD, PROGRAM AND ROBOT CONTROLLER
JPH05318361A (en) Method for manipulating object
JPH0421105A (en) Stereoscopic teaching device for manipulator
JP4558682B2 (en) Manipulator remote control method for mobile robot system
JP2778376B2 (en) Camera viewpoint change method
JP7224559B2 (en) Remote control manipulator system and remote control support system
JPH03213278A (en) Remote control support system for robot
JPH0790492B2 (en) Remote-controlled manipulator device
JPH0386484A (en) Remote operation device for robot
JP2003271993A (en) Monitor image processing method, image monitoring system, and maintenance work system
JP2520660B2 (en) Remotely operated manipulator device
JPH03287394A (en) Remote handling device
US20230010302A1 (en) Generation of image for robot operation
WO2020203819A1 (en) Remote operating device

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20021115

LAPS Cancellation because of no payment of annual fees