JP5201341B2 - 遠隔操作支援装置 - Google Patents

遠隔操作支援装置 Download PDF

Info

Publication number
JP5201341B2
JP5201341B2 JP2008230447A JP2008230447A JP5201341B2 JP 5201341 B2 JP5201341 B2 JP 5201341B2 JP 2008230447 A JP2008230447 A JP 2008230447A JP 2008230447 A JP2008230447 A JP 2008230447A JP 5201341 B2 JP5201341 B2 JP 5201341B2
Authority
JP
Japan
Prior art keywords
robot
viewpoint
point
coordinate system
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008230447A
Other languages
English (en)
Other versions
JP2010064161A (ja
Inventor
圭介 和田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuji Electric Co Ltd
Original Assignee
Fuji Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Electric Co Ltd filed Critical Fuji Electric Co Ltd
Priority to JP2008230447A priority Critical patent/JP5201341B2/ja
Publication of JP2010064161A publication Critical patent/JP2010064161A/ja
Application granted granted Critical
Publication of JP5201341B2 publication Critical patent/JP5201341B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Manipulator (AREA)

Description

本発明は遠隔操作支援装置に関し、特に、原子力設備の原子炉内などのように人間が容易に立ち入ることができない環境下に配置された作業用ロボットを遠隔操作する方法に適用して好適なものである。
放射線環境下や宇宙環境下などの人間が容易に立ち入ることができない場所では、そのような環境下に配置された作業用ロボットを遠隔操作することで、保守や点検などの作業が一般的に行われている。
ここで、保守や点検において実施される作業が既知である場合、あるいは定期的な保守における作業の内容が毎回同一である場合には、ロボットの動作を予めプログラミングしておくことで、人間が操作することなく自動運転で作業を行わせることができる。
一方、定期的に行われる同一作業であっても、前回存在しなかった障害物が存在したり、保守対象である装置の一部が壊れているなど予期せぬ状況の発生にも対処できるようにするために、例えば、特許文献1には、作業環境中の物体の位置姿勢やロボットの操作に必要な位置決めに関する情報を環境モデルとして記憶し、カメラが捉えた映像と環境モデルから得られる位置決めに関する情報を図形化して表示した画像とを合成した合成画像を表示することで、手動操作を誘導できるようにする方法が開示されている。
特開2003−311661号公報
しかしながら、特許文献1に開示された方法では、作業環境中の物体の位置姿勢やロボットの操作に必要な位置決めに関する情報を環境モデルとして用意する必要があるため、遠隔操作される対象の配置が事前に判っている必要があるだけでなく、対象物が環境モデルに登録された所定の位置に存在していることが前提となっており、遠隔操作される対象の状態が操作時にも同様に保たれている必要がある。
このため、特許文献1に開示された方法では、対象物の位置が初期の位置と異なっていたり、操作時に対象物の位置が変わったりすると、対象物の遠隔操作ができなくなる上に、予め設定された視点のみからの合成画像しか表示することができず、任意の方向から対象物を確認することができないという問題があった。
そこで、本発明の目的は、対象物の位置や姿勢が事前に判らない場合においても、ロボットの動作に応じた方向から対象物を確認することを可能としつつ、対象物の遠隔操作を支援することが可能な遠隔操作支援装置を提供することである。

上述した課題を解決するために、請求項1記載の遠隔操作支援装置によれば、各対象物をスキャナで走査することにより計測された該各対象物上の点群データを三次元計測処理し、該各対象物上の処理された点群データを環境データとして格納する環境データ取得手段と、前記環境データに基づいて三次元認識処理を行うことにより、前記各対象物の形状および姿勢が反映された各対象物モデル表現を生成する対象物モデル表現手段と、ロボットの各軸の状態に基づいて前記ロボットの動作状態が反映されたロボットモデル表現を生成するロボットモデル表現手段と、三次元空間の指定された視点および視線方向による前記対象物モデル表現および前記ロボットモデル表現を画面上に三次元的に表示させる三次元画像生成手段と、前記各対象物の形状を計測することにより得られた前記各対象物上の点を基準座標系の三次元座標に変換する対象物座標変換手段と、前記ロボットの各軸の状態を観測することにより得られた前記ロボット上の点を前記基準座標系の三次元座標に変換するロボット座標変換手段と、前記三次元画像生成手段により画面上に表示された前記各対象物モデル表現からロボットにより操作される一の対象物を選択する操作対象物選択手段と、前記操作対象物選択手段により選択された操作対象物と前記ロボットとに基づき、前記三次元画像生成手段における視点および視線方向を指定する視点・視線指定手段と、を備えることを特徴とする。
また、請求項2記載の遠隔操作支援装置によれば、請求項1に記載の遠隔操作支援装置において、前記視点・視線指定手段は、予め設定された任意の一点を通り、予め設定された任意の平面に直交する直線を視点移動直線とし、当該視点移動直線上の点を視点として指定し、前記操作対象物と前記ロボットのアーム先端との中間点を注目点とし、前記視点から当該注目点へのベクトルを視線方向と指定すること、を特徴する。
また、請求項3記載の遠隔操作支援装置によれば、請求項2に記載の遠隔操作支援装置において、前記注目点から前記視点移動直線への垂線と前記視点移動直線との交点を求め、前記視点移動直線上の点であって、当該交点から予め設定した方向に予め設定した距離だけ移動した点を視点と指定すること、を特徴とする。
また、請求項4記載の遠隔操作支援装置によれば、請求項2または3に記載の遠隔操作支援装置において、前記視点移動直線を決定する任意の一点をロボット座標系の原点とし、前記視点移動直線を決定する任意の平面を基準座標系の床面と平行な平面とすること、を特徴とする。
また、請求項5記載の遠隔操作支援装置によれば、請求項1乃至4のいずれか1項に記載の遠隔操作支援装置において、指定された視点および視線方向による三次元画像であって、前記操作対象物モデル表現と前記ロボットモデル表現のアーム先端とが含まれる画面上に表示する最大の画像を生成する画像拡大縮小手段と、を備えることを特徴とする。
また、請求項6記載の遠隔操作支援装置によれば、請求項1乃至5のいずれか1項に記載の遠隔操作支援装置において、前記ロボットのアーム先端を前記操作対象物の位置まで移動させるための移動量と移動方向とを、前記三次元画像生成手段により表示された画面上に表示させる移動量表示手段と、を備えることを特徴とする。
また、請求項7記載の遠隔操作支援装置によれば、請求項6に記載の遠隔操作支援装置において、前記移動量表示手段は、前記移動量を、ロボット座標系の原点を中心とした周方向の角度と径方向の距離とその方向により表示することを特徴とする。
以上説明したように、本発明によれば、対象物およびロボットの現在の状態が反映された三次元的なモデルを生成し、対象物とロボットの現在の状態に対応した視点を自動的に指定し、そのモデルを同一画面上に三次元的に表示させることが可能となる。このため、対象物やロボットの位置や姿勢が変化する場合においても、対象物およびロボットの現在の状態を精度よく表示させることが可能となるとともに、対象物およびロボットを三次元的にモデル化することにより、複数のカメラを設置することなく、自動的に指定された視点からの画像に切り替えることが可能となり、人間が容易に立ち入ることができない放射線環境下や宇宙環境下などであっても、対象物の遠隔操作を円滑に行うことが可能となる。
また、ロボットのアーム先端の対象物までの移動量を、モデルを表示した画面上に表示させることで、より遠隔操作を円滑に行うことが可能となる。
以下、本発明の実施形態に係る遠隔操作支援装置について図面を参照しながら説明する。
図1は、本発明の第1の実施形態に係る遠隔操作支援装置の概略構成を示す図である。
図1において、保守や点検などの作業が行われる作業エリアには、ロボット12およびロボット12にて操作される対象物11が配置されている。対象物11およびロボット12は、放射線環境下や宇宙環境下などの人間が容易に立ち入ることができない場所に設置することができる。なお、作業エリアには、ロボット12や対象物11の位置等を特定するための三次元座標系となる基準座標系を設定する。さらに、対象物には対象物単体の三次元座標系となる対象物座標系を設定する。
また、ロボット12とは、マニュピュレータなどを含めた遠隔操作で使用される機械装置全般を言う。ここで、ロボット12には、対象物11を把持するグリッパを設け、そのグリッパを三次元空間の任意の位置に移動させたり、任意の方向に回転させたりするアームに連結することができる。そして、アームは関節点を介して互いに連結され、各アームはX軸、Y軸およびZ軸を中心として回転自在に構成することができる。そして、ロボット12にはロボット単体の三次元座標系となるロボット座標系を設定する。さらに、各アームには軸を設定し、各軸には三次元座標系を設定し、各軸の状態を観測することで、ロボット座標系における各アームの位置を特定することができる。
一方、ロボット12に人間が指令を出すエリアには、ロボット12の遠隔操作を支援する遠隔操作支援装置21が設置されている。
ここで、遠隔操作支援装置21には、環境データ取得手段21a、対象物モデル表現手
段21b、ロボットモデル表現手段21c、三次元画像生成手段21d、対象物座標変換手段21e、ロボット座標変換手段21f、操作対象物選択手段21gおよび視点・視線指定手段21hが設けられるとともに、対象物11の形状を計測するレーザスキャナ13、レーザスキャナ13にて計測された環境データを格納する環境データ格納手段15、対象物11の種別や姿勢を認識するための情報が格納された三次元認識データベース16および対象物11やロボット12の現在の状態などを表示する表示装置22が接続されている。
さらに、遠隔操作支援装置21には、ロボット12の各点についての基準座標系における三次元座標が格納されたロボット座標格納手段23、対象物11の各点についての基準座標系における三次元座標が格納された対象物座標格納手段24、対象物11の各点を対象物座標系から基準座標系の三次元座標に変換する変換行列が格納された対象物変換行列格納手段25およびロボット12の各点をロボット座標系から基準座標系の三次元座標に変換する変換行列が格納されたロボット変換行列格納手段26が接続されている。
環境データ取得手段21aは、レーザスキャナ13にて対象物11を走査することにより計測された対象物11上の点群データを環境データとして取得し、三次元計測処理14を行う。そして、処理された対象物11上の点群データを環境データとして環境データ格納手段15に格納する。
三次元計測処理14では、例えば、レーザスキャナ12にて取得した点群データから矩形形状を生成し、その矩形形状間において、隣接するポリゴン同士の連続性、法線方向、距離等により、エッジ及び面を認識する。また、点群データの平面性又は曲面性を、平面方程式又は曲面方程式に対して最小二乗法を用いて置き換え、グループ分け(セグメンテーション化)を行う。ここで得られたグループをより計測対象物に類似又は同一となるようなプリミティブな形状へ再度置き換えることでエッジ及び面の生成を行い、点群データから三次元形状の一部の要素へと変換する。なお、これら三次元計測処理は公知技術であり、本発明の特徴部分ではないため、これ以上の詳細な説明は省略する。
対象物モデル表現手段21bは、三次元認識データベース16を参照しながら、対象物11についての環境データに基づいて三次元認識処理17を行うことにより、対象物11の形状および姿勢が反映された対象物モデル表現18を生成することができる。
三次元認識処理では、三次元計測処理にて抽出したエッジ及び面の情報に基づき、点群データが取得できなかった部分(オクルージョン部分)の形状について、欠落部近傍の形状特徴によるパターンマッチングを行い当該欠落部分の形状を類推する。これにより、欠落部分を補完して全体の三次元形状データを生成することができる。なお、形状特徴としては、平面形状、円柱、円錐、球等の予め三次元認識データベース16に設定された形状を用いる。そして、三次元認識処理にて認識された対象物の特徴点の基準座標系における三次元座標と、三次元認識データベース16に設定されている対象物の特徴点における対象物座標系の三次元座標と、を用いて対象物11を対象物座標系から基準座標系へ変換する変換行列を算出することができる。
また、対象物11が円柱形状である場合には、スピンイメージを用いた三次元認識処理を行うことができる。図2がスピンイメージを用いた三次元認識処理の概略ブロック図である。スピンイメージを用いた三次元認識処理では、対象物11の点群データから任意の点を複数選択し、この選択した各点(基準点)毎に、その基準点を含む平面の法線を求める。続いて、それら複数の法線の情報に基づいて円柱型物体の回転軸の方向(ベクトル)を算出し、更に、上記複数の法線の座標と回転軸の方向から、回転軸直線を求める。回転軸直線は、座標で示されるので、3次元空間における円柱型物体の実際の軸を規定することで、既存の手法によって、その円柱型物体の位置を求めることができる。すなわち、上記求められた回転軸直線へ上記選択された点群データを投影することにより、回転軸直線上における円柱型物体の位置を特定する。
このスピンイメージを用いた三次元認識処理17では、対象物11の三次元認識を行うために、対象物11全体の点群データを計測する必要がなく、レーザスキャナ13による一方向からの計測で済ませることができるので、計算量を減らすことができる。
さらに、三次元認識処理17による認識結果は、回転変換要素と並行移動要素からなる4×4の変換行列に対応させることができ、対象物座標系に予め配置された対象物11を基準座標系における対象物11の位置や姿勢に合わせることができる。よって、対象物11についての環境データに基づいて三次元認識処理17を行うことで、対象物11の変換行列を算出し、対象物変換行列格納手段25に格納することができる。
図3は、変換行列を用いた対象物上の点の変換結果を示す図である。
図3において、対象物変換行列格納手段25に格納される変換行列には、回転変換要素R00〜R22と並行移動要素TX、TY、TZを設定することができる。そして、対象物11の対象物座標系に変換行列を乗算することで、対象物11を基準座標系における位置や姿勢に変換することができる。
なお、これら三次元認識処理は公知技術であり、本発明の特徴部分ではないため、これ以上の詳細な説明は省略する。
ロボットモデル表現手段21cは、ロボット12の各軸の状態19に基づいてロボット12の実際の動きが反映されたロボット12と同様な形状を構築することにより、ロボット12の動作状態が反映されたロボットモデル表現20を生成することができる。具体的には、ロボットモデル表現20を生成するために必要なアームなどのロボット12の構成要素寸法を遠隔操作支援装置21に予め登録し、予め登録された構成要素寸法に基づくロボットモデル表現を生成する。そして、ロボット12に設置された角度センサや位置センサなどからの信号によりロボット12の各軸の状態19を把握し、各軸の状態19に基づき動作させたロボットモデル表現を生成する。さらに、ロボット12の各軸の状態19を用い、ロボット12の各軸座標系の変換行列に変換して、ロボット変換行列格納手段26に格納する。
ロボット変換行列格納手段26に格納される変換行列は、ロボット12の各軸1、2、・・・ごとに設けることができ、ロボット12から定期的に現在の軸角度を読み出し、各軸座標系の変換行列(軸1の変換行列、軸2の変換行列、・・・、先端の変換行列)に変換して保存することができる。そして、ロボット12上の指定された点のロボット座標系に変換行列を乗算することで、基準座標系の三次元座標に変換することができる。
三次元画像生成手段21dは、対象物モデル表現18およびロボットモデル表現20が生成されると、三次元空間の指定された視点から見た対象物モデル表現18およびロボットモデル表現20を同一画面上に三次元的に表示させる二次元画像を生成し、表示装置22に表示させることができる。
なお、対象物モデル表現18およびロボットモデル表現20を表示装置22に表示させる場合、OpenGLなどのグラフィックスソフトウェアを利用することで、任意の視点から見た対象物モデル表現18およびロボットモデル表現20を同一画面上に重ねて表示させることができる。また、対象物モデル表現18およびロボットモデル表現20には、例えば、コンピュータグラフィクスにて一般的に使用されるサーフィスモデルやワイヤーフレームモデルなどを用いることができる。
図4は、本発明の第1の実施形態に係る環境データの表示例を示す図である。
図4において、図1のレーザスキャナ13にて計測された環境データが遠隔操作支援装置21にて取得され、その環境データが表示装置22に表示される。
図5は本発明の第1の実施形態に係る環境データおよび対象物のモデル表現の表示例を示す図である。
図5において、対象物11の形状および姿勢が反映された対象物モデル表現18が遠隔操作支援装置21にて生成されると、その対象物モデル表現18が環境データに重なるようにして表示装置22に表示される。
図6は、本発明の第1の実施形態に係る環境データ、対象物のモデル表現およびロボットのモデル表現の表示例を示す図である。
図6において、対象物11の形状および姿勢が反映された対象物モデル表現18およびロボット12の実際の動きが反映されたロボットモデル表現20が遠隔操作支援装置21にて生成されると、それらの対象物モデル表現18およびロボットモデル表現20が環境データに重なるようにして表示装置22に表示される。
対象物座標変換手段21eは、対象物変換行列格納手段25に格納されている対象物11の変換行列を用いることにより、対象物座標系における対象物上の点を基準座標系の三次元座標に変換することができる。対象物座標格納手段24は、対象物11上の各点についての基準座標系の三次元座標A2、B2、C2、・・・を格納することができる。なお、対象物11の現在の状態を反映するため、定期的に対象物11上の各点についての基準座標系の三次元座標を更新している。
ロボット座標変換手段21fは、ロボット座標系におけるロボット12上の点を、ロボット変換行列格納手段26に格納されたロボット12の変換行列を用いることにより、基準座標系の三次元座標に変換することができる。さらに、ロボット12上の各点についての基準座標系の三次元座標A1、B1、C1、D1、・・・を、ロボット座標格納手段37に格納する。なお、ロボット12の現在の状態を反映するため、定期的にロボット12上の各点についての基準座標系の三次元座標を更新している。
図7は、ロボットの座標系の一例を示す図である。
図7において、ロボット12の三次元座標系は、ロボット12の各軸1、2、・・・ごとに設けることができる。例えば、ロボット12のロボット座標系はX0・Y0・Z0座標系、軸1の座標系はX1・Y1・Z1座標系、軸2の座標系はX2・Y2・Z2座標系、・・・、先端の座標系はX5・Y5・Z5座標系とすることができる。そして、ロボット12の各軸間の距離d1、d2、・・・を設定することができる。
そして、例えば、軸1の座標系の点cは、以下の(1)式にて基準座標系の三次元座標に変換することができる。
[点cの基準座標系の三次元座標]=(ロボット12のロボット座標系の変換行列)×(軸1の座標系の変換行列)×(軸1上の点cの座標)・・・(1)
また、例えば、軸2の座標系の点bは、以下の(2)式にて基準座標系の三次元座標に変換することができる。
[点bの基準座標系の三次元座標]=(ロボット12のロボット座標系の変換行列)×(軸1の座標系の変換行列)×(軸2の座標系の変換行列)×(軸2上の点bの座標)・・・(2)
また、例えば、先端の座標系の点aは、以下の(3)式にて基準座標系の三次元座標に変換することができる。
[点aの基準座標系の三次元座標]=(ロボット12のロボット座標系の変換行列)×(軸1の座標系の変換行列)×(軸2の座標系の変換行列)×(軸3の座標系の変換行列)×(軸4の座標系の変換行列)×(先端の座標系の変換行列)×(軸5上の点aの座標)・・・(3)
操作対象選択手段21gは、表示装置22の画面上に表示されたカーソルをマウスにより移動させ、画面上に表示された対象物モデル表現18からロボットにより操作される一の対象物11をクリックすることにより選択することができる。なお、操作対象物選択手段21gは、マウスがクリックされたカーソルの画面位置を取り出し、OpenGLなどのグラフィックソフトウェアを利用することで、クリックされた位置を基準座標系の三次元座標値に変換できる。
さらに、操作対象物が指定された場合には、ロボットアーム先端と操作対象物との間にベクトルを描画してもよい。図8は、ロボットアーム先端と操作対象物との間にベクトルを描画した表示例である。
視点・視線指定手段21hは、選択された操作対象物11とロボット12とに基づき、対象物モデル表現18およびロボットモデル表現20を表示装置22に画面表示する際の視点および視線方向を指定することができる。具体的には、予め遠隔操作支援装置21に設定された任意の一点を通り、遠隔操作支援装置21に予め設定された任意の平面に直交する直線を視点移動直線とし、当該視点直線上の点を視点として指定し、前記操作対象物と前記ロボットのアーム先端との中間点を注目点とし、前記視点から当該注目点へのベクトルを視線方向と指定する。
視点の指定方法としては、注目点から視点移動直線への垂線と視点移動直線との交点を求め、当該交点から遠隔操作支援装置21に予め設定した方向に予め設定した距離だけ移動した点を視点と指定することができる。例えば、交点からの距離0と設定すれば、注目点からの視点移動直線上の最近接点を視点として自動的に指定することができる。また、当該交点から視点移動直線の上方向に距離3000mmと設定すれば、俯瞰的に対象物11とロボット12とを観察できるような視点とすることもできる。
さらに、前記視点移動直線を決定する任意の一点をロボット座標系の原点とし、前記視点移動直線を決定する任意の平面を基準座標系における床面と平行な平面とすることもできる。係る場合には、人が自身の腕を観察しているのと同様の視点となり、直感的にロボットの操作が可能となる。
なお、ロボットモデル表現20のアーム先端と対象物モデル表現18とが表示装置22の画面内に描画できていないこともある。そのため、三次元画像生成手段は、これらのモデル表現が表示画面に表示できているかを判断して表示できていない場合には画面を少しズームアウトした画像を生成することを繰返し、表示できる最大の画像を生成する。
図9は、本発明の第1の実施形態に係る視点・視線指定手段により指定された視点および視線による対象物およびロボットのモデル表現の表示例を示す図である。
図9において、視点移動直線は任意の一点をロボット座標系の原点とし、任意の平面を基準座標系における床面と平行な平面とした場合の表示例である。ロボットモデル表現20をワイヤーフレームモデルとし、対象物モデル表現18をサーフェースモデルとして三次元的に示す画像としている。
これにより、対象物11およびロボット12の現在の状態がそれぞれ反映された三次元的な対象物モデル表現18およびロボットモデル表現20が生成され、その対象物モデル表現18およびロボットモデル表現20を同一画面上に三次元的に表示させることが可能となる。このため、対象物11の位置や姿勢が変化する場合においても、対象物11およびロボット12の現在の状態を精度よく表示させることが可能となる。さらに、視点および視線方向も対象物11およびロボット12の現在の状態に応じて自動で指定することが可能となる。これにより、対象物11およびロボット12を三次元的にモデル化することにより、複数のカメラを設置することなく、ロボットの操作に応じた視点からの画像が表示可能となり、人間が容易に立ち入ることができない放射線環境下や宇宙環境下などであっても、ロボット12による対象物11の遠隔操作を円滑に行うことが可能となる。
次に、本発明の第2の実施形態に係る遠隔操作支援装置について説明する。
図10は、本発明の第2の実施形態に係る遠隔操作支援装置の概略構成を示す図である。
なお、第1の実施形態に係る遠隔操作支援装置と第2の実施形態に係る遠隔操作支援装置とにおいては、移動量表示手段21iの有無のみ異なり、他の部分は全て共通する。よって、移動量表示手段21i以外の説明は省略する。
移動量表示手段21iは、ロボットアームの先端を操作対象物に移動させるために必要となるロボット座標系の原点を中心とした、ロボットアーム先端の回転方向と回転角度と、ロボットアーム先端の半径方向の移動方向と移動距離と、を表示する。
図11乃至13を用いて、移動量表示手段21iについて具体例を用いて説明する。
図11は、操作対象物モデル表現18およびロボットモデル表現20の表示例である。係る表示では、直感的に回転方向は把握できるが、奥行方向については把握が難しい。図12は、操作対象物モデル表現18およびロボットモデル表現20をXZ平面に投影したXZ投影図である。操作対象物モデル表現18のXZ平面に投影した点を点A、ロボットモデル表示20のアーム先端をXZ平面に投影した点を点B、ロボット座標系の原点を点Oとする。
ここで、線分OBを基準とし、右回転を正方向、左回転を負方向と定義する。また、A点を角度AOBだけ右回転させた点をA’とする。線分A‘Bの長さについて、線分A‘Oが線分BOより短い場合を負方向と、線分A‘Oが線分BOより長い場合を正方向と定義する。
係る場合、XZ投影図における負方向の角度AOBおよび負方向の線分A’Bの長さを算出し、表示画面に算出した点Oを中心とした回転方向と回転角度、および半径方向の移動方向と距離とを表示することで、ロボットアームで操作対象物を操作するために必要となる正確な操作量を知ることができる。この例では、ロボットアームで操作対象物を操作するためには、ロボットアームを負方向に角度AOBだけ左回転させ、負方向の線分A‘Bの距離だけ移動させる必要がある。
図13は、本発明の第2の実施形態に係る画面表示例を示す図である。図13に示すように、算出したロボットアームの回転角度と半径方向の移動量を画面上に操作対象物へのロボットアーム操作方向の矢印と共に描画する。
なお、第1の実施形態に記載したように、対象物11およびロボット12の現在の状態がそれぞれ反映された三次元的な対象物モデル表現18およびロボットモデル表現20を生成し、その対象物モデル表現18およびロボットモデル表現20を同一画面上に三次元的に表示させているため、ロボットの操作に応じて角度AOBおよび線分A‘Bの長さの表示も定期的に更新されることとなる。
このように、相対位置表示手段21iにより、ロボットアームの遠隔操作を画面表示だけではなく数値的にも把握できるため、より正確なロボットアームの遠隔操作を支援することが可能となる。
本発明の第1の実施形態に係る遠隔操作支援装置の概略構成および処理の流れを示すブロック図である。 本発明の第1の実施形態に係るスピンイメージを用いた三次元認識処理の概略ブロック図である。 本発明の第1の実施形態に係る変換行列を用いた対象物上の点の変換結果を示す図である。 本発明の第1の実施形態に係る環境データの表示例を示す図である。 本発明の第1の実施形態に係る環境データおよび対象物のモデル表現の表示例を示す図である。 本発明の第1の実施形態に係る環境データ、対象物のモデル表現およびロボットのモデル表現の表示例を示す図である。 本発明の第1の実施形態に係る遠隔操作支援装置に適用されるロボット座標系の一例を示す図である。 本発明の第1の実施形態に係るロボットアーム先端と操作対象物との間にベクトルを描画した表示例である。 本発明の第1の実施形態に係る視点・視線指定手段により指定された視点および視線による対象物およびロボットのモデル表現の表示例を示す図である。 本発明の第2の実施形態に係る遠隔操作支援装置の概略構成および処理の流れを示すブロック図である。 操作対象物モデル表現18およびロボットモデル表現20の表示例を示した図である。 操作対象物モデル表現18およびロボットモデル表現20をXZ平面に投影したXZ投影図である。 本発明の第2の実施形態に係る画面表示例を示す図である。
符号の説明
11 対象物
12 ロボット
13 レーザスキャナ
14 三次元計測処理
15 環境データ格納手段
16 三次元認識データベース
17 三次元認識処理
18 対象物のモデル表現
19 各軸の状態
20 ロボットのモデル表現
21 遠隔操作支援装置
21a 環境データ取得手段
21b 対象物モデル表現手段
21c ロボットモデル表現手段
21d 三次元画像生成手段
21e 対象物座標変換手段
21f ロボット座標変換手段
21g 操作対象物選択手段
21h 視点・視線指定手段
21i 移動量表示手段
22 表示装置
23 ロボット座標格納手段
24 対象物座標格納手段
25 対象物変換行列格納手段
26 ロボット変換行列格納手段

Claims (7)


  1. 各対象物をスキャナで走査することにより計測された該各対象物上の点群データを三次元計測処理し、該各対象物上の処理された点群データを環境データとして格納する環境データ取得手段と、
    前記環境データに基づいて三次元認識処理を行うことにより、前記各対象物の形状および姿勢が反映された各対象物モデル表現を生成する対象物モデル表現手段と、
    ロボットの各軸の状態に基づいて前記ロボットの動作状態が反映されたロボットモデル表現を生成するロボットモデル表現手段と、
    三次元空間の指定された視点および視線方向による前記対象物モデル表現および前記ロボットモデル表現を画面上に三次元的に表示させる三次元画像生成手段と、
    前記各対象物の形状を計測することにより得られた前記各対象物上の点を基準座標系の三次元座標に変換する対象物座標変換手段と、
    前記ロボットの各軸の状態を観測することにより得られた前記ロボット上の点を前記基準座標系の三次元座標に変換するロボット座標変換手段と、
    前記三次元画像生成手段により画面上に表示された前記各対象物モデル表現からロボットにより操作される一の対象物を選択する操作対象物選択手段と、
    前記操作対象物選択手段により選択された操作対象物と前記ロボットとに基づき、前記三次元画像生成手段における視点および視線方向を指定する視点・視線指定手段と、 を備えることを特徴とする遠隔操作支援装置。
  2. 前記視点・視線指定手段は、
    予め設定された任意の一点を通り、予め設定された任意の平面に直交する直線を視点移動直線とし、
    当該視点移動直線上の点を視点として指定し、
    前記操作対象物と前記ロボットのアーム先端との中間点を注目点とし、
    前記視点から当該注目点へのベクトルを視線方向と指定すること、
    を特徴する請求項1に記載の遠隔操作支援装置。
  3. 前記注目点から前記視点移動直線への垂線と前記視点移動直線との交点を求め、
    前記視点移動直線上の点であって、当該交点から予め設定した方向に予め設定した距離だけ移動した点を視点と指定すること、
    を特徴とする請求項2に記載の遠隔操作支援装置。
  4. 前記視点移動直線を決定する任意の一点をロボット座標系の原点とし、
    前記視点移動直線を決定する任意の平面を基準座標系の床面と平行な平面とすること、
    を特徴とする請求項2または3に記載の遠隔操作支援装置。
  5. 指定された視点および視線方向による三次元画像であって、
    前記操作対象物モデル表現と前記ロボットモデル表現のアーム先端とが含まれる画面上に表示する最大の画像を生成する画像拡大縮小手段と、
    を備えることを特徴とする請求項1乃至4のいずれか1項に記載の遠隔操作支援装置。
  6. 前記ロボットのアーム先端を前記操作対象物の位置まで移動させるための移動量と移動方向とを、前記三次元画像生成手段により表示された画面上に表示させる移動量表示手段と、
    を備えることを特徴とする請求項1乃至5のいずれか1項に記載の遠隔操作支援装置。
  7. 前記移動量表示手段は、前記移動量を、ロボット座標系の原点を中心とした周方向の角度と径方向の距離とその方向により表示することを特徴とする請求項6に記載の遠隔操作支援装置。
JP2008230447A 2008-09-09 2008-09-09 遠隔操作支援装置 Active JP5201341B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008230447A JP5201341B2 (ja) 2008-09-09 2008-09-09 遠隔操作支援装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008230447A JP5201341B2 (ja) 2008-09-09 2008-09-09 遠隔操作支援装置

Publications (2)

Publication Number Publication Date
JP2010064161A JP2010064161A (ja) 2010-03-25
JP5201341B2 true JP5201341B2 (ja) 2013-06-05

Family

ID=42190201

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008230447A Active JP5201341B2 (ja) 2008-09-09 2008-09-09 遠隔操作支援装置

Country Status (1)

Country Link
JP (1) JP5201341B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6406859B2 (ja) * 2014-04-16 2018-10-17 株式会社Ihi 遠隔操作支援装置と遠隔操作支援方法及び計測器
WO2018167855A1 (ja) * 2017-03-14 2018-09-20 株式会社Fuji 操作画面表示装置
JP6713700B1 (ja) * 2020-03-09 2020-06-24 リンクウィズ株式会社 情報処理方法、情報処理システム、プログラム
CN114131599B (zh) * 2021-11-30 2023-08-29 珠海格力电器股份有限公司 一种机器人编程控制方法、装置、存储介质及示教器

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3655083B2 (ja) * 1998-02-25 2005-06-02 富士通株式会社 ロボットの位置決めを行うインタフェース装置
JP3972244B2 (ja) * 2001-10-23 2007-09-05 富士電機システムズ株式会社 遠隔制御型切断ロボット
JP2003251581A (ja) * 2002-03-03 2003-09-09 Tmsuk Co Ltd ロボット装置およびロボット遠隔操作システム
JP3924495B2 (ja) * 2002-04-24 2007-06-06 株式会社日立製作所 遠隔操作制御装置
JP2005329515A (ja) * 2004-05-21 2005-12-02 Hitachi Ltd サービスロボットシステム
JP4558682B2 (ja) * 2006-06-15 2010-10-06 株式会社日立製作所 移動型ロボットシステムにおけるマニピュレータ遠隔操作方法

Also Published As

Publication number Publication date
JP2010064161A (ja) 2010-03-25

Similar Documents

Publication Publication Date Title
JP2009006410A (ja) 遠隔操作支援装置および遠隔操作支援プログラム
JP2009012106A (ja) 遠隔操作支援装置および遠隔操作支援プログラム
JP4492654B2 (ja) 3次元計測方法および3次元計測装置
CN112839764B (zh) 用于焊接路径生成的系统和方法
JP6314394B2 (ja) 情報処理装置、設定方法、設定プログラム、システムおよび管理装置
EP2916099B1 (en) Articulated arm coordinate measuring machine
JP5257335B2 (ja) 3次元視覚センサにおける計測有効領域の表示方法および3次元視覚センサ
JP5113666B2 (ja) ロボット教示システム及びロボットの動作のシミュレーション結果の表示方法
JP5092711B2 (ja) 物体認識装置およびロボット装置
JP6054831B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
EP3330928A1 (en) Image generation device, image generation system, and image generation method
JP2011112401A (ja) 3次元計測のためのキャリブレーション方法および3次元視覚センサ
JP5201341B2 (ja) 遠隔操作支援装置
JP2021016922A (ja) 三次元データ生成装置及びロボット制御システム
JP2010094777A (ja) 遠隔操作支援装置
JP2019217571A (ja) ロボット制御システム
CN114536399A (zh) 基于多个位姿标识的误差检测方法及机器人系统
EP2449340B1 (en) Vehicle measurement system with user interface
EP4238721A1 (en) Control device, control method, and program
US20220410394A1 (en) Method and system for programming a robot
US20230249341A1 (en) Robot teaching method and robot working method
JP3765061B2 (ja) 多次元形状の座標計測機用オフライン・ティーチング・システム
JP5300645B2 (ja) 三次元温度分布表示装置、テクスチャ作成装置および三次元温度分布表示方法
JP2017040488A (ja) 三次元温度分布表示装置
WO2024042619A1 (ja) 装置、ロボットの制御装置、ロボットシステム、方法

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20110422

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110812

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121009

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130116

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130129

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5201341

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160222

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250