JP3924495B2 - 遠隔操作制御装置 - Google Patents
遠隔操作制御装置 Download PDFInfo
- Publication number
- JP3924495B2 JP3924495B2 JP2002122796A JP2002122796A JP3924495B2 JP 3924495 B2 JP3924495 B2 JP 3924495B2 JP 2002122796 A JP2002122796 A JP 2002122796A JP 2002122796 A JP2002122796 A JP 2002122796A JP 3924495 B2 JP3924495 B2 JP 3924495B2
- Authority
- JP
- Japan
- Prior art keywords
- robot
- orientation
- image
- work
- control device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Manipulator (AREA)
Description
【発明の属する技術分野】
本発明は、例えば保守員が容易に立ち入ることのできない場所にある装置などをロボットの操作を通じて遠隔的に保守したりするのに用いられる遠隔操作制御装置に関する。
【0002】
【従来の技術】
例えば放射線環境下や宇宙環境など人が容易に立ち入ることのできない環境下にある装置、あるいは遠隔地にあってそこに保守員が出向くのに手間やコストのかかる場所にある装置を定期的に保守したりするためには、作業用のロボットを用いて離れた場所から遠隔的に作業することが望ましい。この時、保守において実施すべき作業が既知である場合、あるいは定期的な保守における作業の内容が毎回同一である場合には、予めロボットの動作をプログラミングしておき、人間が操作することなく自動運転で作業ができると効率的である。(なお、本明細書において「ロボット」とは、マニピュレータなども含めた、遠隔操作で作業を行なわせる機械装置一般を意味するものとする。)
【0003】
しかしながら、たとえ定期的に行われる同一作業であっても、前回存在しなかった障害物が存在したり、保守対象である装置の一部が壊れているなど予期せぬ状況が発生していることが考えられる。現状のロボット技術においては、このような不測の事態を正しく解釈してプログラムにより自動的に回避することは困難であるため、従来は遠隔地にいる人の手の動きをマニピュレータに伝えるマスタースレーブマニピュレータのような装置によって手動で保守作業を行うことが多い。あるいは、不測の事態が生じたら必ず検出が可能な保守対象や作業内容に限定したり、不測の事態を検出可能となるように、保守対象である装置に特殊な仕掛けを設けることにより、自動運転の保守作業を実現している。
【0004】
【発明が解決しようとする課題】
上記従来の技術におけるマスタースレーブマニピュレータを用いた方法では、マニピュレータの作業現場にテレビカメラを設置し、このカメラが捉えた映像を見ながら作業をするため、作業がやりづらく、時間がかかると言う問題がある。また、このような状況でマスターアームを操作する方式では操作者の疲労が著しく、長時間の作業が難しいと言う問題がある。
【0005】
一方、上記従来の技術における自動運転の方法では、適用可能な保守対象や作業内容が著しく制限されるという問題がある。また、不測の事態が生じない場合であっても、部品の着脱など微妙な位置合わせや力加減を必要とする作業の中には、まだ十分な信頼性を持って自動化できない作業も多く残っていると言う問題がある。
【0006】
なお、ロボットを用いる遠隔操作制御装置については、例えば特開平9−254065号公報に開示の例などが知られている。しかし特開平9−254065号公報の技術は、ロボットの遠隔操作のためにロボットとその作業環境をディスプレイ装置に表示するについて、その表示の効率を高めることを意図しているものであり、上記のような問題に対しては解決をもたらしていない。
【0007】
そこで、本発明の目的は、操作者の負担を軽減することができ、また従来よりも広い範囲の保守対象や作業内容に適用することを可能な遠隔操作制御装置を提供することにある。
【0008】
【課題を解決するための手段】
本発明は、作業環境中に設置されるロボットを遠隔的に操作制御する遠隔操作制御装置であり、作業環境の映像を捉えるカメラと、前記作業環境中に存在する作業対象物の位置と姿勢を記憶する環境モデル記憶手段と、前記ロボットの自動運転のための動作指令を生成する動作指令生成手段と、前記ロボットを手動で操作するための操作手段と、作業対象物の位置と姿勢を計測する位置および姿勢計測手段を備えた遠隔操作制御装置において、前記動作指令生成手段は前記位置および姿勢計測手段で計測した作業対象物の位置と姿勢と前記環境モデル記憶手段に記憶されている位置と姿勢の差が予め設定した範囲以内である場合には、生成した動作指令を前記位置と姿勢の差に応じて補正することで自動運転を継続し、前記位置と姿勢の差が前記予め設定した範囲を超える場合には、前記手動で操作するための操作手段による手動運転に切り換えるものである動作指令生成手段と、前記手動運転においては前記位置と姿勢の差が前記予め設定した範囲を超えた作業対象物の位置と姿勢に基づいて計算した前記ロボットの到達すべき目標位置と姿勢を図形として前記カメラが捉えた作業環境の映像に重ね合わせて表示する合成画像生成手段とを備えたものである遠隔操作制御装置を開示する。
【0009】
更に本発明は、前記の遠隔操作制御装置において、前記カメラから作業対象物あるいはロボットの表面までの距離を面的に計測する距離計測手段を備え、前記作業対象物あるいはロボットの到達すべき目標位置と姿勢における前記作業対象物あるいはロボットの図形画像の描画において、描画部位の奥行きが前記距離計測手段で計測した距離データよりも手前にある部位については描画し、奥にある部位については描画しないようにした合成画像生成手段を備えたものである遠隔操作制御装置を開示する。
【0020】
【発明の実施の形態】
以下、本発明の実施の形態を説明する。図1に、本発明の一実施形態による遠隔操作制御装置の構成をブロック図にして示す。この遠隔操作制御装置は、作業現場に設置されて装置や設備の保守等の作業を行うロボット1と、このロボット1を遠隔的に操作制御する操作制御系からなる。その操作制御系は、ロボット1を手動で操作するのに用いられる操作手段2、ロボット1が作業する作業環境の映像を捉えるカメラ3、作業環境に含まれる物体の位置姿勢を認識して環境モデルを修正する環境モデル修正手段4、作業環境に含まれる物体の位置姿勢情報やロボット操作に必要な位置決めに関する情報などを環境モデルとして記憶する環境モデル記憶手段5、ロボット1に対して自動動作に関する動作司令を生成する動作司令生成手段6、動作司令生成手段6が生成した動作司令と操作手段2より入力された動作司令のいずれかを選択してロボット1に転送する切替え手段7、環境モデル記憶手段5に格納の情報を用いてロボット操作に必要な位置決めに関する情報を図形化して表示した画像とカメラ3が捉えた映像とを合成した画像を生成する合成画像生成手段8、合成画像の表示手段9、カメラ3が捉えた映像上の位置や種々の指令を遠隔操作制御装置に入力するための入力手段10、および入力手段10より入力された位置情報に基づいて作業環境内の物体を選択する対象物体選択手段11を備えている。なお、図1の例では、作業環境に物体12と物体13があり、ロボット1で物体12を物体13の穴14に挿入する作業をなす状況を示してある。
【0021】
ここで、環境モデル修正手段4から対象物体選択手段11までを含む操作制御系はコンピュータシステムとして構成したものであってもよい。そのようにする場合には、環境モデル修正手段4、動作司令生成手段6、切替え手段7、合成画像生成手段8および対象物体選択手段11は、コンピュータシステム上のソフトウエアとして、また環境モデル記憶手段5はコンピュータシステムの記憶装置として、また合成画像の表示手段9はコンピュータシステムの表示装置として、そして入力手段10はコンピュータシステムの入力装置として構成することになる。
【0022】
以下、個々の構成要素の詳細について説明する。本実施形態におけるロボット1は、回転型の関節を備え、先端に物体を把持する把持機構を備えたアーム型のロボットであり、駆動装置によって関節の角度を変えることで把持機構の位置姿勢を変えることができるようになっている。本発明においては、このよなアーム型のロボットの他に、例えば脚機構や車輪のような移動機構を備えた走行型のロボットであってもよい。また、ロボットが物体把持機構を備えている必要は必ずしもないし、アーム型ロボットであっても回転型の関節を備えている必要もなく、直動型の関節を備えたものであってもよい。
【0023】
操作手段2は、本実施形態におけるアーム型のロボット1に対してはその把持機構の取るべき位置姿勢を入力する装置である。一方、ロボットとして走行型を用いる場合であれば、操作手段はその走行型ロボットに対してそれ自身の位置姿勢を入力する装置となる。具体的構成としては、例えばロボット1と同一形状のアーム型多関節機構として構成し、把持機構に相当する場所を手に持って操作するようなマスターアーム型の装置であってもよい。あるいは、前後左右の位置を入力するジョイスティックやコンピュータのマウスのような装置を用いるものであってもよい。
【0024】
環境モデル記憶手段5は、図2に例示するような実際の作業環境における物体の配置状態を図4に示すような形で記憶するものである。図2の例では、作業環境内に、floor(作業環境の床の意)と名付けられる物体100、body(本体)と名付けたられる物体101およびcap(ふた)と名付けられる物体102があり、物体102は穴103を有している。
【0025】
この作業環境については、物体の位置姿勢や物体の位置決め点を表すための座標系104〜110が設定される。座標系104は、環境モデル全体の基準となる座標系(ワールド座標系)であり、環境モデルに含まれる全ての物体や位置決め点の位置姿勢はこの座標系に対する座標値として表現される。座標系105、106はそれぞれfloorとbodyの位置姿勢を表す座標系であり、107はbodyに対するcapの位置決め点を表す座標系であると同時にcapの位置姿勢を表す座標系である。即ち、図2ではcapがbodyの位置決め点に位置決めされた状態となっていることを表している。座標系108は、capをロボットが把持する場合の把持機構の位置決め点を表す座標系である。109は、capに設けられた穴103に物体を挿入する場合の物体の位置決め点を表す座標系である。110は穴103に物体を挿入する際にその物体を挿入する直前の段階で位置決めする点を表す座標系である。なお、「位置姿勢」とは、物体等の位置と姿勢(向き)を含んだ概念である。
【0026】
ここで、位置決め点109(座標系109で表される位置決め点)と位置決め点110(座標系110で表される位置決め点)の関係について図3を用いて説明する。capの穴103に例えばボルト111のような物体を挿入する作業を行う場合、まず図3(a)に示すようにボルト111を穴の真上の位置決め点110の場所に穴の中心軸とボルトの中心軸が一致するように位置決めし、続いて図3(b)に示すように真っ直ぐ所定の位置決め点109まで挿入することが望ましい。同様に、ボルト111を取外す場合にも、位置決め点110まで持っていってから取外すことが望ましい。このような挿入・取外し動作を行うことで、ボルトが穴の側壁に引っ掛かるようなトラブルの発生を防ぐことができる。
【0027】
このように、位置決め点109は、穴に挿入された状態においてボルトが取るべき位置姿勢を表す座標系であるのに対して、位置決め点110は、挿入あるいは取外す途中でボルトが位置決めすべき位置姿勢を表す座標系である。以後、109のような位置決め点をアタッチ・ポイント(attach point)と呼ぶのに対して、110のような位置決め点をアプローチ・ポイント(approach point)と呼ぶことにする。また、108のようにロボットの把持機構を位置決めする位置決め点をグラスプ・ポイント(grasp point)と呼ぶことにする。
【0028】
環境モデル記憶手段5は、以上のような作業環境の状況を図4に示すような構造体変数120〜126として記憶する。個々の構造体変数(構造体)には物体名称120a、接続先120b、座標変換パラメータ120cの各情報が記憶される。物体名称120aは構造体が表す物体または位置決め点の名称を表し、接続先120bは構造体が表す物体または位置決め点が接続される物体または位置決め点を表し、座標変換パラメータ120cは接続先の物体または位置決め点に対する相対的な位置姿勢を表す。図4において、構造体120、121、123はそれぞれ図2に示す物体100(floor)、101(body)、102(cap)に対応し、構造体122、124、125、126は位置決め点107、108、109、110に対応する。
【0029】
座標変換パラメータは、例えば以下のような4×4行列によって表現する。X軸、Y軸、Z軸まわりの回転移動変換行列をそれぞれ
【数1】
とし、平行移動を表す3次元ベクトルを
【数2】
とする時、座標変換パラメータAを以下の式で与える。
【数3】
【0030】
上記のような座標変換パラメータを用いることにより、ある物体あるいは位置決め点のワールド座標系に対する位置姿勢は、当該物体あるいは位置決め点に対応する構造体の座標変換パラメータとその接続先から出発して接続先が末端(root)である構造体までの座標変換パラメータを全て掛け合せることにより求められる。例えば、位置決め点110の位置姿勢は、対応する構造体126の座標変換パラメータA7とその接続先である構造体125から順次接続先を辿ってゆき、接続先がrootである構造体120に至るまでの全ての座標変換パラメータA6、A4、A3、A2、A1を掛け合せることにより得られる。
【0031】
同様にして、ある物体あるいは位置決め点Aの座標系に対する物体あるいは位置決め点Bの位置姿勢は、Bに対応する構造体の座標変換パラメータとその接続先から出発して接続先がAである構造体までの座標変換パラメータを全て掛け合せることにより得られる。
【0032】
構造体には、図示しないが上記のほかにも、その構造体が物体を表すものであるのか位置決め点を表すものであるのかを識別するための情報や、物体を表すものであれば物体の形状の情報や、物体の種類を表す情報など必要に応じて種々の情報が記憶されている。
【0033】
次に、環境モデル修正手段4の詳細について説明する。環境モデル修正手段4は、図5に示す手順によって物体の位置姿勢を認識し、環境モデルに記録されている物体の位置姿勢情報を更新する。まず、カメラ3により取り込んだ作業環境の画像から位置姿勢を認識すべき物体のエッジ画像を取得する(s10)。エッジ画像とは、例えば画像の中で明るさが大きく変化する部分を抽出する等の処理を行うことにより得られる画像である。これは、取り込んだ画像の各画素に対して隣接する画素との間で輝度(明るさ)の差を求め、その差が予め設定したしきい値より大きい画素を残す等の処理を行うことにより得ることができる。このようにして得られた画像は、例えば図6に示す画像133のようなパターンの画像となる。この画像133は、物体の輪郭線を多く含む画像であるが、必ずしも全ての輪郭を含むものではない。
【0034】
次に、位置姿勢を認識すべき物体について、環境モデル記憶手段5に記憶されている情報の中からそれの位置姿勢を取り出し、その位置姿勢においてカメラ3の位置から眺めた場合に見えるはずの輪郭画像(参照画像)を生成する(s11)。物体の位置姿勢は、環境モデルの中の対応する構造体に対して、既に述べた手順によりワールド座標系に対する位置姿勢を計算することにより求められる。また、物体の形状データは環境モデルの中の対応する構造体に記憶されている情報として得られる。これらのデータとカメラの位置姿勢データより、コンピュータグラフィック(CG)を生成する手順と同様の手段により、例えば図6に示すような物体の輪郭画像134を生成する。
【0035】
次に、エッジ画像と参照画像(輪郭画像)の間に働く仮想的な引力を計算する(s12)。これは、例えばエッジ画像のパターンに正の電荷が帯電し、参照画像のパターンに負の電荷が帯電していると仮定した場合に二つのパターンの間に働く2次元的な引力として計算する。この処理は、実際の作業環境中での物体の状況を表すエッジ画像と環境モデルに記録されている物体の状況を表す参照画像との間のずれ量を近似的に求めることに相当する。
【0036】
次に、上記二つのパターンを重なり合わせるように物体の位置姿勢を修正する(s13)。これは、上記引力の働く方向と上記引力により参照パターンに働くモーメントの方向をもとの三次元空間における平行移動方向と回転移動方向に変換し、これらの方向に物体の位置姿勢を移動・回転しながら参照画像のパターンとエッジ画像のパターンを重ねあわせるようにして行う。この時、物体の位置姿勢の修正結果は環境モデルの中の対応する構造体の座標変換パラメータに反映させる。
【0037】
次に、二つのパターンの一致度を計算する(s14)。これは、例えば手順s13における物体の位置姿勢の修正量の大小などによって計算し、修正量が小さければ一致度が大きい(二つのパターンが十分重なり合っている)とし、大きければ一致度が小さい(二つのパターンがまだ十分重なり合っていない)とするものである。
【0038】
最後に、s11からs14で示すパターンの重ね合せ処理が収束状態であるかを判定する。判定結果が収束状態であれば処理を終了し、未収束状態ならs11に戻る(s15)。収束・未収束の判定は、例えばs14で計算した一致度があるしきい値以上であるなら収束状態とし、そうでなければ未収束と判定することにより行う。
【0039】
次に、動作司令生成手段6の詳細について説明する。動作司令生成手段6には、ロボットを自動的に運転するための動作司令データが記憶されており、この動作司令データに基いて図7に示す手順によってロボットの動きを制御する。ここで、動作司令データは、例えばロボットの把持機構をある位置姿勢に移動させることを指示する指令データや、把持機構に備えられた指の開閉を指示する指令データや、自動運転から手動運転への切替えを指示する指令データなどから構成される。
【0040】
まず、Tを1として最初の動作司令を読込み(s20、s21)、その動作司令が手動動作への切替えを指示する指令であれば手動操作を実行し、そうでなければ自動動作を実行する(s22、s23、s24)。そして、Tを1増加して次の動作司令を読み込み、全ての動作司令を実行するまで同様の処理を繰り返す(s25、s26)。
【0041】
図7に示す手順の中の自動動作を実行する手順s24においては、動作司令生成手段6が生成した動作司令をロボット1に転送する状態に切替え手段7をセットする。そして、動作司令がロボットの把持機構をある位置姿勢に移動する指令である場合には、それに対応した関節角度の制御データをロボットに転送する。また、動作司令がロボットの把持機構の開閉を指示する指令である場合には、把持機構の指の制御データをロボットに転送する。s24の自動動作の実行は現在のステップの動作司令が完了すると終了する。
【0042】
図7に示す手順の中の手動運転を実行する手順s23においては、操作手段2より入力された動作司令をロボット1に転送する状態に切替え手段7をセットする。そして、操作手段2より入力された動作司令に対応した関節角度の制御データや把持機構の指の制御データをロボットに転送する。s23においては、一旦手動運転の実行が開始されたなら、操作手段2による手動運転の状態を継続する。そして、入力装置10から手動運転の終了を指示する入力があった時に終了する。
【0043】
また、手順s23においては、以下に述べる合成画像生成手段8により、ロボットや位置決めすべき物体の位置決めに関する情報を図形化して表示した画像を表示装置9に表示する。この時表示すべき位置決め点は、手動動作への切替えを指示する指令データの中で指定される。
【0044】
合成画像生成手段8は、図8に示す手順により合成画像を生成する。まず、手動動作への切り替え時に動作司令データで指定された位置決め点の接続している物体(対象物体)を特定する(s30)。これは、環境モデルおいて、位置決め点に対応する構造体の接続先を順次辿ってゆき、最初に到達した物体を表す構造体を見つけることにより行われる。例えば、指定された位置決め点がapproach_point1(126)である場合、対象物体はcap(123)となる。次に、環境モデル修正手段4により対象物体の位置姿勢を認識し(s31)、環境モデルを更新する(s32)。これは、既に述べた図5に示した手順により行われる。次に、更新された環境モデルから対象物体の位置姿勢を取得し、これに基いて手動操作誘導用のマークを参照図形として表示する際の位置姿勢座標を計算する(s33)。それからマークの形態をとる参照図形をその位置姿勢で描画し、カメラ3より取り込んだ実際の作業環境の映像に重ね合せて表示する(s34)。
【0045】
以上の手順において、参照図形の好ましい表示方法としては以下のような方法が考えられる。例えば、図9に示すように物体142上に設けられた穴143に物体141を挿入する際のapproach point(144)に関する位置決め情報を表示する場合には、例えばロボットの把持機構の位置姿勢(または把持機構で把持されている物体141の位置姿勢)に参照図形(第2のマーク)145を表示すると同時に、物体141がapproach point(144)の位置に位置決めされた時にロボットの把持機構(または把持機構で把持されている物体141)が来るべき位置姿勢にも参照図形145と対になる参照図形146(第1のマーク)を表示する。そして、これらの参照図形をカメラ3が取り込んだ画像140に重ね合せた映像を見ながらロボットの把持機構を操作手段2により動かして、二つの参照図形が重なるように持っていけば、物体141を所定の位置決め点に位置決めすることができる。
【0046】
この場合、参照図形145を表示すべき位置姿勢はロボットの把持機構の位置姿勢である。これは、以下の手順で計算される。まず、ロボットについても図4に示したものと同様の形のモデルを持っておき、そのモデルの位置姿勢情報をロボットの関節角度情報などに基づいて実際の状態と合うように常に更新しておく。そして、そのモデルにおける把持機構の位置姿勢を既に述べた手順により計算することで得ることができる。一方、参照図形146を表示すべき位置姿勢は、物体141の座標系に対する物体141のgrasp pointの相対的な位置姿勢を求め、これとapproach point(144)の位置姿勢を掛け合せることにより求めることができる。
【0047】
上記の例は、ロボットのモデルから計算される把持機構の位置姿勢と実際の位置姿勢が一致する場合には有効であるが、一般的には必ずしもそうならない。例えば、ロボットが重量の大きな物体を把持している場合には、たわみなどが生じて把持機構の位置姿勢が関節角度などから計算される位置姿勢からずれることが考えられる。このような場合には、例えば以下のような方法を用いる。
【0048】
図10に示すように、位置決めすべき物体141の位置決めされた状態において見えるであろう外観形状を参照図形147として生成させ、これをカメラ3が取り込んだ実際の作業環境の画像140に重ね合せて表示する。この時、参照図形147は物体141の実際の映像との重なり具合を分かり易くするため、例えばワイヤーフレームのような線画により表示する。この映像を見ながらロボットの把持機構を操作手段2により動かして、物体141の実際の映像が参照図形147と重なるように持っていけば、物体141を所定の位置決め点に位置決めすることができる。
【0049】
上記の例では、ロボットの把持機構の実際の位置姿勢が不明であり、対象物体の実際の位置姿勢は環境モデル修正手段4の機能により既知となっているが、逆に把持機構の位置姿勢が既知であり、対象物体の位置姿勢が不明となる場合も考えられる。これは、例えば環境モデル修正手段がうまく働かないような状況に該当する。このような場合には、例えば以下に示すような方法を用いる。
【0050】
図11に示すように、位置決めすべき物体141と対象物体142との相対的な位置関係が、位置決め点と対象物体との相対的な位置関係と同じになるような位置姿勢に対象物体142の外観形状を参照図形148として生成させ、これをカメラ3が取り込んだ実際の作業環境の画像140に重ね合せて表示する。この時、参照図形148は物体142の実際の映像との重なり具合を分かり易くするため、例えばワイヤーフレームのような線画により表示する。この映像を見ながらロボットの把持機構を操作手段2により動かして、参照図形148が物体142の実際の映像と重なるように持っていけば、物体141を所定の位置決め点に位置決めすることができる。
【0051】
図10および図11に示した例では、参照図形をワイヤフレームのような線画として描画しているが、これに代えて図12に示すように3次元的な奥行情報を持ったソリッド画像149を参照図形として表示するものであってもよい。この場合、ソリッド画像149は以下の手順により描画する。
【0052】
まず、例えばレーザスキャナ等の装置を用いてカメラ3の位置から見た作業環境の距離画像を得る。距離画像とは、画像上の画素に対してその点における奥行情報が付加された画像である。次に、この距離画像の上に参照図形を奥行も計算しながら描画し、奥行が距離画像の奥行より手前にある画素については参照図形の画素を書き込み、奥にある場合にはカメラ3から取り込んだ画像の画素を書き込むようにする。以上の結果得られる映像では、参照図形と実際の物体との3次元的な重なり具合が明確になるので、参照図形と実際の物体の映像を重ね合わせる操作が容易になる。
【0053】
次に、対象物体選択手段11の詳細について説明する。対象物体選択手段11は、ロボットの操作者が入力装置10を用いて入力した表示装置9の画面上での位置情報から、操作者が選択した対象物体を図13に示す手順により特定する。ここで、入力装置10は、例えばコンピュータの入力装置であるマウスやジョイスティックなど位置を入力する装置であればよい。
【0054】
まず、入力装置10で入力した位置情報を読み取り、それを画面上での位置に換算する(s1)。そして、iを1として物体i=1をカメラ3の位置から見た場合に描画される領域を計算する(s2、s3)。そして、s1で計算した位置がs3で計算した領域に含まれる否かを判定し(s4)、含まれていた場合には対象物体はi=1と判定され、そうで無い場合はiをi+1として次の物体に進み(s5)、対象物体が特定されるまで、または環境モデルに含まれる全ての物体について終了するまで同様の調査を行う(s6)。もし、s1で計算した位置が全ての物体の描画領域に含まれない場合は、対象物体は無しと判定される。
【0055】
例えば、カメラ3から見た情景が図14に示すような状況である場合、物体130、131、あるいは物体131上に設けられた穴132が描画される領域は、それぞれ図中の太線で囲まれた領域となる。この時、物体130において、ロボットの把持機構の指133によって隠れる部分は物体130の描画領域とはならない。同様に、物体131において、物体130によって隠れる部分や穴132の領域と重なる部分は物体131の描画領域とはならない。このような状況において、×印で示す位置134が入力装置10で入力されている場合、対象物体は131となる。
【0056】
次に、本発明による遠隔操作制御装置を用いた遠隔保守作業の全体的な流れについて説明する。まず、保守作業におけるロボットの動作手順を動作司令データとして作成し、動作司令生成手段6に記憶させておく。この時、ボルト穴へのボルトの挿入作業など、自動化が難しい作業や微妙な位置合わせを必要とする作業については、その作業に入るところで手動動作への切替え指令を入れておく。また、実際の作業環境と環境モデルとの間のずれについて、例えばずれ量に関する適当なしきい値を設定しておき、環境モデル修正手段4による上述のような物体の位置姿勢認識を通じて実際の作業環境と環境モデルの間にしきい値以上のずれが生じていたならば、そのことを条件に手動操作へ自動的に切替える指令も入れておく。このようにするのは以下のような理由による。即ち、一定以上に大きいずれを生じている状況では、そのずれを環境モデル修正手段4で修正できてもなおロボットの自動運転の遂行に支障を来たすおそれのある障害の存在が予測されるからである。言い換えれば、このような対応をとることで、ロボットによる作業をより安全に行わせることが可能となり、ひいては、より広い範囲の保守対象や作業内容に遠隔操作制御装置を適用することを可能とする。
【0057】
ロボットを所定の位置に設置して作業を開始する準備が整ったなら、入力装置10より作業開始の指示を入力する。すると、動作司令生成手段6は、予め記憶された動作司令データに基づいてロボット1を制御して作業を進める。この時、操作者は表示装置9に表示されるカメラ3が捉えた作業環境の映像により、ロボットの作業状況を監視する。
【0058】
動作指令データの実行ステップが手動動作への切替え指令のところに来ると、動作司令生成手段6は手動動作モードとなり、切替え手段7は、操作手段2の入力をロボット1へ転送するように切り替わる。また、合成画像生成手段8は手動動作への切替え指令により指定された位置決め点に関する参照図形をカメラ3の画像に重ね合せて表示装置9に表示する。
【0059】
そして操作者はこの参照図形を見ながらロボットを操作し、所定の作業を実施する。例えば、ボルトをボルト穴に挿入する作業では、ボルト穴に挿入する際のapproach pointに関する位置決め情報が参照図形の形態で表示される。操作者は、参照図形と実際のボルトの映像が重なるようにロボットを操作することにより、ボルトを正しい位置に持っていくことができる。そのため、この後の挿入操作においてもボルトをボルト穴側壁に引っ掛けることなく作業を進めることができる。
【0060】
手動操作による作業が終了したなら、その旨を入力装置10より入力し、手動動作モードを終了する。すると、動作司令生成手段6は、再び自動運転モードとなり、後続する動作司令データの実行を再開する。
【0061】
このように、保守作業の中で自動化が難しい作業や、微妙な作業のみを手動操作として、他の部分を自動運転とすることにより、操作者の負担を軽減することができる。また、手動操作においても、操作における位置決め点を目視で誘導することのできる操作ガイド情報を参照図形などの形態で表示して操作対象物体の位置決めをやり易くしているので、容易に手動操作を行うことができる。
【0062】
操作者は、自動運転によるロボットの作業状況を常に表示装置9の画面により監視している。この時、例えば環境モデルには記録されていないような予期せぬ障害物が存在してロボットが干渉する可能性があると判断したなら、入力装置10より指示して、自動運転を停止させる。すると、動作司令生成手段6は、手動動作への切替え指令を受けた時と同様に手動動作モードに切り替わる。そして、障害物の影響が無くなるところまで手動操作で作業を進め、再び自動運転に切り替える。この時、動作司令データにおいて、手動操作で実施された部分はスキップするように指示する。
【0063】
上記のように、自動運転を中断した状態で手動操作を行う場合は、参照図形を表示すべき位置決め点は自動的に指定されない。そこで、対象物体選択手段11により対象物体を指定して、表示すべき位置決め点の情報を指定する。例えば、ボルトをボルト穴に挿入する作業の直前に作業を中断した場合は、ボルト穴の設けられている物体を入力装置10で選択する。これにより、ボルトを位置決めすべき位置決め点の情報を表示することができる。
【0064】
このように、作業環境に予期せぬ障害物がある場合には、適宜手動操作に切り替えることにより、柔軟に対処することが可能である。また、このような場合にも、対象物体の位置決めをやり易くする情報が表示されるため、容易に手動操作を行うことができる。
【0065】
ここで、環境モデル修正手段4による物体の位置姿勢の認識方法は、必ずしも以上の実施形態において説明した手法に限定されるものではなく、画像認識手法として一般に知られている他の方法を用いることができる。
【0066】
また以上の実施形態では、動作司令生成手段6が設けられているが、これは本発明の趣旨にとって必ずしも必要でない。即ち、本発明は参照図形などを表示することで手動操作時の操作者の負担軽減を可能とするものである。従って、操作者が逐次対象物体を指定し、その物体に関する位置決め情報を表示しながら、手動操作により全ての作業を進める構成であっても、操作者の負担軽減の実をあげることができる。
【0067】
また、以上の実施形態では作業環境の映像を捉えるためのカメラを1台だけ設ける構成としていたが、必要に応じて複数台のカメラを設けるようにしてもよい。複数台のカメラを設ける場合には、表示装置9に表示する画像を取り込むカメラが切り替わるようにしておき、あるカメラの画像が表示される時には、それに対応した視点位置姿勢で参照図形を表示することにより、対象物を多様な方向から見ることができるので、更に操作性を高めることができる。また、複数台のカメラを用いて対象物の多様な方向からの画像を入力することにより、物体の位置姿勢の計算精度を向上させることができる。即ち、図5に示した手順により物体の位置姿勢を求める場合、視点の奥行方向に関する情報は物体の大きさの変化として現れる。奥行方向の位置の変化に対する画像上での物体の大きさの変化は、画像の上下・左右方向の位置の変化に比べて小さいため、一つのカメラからの画像では、奥行方向の位置精度が悪くなるという問題がある。これに対して、第1のカメラと直角な方向から対象物を捉える第2のカメラがある場合には、その第2のカメラの画像から第1のカメラの画像における奥行方向の位置情報を上下・左右方向の情報として得ることができる。従って、これらの情報を合わせることによりカメラが一つの場合よりも高精度に物体の位置姿勢を特定することができる。
【0068】
また、以上の実施形態ではロボット1から離れた位置にカメラを設けるようにしていたが、これに代えて、カメラをロボット1の把持機構の部分に設けるようにしてもよい。この場合、合成画像生成手段8が表示する参照図形は以下のようにすればよい。例えば、図9に示すように物体142上に設けられた穴143に物体141を挿入する際のapproach point(144)に関する位置決め情報を表示する場合には、例えば物体141が位置決め点144に位置決めされた状態で、把持機構に備えられたカメラから見えるはずである物体142あるいは穴143の形状を図15に示すような形で参照図形150として表示する。これにより、実際の物体142や穴143の映像が前記の参照図形と重なるように把持機構を移動した時に、物体141は所定の位置に位置決めされることになる。この場合には、対象物体の位置姿勢データやロボットの把持機構の位置姿勢データは不要であり、作業環境モデルのデータのみがあれば足りる。
【0069】
【発明の効果】
以上説明したように本発明では、作業環境中でのロボットや物体の位置決めに関する情報を図形化して表示し、この表示図形でロボットの手動操作を行う際の誘導を行えるようにしているので、手動でのロボットの操作をより容易に行えるようになる。したがって本発明によれば、遠隔操作制御装置の操作に携わる者の負担を軽減することができる。また本発明では、ロボットの自動運転と手動操作を組み合わせるについて、ロボットの自動運転の基礎となる環境モデルが実際の作業環境と一定以上にずれている場合に、それを検出して自動運転から手動操作に自動的に切替えることができるようにしているので、ロボットによる作業をより安全に行わせることが可能となる。したがって本発明によれば、より広い範囲の保守対象や作業内容に遠隔操作制御装置を適用することを可能となる。
【図面の簡単な説明】
【図1】一実施形態による遠隔操作制御装置の構成を示すブロック図である。
【図2】作業環境における物体と位置決め点の位置関係を説明する図である。
【図3】物体の挿入動作における位置決め点の関係を説明する図である。
【図4】作業環境モデル内に記憶される情報を説明する図である。
【図5】環境モデル修正手段の動作手順を説明する図である。
【図6】環境モデル修正手段において使用されるエッジ画像と参照画像の例を示す図である。
【図7】動作司令生成手段の動作手順を説明する図である。
【図8】合成画像生成手段の動作手順を説明する図である。
【図9】合成画像生成手段が生成する画像の例を示す図である。
【図10】合成画像生成手段が生成する画像の例を示す図である。
【図11】合成画像生成手段が生成する画像の例を示す図である。
【図12】合成画像生成手段が生成する画像の例を示す図である。
【図13】対象物体選択手段の動作手順を説明する図である。
【図14】物体の描画領域の例を示す図である。
【図15】合成画像生成手段が生成する画像の例を示す図である。
【符号の説明】
1 ロボット
2 操作手段
3 カメラ
4 環境モデル修正手段
5 環境モデル
6 動作司令生成手段
7 切替え手段
8 合成画像生成手段
9 表示装置
10 入力装置
11 対象物体選択手段
Claims (2)
- 作業環境中に設置されるロボットを遠隔的に操作制御する遠隔操作制御装置であり、作業環境の映像を捉えるカメラと、前記作業環境中に存在する作業対象物の位置と姿勢を記憶する環境モデル記憶手段と、前記ロボットの自動運転のための動作指令を生成する動作指令生成手段と、前記ロボットを手動で操作するための操作手段と、作業対象物の位置と姿勢を計測する位置および姿勢計測手段を備えた遠隔操作制御装置において、前記動作指令生成手段は前記位置および姿勢計測手段で計測した作業対象物の位置と姿勢と前記環境モデル記憶手段に記憶されている位置と姿勢の差が予め設定した範囲以内である場合には、生成した動作指令を前記位置と姿勢の差に応じて補正することで自動運転を継続し、前記位置と姿勢の差が前記予め設定した範囲を超える場合には、前記手動で操作するための操作手段による手動運転に切り換えるものである動作指令生成手段と、前記手動運転においては前記位置と姿勢の差が前記予め設定した範囲を超えた作業対象物の位置と姿勢に基づいて計算した前記ロボットの到達すべき目標位置と姿勢を図形として前記カメラが捉えた作業環境の映像に重ね合わせて表示する合成画像生成手段とを備えたものである遠隔操作制御装置。
- 請求項1記載の遠隔操作制御装置において、前記カメラから作業対象物あるいはロボットの表面までの距離を面的に計測する距離計測手段を備え、前記作業対象物あるいはロボットの到達すべき目標位置と姿勢における前記作業対象物あるいはロボットの図形画像の描画において、描画部位の奥行きが前記距離計測手段で計測した距離データよりも手前にある部位については描画し、奥にある部位については描画しないようにした合成画像生成手段を備えたものである遠隔操作制御装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002122796A JP3924495B2 (ja) | 2002-04-24 | 2002-04-24 | 遠隔操作制御装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002122796A JP3924495B2 (ja) | 2002-04-24 | 2002-04-24 | 遠隔操作制御装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2003311661A JP2003311661A (ja) | 2003-11-05 |
JP3924495B2 true JP3924495B2 (ja) | 2007-06-06 |
Family
ID=29538312
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002122796A Expired - Fee Related JP3924495B2 (ja) | 2002-04-24 | 2002-04-24 | 遠隔操作制御装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3924495B2 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20180039133A (ko) | 2015-08-25 | 2018-04-17 | 카와사키 주코교 카부시키 카이샤 | 로봇시스템 |
US11548154B2 (en) | 2018-10-12 | 2023-01-10 | Toyota Research Institute, Inc. | Systems and methods for dimensionally-restricted robotic teleoperation |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4799088B2 (ja) | 2005-09-06 | 2011-10-19 | 株式会社東芝 | 遠隔検査における作業位置計測方法およびその装置 |
JP4869852B2 (ja) * | 2006-09-28 | 2012-02-08 | 株式会社ダイヘン | 搬送用ロボットの教示方法 |
JP4949798B2 (ja) * | 2006-10-16 | 2012-06-13 | 株式会社山武 | 作業支援装置および方法 |
JP5201341B2 (ja) * | 2008-09-09 | 2013-06-05 | 富士電機株式会社 | 遠隔操作支援装置 |
JP2010094777A (ja) * | 2008-10-16 | 2010-04-30 | Fuji Electric Systems Co Ltd | 遠隔操作支援装置 |
JP5888591B2 (ja) * | 2011-11-30 | 2016-03-22 | 株式会社Ihi | 把持制御方法と把持制御実行装置 |
JP6811635B2 (ja) * | 2017-02-10 | 2021-01-13 | 川崎重工業株式会社 | ロボットシステム及びその制御方法 |
JP6869060B2 (ja) * | 2017-03-15 | 2021-05-12 | 株式会社オカムラ | マニピュレータの制御装置、制御方法およびプログラム、ならびに作業システム |
JP6902369B2 (ja) * | 2017-03-15 | 2021-07-14 | 株式会社オカムラ | 提示装置、提示方法およびプログラム、ならびに作業システム |
JP6939003B2 (ja) * | 2017-03-23 | 2021-09-22 | 株式会社デンソーウェーブ | ロボットシステム |
JP2019063953A (ja) * | 2017-10-02 | 2019-04-25 | 株式会社オカムラ | 作業システム、作業システムの制御方法及びプログラム |
JP7041492B2 (ja) | 2017-10-31 | 2022-03-24 | 川崎重工業株式会社 | ロボットシステム |
JP7117237B2 (ja) * | 2018-12-27 | 2022-08-12 | 川崎重工業株式会社 | ロボット制御装置、ロボットシステム及びロボット制御方法 |
CN112584988B (zh) * | 2019-03-15 | 2024-08-27 | 欧姆龙株式会社 | 设定辅助装置、设定辅助方法和计算机可读存储介质 |
JP2020175453A (ja) * | 2019-04-15 | 2020-10-29 | 株式会社Ihi | 遠隔操作装置 |
JP7374867B2 (ja) * | 2019-11-27 | 2023-11-07 | 株式会社安川電機 | 制御システム、ローカルコントローラ及び制御方法 |
EP4074463A4 (en) | 2019-12-13 | 2024-01-31 | Kawasaki Jukogyo Kabushiki Kaisha | ROBOT SYSTEM |
WO2022064653A1 (ja) * | 2020-09-25 | 2022-03-31 | 日本電気株式会社 | 制御装置、制御方法及び記憶媒体 |
CN114217613B (zh) * | 2021-12-09 | 2024-01-12 | 广州小鹏自动驾驶科技有限公司 | 一种远程控制方法、装置和远程驾驶系统 |
-
2002
- 2002-04-24 JP JP2002122796A patent/JP3924495B2/ja not_active Expired - Fee Related
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20180039133A (ko) | 2015-08-25 | 2018-04-17 | 카와사키 주코교 카부시키 카이샤 | 로봇시스템 |
US10631941B2 (en) | 2015-08-25 | 2020-04-28 | Kawasaki Jukogyo Kabushiki Kaisha | Robot system |
US10905508B2 (en) | 2015-08-25 | 2021-02-02 | Kawasaki Jukogyo Kabushiki Kaisha | Remote control robot system |
US11548154B2 (en) | 2018-10-12 | 2023-01-10 | Toyota Research Institute, Inc. | Systems and methods for dimensionally-restricted robotic teleoperation |
Also Published As
Publication number | Publication date |
---|---|
JP2003311661A (ja) | 2003-11-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3924495B2 (ja) | 遠隔操作制御装置 | |
US10905508B2 (en) | Remote control robot system | |
JP6420229B2 (ja) | 仮想物体の画像をロボットの映像に重畳表示する映像表示装置を備えるロボットシステム | |
US11040451B2 (en) | Teaching device and teaching method | |
CN105666505B (zh) | 具备扩展现实对应显示器的机器人系统 | |
US8234011B2 (en) | Movable robot | |
CN103533909B (zh) | 用于控制工具运动的标架的位置和定向的估计 | |
CN114670189A (zh) | 存储介质、以及生成机器人的控制程序的方法及系统 | |
JP7517803B2 (ja) | ロボット教示システム、画像生成方法、及びプログラム | |
WO2022208963A1 (ja) | ロボット制御用のキャリブレーション装置 | |
JP7323993B2 (ja) | 制御装置、ロボットシステム、制御装置の動作方法及びプログラム | |
Lee et al. | Reinforcement learning-based virtual fixtures for teleoperation of hydraulic construction machine | |
JP3940998B2 (ja) | ロボット装置 | |
JPH11338532A (ja) | 教示装置 | |
CN115607294A (zh) | 手术机器人系统和数据处理方法 | |
CN107363831B (zh) | 基于视觉的遥操作机器人控制系统及方法 | |
CN115457096A (zh) | 作业机械的辅助控制方法、装置、系统及作业机械 | |
JP2960733B2 (ja) | 画像表示方法及び画像表示装置並びに遠隔操作装置 | |
CN112975988A (zh) | 一种基于vr技术的带电作业机器人控制系统 | |
JPH0790492B2 (ja) | 遠隔操作式マニピユレ−タ装置 | |
JPH0795560A (ja) | 遠隔操作システムの画像計測方法及びその装置並びに距離計測方法 | |
JP7324935B2 (ja) | ロボット制御システム、ロボット制御方法、およびロボット制御プログラム | |
WO2022000283A1 (zh) | 一种示教器、机器人、控制机器人的方法和装置 | |
JP4949798B2 (ja) | 作業支援装置および方法 | |
JPH0760342B2 (ja) | ロボット支援システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050411 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060919 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20061116 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070220 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070226 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100302 Year of fee payment: 3 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110302 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120302 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130302 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130302 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140302 Year of fee payment: 7 |
|
LAPS | Cancellation because of no payment of annual fees |