JPH11149315A - ロボット制御システム - Google Patents

ロボット制御システム

Info

Publication number
JPH11149315A
JPH11149315A JP31820097A JP31820097A JPH11149315A JP H11149315 A JPH11149315 A JP H11149315A JP 31820097 A JP31820097 A JP 31820097A JP 31820097 A JP31820097 A JP 31820097A JP H11149315 A JPH11149315 A JP H11149315A
Authority
JP
Japan
Prior art keywords
robot
data
autonomous
movement
knowledge base
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP31820097A
Other languages
English (en)
Inventor
Takeo Omichi
武生 大道
Shigetoshi Shiotani
成敏 塩谷
Yasutaka Fukuya
康隆 福家
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Heavy Industries Ltd
Original Assignee
Mitsubishi Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Heavy Industries Ltd filed Critical Mitsubishi Heavy Industries Ltd
Priority to JP31820097A priority Critical patent/JPH11149315A/ja
Publication of JPH11149315A publication Critical patent/JPH11149315A/ja
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0011Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement
    • G05D1/0038Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement by providing the operator with simple or augmented images from one or more cameras located onboard the vehicle, e.g. tele-operation

Abstract

(57)【要約】 【課題】自律制御と遠隔制御とを適切に組み合わせてロ
ボットを移動させることができるロボット制御システム
を提供する。 【解決手段】操作装置はロボットに教示を行うために予
め設定されたデータおよびロボットから送信されるデー
タを表示する画像表示器と、その表示画面上でロボット
に送信すべき行動モジュール単位の移動目標データを教
示するためのマウスとを備え、ロボット1は自律移動の
ための知識ベースを記憶した知識ベース記憶部23と、
知識ベースに基づいた自律移動が可能であるかを判断す
る判断部24と、判断部で知識ベースに基づいた自律移
動が可能と判断されたとき知識ベースに基づいて自律移
動を行い、不可能と判断されたとき現在の自律移動を縮
退させた後、現在の状況データを操作装置に送り、それ
に応じて操作装置で教示された移動目標データに基づき
自律移動を行うデッドレコニング部25とを備えた。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、ロボットを用いて
プラントや工場などを遠隔監視するためのロボット制御
システムに係り、特に自律制御と遠隔制御とを融合させ
ながらロボットを移動させるロボット制御システムに関
する。
【0002】
【従来の技術】従来から、プラントや工場などを遠隔監
視するための移動ロボットを用いる場合には、大きく分
けて移動ロボットを全て遠隔操作により動かす方法と、
移動ロボットに動作の全てを自律的に行わせる方法とが
あった。
【0003】遠隔操作による方法では、基本的にTVカ
メラ等によりロボットの動きを監視しているが、TVカ
メラでは目視に比べて得られる情報が少ないため、直視
の場合に比べて操作は格段に難しく、操作者の負担も大
きい。
【0004】従って、操作者の技術の未熟さや疲労等に
よってミスが生じ、移動ロボットが障害物等の危険を回
避できなかったり、周囲の人や物に衝突するおそれがあ
る。また、熟練した操作者でも、通信装置の故障や建物
等による電波の遮断などで移動ロボットとの通信が途絶
するといった事態が生ずると、危険回避等のための停止
命令を移動ロボットに与えることができず、逆に移動ロ
ボットがセンシングした状態(周囲の画像や路上物体と
の接触等)になっても、それを操作者が認識できないと
いった不都合が生じる。
【0005】さらに、操作者と移動ロボットの通信手段
の低コスト化やインフラ整備が整っていないなどの理由
で、通信容量の小さい通信手段を使用していた場合、例
えば複数経路を介した伝送等により通信遅れが生じる
と、操作者は遅れて伝送された移動ロボットのセンサ情
報(ロボット位置、方位、画像情報など)に基づいて、
移動速度・方向等の指令を与えなければならず、その指
令も遅れて移動ロボットに届くことになるため、移動ロ
ボットに対するリアルタイムの操作性は非常に悪くな
る。従って、移動ロボットの経路上に歩行者などの不意
の障害物が現れた場合、即座に移動ロボットを止めるこ
とができない。
【0006】一方、移動ロボットに自律動作させる場
合、移動の信頼性は移動ロボット自身が周囲の環境をど
れだけ正しく認識できるかにかかっており、以下のよう
な点が問題となる。 (1)センシングの信頼性 例えば、「Stentz,A.,Hebert,M.,“A Complete Navigat
ion System for GoalAcquisition in Unknown Environm
ent”,Proc.of IEEE International Conference on Int
elligent Robots and Systems‘95”, pp.425-432,1995
」(文献1)には、ビークル型移動ロボットが未知の
環境の中をレーザ距離センサを使用し、周囲の障害を検
知しながら自律移動する実験例が述べられているが、水
面などで距離検出ができなかったときなどに、移動ロボ
ットの自律制御に人間が割り込んで操作を行うことが必
要になる。
【0007】また、「金出武雄、米国における自律移動
ロボット研究の動向、JRSJ,Vol.5,No.5,pp.41-51,1987
」(文献2)には、同様のビークル型移動ロボットを
屋外の不定の環境(舗装が不完全な道路、路面上に影の
ある道路、落ち葉が存在する道路など)で自律移動させ
る例が述べられているが、その走行速度は0.6km/
h程度と遅く、しかもどの様な場面でも安定に動くとい
ったものではない。 (2)移動計画の不完全性 例えば、文献1にはビークル型移動ロボットを出発点か
ら目的地まで自律移動させたときの道筋が示されている
が、前半の動きは試行錯誤のため、何回も迂回が行われ
て無駄な動きが多くなっている。つまり、人間がルート
を教示したほうがより簡単に目的地まで進行できるよう
なことも起こり得る。しかも、一般に自律移動において
ルートを生成するためのアルゴリズムは複雑である。 (3)高価なセンシングシステム (1)とも関連するが、従来からセンシングの信頼性を
向上させるために、異種のセンサ情報を融合すること
(センサ融合)が試みられている。ただし、一般にはセ
ンシングに関わるコストが増してシステムが高価にな
る。例えば、文献1に示されたビークル型移動ロボット
では、地上の位置検出手段としてGPS(Global Posit
ioning System )と、車輪の回転数センサ(エンコー
ダ)と、慣性センサユニット(加速度計3個、ジャイロ
3個)とを組み合わせた精度10mmのセンサシステム
が設けられているが、そのコストは約100万$(約
1.2億円)である。
【0008】ところで、上述したような遠隔制御のみ、
あるいは自律制御のみによる移動ロボットの動作の不都
合に対処するために、近年では操作者とロボットとを互
いに協調させる試み、具体的には双方に知識を共有させ
て、作業に応じて自律制御と遠隔制御とを融合させる試
みがなされている。これによって、操作者の負担を軽く
して、作業の効率化を図ることが期待されている。
【0009】例えば、「清水他、双腕多指形マニピュレ
ータの自律遠隔融合制御(第1報)、日本ロボット学会
学術講演会,pp.263-264,1990 」(文献3)、「大道
他、双腕多指形マニピュレータの自律遠隔融合制御(第
2報)、日本機械学会ロボッティクス・メカトロニクス
講演会‘91講演論文集(Vol.A),pp.49-50,1991 」
(文献4)、「大道他、自律遠隔融合制御における実行
的教示法、日本ロボット学会学術講演会,pp.569-570,1
990 」(文献5)には、このような自律遠隔融合制御ロ
ボットを双腕多指型マスタスレーブロボットに適用した
例が述べられており、自律制御と遠隔制御とを組み合わ
せる方法として空間的融合と時間的融合とに関する記載
がある。
【0010】空間的融合は、マニピュレータの一部の自
由度を遠隔制御に使用し、残りは自律制御に使用すると
いう方法であり、例えば玉掛け動作においてマニピュレ
ータの左腕を自律モードにしてフックを把持させ、右腕
を遠隔モードにしてワイヤを掛けさせるといったことが
考えられる。
【0011】しかし、移動ロボットはベース自体が移動
しており、しかもマニピュレータの操作と異なり移動ロ
ボットの全体の姿を外から見ることができない。従っ
て、上述したマニピュレータのように自律制御と遠隔制
御の役割分担を簡単に行うことができない。また、マニ
ピュレータでは周囲の環境変化は自身、すなわちマニピ
ュレータの作業の結果として生じるものが多く、予測可
能であるのに対し、移動ロボットでは周囲の環境が時々
刻々と変化するので、周囲の状況を予測するのが極めて
難しい。
【0012】以上の問題は、仮に移動ロボット内部にカ
メラを設け、操作者が移動ロボットから送られてくる画
像を見ながら遠隔操作を行ったとしても生じる問題であ
るため、マニピュレータのように前もって自律動作と遠
隔動作との融合計画を立てることができない。従って、
移動ロボットにおいて空間的融合を行うことは困難であ
るといえる。
【0013】一方、時間的融合はロボットの作業時間に
応じて自律動作を遠隔動作とを時間的に融合させる方法
である。この時間的融合には、文献2に示されるように
タイムダイヤルという概念があり、例えばマニピュレー
タの動作を時間的に逆戻りさせることも可能である。た
だし、マニピュレータはベースが固定されているために
同じ手先軌道を逆戻りできるが、移動ロボットでは固定
されたベースが無いので、同じ軌道を戻ることができな
いという問題がある。
【0014】
【発明が解決しようとする課題】上述したように、従来
の移動ロボットには遠隔操作のみによる移動と、自律動
作のみによる移動という二つの移動方法があったが、前
者は操作が難しく、通信状態によってリアルタイムで操
作できなくなることがあるため、障害物の発生など不足
の事態に適切に対応することが難しいという問題があっ
た。また、後者はロボットが適切に動作できなくなるこ
とがあり、無駄な動きが多くなるおそれがあり、センシ
ングシステムが高価になるという問題があった。さら
に、移動ロボットに空間的融合や時間的融合などの自律
制御と遠隔制御との融合方法を適用することは難しいと
いう問題があった。
【0015】本発明は、このような問題を解決するため
のものであり、自律制御と遠隔制御とを適切に組み合わ
せることができ、安価で、操作者の負担が少なく、しか
も不足の事態にも容易に対応することができるロボット
制御システムを提供することを目的とする。
【0016】
【課題を解決するための手段】上記課題を解決するた
め、本発明はロボットと操作装置との間でデータ通信を
行うことにより該ロボットを移動させるロボット制御シ
ステムであって、操作装置は、ロボットに教示を行うた
めに予め設定されたデータおよびロボットから送信され
るデータを表示する表示手段と、この表示手段の表示画
面上でロボットに送信すべき行動モジュール単位の移動
目標データを教示するための教示手段とを備え、ロボッ
トは、予め設定された自律移動のための知識ベースを記
憶した知識ベース記憶手段と、この知識ベース記憶手段
に記憶された知識ベースに基づいた自律移動が可能であ
るか否かを判断する判断手段と、この判断手段により知
識ベースに基づいた自律移動が可能であると判断された
ときは知識ベースに基づいて自律移動を行い、知識ベー
スに基づいた自律移動が不可能であると判断されたとき
は現在の自律移動を縮退させた後、現在の状況を示す状
況データを操作装置に送り、この状況データに基づき教
示手段により教示された移動目標データに基づいて自律
移動を行う自律移動手段とを備えたことを特徴とする。
ここで、表示手段にはロボットに教示を行うために予め
設定されたデータおよびロボットから送信されるデータ
がそれぞれ複数同時に表示されるようにする。
【0017】
【発明の実施の形態】以下、図面を参照して本発明を自
律遠隔融合制御システムに適用した実施形態について説
明する。 (第1の実施形態)図1は、第1の実施形態に係る自律
遠隔融合制御システムの外観を示した図であり、(a)
はプラント内などを移動させるロボットを表し、(b)
はロボットの操作装置を表している。また、図2はロボ
ットの構成を示したブロック図であり、図3は操作装置
の構成を示したブロック図である。
【0018】この自律遠隔融合制御システムは、大きく
分けてロボット1と、操作装置8と、ロボット1と操作
装置8との間で通信を行うための通信装置3a,3bと
からなる。ロボット1は自律制御と遠隔制御とを融合さ
せた自律遠隔融合制御によって動作する。すなわち、動
作の主体および動作手順はロボット1に知識ベース(環
境モデル)として設定されており、ロボット1は環境モ
デルに基づいて自律動作が可能な部分は操作者に確認を
取りながら自律的に動作し、環境モデルの情報に不足が
あったとき、すなわち障害物14の発生など環境モデル
の情報だけでは対応しきれず、自らの行動判断が不可能
な状態に陥ったとき、その旨を操作装置8に通信して、
その後の具体的指示を操作者に求める。操作者がこれに
応じた指示を操作装置8で入力すると、その教示データ
がロボット1に送られ、ロボット1はその教示データを
環境モデルに反映させて自律動作を再開する。なお、ロ
ボット1の動作中に自在に操作者が介在する教示(実行
的教示)、例えば位置姿勢の修正に相当する教示を行う
ときも同様の処理が行われる。
【0019】以下、各部の構成について詳細に説明す
る。図1(a)に示されるように、ロボット1は四つの
車輪5によって移動する車輪型ロボットとして構成され
ており、センシング手段としてCCDカメラ2、距離セ
ンサ4、エンコーダ6およびジャイロ7が設けられてい
る。つまり、ロボット1はセンサ情報としてCCDカメ
ラ2で周囲の画像情報を取り込み、距離センサ4で前方
に所定距離内に存在する障害物14までの距離を検出
し、エンコーダ6で車輪5の回転量を検出し、ジャイロ
7で本体の方向(姿勢)を検出する。
【0020】ここで、距離センサ4としては少なくとも
ロボット1の進路上に存在する障害物14を認知できる
程度のものでよく、その障害物14が何であるのかをは
っきりと認識できなくてもよい。例えば、「Illah R.No
urbakhsh,David Andre,CarloTomasi,and Michael R.Gen
esereth, ”Obstacle Avoidance Via Depth From Focus
”,ARPA Image Understanding Workshop 1996 」(文
献6)には、認知システムとして画像のぼけ具合から距
離を図る方法が記載されているが、同様に距離センサ4
により前方の一定距離の画像を撮影し、その画像のぼけ
具合から画像中の障害物までの距離を検出することによ
り、障害物14の認識精度では劣るものの確実なセンシ
ングを実現することができる。ただし、距離センサ4と
してレーザ距離計を用いる場合はレーザー光は黒い面の
障害物14に対する距離の検出が難しく、また超音波セ
ンサを用いる場合は超音波は障害物14の反射面が傾斜
しているときの検出が難しいため、他のセンサを併用す
ることが望ましい。
【0021】ロボット1には、必要に応じて操作装置8
と通信するための通信装置3aが設けられている。な
お、操作装置8はロボット1に対しリアルタイムで運動
制御レベルの指令を与えることはなく、例えば二次元地
図上の目的地を示す座標データなどのロボット1の行動
モジュール単位(行動レベル)の指令を与えるだけなの
で、通信装置3aとしては例えばPHS(Personal Han
dyphone System)などのリアルタイム性が必ずしも保証
されないものでもよい。
【0022】さらに、図2に示されるようにロボット1
にはCCDカメラ2で撮影された画像を圧縮するための
画像圧縮部21と、予め設定された自律移動のための知
識ベース(環境モデル)が記憶される知識ベース部23
と、知識ベースに基づいた自律移動が可能であるか否か
を判断する判断部24と、自律移動および遠隔移動に伴
ってロボット1の重心位置を計測するためのデッドレコ
ニング部25とが設けられている。なお、同図では知識
ベース部23、判断部24およびデッドレコニング部2
5と通信装置3aとで制御装置22が形成されており、
この制御装置22によりロボット1の移動、具体的には
各車輪5の回転数が制御されるものとする。
【0023】一方、図1(b)に示されるように、操作
装置8は通信装置3b、画像表示器9、データ記憶装置
10、データ変換処理装置11、マウス12およびスピ
ーカ13によって構成されている。
【0024】データ記憶装置10には、ロボット1に移
動ルートを教示するために必要なデータとして、予め設
定された移動ロボット1の移動範囲(例えば工場の敷地
など)に対応した二次元地図情報(線画)が記憶されて
おり、画像表示器9の画面上には操作者の選択により必
要な箇所に対応した二次元地図が表示される。
【0025】画像表示器9は、ロボット1から送られて
くる静止画像情報を表示したり、データ記憶装置10に
記憶されている二次元地図情報(線画)の単独像を表示
したり、これらの複合像をマルチウインドウで表示した
りするためのものである。ここで、画像表示器9は表示
画像を拡大・縮小あるいは並進・回転移動させて自在に
表示できるものとし、複数の表示画像のうちから所用の
表示画像の選択ができるものとする。また、画像表示器
9はロボット1に対する移動経路教示の際にも用いられ
る。すなわち、図3に示されるようにマウス12で画像
表示器9の画面上のポインタPを操作して、ロボット1
に目的地等の指示を与えることができるようになってい
る。
【0026】データ変換処理装置11は、データ記憶装
置10に記憶されている二次元地図上の特徴点や道路の
へり等の線情報の拡大・縮小、並進・回転移動の座標変
換処理などを行う。
【0027】以下、このロボット1を自律遠隔融合制御
によって移動させるときの処理について説明する。ま
ず、操作装置8において操作者によりロボット1の目的
地が指示される。具体的には、操作装置8ではデータ記
憶装置10に記憶された二次元地図情報に基づいて画像
表示器9に二次元地図を単独で表示させる。操作者は、
画像表示器9に表示された二次元地図上の一点をマウス
12でクリックすることによって、ロボット1の目的地
を操作装置8に入力する。このようにして入力されたロ
ボット1の目的地を示す二次元地図上の座標データは、
データ変換処理装置11を介して教示データとして通信
装置3bによりロボット1に送られる。ただし、ロボッ
ト1の目的地は予めロボット1側の知識ベース部23に
シーケンス的に設定しておいてもよい。
【0028】ロボット1は、通信装置3aにより受信し
た教示データを知識ベースに反映させて、その知識ベー
スに基づき目的地まで自律移動と遠隔移動とを融合させ
て移動する。すなわち、ロボット1は知識ベース部23
の設定内容(移動ルート以外にも二次元地図情報や移動
の基準情報等を含む)に基づいて基本的に自律移動によ
って移動する。そして、自ら行動判断が不可能な場合の
み、操作者がロボット1に指示を与えるようにする。
【0029】具体的には、ロボット1は現在地から目的
地まで直線状に、あるいは予め設定されていた曲線(た
とえば円弧)状にデッドレコニングすることにより自律
移動する。すなわち、ロボット1のデッドレコニング部
25はエンコーダ6によって検出された各車輪5の回転
量およびジャイロ7によって検出されたロボット1の方
向(姿勢)のデータに基づいてロボット1の重心位置を
計測する。制御装置22はデッドレコニング部25の計
測結果に基づいて各車輪5の回転数を制御し、その結果
としてロボット1が自律移動する。
【0030】また、車輪5の滑りなどによる誤差を修正
するために、道路上の縁石など適当なものをロボット1
の移動の基準にし、その基準に対してならい移動を行う
ようにしてもよい。ならい移動の基準としては、上述し
た縁石の他、マンホール、道路沿いに設けられた標識、
道路上に描かれた白線などが考えられる。
【0031】このように自律移動を行っている間、ロボ
ット1では知識ベースに基づいて引き続き自律移動を行
うことが可能であるか否か、すなわち操作装置8側に行
動の教示を要求するか否かを判断している。具体的に
は、ロボット1の判断部24は距離センサ4の検出結果
から進路上の一定距離内に障害物14が存在するか否か
を判断し、障害物14を認知した場合、ロボット1の
み、すなわち知識ベースのみによる行動判断(自律移
動)が不可能な状態に陥ったものとして、その時点の行
動を一旦安全を確保できるレベルまで縮退させる。この
場合、上述したように障害物14が存在することだけを
認知すればよく、具体的にその障害物14が何であるか
を認識する必要はない。
【0032】ロボット1は、行動の縮退として速度を用
いる。すなわち、制御装置22は各車輪5の回転速度を
制御し、ロボット1全体の移動速度を調節することによ
り、進路上に障害物14が存在したときの安全を確保す
る。このとき、ロボット1の速度をゼロにして、即座に
停止させれば安全を最大限確保できる。また、ロボット
1の速度を障害物14までの距離に応じて可変させれ
ば、無駄な移動時間を短くすることができる。後者の場
合、障害物14までの距離が近ければロボット1の速度
を下げ、障害物14までの距離が遠ければ可能な範囲で
速度を上げる。
【0033】このように、安全を確保できるレベルに行
動を縮退させた後、ロボット1は現在の状況を示す情報
として、CCDカメラ2で得られた障害物14の静止画
像情報と、距離センサ4によって得られた障害物14ま
での距離情報とを通信装置3aによって操作装置8に送
信し、操作装置8からの遠隔操作、すなわち指示待ち状
態となる。なお、上述した静止画像情報や距離情報だけ
でなく、ジャイロ7によるロボット1の方向(姿勢)情
報、エンコーダ6による車輪5の回転量情報などを操作
装置8に送信することができる。さらに、集音マイク等
により測定したロボット1の周囲の音を操作装置8に送
信してもよい。
【0034】操作装置8は、通信装置3bによってロボ
ット1から送信された静止画像情報および距離情報を受
信して、まず画像表示器9に静止画像を表示する。次
に、距離情報を基準として静止画像情報を解析し、静止
画像によって示される場所に対応する二次元地図情報を
データ記憶装置10から呼び出し、画像表示器9に静止
画像と対応する二次元地図(線画)とを重ね合わせて表
示する。
【0035】ただし、ロボット1には固定されたベース
がなく、車輪5がスリップすることもあるので、上述し
たデッドレコニング処理を行っていても常に位置を正し
く計測できているとは限らない。従って、画像表示器9
上に静止画像と二次元地図とを重ね合わせて表示する
と、静止画像と二次元地図とで相対応する特徴点や線が
正しく重ならないことがある。この場合、データ変換処
理装置11によって元の二次元地図情報に対して拡大・
縮小、並進・回転移動といった適当な座標変換処理を施
し、画像表示器9の画面上で静止画像と二次元地図との
相対応する特徴点や線が正しく重ね合わされるようにす
る。
【0036】図4は、画像表示器9に表示された静止画
像と二次元地図とを示した例である。この場合、画面上
にはロボット1の現在の位置R、予定されていた自律ル
ート41、その先に存在する障害物42が示されてい
る。また、この例では静止画像上の路面の縁ABと、二
次元地図上の対応する路面の縁A′B′とが正しく重ね
合わされなかったため、二次元地図に対して並進および
回転の座標処理が施されている。なお、画面上のポール
43を相対応させて座標変換処理を行うこともできる。
【0037】次に、操作者は画像表示器9の画面を見な
がらマウス12を操作して、ロボット1に指示すべき移
動点を入力する。この場合、障害物42を回避できる安
全な自律軌道(以下、補正軌道)の位置(ポイント)を
指示するものとし、画面上の1回のポイント指示で駄目
な場合は複数のポイントを指示する。例えば、図4では
ポイントa、bの順にマウス12をクリックし、最後に
自律ルート上の復帰点Cをクリックすることにより、障
害物42を回避するための補正軌道が入力されたことに
なる。この例のように、ロボット1を自律ルート41か
らずらすときは、自律ルート41上の復帰点Cを与える
ようにして、ロボット1が本来の自律ルート41に戻れ
るようにする。このとき、自律ルート41にもっとも滑
らかに復帰できる軌道を演算によって求めるようにして
もよい。
【0038】次に、操作装置8では補正軌道のデータ、
実際には各ポイントの二次元地図上の座標データをデー
タ変換処理装置11によってロボット1に対する教示デ
ータに変換し、これを通信装置3bによってロボット1
に送信する。
【0039】ところで、操作装置8では上述した補正軌
道を入力するための処理と並行して、スピーカ13から
適当な警告音を発して操作者に対して注意を促す。この
とき、ロボット1から送られた距離情報に基づいて、ロ
ボット1から障害物14までの距離の大小に応じて警告
音を変化させる。例えば、距離が近い時は音量を大きく
し、遠い時は音量を小さくする。また、距離が近いとき
は高い音で、遠い時は低い音で(例えば検出距離の最大
値と最小値で1オクターブ変化)変化させるようにする
こともできる。
【0040】この警告音は、補正軌道の教示データがロ
ボット1に送られるまで、あるいはロボット1から障害
物14を回避して元の自律移動に復帰したことを示す通
信があるまで発せられる。
【0041】操作装置8からの指示待ち状態となってい
たロボット1は、通信装置3aによって補正軌道の教示
データを受信すると、その教示データに従って障害物1
4を回避するように移動する(遠隔移動)。ただし、実
際にはロボット1は補正軌道の教示データに従って自律
的に移動する。そして、補正軌道から本来の自律軌道に
戻ることができた後は、そのまま本体の自律軌道に沿っ
て自律移動を続けるようにする。なお、補正軌道に従っ
て自律移動を行っている間に、前方に障害物14が発生
した場合、同様に行動を縮退させた後、操作者に更なる
補正軌道の指示を要求するようにしておくことが望まし
いこのように、本実施形態の自律遠隔融合制御ではロボ
ット1を基本的に知識ベース部23に記憶された知識ベ
ースに従って自律移動させ、ロボット1の前方に障害物
14などが発生して知識ベース部23のみの情報では対
応しきれなくなったとき、ロボット1の行動を縮退させ
て、通信装置3aによりその後の指示を操作装置8に求
めるようにする。そして、それに応じて操作装置8から
送られた教示データに基づいてロボット1を移動させ、
本来の自律軌道に戻ってからは引き続き自律移動を行う
ようにしている。このように、自律制御と遠隔制御とを
適切に融合させてロボット1を移動させることができる
ので、全て遠隔制御による場合に比べて操作者の負担が
少なくなり、障害物14の発生にも適切に対応すること
ができる。また、ロボット1は全て自律制御を行う場合
ほどの高度な自律性がなくてもよいので、センシング手
段を始めとして全体を安価に構築することができる。
【0042】また、ロボット1は前方に障害物14が発
生した場合、まず自律移動を縮退させてから操作装置8
に指示を要求しているので、例えばロボットの前方を人
が横切った場合などでも、ロボット1および人それぞれ
の安全を十分に確保することができる。しかも、ロボッ
ト1からの要求に対して操作装置8は二次元地図上の座
標データのようにロボット1の行動モジュール単位(行
動レベル)の指示を返すだけでよく、その後はロボット
1に自律的に移動させているので、全て遠隔制御による
場合のようにロボット1と通信装置8との間でリアルタ
イムの通信を確保する必要がなくなる。従って、仮にロ
ボット1と操作装置8との間に通信遅れが発生しても安
定してロボット1を動作させることができる。また、通
信装置3a,3bとしてPHSのように通信のリアルタ
イム性が必ずしも保証されないものを用いることも可能
である。
【0043】一方、遠隔操作を行うとき、操作装置8で
はロボット1から送られた静止画像とデータ記憶装置1
0に記憶されていた二次元地図とを画像表示器9に重ね
合わせて表示しているので、操作者はロボット1の現在
の状態を的確に把握することができる。このとき、デー
タ変換処理装置11により二次元地図を拡大・縮小、並
進・回転移動させて表示することにより、ロボット1か
ら送られた静止画像と二次元地図とでマンホールなどの
道路上の特徴点や道路のへり等を合わせることができる
ため、ロボット1の状態を容易に把握できる。
【0044】また、操作者はマウス12を用いて画像表
示器9の画面上の所望とするポイントを選択するだけで
ロボット1の補正軌道を指示することができるので、ロ
ボット1を障害物14から回避させるための遠隔制御を
容易に行うことができる。
【0045】さらに、操作装置8ではロボット1から指
示要求があったとき、スピーカ13から警告音を発生さ
せている。しかも、ロボット1から送られた距離情報に
基づき、ロボット1から障害物14までの距離に応じて
警告音の音量や周波数を変化させているので、操作者は
ロボット1の状態を正確に判断することができる。
【0046】次に、ロボット1におけるデッドレコニン
グの例について数式を示して説明する。まず、エンコー
ダ6によって検出される車輪5の回転量に基づいてデッ
ドレコニングを行う場合(エンコーダ方式)、図8に示
されるように右車輪1101および左車輪1102、右
エンコーダ501および左エンコーダ502といったよ
うにロボット本体1000を左右に分けて考える。ま
た、右車輪1101と左車輪1102との車輪間距離を
C とする。
【0047】このとき、サンプリング時間中の右エンコ
ーダ501のカウントから演算される進行量ΔER と、
同じくサンプリング中の左エンコーダ502のカウント
から演算される進行量ΔEL に基づき、サンプリング中
に生じた左右の傾きΔθは次式のように示される。 Δθ=(ΔER −ΔEL )/LC …(1) また、右車輪進行量ER および左車輪進行量EL は次式
のように示される。
【0048】
【数1】 一方、傾きの初期値θ0 に基づき、現在の傾きθは次式
のように示される。
【0049】 θ=∫Δθdt+θ0 …(3) さらに、サンプリング時間内での進行方向への進行量Δ
rは、次式のように示される。 Δr=(ΔEL +ΔER )/2 …(4) この場合、式(4)をx成分とy成分に分けると、
【0050】
【数2】 のようになり、本体重心位置の初期値を(x0 ,y0
として現在の本体重心位置(xG ,yG )を次式のよう
に求めることができる。
【0051】
【数3】
【0052】一方、ジャイロ7を用いてデッドレコニン
グを行う場合(ジャイロ方式)、ジャイロ7からの検出
値θj はジャイロ7からの角速度をθj 、初期値をθ
j0(運転開始状態で通常は0)として次式のように示さ
れる。
【0053】 θj =θj dt+θj0 …(7) この式(7)に基づいて、ロボット1の走行方向値xj
および横行方向値yj を次式のように求めことができ
る。
【0054】
【数4】
【0055】次に、操作装置8の画像表示器9に静止画
像および二次元地図(線画)を表示するときの例につい
て数式を示して説明する。まず、図5(a)に示される
ように原点Oの地上座標系(X,Y,Z)と、ロボット
1の位置が原点OV となるロボット座標系(XV ,Y
V ,ZV )と、図5(b)に示されるようにCCDカメ
ラ2によるカメラ座標系(XC ,YC ,ZC)を考え
る。ただし、ロボット座標系ではロボット1の前方向を
V 軸の正方向、左方向をYV 軸の正方向、鉛直方向を
V 軸の正方向(地面上をZV =0)に対応させ、カメ
ラ座標系ではCCDカメラ2の光軸方向をXC 軸の正方
向に対応させる。
【0056】また、以下の説明では、地上座標系におけ
るロボット地図上の点P(X,Y,Z)、地上座標系に
おけるロボット1中心の点をPG (XG ,YG ,Z
G )、地上座標系におけるロボット1の方位をψ(X軸
に対して反時計回りを正)、点Pをロボット座標系で見
たときの座標をPV (XV ,YV ,ZV )、ロボット座
標系から見たカメラ座標系の原点位置をPB (XB ,Y
B ,ZB )、点Pをカメラ座標系で見たときの座標をP
C (XC ,YC ,ZC )、CCDカメラ2の画像素子が
縦、横に並んで構成された平面(以下、画素平面)での
座標PC の投影点を(x,y)、画素平面のスケールを
(Δx,Δy)、画素平面内の縦横の画素数を
(ixall:横,iyALL:縦)として表す。
【0057】まず、地上座標系におけるロボット地図上
の点P(X,Y,Z)を次式を用いてロボット座標系で
見た座標PV (XV ,YV ,ZV )に変換する。なお、
計算を簡単にするためロボット1は平面上にありZ=0
であると仮定する。
【0058】
【数5】 次に、座標PV (XV ,YV ,ZV )を次式を用いてカ
メラ座標で見た座標PC (XC ,YC ,ZC )に変換す
る。
【0059】
【数6】 この場合、式(9)を演算すると次式に示されるように
なり、
【0060】
【数7】 式(10)を演算すると次式に示されるようになる。
【0061】
【数8】
【0062】従って、式(11)および式(12)に基
づいて、ロボット地図上の点P(X,Y,Z)をカメラ
座標系で見た座標PC (XC ,YC ,ZC )に変換する
ことができる。次に、図6に示されるように、式(1
2)から求められた座標PC (XC ,YC ,ZC )を次
式で示されるようにして画素平面に投影する。
【0063】
【数9】 この場合、画素単位の画素平面内の座標(ix ,iy
を2点指定((ix1,iy1),(ix2,iy2))すれ
ば、2点を結ぶ直線を画素平面上に作ることができる。
以上のようにして、画像表示器9に線画を表示すること
ができる。
【0064】次に、画像表示器9の画面上で静止画像に
線画を重ねる処理について考える。まず、図7に示され
るような画面上で操作者により線画A′B′を静止画像
上の対応する部分ABに重ねるための操作が行われる。
【0065】すなわち、操作者はマウス12を操作して
点Aをクリックする(このとき、点Aが点滅する)。点
Aの位置が正しければ、操作者はキャリッジターンキー
を押して点Aを確定する。以下、点A′、点B、点B′
の順に合計4点が確定される。なお、途中操作で点の指
定に誤りがあれば、エスケープキーでその点の指定操作
を初期化する。
【0066】このように4点を確定した後、操作者はキ
ャリッジリターンキーを押して、線画A′B′を並進さ
せ、さらに回転移動させて部分ABに合わせる。つま
り、点A′を点Aに一致させ、点B′を点Bに一致させ
る。部分ABとしては道路の角、建屋の角などの特徴が
分かりやすい場所とする。
【0067】このように、操作者が全ての点A、B、
A′、B′を確定すると、データ変換処理装置11では
静止画像の任意の点を二次元地図上の点に変換するため
に、以下に述べるような手順で座標変換のパラメータを
求める。
【0068】まず、マウスでクリックした点A,Bが画
素平面(距離単位)上でどの画素座標A[xA ,y
A ],B[xB ,yB ]に相当するのかを求め、さらに
点A′,B′の線画上の座標A′[XA ,YA ],B′
[XB ,YB ]を求める。そして、以下に示されるよう
に関係式を逆算することにより、座標変換のパラメータ
を求める。
【0069】
【数10】 以下、最も簡単な条件としてθ=0とする。また、co
sφをcφ、sinφをsφと略記する。この場合、式
(15)〜式(17)より次式に示されるような関係式
が得られる。
【0070】
【数11】 さらに、この式(21)から、
【0071】
【数12】 となる。但し、α=(XA −XB2 +(YA −YB2 …(25) である。次に、cφ2 +sφ2 =1という関係式より、
【0072】
【数13】 となる。次に、式(27)を式(26)に代入すること
により、
【0073】
【数14】 となる。次に、式(24)、式(27)、tanφ=s
φ/cφという関係式より、
【0074】
【数15】 となる。次に式(21)より
【0075】
【数16】 という結果が得られる。以上で、座標変換に必要なパラ
メータ[XG ,YG ],φ,fを求めることができたの
で、以下に示される各式を用いることにより、線画上の
任意の特徴点[X,Y]を静止画像上の点[x,y]に
変換することができる。
【0076】
【数17】
【0077】また、線画上の線の両端の点[X1 ,Y
1 ],[X2 ,Y2 ]を式(36)〜式(38)によっ
て静止画像上の点[x1 ,y1 ],[x2 ,y2 ]に変
換し、これらの点[x1 ,y1 ]と[x2 ,y2 ]とを
結ぶことにより、静止画像上に対応する線画を重ね合せ
ることができる。
【0078】さらに、式(21)および式(27)を逆
算することにより、次式に示されるように静止画像上の
目的地[x′,y′]を線画上の点[X′,Y′]に座
標変換することができる。
【0079】
【数18】
【0080】次に、本発明の他の実施形態について説明
するが、以下では図1と相対応する部分に同一符号を付
して第1の実施形態との相違点を中心にして説明する。 (第2の実施形態)図9は、本発明の第2の実施形態に
係る自律遠隔融合制御システムの構成を示すブロック図
である。同図は、制御系システムをより詳細に示したも
のである。
【0081】ロボット側には、駆動部100、移動計画
部102、ロボット重心運動計画部103、運動制御部
104、サーボ制御部105、サーボドライバ106、
センサI/O107、センサ情報変換部108、デッド
レコニング物体検知部109、動作情報処理部110、
移動情報処理部111、異常処理部112、サーボ例外
処理部114、運動制御例外処理部115、動作状態例
外処理部116、移動状態例外処理部117およびデー
タベース121,124がある。一方、操作装置側には
画像表示器9、マウス12、知的遠隔制御部130、表
示処理部113、運動操作情報処理部118、動作操作
情報処理部119およびデータベース120がある。こ
こで、ロボット側と操作装置側は点線で示される境界を
介したデータのやり取りを図1で示した通信装置3a,
3bなどによって行うものとする。
【0082】この自律遠隔融合制御では、操作者MAN
はマウス12を操作して画像表示器9上に表示された二
次元地図上で目標指定を行う。このとき、データベース
120に予め記録された二次元地図が単独で表示され
る。
【0083】知的遠隔制御部130は、操作者MANに
より指定された目標をロボット地図上の目的地に座標変
換して、そのデータAを移動計画部102に出力する。
ここで、データAはいくつかの目的地a,b,c…によ
ってロボット1の移動経路を示しているものとする。
【0084】移動計画部102は、知的遠隔制御部13
0から入力された移動経路を示すデータAを受け取り、
データAに含まれる目的地データa,b,c,…を後述
するロボット1の移動に伴い、データBとして一つづつ
ロボット重心運動計画部103に出力する。
【0085】ロボット重心運動計画部103は、移動計
画部102から入力されたデータBに基づいて最適な重
心速度を計画し、重心速度指令データCとして運動制御
部104に出力する。
【0086】運動制御部104は、ロボット重心運動計
画部103から入力された重心速度指令データCおよび
運動制御例外処理部15から入力されたフィードバック
データNC に基づいて、適切な重心運動を実現するため
の車輪・ステアリングの関節角(角度、角速度)および
カメラ取り付け台(パンチルト)の指令角を求め、それ
らのデータDをサーボ制御部105に出力する。なお、
フィードバックデータNC が後述する物体有りを示して
いた場合には、ロボット1の行動を縮退させるように車
輪・ステアリング関節角の指令角を決定する。
【0087】サーボ制御部105は、運動制御部104
から入力されたデータDおよびサーボ例外処理部114
から入力されるフィードバックデータNS に基づいて、
最適とされる車輪・ステアリング、パンチルトに対する
モータの角速度データEをサーボドライバ106に出力
する。
【0088】サーボドライバ106は、サーボ制御部1
05から入力された車輪・ステアリング、パンチルトの
モータの角速度データEを受け、駆動部100の各モー
タに指令された角速度を生成するための電圧もしくは電
流値を供給する。この結果として、ロボット1が移動
し、カメラの撮影角度が変化する。
【0089】このとき、センサI/O107は駆動部1
00から生のセンサ情報F(アナログデータ)を受け取
り、それを計算機内部のデジタルデータに変換し、セン
サ情報Gとしてセンサ情報変換部108に出力する。
【0090】センサ情報変換部108は、センサI/O
107から入力されたセンサ情報G(デジタルデータ)
を車輪・ステアリング関節角、距離センサ検出値、CC
Dカメラ情報(静止画)、パンチルト角などの物理量に
変換する。そして、車輪・ステアリング関節角およびパ
ンチルト角を示すデータMS をサーボ例外処理部114
に出力し、車輪・ステアリング関節角、距離センサ検出
値およびCCDカメラ情報(静止画)を示すデータHを
デッドレコニング物体認知部109および運動操作情報
処理部118に出力する。
【0091】サーボ例外処理部114は、センサ情報変
換部108から入力された車輪・ステアリング関節角お
よびパンチルト角を示すデータMS をそのままフィード
バックデータNS としてサーボ制御部105に出力す
る。また、データベース124に予め記憶されている車
輪・ステアリング関節角異常データおよびパンチルト角
異常データに基づいて、入力されたデータMS によって
示される車輪・ステアリング関節角およびパンチルト角
が異常(例えば、可動範囲オーバ)であると判断される
場合は、それらを異常情報として内部メモリの異常黒板
125に記憶させる。
【0092】デッドレコニング物体認知部109は、セ
ンサ情報変換部108から入力された車輪・ステアリン
グ関節角、距離センサ検出値およびCCDカメラ情報
(静止画)を示すデータHに基づき、車輪・ステアリン
グ関節角からロボット1の重心位置を求め、距離センサ
検出値から一定距離内の物体の有無を判断する。そし
て、重心位置および物体の有無を示すデータMP を運動
制御例外処理部115に出力する。また、重心位置、C
CDカメラ情報および距離情報を示すデータIを動作情
報処理部110に出力する。
【0093】運動制御例外処理部115は、デッドレコ
ニング物体認知部から入力された重心位置および物体の
有無を示すデータMP をそのままフィードバックデータ
Cとして運動制御部4に出力する。また、データMP
による重心位置がデータベース121に予め記憶されて
いる重心位置異常データと比較して異常であると判断さ
れた場合、あるいはデータMP が物体有りを示していた
場合は、それれを異常情報として内部メモリである異常
黒板123に記憶させる。
【0094】ここで、サーバ例外処理部114や運動制
御例外処理部115で異常が検知されない間は、移動計
画部102に格納されている目的地データa,b,cで
示される移動経路に従って同様の処理が繰り返され、ロ
ボット1のみで自律移動が続けられることになる。
【0095】ところで、この例では動作情報処理部11
0および移動情報処理部111は、下位レベルから入力
されたデータをスルーで上位レベルに上げる機能のみを
有しているものとする。また、動作状態例外処理部11
6および移動状態例外処理部117は、この例では特に
処理を行っていない。これら動作状態例外処理部116
および移動状態例外処理部117は、動作状態の異常判
断や移動状態の異常判断が必要な場合に動作情報処理部
110および移動情報処理部111からのデータを受け
て適当な処理を行うためのもので必要に応じて適当な機
能が付加される。例えば、センサとしてレーザ距離計を
設けることにより、数10m先の遠方に存在する物体認
知を可能にし、ロボット1を高速で移動させるような場
合、下位レベルから動作情報処理部110に送られたレ
ーザ距離情報を動作状態例外処理部116に与え、動作
状態例外処理部116でレーザ距離情報を解析して閾値
以下なら物体有りとして、非常信号とレーザ距離情報を
ロボット重心運動制御部103に与えて、ロボット運動
制御部103で重心速度指令を所定の割合で減速させる
といったことが考えられる。また、運動操作情報処理部
118および動作操作情報処理部119もここでは下位
レベルから入力されたデータをスルーで上位レベルに上
げる機能のみを有しているものとする。
【0096】従って、この例ではデッドレコニング物体
認知部119から出力されたデータHはそのまま動作情
報処理部110および移動情報処理部111を通ってデ
ータKとして異常処理部112に入力される。
【0097】異常処理部112は、ロボット1が自律動
作を続けられないとき、例えば運動制御例外処理部11
5においてロボット1の前方に物体有りと判断された場
合、入力されたデータKで示される重心位置、CCDカ
メラ情報および距離情報をロボット1の異常状況データ
Qとして表示処理部113に出力する。
【0098】表示処理部113は、異常処理部112か
ら異常状況データQが入力されると、その異常状況デー
タQで示される重心位置、CCDカメラ情報および距離
情報を画像表示器9に表示して、操作者にロボット1の
遠隔操作を促す。このとき、表示処理部113は異常状
況データQ中のCCDカメラ情報で示される静止画と、
知的遠隔制御部130から入力される座標変換(拡大縮
小、並進、回転等)された二次元地図とを重ね合わせて
表示する。
【0099】その後、第1の実施形態と同様に操作者に
よって補正軌道が入力されると、その補正軌道に基づい
て上述した場合と同様にロボット1による自律移動が再
開される。
【0100】(第3の実施形態)図10は、本発明の第
3の実施形態に係る自律遠隔融合制御システムの外観を
示す図である。本実施形態は、各種プラントや工場・倉
庫の屋外監視ロボットへの適用例であり(a)は屋外監
視ロボット、(b)は監視室を表している。
【0101】図10(a)に示されるように、屋外監視
ロボット200は四つの車輪203のそれぞれにステア
リング駆動軸と走行駆動軸を有し、その場旋回や斜め移
動などにより、狭あい部でも容易に走行可能なものとす
る。また、車輪203の径を大きくし、サスペンション
を最適化するなどして、縁石を乗り越えて建物などに接
近できるようになっている。さらに、本体は防水仕様と
なっている。
【0102】本体中央部には、障害物認知のための超音
波センサおよび、その時の状況を操作者に伝えるための
CCDカメラを有するセンサ201が設けられている。
また、前部に設けられたマニピュレータ204の手先に
は、火災206などの周囲の異常発生を検知するための
センサ205が設置されている。センサ205として
は、スポット型放射温度計や可燃ガスセンサなどが用い
られる。
【0103】また、本体内部には操作装置と通信を行う
ための通信装置が設けられており、本体右側面部にアン
テナ202が設置されている。一方、図10(b)に示
されるように監視室側には、第1の実施形態と同様に通
信装置208、スピーカ209および画像表示器210
が設けられており、操作者207はスピーカ209およ
び画像表示器210によって屋外監視ロボット200の
状態を把握する。なお、図面上ではマウスなどの操作装
置は省略されている。
【0104】図11に示されるように、この屋外監視ロ
ボット200は予め設定された敷地内の巡回ルート30
1に従って自律的に走行する。このとき、屋外監視ロボ
ット200は縁石があるときは、その縁石に沿ってなら
い移動を行う。また、縁石が無いところでは第1の実施
形態と同様に車輪203の回転角に基づいたデッドレコ
ニングを行って、現在地を推定しながら自律移動する。
なお、敷地内に設けられたポール303を基準にしてな
らい移動を行ったり、あるいはGPS衛星302を利用
して現在地を推定するようにしてもよい。
【0105】この屋外監視ロボット200は、敷地内の
巡回ルートを301を自律移動しながら周囲の監視を行
う。具体的には、ガスや火災等の発生、不審人物などに
対する監視である。これは、センサ201およびセンサ
205を使用して行われる。このとき、必要に応じてマ
ニピュレータ204によりセンサ205を対象物に接近
させて、その対象物をより詳細に監視することもでき
る。この場合、操作者207がマニピュレータ204を
遠隔操作しても、屋外監視ロボット200が予め設定さ
れた場所に到達したときに、自律的にマニピュレータ2
04を動作させるようにしてもよい。
【0106】ところで、屋外監視ロボット200は自律
移動中に前方の障害物を認知すると、第1の実施形態と
同様に行動を縮退させて、例えば本体を停止させる。そ
の後、屋外監視ロボット200はCCDカメラから取り
込んだ静止画情報を監視室内の操作者207に送信し
て、それに応じてなされた操作者207の指示に従って
自律移動を再開させる。このようにすることで、操作者
207は屋外監視ロボット200の前方に障害物が生じ
たとき、すなわち屋外監視ロボット200が自律的に動
作できなくなったときにだけ操作を行えばよいので、操
作負担が少なくなり、各種プラントや工場・倉庫の監視
を容易に行うことができる。
【0107】
【発明の効果】以上説明したように本発明によれば、ロ
ボットは基本的に予め設定された知識ベースに基づいて
自律移動を行い、その自律移動が不可能であると判断さ
れたとき、自律移動を縮退させて、現在の状況を示す状
況データを操作装置に送信し、その状況データに基づい
て操作装置において教示された移動目標を受けて、再び
知識ベースに基づいた自律移動が可能であると判断され
るまで、操作者の遠隔操作による移動目標データに基づ
いて自律移動を行うので、自律制御と遠隔制御とを適切
に融合させながらロボットを移動させることができる。
従って、高度な自律性を有しないロボットでも、操作者
に支援されながら目的地に正確に到達することができ
る。
【0108】また、ロボットの自律移動が不可能になっ
たとき、まず自律移動を縮退させてから操作装置による
遠隔操作を求めているので、例えばロボットの前方に障
害物が発生した場合でも十分に安全を確保することがで
きる。
【0109】しかも、操作装置はロボットに対して行動
モジュール単位の移動目標を教示するだけなので、操作
者の負担が少なくてすみ、さらにPHS等のリアルタイ
ム性が必ずしも保証されない通信手段でも適切に遠隔操
作を行うことができる。
【図面の簡単な説明】
【図1】本発明の第1の実施形態に係る自律遠隔融合制
御システムの構成を示す図
【図2】図1中のロボットの構成を示す図
【図3】図1中の操作装置の構成を示す図
【図4】図1中の画像表示器の表示画面の例を示す図
【図5】同実施形態に係る自律遠隔融合制御システムの
表示処理について説明するための図
【図6】同実施形態に係る自律遠隔融合制御システムの
表示処理について説明するための図
【図7】同実施形態に係る自律遠隔融合制御システムの
表示処理について説明するための図
【図8】同実施形態に係る自律遠隔融合制御システムで
のデッドレコニングについて説明するための図
【図9】本発明の第2の実施形態に係る自律遠隔融合制
御システムの構成を示すブロック図
【図10】本発明の第3の実施形態に係る自律遠隔融合
制御システムの構成を示す図
【図11】同実施形態に係る自律遠隔融合制御システム
による監視作業の例を示す図
【符号の説明】
1…ロボット 2…CCDカメラ 3a,3b…通信装置 4…距離センサ 5…車輪 6…エンコーダ 7…ジャイロ 8…操作装置 9…画像表示器 10…データ記憶装置 11…データ変換処理装置 12…マウス 13…スピーカ 14…障害物

Claims (2)

    【特許請求の範囲】
  1. 【請求項1】ロボットと操作装置との間でデータ通信を
    行いながら該ロボットを移動させるロボット制御システ
    ムであって、 前記操作装置は、 前記ロボットに教示を行うために予め設定されたデータ
    および前記ロボットから送信されるデータを表示する表
    示手段と、 この表示手段の表示画面上で前記ロボットに送信すべき
    行動モジュール単位の移動目標データを教示するための
    教示手段とを備え、 前記ロボットは、 予め設定された自律移動のための知識ベースを記憶した
    知識ベース記憶手段と、 この知識ベース記憶手段に記憶された知識ベースに基づ
    いた自律移動が可能であるか否かを判断する判断手段
    と、 この判断手段により前記知識ベースに基づいた自律移動
    が可能であると判断されたときは前記知識ベースに基づ
    いて自律移動を行い、知識ベースに基づいた自律移動が
    不可能であると判断されたときは現在の自律移動を縮退
    させた後、現在の状況を示す状況データを前記操作装置
    に送り、この状況データに基づき前記教示手段により教
    示された移動目標データに基づいて自律移動を行う自律
    移動手段とを備えたことを特徴とするロボット制御シス
    テム。
  2. 【請求項2】前記表示装置には、前記ロボットに教示を
    行うために予め設定されたデータおよび前記ロボットか
    ら送信されるデータがそれぞれ複数同時に表示されるこ
    とを特徴とする請求項1記載のロボット制御システム。
JP31820097A 1997-11-19 1997-11-19 ロボット制御システム Withdrawn JPH11149315A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP31820097A JPH11149315A (ja) 1997-11-19 1997-11-19 ロボット制御システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP31820097A JPH11149315A (ja) 1997-11-19 1997-11-19 ロボット制御システム

Publications (1)

Publication Number Publication Date
JPH11149315A true JPH11149315A (ja) 1999-06-02

Family

ID=18096566

Family Applications (1)

Application Number Title Priority Date Filing Date
JP31820097A Withdrawn JPH11149315A (ja) 1997-11-19 1997-11-19 ロボット制御システム

Country Status (1)

Country Link
JP (1) JPH11149315A (ja)

Cited By (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001067125A (ja) * 1999-08-27 2001-03-16 Fujitsu Ltd 実世界情報データベース構築方法及び装置と自律移動走行体学習方法
JP2001189927A (ja) * 1999-12-28 2001-07-10 Tokyo Gas Co Ltd 移動ステーションおよび制御ステーションならびに擬似体験システム
WO2001084260A3 (en) * 2000-05-01 2002-04-04 Irobot Corp Method and system for remote control of mobile robot
JP2003050559A (ja) * 2001-08-07 2003-02-21 Honda Motor Co Ltd 自律移動ロボット
US6845297B2 (en) 2000-05-01 2005-01-18 Irobot Corporation Method and system for remote control of mobile robot
WO2007010773A1 (ja) * 2005-07-22 2007-01-25 Honda Motor Co., Ltd. 移動ロボットの制御装置
WO2007037348A1 (ja) * 2005-09-28 2007-04-05 Zmp Inc. 自律移動型ロボットとそのシステム
US7218994B2 (en) 2002-10-01 2007-05-15 Fujitsu Limited Robot
JP2007221191A (ja) * 2006-02-14 2007-08-30 Hitachi Ltd 監視システム、監視方法、及び、監視プログラム
JP2008023604A (ja) * 2006-07-18 2008-02-07 Advanced Telecommunication Research Institute International アンドロイド制御システム
JP2008065755A (ja) * 2006-09-11 2008-03-21 Hitachi Ltd 移動装置
KR100914904B1 (ko) * 2009-03-13 2009-08-31 국방과학연구소 무인주행기계, 무인주행시스템 및 무인주행기계의 제어방법
JP2010061346A (ja) * 2008-09-03 2010-03-18 Ihi Aerospace Co Ltd 遠隔操縦システム
JP2010064215A (ja) * 2008-09-12 2010-03-25 Toyota Motor Corp 移動ロボットの操縦システム
JP2010152833A (ja) * 2008-12-26 2010-07-08 Ihi Aerospace Co Ltd 無人移動体システム
US7894951B2 (en) 2005-10-21 2011-02-22 Deere & Company Systems and methods for switching between autonomous and manual operation of a vehicle
JP2011048565A (ja) * 2009-08-26 2011-03-10 Ihi Aerospace Co Ltd 半自律型無人車両の遠隔操縦システム
JP2011150516A (ja) * 2010-01-21 2011-08-04 Ihi Aerospace Co Ltd 無人車両の半自律走行システム
JP2011170844A (ja) * 2010-01-20 2011-09-01 Ihi Aerospace Co Ltd 無人移動体の制御方法
JP2012002419A (ja) * 2010-06-16 2012-01-05 Ihi Aerospace Co Ltd 戦闘用装置
US8108092B2 (en) 2006-07-14 2012-01-31 Irobot Corporation Autonomous behaviors for a remote vehicle
KR101163011B1 (ko) 2008-12-22 2012-07-09 한국전자통신연구원 위치별 수신감도 데이터 수집/처리 장치 및 방법
US8237389B2 (en) 2008-11-12 2012-08-07 Irobot Corporation Multi mode safety control module
US8255092B2 (en) 2007-05-14 2012-08-28 Irobot Corporation Autonomous behaviors for a remote vehicle
WO2013065312A1 (ja) * 2011-11-04 2013-05-10 パナソニック株式会社 遠隔制御システム
JP2013537651A (ja) * 2010-05-20 2013-10-03 アイロボット コーポレイション 移動式ヒューマンインターフェースロボット
JP2013537487A (ja) * 2010-05-20 2013-10-03 アイロボット コーポレイション 移動式ヒューマンインターフェースロボット
JP2013206237A (ja) * 2012-03-29 2013-10-07 Denso It Laboratory Inc 自律走行ロボット及び自律走行ロボットの走行制御方法
JP2014016858A (ja) * 2012-07-10 2014-01-30 Ihi Aerospace Co Ltd 無人移動体システム
JP2014106576A (ja) * 2012-11-26 2014-06-09 Ihi Aerospace Co Ltd 無人移動体の制御方法
JP2014146348A (ja) * 2005-09-30 2014-08-14 Irobot Corp 移動ロボットを含むロボットシステムにより実行される方法
US8843244B2 (en) 2006-10-06 2014-09-23 Irobot Corporation Autonomous behaviors for a remove vehicle
KR20140136791A (ko) * 2013-05-21 2014-12-01 삼성테크윈 주식회사 이동로봇의 경로계획 방법
JP2015001810A (ja) * 2013-06-14 2015-01-05 株式会社ブイ・アール・テクノセンター 移動ロボットシステム
US9195256B2 (en) 2007-04-24 2015-11-24 Irobot Corporation Control system for a remote vehicle
US9248874B2 (en) 1998-03-27 2016-02-02 Irobot Corporation Robotic platform
JP2016122278A (ja) * 2014-12-24 2016-07-07 ヤマハ発動機株式会社 操作装置および自律移動システム
JP2017041262A (ja) * 2010-09-03 2017-02-23 ソフトバンク・ロボティクス・ヨーロッパSoftbank Robotics Europe 移動ロボット用の制御機器、移動ロボット用のシステム及び移動ロボットを制御する方法
JP2017054475A (ja) * 2015-09-11 2017-03-16 富士ゼロックス株式会社 遠隔操作装置、方法及びプログラム
JP2017102888A (ja) * 2016-05-26 2017-06-08 ベステラ株式会社 作業用ロボット及び作業用ロボットを用いた警報システム
JP2018027093A (ja) * 2017-10-03 2018-02-22 ヤンマー株式会社 遠隔操作装置
JPWO2017056943A1 (ja) * 2015-09-30 2018-06-14 富士フイルム株式会社 撮像システム、画角調整方法、及び画角調整プログラム
WO2018124098A1 (ja) * 2016-12-27 2018-07-05 株式会社タダノ 遠隔操作端末及び遠隔操作システム
WO2018135301A1 (ja) * 2017-01-18 2018-07-26 ソニー株式会社 情報処理装置および情報処理方法
WO2019240051A1 (ja) * 2018-06-11 2019-12-19 パナソニックIpマネジメント株式会社 測距システム及び測距方法
JP2020064400A (ja) * 2018-10-16 2020-04-23 株式会社きんでん 自走制御プログラム、および、自走式作業装置
KR20200051923A (ko) * 2018-11-06 2020-05-14 주식회사 도구공간 보안 로봇 제어 방법 및 그 방법을 지원하는 장치
JP2022008586A (ja) * 2017-11-07 2022-01-13 トヨタ自動車株式会社 遠隔監視システム、車両制御装置、遠隔監視方法、及び、車両制御方法
JP2022027569A (ja) * 2020-07-29 2022-02-10 ネイバーラボス コーポレーション ロボット遠隔制御方法及びシステム
FR3119827A1 (fr) * 2021-02-16 2022-08-19 Elwedys Robot equipe d’un dispositif agence pour recevoir des capteurs de grandeurs physiques et transmettre des informations relatives aux grandeurs physiques
US11513516B2 (en) 2017-11-07 2022-11-29 Toyota Jidosha Kabushiki Kaisha Remote monitoring system and an autonomous running vehicle and remote monitoring method

Cited By (77)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9248874B2 (en) 1998-03-27 2016-02-02 Irobot Corporation Robotic platform
US9573638B2 (en) 1998-03-27 2017-02-21 Irobot Defense Holdings, Inc. Robotic platform
JP2001067125A (ja) * 1999-08-27 2001-03-16 Fujitsu Ltd 実世界情報データベース構築方法及び装置と自律移動走行体学習方法
JP2001189927A (ja) * 1999-12-28 2001-07-10 Tokyo Gas Co Ltd 移動ステーションおよび制御ステーションならびに擬似体験システム
US6845297B2 (en) 2000-05-01 2005-01-18 Irobot Corporation Method and system for remote control of mobile robot
JP2003532218A (ja) * 2000-05-01 2003-10-28 アイロボット コーポレーション 移動ロボットを遠隔操作するための方法およびシステム
US6535793B2 (en) 2000-05-01 2003-03-18 Irobot Corporation Method and system for remote control of mobile robot
EP2363775A1 (en) * 2000-05-01 2011-09-07 iRobot Corporation Method and system for remote control of mobile robot
EP2363774A1 (en) * 2000-05-01 2011-09-07 iRobot Corporation Method and system for remote control of mobile robot
WO2001084260A3 (en) * 2000-05-01 2002-04-04 Irobot Corp Method and system for remote control of mobile robot
JP2003050559A (ja) * 2001-08-07 2003-02-21 Honda Motor Co Ltd 自律移動ロボット
JP4642287B2 (ja) * 2001-08-07 2011-03-02 本田技研工業株式会社 自律移動ロボット
US7218994B2 (en) 2002-10-01 2007-05-15 Fujitsu Limited Robot
WO2007010773A1 (ja) * 2005-07-22 2007-01-25 Honda Motor Co., Ltd. 移動ロボットの制御装置
US7970492B2 (en) 2005-07-22 2011-06-28 Honda Motor Co., Ltd. Mobile robot control system
WO2007037348A1 (ja) * 2005-09-28 2007-04-05 Zmp Inc. 自律移動型ロボットとそのシステム
JP2007094743A (ja) * 2005-09-28 2007-04-12 Zmp:Kk 自律移動型ロボットとそのシステム
US9452525B2 (en) 2005-09-30 2016-09-27 Irobot Corporation Companion robot for personal interaction
JP2014146348A (ja) * 2005-09-30 2014-08-14 Irobot Corp 移動ロボットを含むロボットシステムにより実行される方法
US7894951B2 (en) 2005-10-21 2011-02-22 Deere & Company Systems and methods for switching between autonomous and manual operation of a vehicle
US9043016B2 (en) 2005-10-21 2015-05-26 Deere & Company Versatile robotic control module
US9098080B2 (en) 2005-10-21 2015-08-04 Deere & Company Systems and methods for switching between autonomous and manual operation of a vehicle
US9429944B2 (en) 2005-10-21 2016-08-30 Deere & Company Versatile robotic control module
US8874300B2 (en) 2005-10-21 2014-10-28 Deere & Company Systems and methods for obstacle avoidance
US8020657B2 (en) 2005-10-21 2011-09-20 Deere & Company Systems and methods for obstacle avoidance
JP2007221191A (ja) * 2006-02-14 2007-08-30 Hitachi Ltd 監視システム、監視方法、及び、監視プログラム
US8108092B2 (en) 2006-07-14 2012-01-31 Irobot Corporation Autonomous behaviors for a remote vehicle
US8396611B2 (en) 2006-07-14 2013-03-12 Irobot Corporation Autonomous behaviors for a remote vehicle
JP2008023604A (ja) * 2006-07-18 2008-02-07 Advanced Telecommunication Research Institute International アンドロイド制御システム
JP2008065755A (ja) * 2006-09-11 2008-03-21 Hitachi Ltd 移動装置
US8239084B2 (en) 2006-09-11 2012-08-07 Hitachi, Ltd. Moving device
US8843244B2 (en) 2006-10-06 2014-09-23 Irobot Corporation Autonomous behaviors for a remove vehicle
US9195256B2 (en) 2007-04-24 2015-11-24 Irobot Corporation Control system for a remote vehicle
US8447440B2 (en) 2007-05-14 2013-05-21 iRobot Coporation Autonomous behaviors for a remote vehicle
US8255092B2 (en) 2007-05-14 2012-08-28 Irobot Corporation Autonomous behaviors for a remote vehicle
JP2010061346A (ja) * 2008-09-03 2010-03-18 Ihi Aerospace Co Ltd 遠隔操縦システム
JP2010064215A (ja) * 2008-09-12 2010-03-25 Toyota Motor Corp 移動ロボットの操縦システム
US8237389B2 (en) 2008-11-12 2012-08-07 Irobot Corporation Multi mode safety control module
KR101163011B1 (ko) 2008-12-22 2012-07-09 한국전자통신연구원 위치별 수신감도 데이터 수집/처리 장치 및 방법
JP2010152833A (ja) * 2008-12-26 2010-07-08 Ihi Aerospace Co Ltd 無人移動体システム
KR100914904B1 (ko) * 2009-03-13 2009-08-31 국방과학연구소 무인주행기계, 무인주행시스템 및 무인주행기계의 제어방법
JP2011048565A (ja) * 2009-08-26 2011-03-10 Ihi Aerospace Co Ltd 半自律型無人車両の遠隔操縦システム
JP2011170844A (ja) * 2010-01-20 2011-09-01 Ihi Aerospace Co Ltd 無人移動体の制御方法
JP2011150516A (ja) * 2010-01-21 2011-08-04 Ihi Aerospace Co Ltd 無人車両の半自律走行システム
JP2014176966A (ja) * 2010-05-20 2014-09-25 Irobot Corp 移動式ヒューマンインターフェースロボット
JP2014195868A (ja) * 2010-05-20 2014-10-16 アイロボット コーポレイション 移動式ロボットを作動させて人について行くようにする方法
JP2013537487A (ja) * 2010-05-20 2013-10-03 アイロボット コーポレイション 移動式ヒューマンインターフェースロボット
JP2013537651A (ja) * 2010-05-20 2013-10-03 アイロボット コーポレイション 移動式ヒューマンインターフェースロボット
JP2012002419A (ja) * 2010-06-16 2012-01-05 Ihi Aerospace Co Ltd 戦闘用装置
JP2017041262A (ja) * 2010-09-03 2017-02-23 ソフトバンク・ロボティクス・ヨーロッパSoftbank Robotics Europe 移動ロボット用の制御機器、移動ロボット用のシステム及び移動ロボットを制御する方法
JPWO2013065312A1 (ja) * 2011-11-04 2015-04-02 パナソニックIpマネジメント株式会社 遠隔制御システム
WO2013065312A1 (ja) * 2011-11-04 2013-05-10 パナソニック株式会社 遠隔制御システム
JP2013206237A (ja) * 2012-03-29 2013-10-07 Denso It Laboratory Inc 自律走行ロボット及び自律走行ロボットの走行制御方法
JP2014016858A (ja) * 2012-07-10 2014-01-30 Ihi Aerospace Co Ltd 無人移動体システム
JP2014106576A (ja) * 2012-11-26 2014-06-09 Ihi Aerospace Co Ltd 無人移動体の制御方法
KR20140136791A (ko) * 2013-05-21 2014-12-01 삼성테크윈 주식회사 이동로봇의 경로계획 방법
JP2015001810A (ja) * 2013-06-14 2015-01-05 株式会社ブイ・アール・テクノセンター 移動ロボットシステム
JP2016122278A (ja) * 2014-12-24 2016-07-07 ヤマハ発動機株式会社 操作装置および自律移動システム
JP2017054475A (ja) * 2015-09-11 2017-03-16 富士ゼロックス株式会社 遠隔操作装置、方法及びプログラム
US10356301B2 (en) 2015-09-30 2019-07-16 Fujifilm Corporation Imaging system, angle-of-view adjustment method, and angle-of-view adjustment program
JPWO2017056943A1 (ja) * 2015-09-30 2018-06-14 富士フイルム株式会社 撮像システム、画角調整方法、及び画角調整プログラム
JP2017102888A (ja) * 2016-05-26 2017-06-08 ベステラ株式会社 作業用ロボット及び作業用ロボットを用いた警報システム
WO2018124098A1 (ja) * 2016-12-27 2018-07-05 株式会社タダノ 遠隔操作端末及び遠隔操作システム
JPWO2018124098A1 (ja) * 2016-12-27 2019-01-10 株式会社タダノ 遠隔操作端末及び遠隔操作システム
WO2018135301A1 (ja) * 2017-01-18 2018-07-26 ソニー株式会社 情報処理装置および情報処理方法
JP2018027093A (ja) * 2017-10-03 2018-02-22 ヤンマー株式会社 遠隔操作装置
JP2022008586A (ja) * 2017-11-07 2022-01-13 トヨタ自動車株式会社 遠隔監視システム、車両制御装置、遠隔監視方法、及び、車両制御方法
US11953899B2 (en) 2017-11-07 2024-04-09 Toyota Jidosha Kabushiki Kaisha Remote monitoring system and an autonomous running vehicle and remote monitoring method
US11868129B2 (en) 2017-11-07 2024-01-09 Toyota Jidosha Kabushiki Kaisha Remote monitoring system and an autonomous running vehicle and remote monitoring method
US11513516B2 (en) 2017-11-07 2022-11-29 Toyota Jidosha Kabushiki Kaisha Remote monitoring system and an autonomous running vehicle and remote monitoring method
JPWO2019240051A1 (ja) * 2018-06-11 2021-06-24 パナソニックIpマネジメント株式会社 測距システム及び測距方法
WO2019240051A1 (ja) * 2018-06-11 2019-12-19 パナソニックIpマネジメント株式会社 測距システム及び測距方法
JP2020064400A (ja) * 2018-10-16 2020-04-23 株式会社きんでん 自走制御プログラム、および、自走式作業装置
KR20200051923A (ko) * 2018-11-06 2020-05-14 주식회사 도구공간 보안 로봇 제어 방법 및 그 방법을 지원하는 장치
JP2022027569A (ja) * 2020-07-29 2022-02-10 ネイバーラボス コーポレーション ロボット遠隔制御方法及びシステム
FR3119827A1 (fr) * 2021-02-16 2022-08-19 Elwedys Robot equipe d’un dispositif agence pour recevoir des capteurs de grandeurs physiques et transmettre des informations relatives aux grandeurs physiques
FR3119787A1 (fr) * 2021-02-16 2022-08-19 Elwedys Robot equipe d’un dispositif agence pour recevoir des capteurs de grandeurs physiques et transmettre des informations relatives aux grandeurs physiques

Similar Documents

Publication Publication Date Title
JPH11149315A (ja) ロボット制御システム
US9789612B2 (en) Remotely operating a mobile robot
JP5324607B2 (ja) 移動ロボットを遠隔操作するための方法およびシステム
KR101539270B1 (ko) 충돌회피 및 자율주행을 위한 센서융합 기반 하이브리드 반응 경로 계획 방법, 이를 수행하기 위한 기록 매체 및 이동로봇
US6845297B2 (en) Method and system for remote control of mobile robot
CN111360818A (zh) 一种通过视觉定位的机械臂控制系统
JP2006113858A (ja) 移動体の遠隔操作支援方法及びシステム
US20140297066A1 (en) Remote control system
US20230321830A1 (en) Construction constrained motion primitives from robot maps
JP5429986B2 (ja) 移動ロボットの遠方環境認識装置及び方法
Garcia-Cerezo et al. Development of ALACRANE: A mobile robotic assistance for exploration and rescue missions
JP2014048859A (ja) 遠隔操縦システム
JP2006242978A (ja) 移動経路地図作成方法
Tuvshinjargal et al. Hybrid motion planning method for autonomous robots using kinect based sensor fusion and virtual plane approach in dynamic environments
KR100784125B1 (ko) 단일 카메라를 이용한 이동 로봇의 랜드 마크의 좌표 추출방법
CN114800535B (zh) 机器人的控制方法、机械臂控制方法、机器人及控制终端
KR20190045104A (ko) 위치 판단 시스템, 방법 및 컴퓨터 판독 가능한 기록매체
WO2022227632A1 (zh) 基于图像的轨迹规划方法和运动控制方法以及使用该些方法的移动机器
CN113618731A (zh) 机器人控制系统
KR101966396B1 (ko) 위치 판단 시스템, 방법 및 컴퓨터 판독 가능한 기록매체
Takeda et al. Initial Localization of Mobile Robot Based on Expansion Resetting Without Manual Pose Adjustment in Robot Challenge Experiment
Nagasawa et al. Development of a walking assistive robot for elderly people in outdoor environments
Lee et al. Vision tracking of a moving robot from a second moving robot using both relative and absolute position referencing methods
US11731278B1 (en) Robot teleoperation using mobile device motion sensors and web standards
CN111496790B (zh) 一种仲裁规划系统和方法

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20050201