JP2007050490A - 遠隔操作ロボットシステム - Google Patents
遠隔操作ロボットシステム Download PDFInfo
- Publication number
- JP2007050490A JP2007050490A JP2005238559A JP2005238559A JP2007050490A JP 2007050490 A JP2007050490 A JP 2007050490A JP 2005238559 A JP2005238559 A JP 2005238559A JP 2005238559 A JP2005238559 A JP 2005238559A JP 2007050490 A JP2007050490 A JP 2007050490A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- command
- mission
- robots
- robot system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Manipulator (AREA)
Abstract
【課題】 複数ロボットを、少ないオペレータで、容易に、かつ安全確実に、遠隔操作可能としたロボットシステムを提供する。
【解決手段】 コマンド入力装置100から、共通のミッションを、複数のロボット200a,200bに送信し、他の複数のロボット200c〜200eへは、ロボット200bに設けたコマンド発生装置で中継し、転送する。これにより、コマンド入力装置100からオペレータ10のコマンドを、全てのロボットへ伝達し、共通のミッションを共同して達成させる。また、コマンドに、監視等のミッションに加え、ロボットの移動等の動作に関するコマンドを含めた場合には、移動しながら不審人物を探索するような場合に、前進させて前方を探索させるなどの命令を実行させることができる。
【選択図】 図1
【解決手段】 コマンド入力装置100から、共通のミッションを、複数のロボット200a,200bに送信し、他の複数のロボット200c〜200eへは、ロボット200bに設けたコマンド発生装置で中継し、転送する。これにより、コマンド入力装置100からオペレータ10のコマンドを、全てのロボットへ伝達し、共通のミッションを共同して達成させる。また、コマンドに、監視等のミッションに加え、ロボットの移動等の動作に関するコマンドを含めた場合には、移動しながら不審人物を探索するような場合に、前進させて前方を探索させるなどの命令を実行させることができる。
【選択図】 図1
Description
本発明は、自律ロボットに指令を与えて遠隔操作する遠隔操作ロボットシステムに関し、特に、複数のロボットで所定のミッションを達成する遠隔操作ロボットシステムに係る。
自律移動ロボットとは、一般に、所定のミッションを持って、環境と自己の位置と姿勢の認識手段、典型ケース毎に用意された行動プログラム、行動プログラム選択手段などを備え、行動プログラムを実行するロボットである。これまで、主に移動する環境の認識手段によって、未知の環境の中でも、移動計画を作成、修正しながら自律走行を行わせる移動ロボットなどが提案されている。
例えば、特許文献1は、距離センサで地形を3次元位置計測を行い、計測した計測点から地形の平面を組合せた地形地図で、自律移動ロボットの航行プランを作成するようにしたものである。このような自律移動ロボットは、自律的に未知の環境を移動することができる。
また、特許文献2には、多数の自律ロボットを備え、目標とする対象物を探索し、目的に応じたミッションを実行させるシステムが開示されている。
前述した自律移動ロボットは、自律的に未知の環境を認識して障害物を回避しながら移動し、決められたルールやプログラムに沿って、行動することはできるが、必ずしも人間が見て「こうさせたい。」と感じる動作や行動のようには実行できないのが現状である。
本発明の目的は、複数の自律ロボットを備えたロボットシステムにおいて、オペレータの意思を、容易かつ速かに、複数の自律ロボットに伝達し、オペレータの意思に沿った行動やミッション(作業)を実行できる遠隔操作ロボットシステムを提供することである。
本発明の望ましい実施態様においては、以下の特徴ある手段を用い課題を解決する。
本発明の第1の実施態様においては、1つのミッションを複数の自律ロボットで実行するロボットシステムにおいて、コマンド入力装置を備え、このコマンド入力装置には、複数の自律ロボットに対する所定のミッションの開始及び停止を指令するミッションコマンドと、所定のミッション以外のロボットの動作に関する動作コマンドとを人為的に入力するための操作手段を具備する。そして、この操作手段によって入力されたミッションコマンド及び動作コマンドを、複数の自律ロボットへ送信する送信手段を備えたことを特徴とする。
本発明の第1の実施態様によれば、オペレータの意思を、コマンド入力装置から容易かつ速かに、複数の自律ロボットに伝達し、オペレータの意思に沿った行動やミッション(作業)を実行できる遠隔操作ロボットシステムを提供することができる。
本発明の第2の実施態様においては、コマンド入力装置から少なくとも1つのロボットへ共通のミッションに関するコマンドを直接的に送信する直接的送信手段と、前記コマンドを受信したロボットを中継して、前記入力装置から他のロボットへ前記ミッションに関するコマンドを送信する中継送信手段を備えたことを特徴とする。
本発明の第3の実施態様においては、コマンド入力装置から少なくとも1つのロボットへ共通のミッションに関するコマンドを直接的に送信する直接的送信手段と、複数のロボットの少なくとも1つに設けられ、直接的に受信した前記コマンドを他のロボットへ発信する必要があるか否かを判断する手段と、この判断に基づいて、他のロボットへ前記ミッションに関するコマンドを発信する手段を備えたことを特徴とする。
本発明の望ましい実施態様によれば、複数のロボットを備えたロボットシステムにおいて、容易かつ速かに、オペレータの意思を複数のロボットに迅速に反映できる遠隔操作ロボットシステムを提供することができる。
以下に本発明の遠隔操作ロボットシステムの基本的な実施例を説明する。まず、実施形態における特徴とその効果とを対応付けて説明しておく。
第1の実施形態においては、複数のロボットを備えたロボットシステムにおいて、1つのコマンド入力装置から各ロボットへ直接又はコマンド発生装置を経由して各ロボットへミッションに関するコマンドを送信する手段を有する。
第1の実施形態によれば、ミッションを複数ロボットの連携により自律的に実行するシステムにおいて、1つのコマンド入力装置から各ロボットへ直接又はコマンド発生装置を経由して各ロボットへコマンドを送信する。したがって、1人のオペレータは1つのコマンド入力装置から全ロボットへ実行させたいミッションの変更やミッションに関する設定をロボットが最初に設定されたミッション実行中においても、変更したいときに容易に速やかに変更することができる。このため、オペレータの意思を、各ロボットの行動へ迅速に反映することができるようになる。また、距離が離れ、直接にコマンドが伝達できないロボットへは、コマンドを受信したコマンド発生装置が新たなコマンドを発生して周囲のロボットへ伝達することができ、多くのロボットに効率よくオペレータからのコマンドを伝達できるようになる。また、コマンド発生装置を数台のロボットに搭載すれば、オペレータは複数の統括ロボットへコマンドを送信するのみで、効率よくコマンド指令が行き渡る。また、統括ロボットにコマンド発生装置を搭載することにより、オペレータからのコマンドをそのまま各ロボットに伝達する以外にも、より現在の状況に適したより具体的なコマンドとして生成しなおして各ロボットへ指令を出すことも可能となる。したがって、複数のロボットに対しても1人のオペレータが容易に、現在の環境、条件に適した指令を伝達して、容易に複数の自律ロボットを統括してオペレータの意思で操作することが可能となる。
第2の実施形態においては、ロボットシステムのコマンドは、命令の内容の他に予め設定されているロボットのグループコードが含まれる。
第2の実施形態によれば、コマンドを受取ったロボットは、当該グループコードに自分が属しているかどうかを判断して属している場合には命令を実行して、属していない場合には命令を実行しないようにできる。したがって、グループコードを全員のコードにすれば、全部のロボットに同じ命令を与えて同じ命令を実行させることができ、予めグループAとBにロボットを分けておけば、グループAとBのロボットにそれぞれ違う命令を実行させることもできる。一台のロボットにも個々のグループコードを割り当てておくことによって、一台のロボットだけに特定の命令を実行させることもできる。オペレータは、グループコードと命令を入力するだけで複数のロボットに簡単に命令を与えることができ、複数のロボットを容易に統括操作できる。
第3の実施形態においては、ロボットシステムのコマンドは、命令の内容の他に予め設定されている指令者コードが含まれる。
第3の実施形態によれば、コマンドを受けた各ロボットはそのコマンドを指令した指令者コードを確認して命令を実行するかどうかを判断できる。例えば、AとBの指令者のどちらを優先すればよいか、予めプライオリティを決めておく。今、A指令者からのコマンド命令を実行している場合に、B指令者からミッション内容を変更するようなコマンドが入力された場合、予め決めてあるプライオリティの高い指令者からのコマンドを優先して実行させることが可能である。すなわち、複数のコマンド入力装置があり、複数のオペレータがそれぞれのコマンド入力装置を使って、同じロボットに指令を与える場合に、ロボットの操縦をその操作権限に合わせて統括することが可能となる。指令者コードは、コマンド入力装置ごとに予め割り付けても良いし、オペレータが最初に指令者コードをパスワードなどで入力して設定するようにしてもよい。万一、不審者の手にコマンド入力装置が渡った場合、別のコマンド入力装置から設定変更することにより、他の指令者コードに変更して、不審者の手元のコマンド入力装置からは操作できないようにしてセキュリティ対策に利用してもよい。
第4の実施形態においては、ロボットには、移動あるいは動作する手段を有するロボットを含み、コマンドにはミッションに関するコマンドの他、ロボットの移動あるいは動作に関するコマンドが含まれる。
第4の実施形態によれば、移動しながら不審人物を探索するような場合に、不審人物を探索するミッションに関する設定の変更を行うほか、次のようなこともできる。すなわち、前進させて前のほうを探索させるように探索ミッションを実行させながら、移動に関する前進命令を与えたり、右を向かせたり、左を向かせたりすることができるようになる。自律ロボットには、通常の移動を伴うロボットと移動を伴わないロボットがある。例えば、複数のカメラを設置して画像の中に入る特定の物体を画像処理で抽出して物体の方向や位置、数などを認識したり、追跡するなどのミッションをもって自律的にそのミッションを実行させるロボットシステムは、移動を伴わないシステムとなる。しかし、そのミッションを実行しながら、例えば、カメラの雲台を上下左右に動かしたり、さらに、カメラの位置を変えるための移動機構を有するロボットシステムは、カメラの移動制御を伴う自律ロボットシステムとなる。この場合、当然、移動制御に必要となる周囲の環境と自分自身の位置と姿勢を認識し、予めプログラムで決められた処理に基づき、ミッションの画像処理もカメラの移動も自律制御を行わせるシステムもある。しかし、オペレータがロボットシステムの実行状況を見ながら、容易に、ミッションの内容を途中で変更したり、移動制御に関する指令を途中で与えることにより、オペレータの意思に沿ってより一層効率よく行えるようにもできる。このような場合、本実施形態を用いることで、オペレータは、ミッションの内容変更に関する指令と、ミッション実行中の移動制御に関する指令の両方を、区別しながら臨機応変に与えることができる。
第5の実施形態においては、各ロボットにはミッションの対象あるいは対象外の物体を識別補助するための手段を持たせている。
第5の実施形態によれば、各ロボットは容易にミッションの対象あるいは対象外を識別できるようになり、ミッションの対象のみにミッションを効率よく、確実に、信頼性高く実行することが容易にできる。例えば、不審者を探索するミッションにおいては、最初に画像処理などで人物を検出する必要がある。さらに、検出した人物が探索すべき不審者か否かを識別するためには、予め不審者でない人物の特徴データを揃えておく必要がある。その上で、検出した人物一人々々に対してその特徴データを抽出してマッチングするかどうかを認識処理する必要がある。このため、通常の画像処理だけでは、時間がかかり、認識の信頼度にも限度がある。しかし、関係者の居場所が予め判っておれば、その居場所データを識別補助手段としてロボットシステムへ与えれば、検出した人物の位置と関係者の位置データが一致する場合にはすぐに不審者ではないと判断することができる。識別補助するための手段は別の監視カメラと画像処理システムからなる認識システムで認識した結果をロボットシステムへ提供するようにしてロボットシステムの認識処理の負担を分担するようにするものでもよい。
第6の実施形態においては、ミッションの対象あるいは対象外を識別補助するための手段は、対象あるいは対象外に電波あるいは音波あるいはその両方の発信器を持たせ、ロボットにはその方向及び/又は距離を検出する手段を設ける。
第6の実施形態によれば、画像処理によらない発信器による方法で対象あるいは対象外の位置あるいは方向を識別する補助手段と組合せて、画像処理で認識した対象あるいは対象外を補助手段からの情報も利用して簡単に対象が対象外かを識別判断できる。特に発信器から電波と音波を発するようにすると電波の方が音波より早く到着してその到着時刻の差は距離に比例して大きくなる。したがって、到達時刻の差で発信器までの距離を容易に検出することもできるようになる。ロボットシステムのカメラの画像による対象あるいは対象外を検出した場合はその方向と一番手前の距離が認識可能であるが、さらに後方にいる対象あるいは対象外は手前のものに遮られて画像に写らず認識することができない。識別補助手段に距離も検出するようにすると、比較的複雑な補助手段が必要になる。しかし、方向と距離の両方の補助情報が得られる方が、手前の検出したものが対象か対象外かを確実に識別補助データから識別できるので、方向だけ識別補助データの場合より、より信頼度の高い識別ができるようになる。電波あるいは音波の片方の発信器のみで距離情報も得るためには次のように構成する。ロボット側から時刻データを最初に発信させ、補助手段の発信器はその時刻を受信すれば、その時刻データをそのまま発信情報に加える。こうすれば、受信側で発信時刻を確認すれば、往復に要した時間を推定して距離を推定することができる。
第7の実施形態においては、ミッションの対象あるいは対象外を識別補助するための手段は、対象あるいは対象外にGPSセンサとGPSで検出した位置座標データを発信する発信器を持たせて、ロボットに発信器からのデータ受信器を設ける。
第7の実施形態によれば、対象あるいは対象外のX,Y,Zの位置情報をGPSセンサから容易に得られるので、その情報を発信器から発信するようにすることで、ロボット側で容易に対象あるいは対象外の位置X,Y,Zを認識補助データとして得ることができる。
第8の実施形態においては、各ロボットにはコマンド入力装置あるいはその操作者を識別補助するための手段を備える。
第8の実施形態によれば、各仲間のロボットとコマンド入力装置をもっている操作者については、より信頼度高く識別することができる。例えば、ロボットの画像認識では、移動物体を検出したら威嚇するようなミッションを実行する場合、動く物体が人かどうか、その人が対象外か否かを速かに認識しなければならない。しかし、補助手段からの情報にロボットIDや操作者のID情報が得られれば、画像認識で検出した移動物体が、仲間のロボットか操作者かをマッチング識別判断させることができる。したがって、より確実に、短時間に仲間のロボットと操作者を識別認識することができ、間違って、仲間のロボットあるいは操作者を威嚇するようなことがなくなる。
第9の実施形態においては、識別補助するための手段として、対象あるいは対象外に光、温度、電波、音等で認識性を高めたマーキングを設ける。
第9の実施形態によれば、最初の認識処理で移動する物体を検出したその認識性を高めたマーキングの有無を識別処理することで、検出した移動物体が、対象か対象外かを高速に信頼度高く識別できる。ロボット側は、予めマーキングの特徴を知っているので、そのマーキングの有無を容易に識別できる。
第10の実施形態においては、前記マーキングを、各ロボットにも入力されている所定の規則に基づき認識の特徴パターンが変化するマーキングとする。
第10の実施形態によれば、偽のマーキングを施して発見を免れようとしても、所定の規則にしたがってマーキングの特徴が変化するので、真似をすることはできない。各ロボットには、マーキングの変化規則を予め入力しておけば、その都度変化した特徴パターンで識別することが可能である。特徴パターンの変化は、光の色、温度、電波の周波数、音の周波数の変化のほか、それらの強さ、変化する周期などを特徴パターンとしてよい。
第11の実施形態においては、ロボットシステムにおいて、通信を行うデータは、所定の暗号規則に従って、送信前に暗号化し、受信後に暗号解読を行うようにする。また、各暗号規則の収納された部位を監視する監視手段を設け、監視手段が異常を検出した場合には異常を検出した部位には収納されていない別の暗号規則に切り替えて以後の通信を行うようにする。
第11の実施形態によれば、暗号規則が万一不審者の手に奪われて通信内容を傍受したり、通信ジャックされるような危険な場合には速やかに別の暗号規則に切り替わる。したがって、切り替わる前の暗号規則情報を手に入れた不審者であっても、切り替わったあとの通信の傍受や通信ジャックはできない。ここで、重要なことは切り替える暗号規則は奪われた暗号の収納された部位には含まれていないことである。これが含まれていると切り替えようとする暗号規則も不審者の手にあるため、容易に通信傍受や通信ジャックされる恐れがある。通信ジャックされると不審者がロボットシステムをコントロールできるようになる恐れもあるが、本実施形態では、そのようなことを防止することができる。具体的な監視手段としては、ロボットや関係者を別の監視カメラで監視して、異常な状況、例えば、不審者に暗号規則の入った発信器などが奪われるような事態が起きていないことを監視しておく。万一、そのようなことが起きた場合には、監視者が、マニュアル操作で各ロボットシステムに奪われた暗号規則以外の暗号規則へ切り替えるような指令を出すようにしてもよい。また、互いのロボットや通信装置や発信器が互いに健全性を確認しあうような通信を通常周期的に行うようにして、万一通常の健全性確認通信が得られない場合には当該部分に何らかの異常が生じたと検出するようにしてもよい。異常を検出すれば、自動あるいはマニュアルで暗号規則の切り替えを行えばよい。さらに、最も万全な方法としては、暗号規則の収納された部位を監視する独立した監視系と、その通信系統を準備して、その独立した専用の監視装置が異常を検出した場合に自動的又はマニュアル操作で暗号規則を切り替えるようにしてもよい。
以下、図面を参照して本発明の一実施例による遠隔操作ロボットシステムを説明する。
図1は、複数の自律ロボットに操作者から各ロボットへミッションに関する変更、設定を行わせる指令を与えられるようにしたロボットシステムの基本的な一実施例を示す。各自律ロボット200a〜200eは三脚にセットしたカメラで撮影した画像の中の対象物体をトラッキングするミッションを実行するロボットで、対象物体20をトラッキングする。カメラは、十分な視野があれば雲台は必要ないが、さらに広い視野を対象に対象物20を撮影してトラッキングしたい場合には、雲台でその方向を変えられるようにしてもよい。ここで、操作者10は、コマンド入力装置100を持って、各ロボットのミッション実行状況を後方で確認しながらミッションに関するコマンドを入力できる。入力されたコマンドは、無線で自律ロボット200aと200bへ送信される。自律ロボット200bは、コマンド発生装置を有し、コマンド入力装置100からのコマンドをそのまま自律ロボット200c〜200eへ転送する。このようにして、操作者10が入力したコマンドは、5台の自律ロボット200a〜200eへ指示される。各自律ロボットのミッションは、例えば、画像処理装置は、認識対象をトラッキングしながら、画像を録画するというものであるとする。ミッションに関するコマンドには、トラッキングの開始、中止、録画する、しない、一時停止のほか、検出する対象物体を、人間、鳥、車などの種類を指定したりするものがある。また、同時にトラッキングする対象物体の最大数を設定したり、一番近くのものをトラッキングさせるなどの指令の変更もある。操作者10は、これらのコマンドを、コマンド入力装置100を用いて自律ロボットの全員に、1回の操作で指令を出すことができる。また、例えば、自律ロボット200eが操作者10からコマンド入力装置100から直接無線が届かない遠くの位置にある場合にも、自律ロボット200bのコマンド発生装置を介して、操作者からのコマンドを中継する形で遠くのロボット200eへ与えることができる。コマンド発生装置は、単なるコマンドの転送だけでもよいが、ロボット200bがロボット200c〜200eを統括制御するようにして、そのときの状況に応じて、より具体化したコマンドを指令するようにしてもよい。また、全部のロボットがコマンド発生装置を備え、近くのロボットへコマンドを転送発信するようにしてもよい。
図2は、図1の自律ロボットの構成の基本的な一実施例を示す。コマンド入力装置100からのコマンドは通信装置210で受信してそのデータはCPU220で参照してCPU220は雲台230にカメラ240を向きを変える駆動指令を出す。また、カメラ240からの画像を取り込み画像処理を行う画像処理装置250へ画像処理の指令を出して結果を取得する。CPU220は、画像処理装置250の処理結果を、必要に応じて通信装置210を経由して外部へ出力できるようにする。
図3は、図1,図2のロボットシステムのCPU220の基本処理フローの一実施例を示す。CPU220は、処理開始後、処理S001で初期設定を行い、処理S002で通信装置210からのコマンドを入力して、処理S003でコマンド内容の解析処理を行う。次に、処理S004で他のロボットへコマンドを発信する必要があるか否かを判別し、発信する必要があるコマンドの場合には、処理S005で発信コマンドを生成して、処理S006で通信装置へコマンドを出力する。この部分の処理は、コマンド発生装置290の機能に相当する部分となる。処理S005で発信コマンドを生成するときに、単に操作者からのコマンドを転送するコマンドを生成するだけではなく、現在の状況から所定のルールに基いてより具体的なコマンドとして生成、出力するようにしてもよい。次に、第2の実施形態に相当する処理として、処理S007で、操作者からのコマンドの中のグループコードが自分自身の所属するグループか否かを判別し、属する場合には次の処理へ進み、属さない場合はコマンドを実行しないで処理S002へ戻る。次の処理を実行する場合には、処理S008で第3の実施形態に相当する処理として、処理S008で、操作者からのコマンド中の指令者コードの優先度を確認する。現在実行中のコマンドの指令者より優先度は上か下かを判別して、上の場合には次の処理へ進み、下の場合はコマンドを実行しないで処理S002へ戻る。次の処理を実行する場合には、処理S009でミッションの変更、設定に関するコマンドか否かを判別して、ミッションの変更、設定に関するコマンドの場合には処理S010で画像処理装置250へ画像処理のミッションの変更、設定に関するコマンドを出力する。ミッションの変更、設定に関するコマンドでないそのほかのコマンドの場合には、処理S011でそのほかのコマンドに対応した処理を実行する。例えば、カメラの電源ONとかカメラの電源OFFなどはそのほかのコマンド処理として実行される。次に、処理S012で画像処理装置から結果を入力し、処理S013で画像処理の結果に基き雲台を動かす必要がある場合、その制御量を算出する。例えば、認識した対象が常に画面の中央になるように雲台を制御するような場合には、処理S014で雲台へ制御量を出力し、通信装置からのコマンド入力処理S002へ戻り、繰り返し行う処理となる。
図4は、図1,2,3のコマンド入力装置100の基本的な一実施例を示す。本実施例は、左手のスイッチでグループ指定、右手のスイッチでコマンド指定ができるようにスイッチを2つに分けて配置した例である。左手で操作するスイッチ105Lには、ロボットのグループコードを指示するための押しボタンスイッチが配置されている。(01)はロボット全部を指定し、(02)はグループAを、(03)はグループBを指示する。各グループは予め決めておけばよいが、ここでは、例えば、ロボット200aの1台をグループA、ロボット200b〜200eの4台をグループBに割り付ける。そして、グループBの中の各ロボット1台を指示するために、(04)のボタンはロボット200bを、(05)はロボット200cを、(06)のボタンはロボット200dを、(07)のボタンはロボット200eを指示するボタンである。右手の押しボタンスイッチ105Rには、ミッションの変更、設定に関する指令用ボタンが配置されている。画像トラッキングする対象を人の身体全体を撮影したい場合には、身体認識ボタン(01)を押して送信実行ボタン(07)を押す。それぞれ左スイッチ105Lのスイッチ状態、右スイッチ105Rの状態は、DI(ディジタルインプット)などのインターフェースを介してCPU110で読み取られ、CPU110で送信するコマンドデータが作られる。そして、スイッチ送信実行ボタン(07)が押されたタイミングで、コマンドデータが通信装置120へ出力され、各ロボットへコマンドが送信される。同じように、ミッションの変更、設定に関するスイッチは、右スイッチ105Rに配置されている。顔認識ボタン(02)、トラッキングを行う追跡ONボタン(05)、トラッキングを停止する追跡OFFボタン(04)、録画ONボタン(05)、及び録画OFFボタン(06)の各押しボタンである。ここで、ミッションの変更、設定に関する機能選択ボタンと送信実行ボタン(07)を分けたのはミッションの変更、設定を指令するタイミングを操作者が合わせ易いためである。
図5は、図4のCPU110の基本処理フローの一実施例を示す。処理はSTART後、初期設定処理S001を実行後、処理S002で左右のスイッチ105L、105Rからスイッチの状態を読み取り、処理S003で入力されたスイッチ状態にもとづき送信コマンドデータを作成する。そして、処理S004で送信実行ボタンが押されたか否かを識別し、押されていた場合には処理S005で送信コマンドを通信装置へ出力し、押されていない場合、処理S005を飛ばして再度処理S002へ戻る処理を繰り返す。
図6は、コマンド入力装置が作成する送信コマンドの基本的な一実施例を示す。送信コマンドはコマンド300、指令者コード310、ロボットのグループコード320、コマンド実行に必要な情報330から構成されている一例である。指令者コード310は、予めコマンド入力装置100に割り付けられているコードを送信コマンドデータを作成するときに割り当てる。ロボットのグループコード320は、左スイッチ105Lの状態を読み取って作成する。このように、送信コマンドデータに指令者コードとロボットのグループコードを入れることによって、このコマンドを受けたロボット側では指令者コードを解釈して予め設定してあるプライオリティの高い指令者コードのコマンドを優先的に実行する。また、ロボットのグループコードを参照して送信されたコマンドを自分が実行するか否かは、自分がそのロボットのグループコードに属しているか否かで容易に識別することが可能となる。
図7は、複数の移動機能を有する自律ロボットに操作者から各ロボットへミッションに関する変更、設定を行わせる指令と移動制御指令を与えられるようにしたロボットシステムの基本的な一実施例を示す。各自律ロボット200a〜200eは、不整地走行に適したクローラ走行機構にパンチルトの雲台機構が搭載され、雲台機構には周囲の状況を認識する画像を得るためのカメラと威嚇などのミッションのために必要な発射装置などが搭載されている。各ロボットは、不審者を探索したり、不審者の侵入を監視したり、必要に応じて不審者へ威嚇を行うようなミッションを実行する。各カメラと発射装置は同じ雲台でその方向を変えられる。ここで、操作者10は、コマンド入力装置100を持って、各ロボットのミッション実行状況を後方で確認しながらミッションに関する変更、設定コマンドと各ロボットの移動制御に関する指令をコマンド入力装置100へ入力できる。コマンド入力装置100へ入力されたコマンドは、無線で自律ロボット200aと200bへ送信され,自律ロボット200bはコマンド発生装置を有し、コマンド入力装置100からのコマンドをそのまま自律ロボット200c〜200eへ同じコマンドを転送する。このようにして、操作者10が入力したコマンドは、5台の自律ロボット200a〜200eへ指示される。各自律ロボットのミッションは、例えばカメラからの画像を処理する画像処理装置は周囲の環境の障害物の位置を検出しながら、不審人物を探索する。不審人物を発見すれば、その画像内の座標を算出し、不審人物をトラッキングし、必要に応じて威嚇のために発射装置の照準を不審者の方向へ向け、必要に応じて発射装置で威嚇するようなものであるとする。コマンドでミッションに関する変更、設定は、不審人物の存在を監視する監視ミッション、不審人物を見つけた場合に威嚇する威嚇ミッション、周囲に不審人物の存在を探索する探索ミッションの切り替え指令である。その指令を随時、操作者10はコマンド入力装置100を用いて自律ロボットの全員に1回の操作で指令を出すことができる。また、そのような指令されたミッションのほかに、移動制御に関する指令コマンドについては、同様に操作者10はコマンド入力装置100から随時コマンドを入力することも可能である。移動制御に関する指令コマンドは、ロボットがミッションを実行しているときも、ミッションを実行していないときも指令を与えることができる。通常の場合はミッション指令より移動制御指令を優先してロボット側は実行するようにした方がロボットの衝突防止、安全確保の観点から有効である。例えば、図7で各ロボット200a〜200eへ前へ移動という移動制御に関する指令を入力した場合、各ロボットは自律的に周囲の環境を認識して障害物に衝突することなく前進する。このように、各ロボットを自律移動ロボットで構成するシステムにすることで、一人の操作者が多くのロボットの操縦を容易に行うことができる。また、ここで、コマンド入力装置は、複数のコマンドを組合せコマンドとして同時に送信できるようにしてもよいし、シリーズ的に複数のコマンドを随時送信して、同時に実行可能なコマンドは、ロボットが複数のコマンド指令を実行できるようにしてもよい。例えば、左旋回のコマンドの場合はスピンターンで左旋回するようにして、前進コマンドと左旋回コマンドが同時に実行される場合はピボットターンが実行されるようにしておいてもよい。また、搭載する威嚇用の発射装置は、ペイント弾、網などの発射装置でもよい。また、カメラは、可視カメラと赤外線カメラの両方を搭載して両方の映像を画像処理するようにしてもよい。赤外線カメラの画像を併用することで体温のある動物の認識がより効率的に行わせることも可能となる。また、本図では、クローラ式の移動機構を例とした自律移動ロボットとしているが、勿論、2足移動ロボットや4足移動ロボット、水中で動作する水中ROVなどの移動ロボットにも同様に適用して良い。また、移動ロボットには作業用マニピュレータを搭載して自律的に、例えば、検査プローブをマニピュレータが持って、溶接部などの検査部位をカメラの画像で画像処理して位置を認識して検査プローブを倣い制御させてもよい。また、溶接機を持って仮組みされているワークを溶接したり、ハンド機構をもって各パーツ部品を掴んで所定の関係に組み上げるなどの各種作業を行わせるような移動ロボット群へ適用することでもよい。
また、ロボットの周囲にはプロテクタを設け、ロボットが駅のプラットホーム程度の段差から落ちた場合に、プロテクタが先に当たってロボット本体への衝撃を緩和するようにしてもよい。ロボットの車輪やクローラなどもバネを介して取り付けて落下着地時に衝撃を吸収できるようにしてもよい。また、CPUなどの制御装置も緩衝材に入れて衝撃から保護するようにする。また、自律ロボットの動力源には長時間の運用が可能なようにエンジン発電機や燃料電池とバッテリーなどを組合せて搭載するようにしてもよい。
図8は、図7の自律ロボットの構成の基本的な一実施例を示す。コマンド入力装置100からのコマンドは通信装置210で受信してそのデータはCPU220で参照してCPU220は移動機構・雲台230にロボットを移動させたり、発射装置270とカメラ240を向きを変える駆動指令を出す。同時に、カメラ240からの画像を取り込み画像処理を行う画像処理装置250へ画像処理の指令を出して結果を取得する。画像処理装置250が検出する周囲の環境データは環境DB260に記録され、画像処理装置のコマンド実行に必要な情報を必要なときに参照したり、CPU220が直接参照できるような構成としている。環境DBは予め地図情報として登録しておき、カメラ画像の認識結果により環境DBを最新の状況に修正するようにしてもよい。環境DBへは環境地図のほか、人間を識別するためのCADデータや特定の人物を探索する場合の特定人物のCADデータなどを予め登録しておく。また、この時に周囲環境を検出するのにカメラ画像の認識結果だけによらず、周囲の物体までの距離などを計測する1次元あるいは2次元あるいは3次元のレーザや超音波によるレンジセンサ等のその他センサ245を用いる。それらのセンサ情報と組合せて周囲環境を認識するようにしてもよい。一般にカメラによる距離画像計測でもレーザスキャンセンサによる距離計測でもノイズが発生する。ここで言うノイズとは、実際には存在しない点を障害物などの一部を構成する点として誤って検出したものである。その場合、ロボットの前後左右上下に周囲の障害物を検出する高速なレーザセンサなどを配置してロボット周囲全体の障害物情報をリアルタイムに検出できるようにしておく。実際に、ロボットが進む方向にある障害物をより詳細に確認して移動経路を計画生成する場合には、その方向をカメラで計測して、実際に障害物があるかどうかを再度確認する。すなわち、レーザセンサなどの検出情報とカメラ等による検出情報のアンドをとって障害物を本当の障害物として検出するようにしてノイズなどに対する対策手段を設けてもよい。また、画像処理による認識の場合には、特開2004−201085号公報に開示されたように、メインCPUから画像処理装置へ各種コマンドで問合せて回答を得ようにしてもよい。しかし、3次元CADデータ同士のマッチングをとる3次元マッチング探索指令の外、環境DBのCADデータから、カメラから探索対象がどう見えるかのカメラ画角に応じた2次元CADデータを生成し、処理速度を速める。そして、その2次元の参照CADデータと現在撮影された画像データより生成した現在画像の2次元CADデータとのマッチングによる2次元のマッチング探索指令の応答も得られるようにしてもよい。また、CPU220は威嚇が必要と判断処理した場合には発射装置270へ発射指令を出力できる構成になっている。
例えば、移動機構が2足歩行ロボットのように移動するためだけに安定に歩行するための移動機構や雲台の中にあるモータ等の駆動部品をきめ細かく制御する必要があり、移動のために機構自体を安定に保持しながら移動させたい場合がある。このような場合には、CPU220から指令を移動機構・雲台230に与えるには、移動機構・雲台230の側にも安定な移動制御に必要なCPUを設けておく。そして、図8のCPU220から移動機構・雲台230の中の移動制御を行うCPUへ、「前進」、「後退」、「屈め」、「跳べ」、「走れ」、例えば、高さ10cmの障害物を「跨げ」などの大まかな移動命令に対応するコマンド指令を与えるような通信を行ってもよい。移動機構・雲台230の中の移動制御を行うCPUは、CPU220から受取った大まかな指令を実行するためにきめ細かな制御を実行するようにしておく。
図9は、図7,図8のロボットシステムのCPU220の基本処理フローの基本的な一実施例を示す。START後、処理S001で初期設定を行った後は処理S002で通信装置210からのコマンドを入力して、処理S003で指令者コードの優先度が現在実行中コマンドの指令者以上か否かを判別する。否の場合は、処理S003aでコマンド内容は更新しないで、現在実行中のコマンドを継続する処理をして、新たに入力されたコマンドの指令者の優先度が高い場合には処理S004でコマンドの内容解析を行い、処理S005でコマンド発生処理を行う。次に、処理S005では、操作者からのコマンドの中のグループコードが自分自身の所属するグループか否かを判別して、属する場合には次の処理へ進み、属さない場合はコマンドを実行しないで処理S002へ戻る。次の処理を実行する場合には、処理S007で移動、動作の指令がある場合にはその指令を判別して実行する。
この処理S007での判別の種類は、次の処理S008(1)〜(13)である。この(1)〜(13)は、後述する図14のコマンド入力装置105Rのボタン(1)〜(13)に対応させた実施例としたものである。
さて、前進の移動指令が来ている場合には、処理S008(1)の前進の自律制御の処理が実行される。前進の自律制御は、まず、(1)CPU220は前方をカメラ視野に入れる方向に雲台制御指令を移動機構・雲台230へ出力し、次に(2)画像処理装置250へ前方の環境データ更新を指令し、次に(3)画像処理装置250からロボットの現在位置姿勢を取得する。次に、(4)環境DBを参照しながら、予め決めてある規則に従ってロボットの前方への移動指令を生成し、指令が求まった場合にはロボットの移動機構230に制御指令を出力する。そして、(5)予め用意した規則では指令が求まらない場合には、ロボットの移動機構230へは停止処理を指示する。同様に、ロボットの後退指令は、処理S008(2)に割付、右旋回指令は処理S008(3)に割付、左旋回指令は処理S008(4)に割付、1列縦隊指令は処理S008(5)に割り付ける。同様な処理の説明はここでは割愛する。1列横隊指令は、処理S008(6)に割り付ける。そのS008(6)の処理は、まず(1)画像処理装置250からロボットの現在位置姿勢を取得、(2)通信装置210から他ロボットと位置情報の交換(入出力)を行う。次に、(3)環境DB参照し所定の規則に従ってロボットの一列横隊への移動指令を生成し、(4)移動方向へ雲台制御出力して、(5)画像処理装置250へ移動方向の環境データ更新を指令する。さらに、(6)環境DBを参照しながら、移動指令再生成し、指令が求まった場合には制御指令を出力する。そして、(7)規則では指令が求まらない場合は、移動機構230は停止処理を行うように処理する。また、移動速度の変更処理に関する処理は処理S008(7)、(8)に割付、速度変更指令の「早く」の指令の場合には、現在の移動動作中の速度をより速い速度に設定する。例えば、現在の3割増し、5割増しなど機械的に速度を早く設定するような処理でもよい。「遅く」の場合は移動動作中の所定速度をより遅く設定処理する。また、ロボットの停止処理コマンドが入力された場合には処理S008(13)に割り付け、ロボットの停止処理を行うものである。
次に、処理S009で監視ミッションがONか否かで監視ミッションがONの場合には監視ミッションに対応する次の処理S010、処理S011、処理S012を実行するようにする。処理S010では、監視ミッションとして、(1)画像処理装置250へ予め設定されている監視内容に対応するコマンド出力する。例えば、不審人物の有無を監視する場合には、予め登録されている人間の典型CADデータ群のファイル名を指定し、2次元の画面内で移動する物体を検出し、参照CADデータとの2次元のマッチングによる探索指令等を出力する。ここで、先のコマンド応答が未で同じコマンドの場合は省略してもよい。次に(2)画像処理装置250からロボットの現在位置姿勢を取得して、(3)通信装置210から他ロボットと位置情報の交換(入出力)を行う。ここで、(4)予め決めてある規則に従った監視を行う場合に雲台や移動機構230を動かす必要がある場合には、環境DB260参照し、予定規則に従って雲台および移動機構230への移動制御指令を生成する。次に、(5)移動方向へカメラを動かす雲台制御指令を雲台230へ出力する。ただし、移動、動作指令がある場合はそちらを優先するようにする。次に、(6)画像処理装置250へ移動方向の環境データ更新を指令して、(7)環境DB260参照しながら移動指令再生成し、指令が求まった場合には移動機構230へ制御指令を出力する。ただし、先の移動、動作指令があり、その指令と矛盾する動作となる場合は移動、動作指令を優先してここでの制御指令は出力しないようにする。次に、(8)画像処理装置250から監視コマンドに対する応答を取得する。ここで、まだ(1)の応答がない(画像処理装置が処理中の)場合は次のサイクルで取得すればよいのでここではパスして次の処理へ進むようにする。そして、次の処理S011で(9)監視コマンドの応答が異常発見(不審人物を検出)した場合には発見した対象がミッションの対象か対象外かをさらに認識するための監視コマンド出力する。例えば、予め登録されている対象外人間のCADデータ郡のファイル名を指定して2次元あるいは3次元のマッチングによる探索指令等を出力する。ここで、マッチング度が所定の値以下の人間が対象(不審人物)となる。そして、次の処理S012で(10)監視コマンドの応答が異常発見(不審人物を検出)した場合には通信装置へ警報と検出結果データを出力する。以上で監視ミッションに対応する処理が行われる。
次に、処理S013で威嚇ミッションがONか否かを判別して、ONの場合には次の威嚇ミッションに対応した処理を実行するようにする。威嚇ミッションに対応した処理は処理S014で処理S010〜S012の監視ミッションと同じ処理を行う。監視ミッションで不審者が検出されたかどうかを処理S015で判別して、検出された場合には、処理S016で威嚇ミッションを継続実施する。威嚇ミッションは、まず、(1)複数不審人物の場合は予め設定の規則に従い威嚇優先順番を決める。例えば、手前の近くの不審者から威嚇するか、右側の不審者から威嚇するかなどの順番である。次に、(2)威嚇対象不審人物の威嚇ターゲットを予め設定の規則に従い設定してターゲットの方向(照準)を求める。予定の規則とは、例えば、威嚇レベルを設定しておき、威嚇レベルの設定に応じて、不審者の足元を威嚇するとか、不審者の足先、手先を威嚇するとか、不審者の身体の頭と胴体を除く部分を威嚇するなどの規則である。勿論、このような威嚇レベルもコマンド入力装置から操作者は状況に応じて随時変更できるようにしてよい。そして、次の処理として、(3)照準方向に雲台を向ける制御指令を雲台230に出力する。次に、(4)威嚇ターゲットに雲台の照準が所定の精度以内で位置した場合には、発射装置270に発射指令を出力(威嚇)する。そして、(5)1つの威嚇ターゲットが終了したら次の威嚇処理を行い、全不審者への威嚇が終了したら威嚇ミッション指令が終了されるまで再度(1)からの処理を繰り返し実施する処理となる。
次に、処理S017で探索ミッションがONか否かを判別して、ONの場合には次の探索ミッションに対応した処理S018、S019、S020を実行するようにする。処理S018では、まず(1)画像処理装置250へ予め設定されている探索内容に対応するコマンドを出力する。例えば、探索したい人物のCADデータのファイル名を指定して2次元の画面内で移動する物体を検出して参照CADデータとの2次元のマッチングによる探索を行う指令等を出力する。但し、ここで、前回画像処理装置に出力したコマンドの応答が未で、今回も同じコマンドの場合は省略してよい。そして、次に(2)画像処理装置250からロボットの現在位置姿勢を取得する。次に、(3)通信装置210から他ロボットと位置情報の交換(入出力)を行い、(4)予め決めてある規則に従った探索を行う。この場合に、雲台や移動機構230を動かす必要がある場合には、環境DB260を参照しながら予定規則に従って雲台および移動機構230の移動制御指令を生成する。次に、(5)移動方向へカメラを動かす雲台制御指令を雲台機構230へ出力する。但し、操作者からの移動、動作に関わる指令がある場合はそちらを優先させる。次に、(6)画像処理装置250へ移動方向の環境データ更新を指令する。次に、(7)環境DB260を参照しながら移動指令再生成し、指令が求まった場合には移動機構230へ制御指令を出力する。但し、操作者からの移動、動作に関わる指令があり、その指令と矛盾する動作となる場合は操作者からの移動、動作指令を優先してここでの制御指令は出力しない。そして、次に(8)画像処理装置250から探索コマンドに対する応答を取得する。ここで、まだ(1)処理の応答がない(画像処理装置側が処理中の)場合は次のサイクルで取得することで、パスする。そして、次の処理S019で、(9)探索コマンドの応答が対象人物を検出した場合には検出した対象がミッションの対象か対象外かをさらに認識するための監視コマンドを出力する。例えば、予め登録されている対象外人間のCADデータ郡のファイル名を指定して2次元あるいは3次元のマッチングによる探索指令等を出力する。この場合、マッチングした結果のマッチング度が所定の値以下の人間が対象(探索したい人物)となる。そして、処理S020で、(10)探索コマンドの応答が対象人物を検出した場合には通信装置へ警報と検出結果データを出力して知らせる。以上の処理が探索ミッションに対応した処理となる。そして、処理S002へ戻って、繰り返し同じ処理を実行する。
画像処理装置250の処理内容はここでは詳細な説明をしないが、基本的には、特開2004−201085号公報に開示された視覚情報処理装置と同じような処理を行うことができる。また、レーザや超音波によるレンジセンサ等のその他のセンサ245を用いている場合には、環境DBの環境CADデータはそれらのセンサ情報の処理も利用して更新するようにしてよい。
図10は、図7〜9のロボットシステムの運用例の一例を示す。ロボット200b、200cは、トレーラ80Aで、ロボット200d、200eはトレーラ80Bで運用現場へ運搬されてきて、各トレーラ80A,80Bの後扉が開きスロープ81A,81Bがロボット出動できる状態にセットされている状況である。操作者10は、コマンド入力装置100を持ってトレーラの後方から各ロボットが出てくる状況が見える場所に位置してコマンドの指令をコマンド入力装置100から送信する。操作者10は、まず、ロボットをトレーラから出すために移動指令を各ロボットへ出す。操作者10は、コマンド入力装置100によって、ロボット200b〜200eのグループを指定して、「前進」の指令を送信する。その場合、図7で既に説明したが、本実施例ではこれら4台のロボットはロボット200bが統括している構成に設定してある。したがって、コマンド送信はまずロボット200bへ送られ、ロボット200bに搭載されたコマンド発生装置(機能)が同じコマンドがロボット200c〜200eへ転送されて4台のロボットに指令が行き渡る。そうすると、各自律ロボットは移動指令の「前進の自律制御」の処理が行われ、各ロボットは周囲の環境データを読み取りながら、障害物がある場合には回避しながら自律制御で前進する。まず、ロボット200cと200eは前進するが、ロボット200cは前方に障害物90aを検出してそれを回避しながら前進する制御が自律的に行われる。ロボット200b、200dは、最初は前進しようとする。しかし、前にはロボット200c、200eが障害物として存在し、迂回ルートもない状況なので、しばらくは動作できない状態でいる。前のロボットが進み出せば、これらのロボット200b、200dも前のロボットに続いて前進して出て行く。自律ロボットで典型ケース毎に用意された行動プログラムには待機プログラムも含むようにすることで、迂回ルートが見つからないような移動計画の成立しない場合には、その場で待機するようにさせることも可能となる。トレーラ80Bの後方には障害物90bがあるので、ロボット200e,200dは、障害物90bを検出してそれを迂回するルートで前進する動作を行うこととなる。このようにして、操作者10の指令で4台のロボットがトレーラより出てくる。ある程度、外に出揃った状態で操作者10はコマンド入力装置100で停止指令を入力、送信して、4台のロボットを停止させる。ロボット200aは予め外で待機していれば、操作者10は5台のロボットを同じようにして操縦できる。操作者10は、コマンド入力装置100からロボットのグループあるいは、個々のロボットを指定しながら、前後左右の動作指令コマンドを入力、送信することで操作者の動かしたい位置に各ロボットを配置させることも可能となる。
図11〜13は、図7〜9のロボットシステムの運用例として「一列横隊」指令を実行させた場合の一例を示す。図11は、5台の自律ロボット200a〜200eがトレーラから出てきた状態を示す。操作者10はコマンド入力装置100でこの状態でロボット全部の「ALL」で動作指令は「一列横隊」を入力、送信すると、その指令は各ロボットに行き渡り、各ロボットは自分自身の周囲の環境をカメラで撮影して環境DBに生成する。同時に各ロボット間で通信を行い、仲間のロボットの位置情報を貰って、自分の位置情報を仲間のロボットへ送信して情報のやり取りをすることで、より精度よく、効率的に互いの位置を把握できる。そして、周囲環境と仲間のロボットの位置情報が揃ったら、旋回して一列横隊になるまでの動作ルートを各ロボットが生成する。具体的には、一列横隊になるために予め準備した複数のルールの中の一つを使う。互いに仲間ロボットの位置情報を共有しているので、同じルールを適用した場合、各ロボットで推定する一列横隊状態は同じものとなる。しかし、ここで、確認のために使用するルールの種類やロボット5台の一列横隊状態が各ロボット同じ状態を設定したかを確認して、違う場合には多数決などで統一を図るようにしてもよい。また、一部のロボットは他のロボットから見えない環境情報も収集して判断している場合もあるので、そのような場合には周囲の認識した環境データも互いに交換して各ロボットで同じデータを共有するようにしてもよい。現在の5台のロボットの位置姿勢と一列横隊状態の各ロボットの位置と姿勢と周囲環境データを共有した段階で、各ロボットは自分自身の移動計画を立てる。これも自律移動ロボットとして予め各条件毎に、どのように計画するかはプログラムあるいはデータとして各ロボットで有しているルールに従って実行させる。次に、各ロボットは、移動計画に従って実行すればよいわけであるが、実行中、随時周囲の環境を認識し、衝突を回避しながら移動計画を実行する。実行前に各ロボット間で互いに移動計画データを交換し、互いに衝突しないよう、事前のシミュレーションで確認してから実行するようにしてもよい。
図12は、5台のロボットがそれぞれ旋回動作して一列横隊に並ぶときの移動計画の一例を示す。また、図13は各ロボットがそれぞれの移動計画を実行し終わった状況で5台のロボットが一列横隊になった状態を示す。この後、操作者10は、必要に応じて各ロボットを指定して前後左右の微調整を指令しても構わない。
図14は、図7〜9のロボットシステムのコマンド入力装置100の基本的な一実施例を示す。本実施例も左手のスイッチでグループ指定、右手のスイッチでコマンド指定ができるようにスイッチを2つに分けた例で説明する。左手で操作するスイッチ105Lにはロボットのグループコードを指示するためのもので、図4で説明したものと同じである。右手の押しボタンスイッチ105Rには、ミッションの変更、設定に関する指令用ボタンとして、監視(09)、威嚇(10)、探索(11)の選択ボタンとその選択状態を実行(送信)させる実行(12)の押しボタンが配置されている。また、移動、動作に関する指令の押しボタンとして、前(01)、後(02)、右(03)、左(04)、一列縦隊(05)、一列横隊(06)、早く(07)、遅く(08)、停止(13)の押しボタンが配置されている。移動、動作に関する指令のボタンが押された場合には、実行ボタン(12)を押さなくても、コマンドが送信されるようにしておく方がよい。これらの押しボタンスイッチの状況はCPU110で読み取って、それに相当するコマンドを通信装置120で送信する。
先に述べたように、この右手による指令(1)〜(13)は、図9の処理フロー中の処理S008(1)〜(13)が対応している。
本実施例は、コマンド入力装置を押しボタンで構成した場合の位置実施例であるが、コマンドの内容が多く、よりきめ細かい指令を出せるようにすると、押しボタン方式ではボタンの数が多くなり、操作の時にボタンの選択に時間がかかる。そこで、音声でコマンドを入力するようにしてもよい。また、音声入力以外に操作者の顎の動きや、操作者の腕に付けた加速度センサなどで予め動きとコマンドの内容を対応させておき、操作者の体の一部の動きでコマンドを入力するようにしてもよい。そのような入力装置は騒音の激しいところで手でスイッチを操作できないような状況で有効なコマンド入力装置になる。
図15は、音声入力方式のコマンド入力装置の基本的な構成の一実施例を示す。基本構成はスイッチの代わりに、マイク103と音声認識装置130を設けた構成である。マイク103から入力された音声データは、音声認識装置130に入力され、ロボットの指令を与えるグループに相当する情報、ロボットの移動、動作指令に相当する命令、ミッションの変更、設定の指令に相当する命令を認識する。その結果は、CPU110に入力され、スイッチで入力された場合と同じように、送信コマンドが作成され、通信装置120から送信される。音声認識では、よく使われる言葉を、予め単語登録しておき、また、順番を決めておくことにより音声の認識精度を高めるようにするのがよい。順番とは、ロボットのグループ指定に関する言葉を最初に言う等の約束事である。単語登録には、グループ名、移動、動作の命令語、「早く」、「ゆっくり」、「大きく」及び「小さく」等の修飾語があり、ミッション変更、設定についての「ミッション監視」、「不審者」、「ミッション威嚇」等がある。また、「不審者の手足」における「の」や「手足」などの処理を決めておくことにより、より自然な言葉でコマンドが入力できるようになる。コマンドの種類は最初に必要なものを絞り込んで用意しておく。言葉の数、組合せの数は有限になるので、より汎用性の高い人間の会話を理解するような高度な認識装置を用いなくとも、比較的簡単な認識装置で実現可能である。
図16は、図7〜9のロボットシステムの運用例としてミッションを行いながら移動指令コマンドを与えた場合の一例を示す。5台のロボット200a〜200eは、先に操作者10がコマンド入力装置100を用いて、「威嚇」あるいは「監視」のミッションの指令が与えられている状況を示す。5台の各ロボットは、不審者20、21の2人の人間を認識して画像内でトラッキングしている状況で、操作者10はロボットの後方に位置していて状況を確認している。ここで、操作者10はミッションの取り消しをしないでそのままロボット全部に前進の動作指令を与えるとする。図9のCPUの処理フローの中でも述べたが、ミッションに関する移動、動作は、操作者からの移動、動作指令より優先される。したがって、まず、5台のロボットは前進を開始する。但し、図9の基本フローでは前進の移動処理を行う処理を実行しながらミッションに関する処理も処理ループの中に入っているので、「威嚇」あるいは「監視」の最初に与えられたミッションを実行しながら、前進の移動コマンドを実行する。したがって、ロボットが前進移動しても各ロボットは不審者20、21を前進移動したために見失うことのないように制御動作する。そして、ロボット200bについては、前方に障害物90が存在しているので自律移動制御で迂回ルート生成して前進動作が行われる。この場合にもカメラは雲台の動作は操作者からの指令は受けていないので、「威嚇」あるいは「監視」のミッションのために必要な不審者21が画像の中心となるように雲台は制御動作してミッションは継続される。但し、移動量が大きくなったり、物の影に不審者が隠れてしまう場合もあるので、状況によってはミッションは達成できない場合もある。その場合には、不審者を一旦見失うことになるが、操作者からの移動、動作指令を優先して実行するので、問題はない。再度、不審者を見つけたら、その時からトラッキングを再開すればよい。
図17は、図7〜16のロボットシステムの各ロボットにミッションの対象あるいは対象外を識別補助するための手段を設けた場合の基本的な一実施例を示す。ロボット200a〜200eの5台のロボットが、コマンド入力装置100を持った操作者10の指令によって、不審者20、21を「威嚇」ミッションでトラッキングしている状況を示す。ここで、関係者22がロボットの視野に入ると、関係者22も「威嚇」ミッションの対象となる。そこで、関係者22が不審者かどうかを判別するために、予め関係者の特徴データを3次元のCADデータなどで環境DBに登録しておき、画像処理装置250で検出した人物20〜22の3人に対してより詳細な認識処理を行う必要がある。操作者10がロボットの視野に入った場合にも同様である。そこで、関係者22には予め発信器400fを持たせる。また、操作者10も発信器400gを持ち、各ロボットにも発信器400a〜400eを搭載する。この場合、発信器は、識別補助装置の一部を構成し、関係者と操作者とロボットだけが持っている発信器の位置に対応する人物や移動物体(ロボット)を不審者とは区別して識別できる。これによって、発信器の位置をロボット側で検出し、カメラの画像処理で人物あるいは移動する物体(ロボット)を検出した場合に、即座に不審者ではないと判断できる。
図18は、識別補助するための手段を設けたロボットシステムの基本的な一実施例を示す。基本的な構成は先に説明した図8の構成と同じであるが、CPU220には識別補助装置500が接続されており、例えば、発信器の位置情報などをCPU220は識別補助装置500から参照して取得できるようになっている。また、ロボットの識別補助装置500やロボットに搭載した発信器あるいは関係者22が持っていた発信器を不審者に奪われた場合を想定して、識別補助装置500や発信器には独立した専用の監視装置600と専用発信器610などを設けておく。万一、奪われた場合にはそのことが専用発信器で仲間に知らせられるようにしておくためのものである。監視装置600は、例えば、取り外されるときに生じる異常な振動を検出する加速度センサを利用することでもよいし、人に持たせておく発信器の監視の場合には生体認識機能を有する監視装置で特定の人物から取り外されたことを検出するようにしてもよい。専用発信器からの信号は、ロボットの通信装置210やコマンド入力装置の通信装置120で受信できるようにしておき、その状況に応じて、ロボットのCPU220やコマンド入力装置のCPU110で対応ができるようにしておくことがよい。通常は、不審者に不用意な傍受をされないよう、コマンド入力装置とロボット間の通信,ロボット相互間の通信は暗号化される。そして、監視装置600からの情報に基づき、その暗号パターンを自動的に変えるようなセキュリティシステムを用いることがよい。
図19は、識別補助するための手段を設けたロボットシステムのCPU220の基本処理フローの基本的な一実施例を示す。基本的には図9のフローと同じであるが、図の中の監視ミッションの処理S011では画像処理装置250の認識処理を駆使して、検出した人物が関係者か関係者以外の不審者かを判別している。図19の実施例では、その処理S011を識別補助手段を用いた処理内容としたものである。具体的には、処理S011で、まず、(9)−(1)で、監視コマンドの応答が異常発見(不審人物を検出)した場合には発見した対象がミッションの対象か対象外かをさらに認識するため、識別補助装置500からミッション対象外の情報を取得する。これには、ミッション対象外者の検出位置情報などがある。次に、(9)−(2)で、識別補助装置500から取得したミッション対象外の情報が複数ある場合は1つずつ、発見した不審人物の位置と一致するか否かを判別する。ここで、識別補助装置から取得したミッション対象外の位置と監視コマンドで発見された不審人物の位置が一致しない人物が対象(不審人物)となる。そして一致した場合は対象外とするものである。このように、識別補助手段を用いると、人物を特定するような膨大なCADデータのマッチングで時間をかけるような処理を行わずとも、検出したものが不審者か不審者でないかを簡単にしかも高信頼性で識別することが可能となる。
図20は、ロボットに搭載する識別補助装置の基本的な一実施例を示す。ロボットには電波あるいは音波あるいはその両方を発信する発信器400からの電波あるいは音波を受信する指向性のあるアンテナを回転させる装置を搭載する。ここでは、そのようなアンテナ510Hを水平に回転させる駆動モータ520Hと同じようなアンテナ510Vを垂直回りに回転させる駆動モータ520Vを搭載した。スペース、重量的に余裕がある場合には、直交するX,Y,Zの3軸まわりに回転可能なように3つのアンテナを設けるとロボットがどのような姿勢でも3次元空間の中にある発信器の方向を精度よく検出できるが、ここではアンテナを1つ省略した場合の例で示す。この場合、図20でアンテナ510Vを駆動モータ520Vで回転させても発信器400は駆動モータ520Vの回転軸方向にあるので、識別分解能があまりよくないので、このような場合には、駆動モータ530で駆動モータ520Vの向きを90°変更すると分解能が高くなる向きとなる。このように駆動モータ530と組合せることで、2つのアンテナの搭載で済むようにしたのが本実施例である。また、ロボットが運用時には常にほぼ水平の姿勢のみを考えて良ければ、アンテナの水平回転するアンテナ510Hだけでもよい。また、回転するアンテナをロボットの姿勢とは関係なく常に水平にする機能の上で回転させてもよい。このように、回転するアンテナで受信する電波あるいは音波の強度を回転角度に対応させて調べると強度の一番高い回転角度の方向に発信器が存在すると推定できる。また、例えば、電波あるいは音波の強度の減衰量から発信器との距離がわかれば、方向と距離がわかるので、ロボット200に対する発信器400の位置情報を得ることができる。本実施例の場合はロボットがαの角度傾斜した斜面にいる場合には距離情報は水平方向でなく、α度傾いた方向の距離Rになる。また、ここでは駆動モータでアンテナを回転させている実施例で説明しているが、アレイセンサの電子スキャン方式を用いて機械的にスキャンしないで駆動部のないアンテナを用いるようにしてもよい。また、複数のロボットで協力しながら発信器の位置をより精度よく検出するようにしてもよい。また、混信発生確率を下げる為、各通信装置と発信器は所定のルールのタイミングで送受信を繰り返すようにしてもよい。
図21は、識別補助装置500の基本的な構成の一実施例を示す。水平回転アンテナ510Hの電波信号、音波信号は水平回転の駆動モータ520Hの方位角度情報と同期してCPU540へ読み込まれる。また、同様に垂直回転アンテナ510Vの電波信号、音波信号も垂直回転駆動モータ520Vの方位角度情報と同期してCPU540へ読み込まれる。駆動モータ530は必要に応じてCPU540からの駆動制御信号で動作させることができるようになっている。そして、この識別補助装置500のCPU540はロボットのCPU220と接続され識別補助情報を必要なときにロボットのCPU220へ提供できるようにする。また、識別補助装置500と発信器との間の距離をより正確に検出するために本実施例では発信器との通信を行えるようにした通信装置550もCPU540に接続された構成としている。この通信装置550を用いた距離の検出方法は後で詳述する。
図22は、識別補助装置500の電波信号と音波信号の検出した一例を示す。横軸には方位角度信号をとって、縦軸には電波信号のレベルと音波信号のレベルをとって、アンテナ510Hあるいはアンテナ510Vを1回転させた場合の電波強度Sr、音波強度Suをプロットしたグラフである。この場合、電波及び音波の信号レベルのピーク点、この場合にはピーク点Aとピーク点Bの2つのピークが存在しているが、このピーク点A,Bの方位角度が発信器のある方向ということになる。実際にはこれらのデータは少なくともアンテナが1回転する間の電波信号、音波振動、方位角度信号はCPU540に読み取られて内部のメモリに蓄えられるので、CPU540に搭載するプログラムでピーク点位置に相当する方位角度は求めることは容易である。
図23は、識別補助装置500の通信装置550から送信する送信データと発信器から受信する受信データの一実施例を示す。送信データ551は、発信コード5511、発信者コード5512、発信時刻データ5513などから構成する。また、受信データ552は、信コード5521、返信者コード5522、発信者コードと発信時刻データ5523、XYZデータ5524(GPSある場合)などから構成する。発信コード5511は、返信データと区別するためのコードである。発信者コード5512は、ロボットが複数いるので、どのロボットからの送信データかを判るようにした識別コードである。同様に、返信コード5521は、発信データと区別するためで、返信者コード5522は、発信器も複数あるため、どの発信器からの返信データかを識別できるように設けたものである。ここで、通信装置550から発信処理時の時刻データ5513を乗せて発信して、発信器400でそのデータを受信したら、そのままの時刻を返信データ552に乗せて返信する。これにより、通信装置は、その返信データ552を受信したら、自分が発信して、特定の発信器400(発信器のIDは返信者コード5522で確認できる)から返信したときの時刻と発信したときの時刻の差が距離に比例した情報になる。そこで、発信器の返信処理に要する時間などを差し引けば、電波あるいは音波の速度と時間をかけて距離Rを推定することができる。この場合、精度は良くなるが、発信器400には受信機能も必要となるので、単なる発信をするだけの発信器と比較すると複雑となる。また、他の手法として、発信器400にGPSを設けて発信器の位置はGPSで検出して、検出したX、Y、Zの情報をのせて発信器400は発信するようにすれば、受信器はなくとも、GPSの精度でX,Y,Zを識別補助装置500は得ることもできる。また、距離を検出する手段としては音波のピークを検出した時刻と電波のピークを検出した時刻の差から音速と電波の速度の差より距離を求めるようにしてもよい。また、発信器から同時に発信する特別のデータあるいは特別の信号で、受信時の時刻の差を求めるようにしてもよい。また、距離Rを推定する方法はそれらの複数の手法を組合せたシステムを採用することでもよい。
図24は、識別補助専用CPUの基本フローの一実施例を示す。処理としてはSTART後、初期設定S001を行い、処理S002では水平回転アンテナ部より、電波信号、音波信号、方位角度信号を読み取る。次に、処理S003では垂直回転アンテナ部より、電波信号、音波信号、方位角度信号を読み取る。そして、処理S004では電波信号、音波信号は360度分のデータを読み取り、蓄積されたか?をチェックして、まだ、蓄積されない場合には処理S002へ戻って蓄積されるまで処理を繰り返す。判定処理S004で360度分のデータが蓄積されたら、処理S005で電波信号、音波信号のピーク方位を算出する。ここで、ピーク方位は複数あれば複数を算出する。次に、垂直回転アンテナ部のピーク値が十分立たない場合には向きを変更する駆動制御信号を駆動モータ530へ出力してアンテナの回転軸の向きを変更する。そして、次の処理はS007で送信コマンドデータ551を作成して通信装置550へ送信データを出力する。そして、処理S008で通信装置550から受信データ552を取得して、受信データ552の時刻データより、電波信号、音波信号のピーク方位の距離を算出する。発信器側にGPSがある場合には受信データ552にはGPSデータも含まれているのでその位置データを取得する。次に、処理S009でメインCPU220から識別補助データの要求ある場合には電波信号、音波信号発信方向、距離などの情報をメインCPU220へ出力応答する。そして、この処理は繰り返し実行する。但し、この一連の処理は高速で所定のタイミングで繰り返されるようにする。例えば、処理S007で送信コマンドを出力した直後に、次の処理S008で応答をすぐに得られる訳ではない。そこで、受信データがないときは、次のサイクルまで待ったり、送信コマンドの出力データを記録しておき、その応答が来るまで同じコマンドを送信しないようにする。
図25は、GPS付き発信器400の基本的な構成の一例を示す。GPS430は衛生などからの電波を受信してそれだけで現在の位置X,Y,Zを検出できる。その結果をCPU410で取り込めるようになっていて、その情報は通信装置420で送信できる。GPSで直接X,Y,Zの位置情報が得られれば、アンテナを回転させるような機構も要らなくなるが、精度が十分でない場合には、GPSの座標データとアンテナでの方向検知情報を組合せて利用するようにしてもよい。
図26は、GPS付き発信器のCPU410の基本フローの一例を示す。処理としては、START後、初期設定S001を行なってから、処理S002でGPSより現在位置データX,Y,Zを取得する。次に、処理003通信装置420から受信データを読み込む。暗号通信を行う場合には受信データは暗号化されているので、処理S004で現在の暗号規則に従って受信データの暗号解読を行う。暗号規則は、プログラムの中に記述しておいてもよいし、CPU410が参照するメモリの中にデータとして格納しておくことでもよい。そして、処理S005では、監視装置600などからのアラーム信号が受信されたかどうかを識別して、アラーム信号が受信されていない場合には、処理S007で受信データから時刻データを取り出して返信コマンドデータ552を作成する。ここでは、GPSのX,Y,Zデータも返信コマンドデータにいれる。そして、処理S008で返信コマンドデータを現在の暗号規則に従って暗号化する処理を行い、処理S009で通信装置420へ返信コマンドを出力すると、返信データ552が通信装置420から発信される。処理はこの一連の処理を繰り返すが、ここでは監視装置600からのアラーム信号を受信していた場合の処理の実施例も説明する。アラーム信号を受信していた場合には、処理S006でアラーム信号にふくまれるID情報に基づき、以降の暗号規則を予め決められた非常パターンに変更する処理を行うものである。ID情報は、どの発信器かどうかを識別するための固有の識別記号で、コマンド入力装置100、各発信器400、各識別補助装置500にIDの名前コードを付けておき、どのIDが不審者に奪われたかを判別するためのものである。監視装置600も、加速度センサなどの情報は不審者に奪われた時の振動データと単純にロボットが衝突したときの信号を区別するようにしてもよい。あるいは、ロボットからの健全性確認信号やロボットからの環境認識データなどと組合せて総合的に、不審者に奪われたか否かを識別してもよい。不確定の場合、奪われたと判断するようにしておく方が安全である。そして、アラームを検出した場合にはその奪われたIDに対応した新たな暗号規則で通信データを暗号処理して通信するようにする。
図27は、暗号規則の搭載パターンの一例を示す。ここでは5台のロボットのIDのみを縦に並べたが、実際には、複数ある場合の各コマンド入力装置、識別補助用の各発信器、各識別補助装置にそれぞれ違うIDを定義するのがよい。ここでは、ロボット5台の各識別補助装置のIDが、ID1〜ID5となっている場合について説明する。ここで、ID1が有する暗号規則は、ID1が奪われたときに使用する暗号規則は最初から組込んで置かないということである。これによって、ID1が奪われた場合に、ID1が奪われたときの暗号規則を不審者側に知られることはない。同様に、ID2の識別補助装置の有する暗号規則には、ID2が奪われた場合に切り替える暗号規則は組込んで置かないようにする。このため、識別装置ID1が有している暗号規則は、(1)最初の通常時に使用している暗号規則1のほか、次の通りとなる。すなわち、(2)ID2〜ID5の1つが奪われたときの、それぞれの暗号規則3〜暗号規則6、(3)ID1とID2が奪われたときの暗号規則7、・・・、(4)ID1とID2とID3が奪われたときの暗号規則17、・・・を有している。
図28は、識別補助するための手段として光、温度、電波、音等で認識性を高めたマーキングの基本的な一実施例を示す。本実施例は、操作者10が、光、温度、電波、音等の発信装置701〜710を身体の各部に取り付けた状態を示している。すなわち、額に発信装置701を付け、両腕に同702,704、両手首に同703,705、胴部に同706、両膝に同707,709、両足首に同708,710を取り付けている。カメラの視野に操作者が全部入る場合もあれば、身体の一部が視野に入ったり、一部は物の影で直接見えないような場合もある。したがって、身体の各部にマーキングを付け、いずれかのマーキングで、光を検出する可視カメラ、温度を検出する赤外線カメラ、電波の方位を検出するアンテナ等、音で方位を検出するマイク等でマーキングの方向を捉えることが可能となる。ここで、単純に、特別な色、温度、電波の周波数や、音の周波数などでマーキングを操作者が付けているマーキングと特定できるようにしてもよい。しかし、単純なマーキングの場合は不審者にも容易に真似をされるので、例えば、特定の時間周期で色、温度などのマーキングの特徴を変化させるようにしてもよい。その変化規則は、暗号と同じように、各マーキング側の発信制御側とそれを受信して認識するロボット側のみに組込んでおく。変化するパターンは、時間周期で変化することでもよいし、マーキングを付けた場所ごとに特徴を変えて、複数のマーキングのパターンの組合せで特徴を認識させるようにしてもよい。また、一つのマーキング、例えば、手首であれば手首に装着した発信装置703に複数の発信部位を設けて、その複数の発信部位の個々の特徴の組合せパターンで容易に真似のできない特徴マーキングを実現するようにしてもよい。勿論、マーキングの特徴やその特徴の変化パターンはある種の暗号規則になる。そこで、図18の独立した監視装置600と同様の監視装置を組込み、そのマークキングが奪われた場合、奪われたマーキングには組込まれていない暗号規則で他のマーキングとロボットの認識システムを動作させるようにすればよい。また、本実施例では、操作者10の身体に施すマーキングを例に説明しているが、ロボットの前、後、左、右、上、下などの各部位に同じようにマーキングを施して、仲間のロボットであることを判断できるようにしてもよい。
図29は、識別補助するための手段として、光、温度、電波、音等で認識性を高めた図28のマーキングの基本的な構成例を示す。例えば、図28の手首に装着した発信装置703などの一つのマーキングがこのような構成で構成する場合の一例である。バンド703には、光、温度、電波、音等の発信ユニット703(1)〜(9)に細かく分かれており、それぞれ独立して発信する特徴を変えられるようにする。それぞれのユニットの発信は、各ユニットのドライバ回路703(10)で行うようにする。CPU703(11)は、ここでは特に処理のフローは示さないが、予め決められた周期、パターンで各ユニットの発信特徴をコントロールするように構成する。発信するエネルギーは、電源703(12)より供給する。電源節約のため、ロボットに認識し易くするときだけ電源スイッチ703(13)で電源のON/OFFが可能なようにする。これらの部品は、人が身に付ける場合には、装着しやすいシート状の各部品で構成するのがよい。また、図28の各発信装置は、独立して特長パターンを発信するが、各発信装置の中の各CPUは共通の時刻情報をもって、時間周期は各発信装置ごとに容易に同期をとるようにしてもよい。また、各発信装置ごとに有線あるいは無線の通信回線を設けて、通信により各発信装置の各CPUを互いに同期をとるようにしてもよい。
以上の実施例では、ミッションとして監視、点検、威嚇、探索を行う自律移動ロボット群のロボットシステムで説明してきた。しかし、ロボットのミッションとしては、移動そのものをミッションとするロボットシステムでも、攻撃、威嚇、探索、捜索などをミッションとして行うロボットシステムにも適用できる。また、検査、運搬、追尾、捕捉、監視、点検、警備、組立、溶接作業などを行うロボットシステムにおいて、自律ロボットに操作者からのコマンド指令を与え、ミッションの効率を高めたロボットシステムを構築することも可能となる。また、監視、点検、探索、捜索、警備などをミッションとするロボットシステムのロボットには、ミッションに必要とするセンサとそれらのセンサ信号を分析して識別判断する機能を組込んでも良い。また、本実施例で発射装置の代わりに消化装置を搭載して、赤外線カメラ熱源の方向を探索して、消化活動や逃げ送れた人を捜索するロボットシステムを構築することも可能である。
以下の実施形態においては、ロボットは、移動機構と雲台機構を少なくとも有するとともに、雲台機構には伸縮アーム機構を備えたものとする。
いろいろな不正地を移動する自律移動ロボットは転倒する可能性が高いので、その運用を継続するためには、たとえ転倒したとしても起き上がる機能が必要となる。ロボットのミッションを遂行するために、カメラやあるいはその目的に応じて消化装置あるいは威嚇用の発射装置などを雲台に搭載するので、雲台は比較的に重量物の方向を位置決め可能なように頑強に作っておくこととなる。このため、以下の実施形態により、雲台機構に伸縮アームを取り付けることにより、万一、ロボットが転倒しても、雲台のパン、チルト動作と伸縮アーム機構の動作、さらに移動機構の動作と組合せ、ロボットを起き上がらせる動作を実現可能となる。しかも、もともと必要な雲台機構に、伸縮アームを追加するのみで起き上がり機能を合理的に実現することが可能となる。ここで、伸縮アームはシリンダのように直動するタイプのものに限定するものではなく、リンク機構で伸縮する方式、あるいは多自由度のアーム機構で伸縮させるようにしてもよい。また、伸縮機構の先にハンドなどの各種エンドエフェクタを装着してもよい。その場合には、伸縮機構は雲台機構の動作と組合せることによりマニピュレータを搭載するのと同じ機能を単純な機構構成で持たせることが可能となる。それによって、ドアを開けて部屋の中に入るとか、危険物の解体処理などのミッションも実行できるようになる。マニピュレータの制御動作を全て自律的に自動制御することが複雑な制御動作については、遠隔制御モードに切り替えられるようにして遠隔操作で指令者がマニピュレータに限らず、走行台車なども含めて、複雑な制御動作の遠隔操縦ができるようにしてもよい。
図30は、移動機構にクローラ式の走行台車を適用した場合の雲台機構には伸縮アーム機構を備えたロボットの基本的な一実施例を示す。走行台車231には回転機構232を介して本体ベースが取り付けられており、本体ベースには雲台機構のパン機構233、さらにその上に雲台機構のチルト機構234から構成されている。また、ミッションの目的を達成するために、雲台機構234の上に発射装置270が搭載されている。そして、本実施例では、発射装置270が搭載されている雲台234にアーム伸縮機構235も取り付けておくものである。
図31は、図30のロボットがスロープなどの傾斜地を走行する場合の姿勢の一例を示す。このロボットがスロープなどの傾斜地を走行する場合には、クローラ機構231にも、スロープや階段を安定に昇降するために工夫がいろいろ施される。すなわち、回転機構232に傾斜面におけるロボット全体の重心をより安定に調整するための移動機構の一部を構成する回転駆動機構である。この図の場合、傾斜面の傾き角度相当の回転を回転機構232に与えているとすると、発射装置270も同じ角度傾斜する。したがって、そのような場合には、台車の姿勢安定制御とは独立して、雲台機構のパン機構234で、その傾斜を補正したり、ミッションの対象物を継続追尾させることが可能となる。
図32は、万一台車が転倒した場合に起き上がる動作を示した図である。ロボットがたとえ転倒しても雲台機構のパン機構233とチルト機構234とアーム伸縮機構235を図32のように動作させることで、ロボットを起き上がらせることが可能となる。アーム伸縮機構235を台車の雲台機構233、234に設けることで、動作駆動機構を必要最小にして合理的に起き上がり機能を実現することが可能となる。
また、図33は、傾斜面におけるロボット全体の重心をより安定に調整するための移動機構の一部を構成する回転駆動機構232をロボットの中央に位置させた場合の一実施例である。この場合は、回転駆動機構232を前方と後方の両方へ傾けることができるので、走行台車231が前方から傾斜部をのぼりおりする場合でも後方から傾斜部をのぼりおりする場合でも対応可能となる。また、雲台機構のパン機構233とチルト機構234とは図30,31,32の実施例と上下逆に設けているが、それはどちらでもよい。雲台機構のチルト機構234によって、傾斜面でも発射装置270を水平姿勢に保つことが可能となる。さらに、傾斜部で雲台機構のパン機構233とチルト機構234を用いて発射装置270をミッションの対象となる方向で向けることも可能となる。その場合に傾斜面での安定性が確保できなくなる場合もあるので、そのような場合には回転駆動機構232も同時に制御してロボットの安定性を確保しながら、発射装置270をミッションの対象となる方向で向けるように制御するようにしてもよい。それらは、リアルタイムにロボットの各部の重心バランスを計算させて自律的に制御されるようにしてよい。また、回転駆動機構232と雲台機構のパン機構233とチルト機構234とアーム伸縮機構235を動作させることで、ロボット転倒時には起き上がらせることも可能となる。それらの起き上がり動作の制御も自律制御プログラムとして容易しておき、指令者のコマンド指令に応じて、自律的に起き上がり制御されるようにしてよい。また、回転駆動機構232と雲台機構のチルト機構234の間の部材236を長くすることで、回転駆動機構232の少ない回転制御で重心位置を大きく変えられるようになる。さらに、平地においても低い障害物を回避して高い位置から発射装置270をミッションの対象となる方向へ向けることが可能となる。また、図33に示す自由度構成のロボットにすれば、走行台車231の上部での部材236の可動範囲の両側には通信装置や制御装置などの各種部品やその他のペイロードを搭載することも可能となる。
図34,35,36には移動機構にクローラ式の走行台車を適用し、雲台機構には伸縮アーム機構を備えたロボットの別の一実施例を示す。
図34は、スロープ面昇降時の側面図を、図35はロボット本体を上から見た平面図を、図36はドアを開閉する時の側面図を示す。本実施例は伸縮アーム235の先にはハンド機構を設けてマニピュレータとしても利用できるようにした一実施例である。クローラ式の走行台車231は前部クローラ231Aと後部クローラ231Bから構成されており、両クローラを広げるとロボット本体の全長が長くなるので、図34に示すようなスロープやあるいは階段を昇降するときにも安定して走行することができる。前部クローラ231Aと後部クローラ231Bの折り曲げ角度を変えることができる。そこで、凸凹面を走行中に姿勢の傾きや転倒する勢いを加速度等のセンサで検出してリアルタイムに動的安定性を確保するための姿勢制御をクローラの折り曲げ角度を変えることで行うようにしてもよい。このときには、勿論、回転駆動機構232や雲台機構のパン機構233とチルト機構234、伸縮アーム235なども駆動制御してロボット全体の重心位置を変化させて姿勢を安定にする制御を行うようにしてもよい。また、前部クローラ231Aと後部クローラ231Bを図36のように折り曲げるとクローラ式の走行台車は小旋回半径で旋回することが可能となる。本実施例では、傾斜面において、ロボット全体の重心位置をより安定な位置に調整するための回転駆動機構232に、平行リンク機構236を設けている。そして、その平行リンク機構236の先に、雲台機構のパン機構233とチルト機構234を、その上に、ハンド付きの伸縮アーム機構235を搭載し、さらにその上に、発射装置270、カメラ部240を搭載した場合の一実施例である。回転駆動機構232で平行リンク機構236を揺動させることから、雲台機構のパン機構233とチルト機構234は、台車の上面と常に平行になるので姿勢制御がその分簡単になる。カメラ部240は、2台のズーム付きカラーカメラでステレオ計測してロボット周囲の環境を認識するようにしてもよい。または、距離画像を撮影できる距離計測機能のあるカメラを用いてカメラ映像と距離情報を同時に取得できるセンサを搭載するようにしてもよい。また、火災や人間や動物の体温を検出するために赤外線カメラを搭載するようにしてもよい。
図36は、先端にハンド機能をもたせた伸縮アーム機能235を伸ばして扉のドアノブ82にアクセスしようとしている状況を示す。雲台機構のパン機構233とチルト機構234で伸縮アーム機構235の方向を定めて、伸縮アーム機構235を伸縮動作させて先端のハンドを任意の個所に位置決めしてマニピュレータとして運用できるようにした場合の実施例である。雲台機構の2駆動軸をマニピュレータの位置決め動作に利用するため雲台機構2軸に伸縮アーム機構235の1駆動軸追加するだけで3自由度を有するマニピュレータとすることができるので、モータや駆動制御系を最小限にしてロボット本体の小型軽量化を図ることも可能となる。ドアのノブ82はハンド付き伸縮アーム機構235で掴かむことでドアの開閉動作が可能となる。勿論、ハンド機構部に手首機構を設けてさらに繊細な位置決め、姿勢制御ができるようにしてもよい。ハンド機構付き伸縮アーム機構235はカメラ240と同じ雲台のパン機構233、チルト機構234の上に搭載されているので、ハンドが伸縮する先はカメラ240で撮影して画像はハンド機構部を撮影することになる。その画像を画像認識する処理機能と組合せて自律的にドアの開閉や各種ハンドリング作業を制御するようにしてもよいし、あるいは、また、遠隔手動操作に切変えて、手先ハンドの映像を見ながら遠隔操作できるようにしてもよい。
また、本実施例では地上を移動するロボットにつき説明したが、本発明は、水中ROVなどの水中の移動ロボット、自律的に飛行する飛行ロボット、宇宙で活動する宇宙ロボットなどのさまざまな自律移動ロボットに適用可能である。
本発明の自律ロボット群に指令を与える遠隔操作ロボットシステムは、各自律ロボットが、次のような活動をするシステムに利用可能である。
(1)特定の対象物を追尾して撮影するロボットシステム、
(2)特定の対象物を探索、捜索、追尾、捕捉、監視、又は点検するロボットシステム、
(3)不審者などに対する探索、監視、点検、警備、又は威嚇を行うロボットシステム、
(4)火事や事故現場で負傷者の探索、捜索、又は消火活動を行うロボットシステム、
(5)清掃、組立て、点検、検査、運搬、又は溶接等の一般産業作業を行うシステム。
(2)特定の対象物を探索、捜索、追尾、捕捉、監視、又は点検するロボットシステム、
(3)不審者などに対する探索、監視、点検、警備、又は威嚇を行うロボットシステム、
(4)火事や事故現場で負傷者の探索、捜索、又は消火活動を行うロボットシステム、
(5)清掃、組立て、点検、検査、運搬、又は溶接等の一般産業作業を行うシステム。
10…操作者、20,21,22…不審者、80A,80B…ロボット運搬用トレーラ、90,90a,90b…障害物、100…コマンド入力装置、103…コマンド入力装置のマイク、105L,105R…コマンド入力装置のスイッチ、110…コマンド入力装置のCPU、120…コマンド入力装置の通信装置、130…コマンド入力装置の音声認識装置、200,200a〜200e…自律ロボット、210…通信装置、220…ロボットのメインCPU、230…移動機構・雲台機構等、240…カメラ、250…画像処理装置、260…環境DB、270…発射装置、300,310,320,330…コマンド構成要素、400,400a〜400g…識別補助装置の発信器、410…発信器のCPU、420…発信器の通信装置、430…発信器のGPS、510H…水平受信アンテナ部、520H…水平受信アンテナ部駆動用モータ、510V…垂直受信アンテナ部、520V…垂直受信アンテナ部駆動用モータ、530…垂直受信アンテナ部姿勢変更駆動用モータ、540…識別補助装置のCPU、550…識別補助装置の通信装置、551…識別補助装置の発信データ、552…識別補助装置の受信データ、600…監視装置、610…監視装置専用通信機、701〜710…識別補助装置のマーキング。
Claims (14)
- 所定のミッションを自律して実行する機能を有する複数の自律ロボットを備えたロボットシステムにおいて、複数の前記自律ロボットに対する前記所定のミッションの開始及び停止を指令するミッションコマンドと前記所定のミッション以外のロボットの動作に関する動作コマンドとを人為的に入力するための操作手段と、この操作手段によって入力された前記ミッションコマンド及び前記動作コマンドを複数の前記自律ロボットへ送信する送信手段を備えたことを特徴とする遠隔操作ロボットシステム。
- 請求項1において、前記操作手段と前記送信手段を搭載した可搬式のコマンド入力装置を備えたことを特徴とする遠隔操作ロボットシステム。
- 所定のミッションを自律して実行する機能を有する複数の自律ロボットを備えたロボットシステムにおいて、複数の前記自律ロボットに対する前記所定のミッションの開始及び停止を指令するミッションコマンドと前記所定のミッション以外のロボットの動作に関する動作コマンドとを人為的に入力するための操作手段と、この操作手段によって入力された前記ミッションコマンド及び前記動作コマンドを少なくとも1つの前記自律ロボットへ直接的に送信する直接的送信手段と、コマンドを受信したロボットを中継して他のロボットへ前記コマンドを送信する中継送信手段を備えたことを特徴とする遠隔操作ロボットシステム。
- 所定のミッションを自律して実行する機能を有する複数の自律ロボットを備えたロボットシステムにおいて、複数の前記自律ロボットに対する前記所定のミッションの開始及び停止を指令するミッションコマンドと前記所定のミッション以外のロボットの動作に関する動作コマンドとを人為的に入力するための操作手段と、この操作手段によって入力された前記ミッションコマンド及び前記動作コマンドを少なくとも1つの前記自律ロボットへ直接的に送信する直接的送信手段と、複数の前記自律ロボットの少なくとも1つに設けられ、受信した前記コマンドを他のロボットへ送信する必要があるか否かを判断する手段と、この判断に基づいて、他のロボットへ前記コマンドを送信する中継送信手段を備えたことを特徴とする遠隔操作ロボットシステム。
- 請求項1〜4のいずれかにおいて、前記コマンドには、命令の内容の他に予め設定されている各ロボットのグループコードを含むことを特徴とする遠隔操作ロボットシステム。
- 請求項1〜5のいずれかにおいて、前記コマンドは、命令の内容の他に予め設定されている指令者コードを含むことを特徴とする遠隔操作ロボットシステム。
- 請求項1〜6のいずれかにおいて、各ロボットは、対象物が前記ミッションの対象又は対象外であることを識別するための識別補助手段を備えたことを特徴とする遠隔操作ロボットシステム。
- 請求項7において、前記識別補助手段は、対象又は対象外の物体に搭載された電波又は音波発信器と、各ロボットに搭載され、前記発信器の方向及び/又は距離を検出する手段とを備えたことを特徴とする遠隔操作ロボットシステム。
- 請求項7において、前記識別補助手段は、対象又は対象外の物体に搭載されたGPSセンサと、このGPSで検出した位置座標データを発信する発信器と、各ロボットに搭載され、前記発信器からの発信データを受信する受信器とを備えたことを特徴とする遠隔操作ロボットシステム。
- 請求項7〜9のいずれかにおいて、各ロボットは、前記コマンド入力装置の操作者及び/又は他のロボットを識別補助するための識別補助手段を備えたことを特徴とする遠隔操作ロボットシステム。
- 請求項7〜10のいずれかにおいて、前記識別補助手段は、対象又は対象外の物体に光,温度,電波,又は音等で認識性を高めたマーキングを備えたことを特徴とする遠隔操作ロボットシステム。
- 請求項11において、前記マーキングは、各ロボットに入力されている所定の規則に基づき変化する認識パターンを含むことを特徴とする遠隔操作ロボットシステム。
- 請求項1〜12のいずれかにおいて、送信データは、所定の暗号規則に従って送信前に暗号化し、受信後にこの暗号を解読する手段と、各暗号規則の収納された部位を監視する監視手段と、この監視手段が異常を検出したとき、異常を検出した部位に収納されていない別の暗号規則に切り替える切り替え手段とを備えたことを特徴とする遠隔操作ロボットシステム。
- 請求項1〜13のいずれかにおいて、ロボットは、少なくとも移動機構と雲台機構を有するとともに、雲台機構には伸縮アーム機構を備えたことを特徴とする遠隔操作ロボットシステム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005238559A JP2007050490A (ja) | 2005-08-19 | 2005-08-19 | 遠隔操作ロボットシステム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005238559A JP2007050490A (ja) | 2005-08-19 | 2005-08-19 | 遠隔操作ロボットシステム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007050490A true JP2007050490A (ja) | 2007-03-01 |
Family
ID=37915285
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005238559A Pending JP2007050490A (ja) | 2005-08-19 | 2005-08-19 | 遠隔操作ロボットシステム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007050490A (ja) |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009248193A (ja) * | 2008-04-01 | 2009-10-29 | Toyota Motor Corp | 接客システム及び接客方法 |
JP2010072831A (ja) * | 2008-09-17 | 2010-04-02 | Fuji Security Systems Co Ltd | 警備用ロボット |
JP2011257855A (ja) * | 2010-06-07 | 2011-12-22 | Shigeo Masuda | 警備装置、遠隔警備システム、及び遠隔警備方法 |
KR101203816B1 (ko) | 2011-03-23 | 2012-11-22 | 한국과학기술원 | 로봇 물고기 위치 인식 시스템 및 로봇 물고기 위치 인식 방법 |
KR101222624B1 (ko) * | 2010-12-17 | 2013-01-16 | 한국생산기술연구원 | 군집 로봇 및 군집 로봇을 이용한 수색 방법 |
JP2017520136A (ja) * | 2014-05-21 | 2017-07-20 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | 遠隔制御装置、制御システム及び制御方法 |
JP2017182189A (ja) * | 2016-03-28 | 2017-10-05 | 株式会社ダイヘン | 移動体システム |
JP6259886B1 (ja) * | 2016-10-20 | 2018-01-10 | 株式会社アマダホールディングス | レーザ加工装置 |
JP2018041210A (ja) * | 2016-09-06 | 2018-03-15 | シャープ株式会社 | 自律走行車両 |
WO2018074366A1 (ja) * | 2016-10-20 | 2018-04-26 | 株式会社アマダホールディングス | 火災発生を検出するための赤外線カメラを備えたレーザ加工装置、およびレーザ加工装置用の火災発生検出カメラ |
JP2018065177A (ja) * | 2016-10-20 | 2018-04-26 | 株式会社アマダホールディングス | レーザ加工装置 |
CN108287566A (zh) * | 2017-12-09 | 2018-07-17 | 上海悠络客电子科技股份有限公司 | Http或https操作互联网硬件或设备的云台 |
JP2018207770A (ja) * | 2017-05-30 | 2018-12-27 | インフィネオン テクノロジーズ オーストリア アクチエンゲゼルシャフト | 電力線制御電気駆動インバータ |
JPWO2017175532A1 (ja) * | 2016-04-05 | 2019-01-24 | 株式会社日立製作所 | ヒューマノイドロボット |
JP2019016119A (ja) * | 2017-07-05 | 2019-01-31 | 能美防災株式会社 | 火災監視システム |
JP2020005157A (ja) * | 2018-06-29 | 2020-01-09 | 西日本電信電話株式会社 | 水中通信システム、移動体、水中測位装置、水中通信方法、水中測位方法及びコンピュータプログラム |
CN111090274A (zh) * | 2018-10-08 | 2020-05-01 | 东元电机股份有限公司 | 开放扩充式移动平台 |
CN112068540A (zh) * | 2019-05-24 | 2020-12-11 | 北京海益同展信息科技有限公司 | 轨道巡检机器人 |
JP2021026398A (ja) * | 2019-08-01 | 2021-02-22 | トヨタ自動車株式会社 | 車両用操作システム |
WO2023171685A1 (ja) * | 2022-03-07 | 2023-09-14 | U-Star合同会社 | 取引管理方法および取引管理システム |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000233386A (ja) * | 1999-02-10 | 2000-08-29 | Sony Corp | ロボット装置及びその制御方法 |
JP2003205483A (ja) * | 2001-11-07 | 2003-07-22 | Sony Corp | ロボットシステム及びロボット装置の制御方法 |
-
2005
- 2005-08-19 JP JP2005238559A patent/JP2007050490A/ja active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000233386A (ja) * | 1999-02-10 | 2000-08-29 | Sony Corp | ロボット装置及びその制御方法 |
JP2003205483A (ja) * | 2001-11-07 | 2003-07-22 | Sony Corp | ロボットシステム及びロボット装置の制御方法 |
Cited By (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009248193A (ja) * | 2008-04-01 | 2009-10-29 | Toyota Motor Corp | 接客システム及び接客方法 |
JP2010072831A (ja) * | 2008-09-17 | 2010-04-02 | Fuji Security Systems Co Ltd | 警備用ロボット |
JP2011257855A (ja) * | 2010-06-07 | 2011-12-22 | Shigeo Masuda | 警備装置、遠隔警備システム、及び遠隔警備方法 |
KR101222624B1 (ko) * | 2010-12-17 | 2013-01-16 | 한국생산기술연구원 | 군집 로봇 및 군집 로봇을 이용한 수색 방법 |
KR101203816B1 (ko) | 2011-03-23 | 2012-11-22 | 한국과학기술원 | 로봇 물고기 위치 인식 시스템 및 로봇 물고기 위치 인식 방법 |
JP2017520136A (ja) * | 2014-05-21 | 2017-07-20 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | 遠隔制御装置、制御システム及び制御方法 |
US10331120B2 (en) | 2014-05-21 | 2019-06-25 | SZ DJI Technology Co., Ltd. | Remote control device, control system and method of controlling |
JP2017182189A (ja) * | 2016-03-28 | 2017-10-05 | 株式会社ダイヘン | 移動体システム |
JPWO2017175532A1 (ja) * | 2016-04-05 | 2019-01-24 | 株式会社日立製作所 | ヒューマノイドロボット |
US11180205B2 (en) | 2016-04-05 | 2021-11-23 | Hitachi, Ltd. | Humanoid robot |
JP2018041210A (ja) * | 2016-09-06 | 2018-03-15 | シャープ株式会社 | 自律走行車両 |
WO2018074366A1 (ja) * | 2016-10-20 | 2018-04-26 | 株式会社アマダホールディングス | 火災発生を検出するための赤外線カメラを備えたレーザ加工装置、およびレーザ加工装置用の火災発生検出カメラ |
JP2018065177A (ja) * | 2016-10-20 | 2018-04-26 | 株式会社アマダホールディングス | レーザ加工装置 |
JP2018065178A (ja) * | 2016-10-20 | 2018-04-26 | 株式会社アマダホールディングス | レーザ加工装置 |
JP6259886B1 (ja) * | 2016-10-20 | 2018-01-10 | 株式会社アマダホールディングス | レーザ加工装置 |
JP2018207770A (ja) * | 2017-05-30 | 2018-12-27 | インフィネオン テクノロジーズ オーストリア アクチエンゲゼルシャフト | 電力線制御電気駆動インバータ |
JP7176863B2 (ja) | 2017-05-30 | 2022-11-22 | インフィネオン テクノロジーズ オーストリア アクチエンゲゼルシャフト | 電力線制御電気駆動インバータ |
JP2019016119A (ja) * | 2017-07-05 | 2019-01-31 | 能美防災株式会社 | 火災監視システム |
JP7093164B2 (ja) | 2017-07-05 | 2022-06-29 | 能美防災株式会社 | 火災監視システム |
CN108287566A (zh) * | 2017-12-09 | 2018-07-17 | 上海悠络客电子科技股份有限公司 | Http或https操作互联网硬件或设备的云台 |
JP2020005157A (ja) * | 2018-06-29 | 2020-01-09 | 西日本電信電話株式会社 | 水中通信システム、移動体、水中測位装置、水中通信方法、水中測位方法及びコンピュータプログラム |
CN111090274A (zh) * | 2018-10-08 | 2020-05-01 | 东元电机股份有限公司 | 开放扩充式移动平台 |
CN112068540A (zh) * | 2019-05-24 | 2020-12-11 | 北京海益同展信息科技有限公司 | 轨道巡检机器人 |
JP2021026398A (ja) * | 2019-08-01 | 2021-02-22 | トヨタ自動車株式会社 | 車両用操作システム |
JP7346986B2 (ja) | 2019-08-01 | 2023-09-20 | トヨタ自動車株式会社 | 車両用操作システム |
WO2023171685A1 (ja) * | 2022-03-07 | 2023-09-14 | U-Star合同会社 | 取引管理方法および取引管理システム |
JP7345228B1 (ja) * | 2022-03-07 | 2023-09-15 | U-Star合同会社 | 取引管理方法および取引管理システム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2007050490A (ja) | 遠隔操作ロボットシステム | |
KR102540635B1 (ko) | 공중 비히클 이미징 및 타켓팅 시스템 | |
US10760879B2 (en) | Anti-unmanned aerial vehicle defense apparatus, protective device for fighting an unmanned aircraft and method for operating a protective device | |
Spurny et al. | Autonomous firefighting inside buildings by an unmanned aerial vehicle | |
Nguyen et al. | Maintaining communication link for a robot operating in a hazardous environment | |
KR20190022406A (ko) | 공중 비히클 요격 시스템 | |
CN109799760B (zh) | 电力行业的驱鸟机器人控制系统及控制方法 | |
US9366503B2 (en) | Gunshot detection stabilized turret robot | |
CN107992052A (zh) | 目标跟踪方法及装置、移动设备及存储介质 | |
US20100023185A1 (en) | Devices and methods for waypoint target generation and mission spooling for mobile ground robots | |
WO2008135978A2 (en) | A robotic platform | |
WO2018013051A1 (en) | Intelligent tactical engagement trainer | |
JP7101799B2 (ja) | 監視システム、管理装置、監視方法、管理装置の制御プログラム | |
WO2018135522A1 (ja) | 移動体制御システム、移動体制御装置、移動体制御方法および記録媒体 | |
CN113251869A (zh) | 一种可自主对抗的机器人靶标训练系统及控制方法 | |
Nguyen et al. | Autonomous mobile communication relays | |
KR20190007632A (ko) | 3차원 지도를 작성하여 사물 위치를 인지하는 운반용 드론 | |
JP2005308282A (ja) | 火器装置 | |
CN107756406A (zh) | 一种排爆机器人控制系统 | |
EP4345565A2 (en) | Universal control architecture for control of unmanned systems | |
US20230088169A1 (en) | System and methods for aiming and guiding interceptor UAV | |
Amanatiadis et al. | Autonomous vehicle emergency recovery tool: a cooperative robotic system for car extraction | |
Gustafson et al. | Swarm technology for search and rescue through multi-sensor multi-viewpoint target identification | |
Kurdi et al. | Design and development of efficient guidance system using multifunctional robot with quadcopter | |
KR20120053096A (ko) | 네트워크 로봇 시스템, 로봇 제어 장치, 로봇 제어 방법 및 로봇 제어 프로그램 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070712 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100706 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20101109 |