JP2004291186A - ロボット制御方法、ロボット制御システム、これらに用いて好適なロボット及び制御装置 - Google Patents

ロボット制御方法、ロボット制御システム、これらに用いて好適なロボット及び制御装置 Download PDF

Info

Publication number
JP2004291186A
JP2004291186A JP2003089229A JP2003089229A JP2004291186A JP 2004291186 A JP2004291186 A JP 2004291186A JP 2003089229 A JP2003089229 A JP 2003089229A JP 2003089229 A JP2003089229 A JP 2003089229A JP 2004291186 A JP2004291186 A JP 2004291186A
Authority
JP
Japan
Prior art keywords
robot
image
monitoring
work
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003089229A
Other languages
English (en)
Inventor
Akira Hiraiwa
明 平岩
Hiroki Hayashi
宏樹 林
Hiroyuki Manabe
宏幸 真鍋
Toshiaki Sugimura
利明 杉村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2003089229A priority Critical patent/JP2004291186A/ja
Publication of JP2004291186A publication Critical patent/JP2004291186A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

【課題】ロボットの視点から撮影した作業画像に加えて、他のロボットから見た監視画像を取得することによって、ロボットの作業環境等を把握することができるロボット制御システム等を提供する。
【解決手段】本発明は、制御装置22を用いて第1のロボット12を制御するためのロボット制御方法に関する。本発明は、第1のロボット12が作業状況を示す作業画像を取得して第1の制御装置22に送信する工程と、第2のロボット14が第1のロボット12を監視するための監視画像を取得して第1の制御装置22に送信する工程と、制御装置22が第1のロボット12から送信された作業画像及び第2のロボット14から送信された監視画像を表示する工程とを有する。
【選択図】 図1

Description

【0001】
【発明の属する技術分野】
本発明は、ロボットを制御するためのロボット制御方法、ロボット制御システム、これらに用いて好適なロボット及び制御装置に関する。特に、ロボットに搭載されたカメラで撮影した画像に基づいて当該ロボットを遠隔制御するためのロボット制御方法、ロボット制御システム、これらに用いて好適なロボット及び制御装置に関する。
【0002】
【従来の技術】
従来から、深海や宇宙空間等のように人間が直接作業することが困難な環境や、原子力発電所における原子炉の炉心近傍のように人間にとって危険な環境や、老人等の介護を行う環境等において、人間に変わって作業を行うロボットが広く知られている。
【0003】
例えば、ロボットに搭載されたカメラで当該ロボットの視点からの画像(作業画像)を撮影し、当該作業画像を無線通信により制御装置に送信し、制御装置において表示された作業画像に基づいて遠隔操作者が当該ロボットの遠隔操作を行う技術が知られている(例えば、特許文献1参照)。
【0004】
しかしながら、遠隔操作者は、上述の従来技術に示すように、ロボットに搭載されたカメラが撮影した画像(作業画像)のみから、当該ロボットの周囲の状況を把握することが困難であるという問題点があった。
【0005】
一般的に、遠隔操作者が、ロボットの周囲の状況を客観的に判断するためには、当該ロボットの視点以外の点から当該ロボットの周囲を見た画像、すなわち、ロボットの周囲を俯瞰した画像が必要である。
【0006】
かかる問題点を解決するために、ロボットが作業を行う作業場所に、予め作業場所を俯瞰するような画像を撮影するカメラを設けておく技術が考えられている。
【0007】
例えば、作業場所に設置されているカメラが、作業中のロボットの画像(監視画像)を撮影し、遠隔操作者が、上述の作業画像及び当該監視画像の2種類の画像に基づいて、当該ロボットを遠隔操作する技術が知られている(例えば、特許文献2参照)。
【0008】
かかる技術によれば、遠隔操作者は、ロボット自体に搭載されているカメラで撮影した作業画像と、外部からロボットを撮影した監視画像とを見ることができるので、より正確にロボットを制御して操縦することができると考えられている。
【0009】
【特許文献1】
特開2002−321180号公報
【0010】
【特許文献2】
特開2001−062766号公報
【0011】
【発明が解決しようとする課題】
しかしながら、かかる技術では、例えば、ロボットの作業場所が深海等である場合、上述の監視画像を撮影するためのカメラを予め設置することが困難であるという問題点があった。
【0012】
そもそも、ロボットを遠隔制御する理由は、人間が行くことが困難な環境における作業を当該ロボットに実行させるためであることが多い。その結果、一般的に、当該ロボットの作業場所が、人間が行くことが困難な環境である場合が多く、作業中のロボットを撮影するためのカメラの設置が困難な場合も多いと考えられる。
【0013】
また、上記カメラを設置することが容易な場所であっても、ロボットの作業場所に予めカメラを設置しておかなければならないので、ロボットによる作業を実行させる準備が繁雑となる可能性があるという問題点があった。
【0014】
本発明は、以上の点に鑑みてなされたもので、ロボットの視点から撮影した作業画像に加えて、他のロボットから見た監視画像を取得することによって、作業場所におけるロボットの相対的な位置、ロボットの姿勢、及びロボットの作業環境等を把握することができるロボット制御システム、ロボット制御方法、これらに用いて好適なロボット及び制御装置を提供することを目的とする。
【0015】
【課題を解決するための手段】
本発明の第1の特徴は、制御装置を用いて第1のロボットを制御するためのロボット制御方法であって、前記第1のロボットが、作業状況を示す作業画像を取得して前記第1の制御装置に送信する工程と、第2のロボットが、前記第1のロボットを監視するための監視画像を取得して前記第1の制御装置に送信する工程と、前記制御装置が、前記第1のロボットから送信された前記作業画像及び前記第2のロボットから送信された前記監視画像を表示する工程とを有することを要旨とする。
【0016】
かかる発明によれば、制御装置が、第1のロボットから送信された作業画像及び第2のロボットから送信された監視画像を表示するため、遠隔操作者は、人間が行くことが困難な作業場所を監視するためのカメラを設置することなく、第1のロボットの作業画像及び監視画像を見ることができ、第1のロボットの周囲の状況を客観的に把握して当該第1のロボットの遠隔操作を行うことができる。
【0017】
本発明の第2の特徴は、第1のロボットと、第2のロボットと、該第1のロボットを制御する第1の制御装置と、該第2のロボットを制御する第2の制御装置とを具備するロボット制御システムであって、前記第1のロボットが、該第1のロボットの作業状況を示す第1の作業画像及び前記第2のロボットを監視するための第1の監視画像を取得するカメラと、取得した前記第1の作業画像を前記第1の制御装置に送信し、取得した前記第1の監視画像を前記第2の制御装置に送信する通信部とを具備し、前記第2のロボットが、該第2のロボットの作業状況を示す第2の作業画像及び前記第1のロボットを監視するための第2の監視画像を取得するカメラと、取得した前記第2の作業画像を前記第2の制御装置に送信し、取得した前記第2の監視画像を前記第2の制御装置に送信する通信部とを具備し、前記第1の制御装置が、前記第1のロボットから送信された前記第1の作業画像及び前記第2のロボットから送信された前記第2の監視画像を表示する表示部を具備し、前記第2の制御装置が、前記第2のロボットから送信された前記第2の作業画像及び前記第1のロボットから送信された前記第1の監視画像を表示する表示部を具備することを要旨とする。
【0018】
また、かかる発明によれば、第1の制御装置が、第1のロボットから送信された第1の作業画像及び第2のロボットから送信された第2の監視画像を表示し、第2の制御装置が、第2のロボットから送信された第2の作業画像及び第1のロボットから送信された第1の監視画像を表示するため、人間が行くことが困難な作業場所を監視するためのカメラを設置することなく、第1の遠隔操作者は、第1のロボットの周囲の状況を客観的に把握して当該第1のロボットの遠隔操作を行うことができると共に、第2の遠隔操作者は、第2のロボットの周囲の状況を客観的に把握して当該第2のロボットの遠隔操作を行うことができる。
【0019】
本発明の第3の特徴は、作業状況を示す作業画像及び他のロボットを監視するための監視画像を取得するカメラと、取得した前記作業画像を第1の制御装置に送信し、取得した前記監視画像を第2の制御装置に送信する通信部とを具備するロボットであることを要旨とする。
【0020】
本発明の第3の特徴において、前記カメラが、前記作業画像を取得する作業用カメラと、前記監視画像を取得する監視用カメラとを具備し、前記他のロボットに設けられたマーカの画像領域の重心を検出し、該重心が前記監視画像のほぼ中心に位置するように前記監視用カメラを制御する監視用カメラ制御部を具備することが好ましい。
【0021】
かかる発明によれば、監視用カメラ制御部が、他のロボットに設けられたマーカを追尾するため、当該他のロボットが移動する場合であっても、カメラは、当該他のロボットを監視するための監視画像を取得することができる。
【0022】
また、本発明の第3の特徴において、前記カメラが、ほぼ360度のパノラマ状画像を取得し、前記パノラマ状画像から、所定の方位角範囲の画像を前記作業画像として抽出し、前記パノラマ状画像から、前記他のロボットに設けられたマーカの画像領域の重心を検出し、該重心を中心とした所定の方位角範囲の画像を前記監視画像として抽出することが好ましい。
【0023】
かかる発明によれば、作業画像を取得するためのカメラと監視画像を取得するためのカメラを2台用意することなく、本発明を実現することができる。
【0024】
また、本発明の第3の特徴において、前記通信部が、前記作業画像又は前記監視画像と共に、該ロボットを識別するためのロボット識別情報又は画像の種類を識別するための画像識別情報を送信することが好ましい。
【0025】
かかる発明によれば、制御装置が、通信部によって送信されたロボット識別情報又は画像識別情報に基づいて、作業画像と監視画像とを容易に識別することができる。
【0026】
本発明の第4の特徴は、前記第1のロボットの作業状況を示す作業画像を該第1のロボットから受信し、該第1のロボットを監視するための監視画像を第2のロボットから受信する画像受信部と、前記作業画像及び前記監視画像を表示する表示部とを具備する制御装置であることを要旨とする。
【0027】
本発明の第4の特徴において、前記画像受信部が、前記ロボットを識別するためのロボット識別情報又は画像の種類を識別するための画像識別情報に基づいて、前記作業画像と前記監視画像とを判定することが好ましい。
【0028】
また、本発明の第4の特徴において、前記第1のロボットには、前記第2のロボットを監視するための監視画像を取得する監視用カメラが設けられており、前記第2のロボットに設けられたマーカの画像領域の重心を検出し、該重心が前記監視画像のほぼ中心に位置するように前記第1のロボットに設けられた監視用カメラを制御することが好ましい。
【0029】
【発明の実施の形態】
(本発明の第1の実施形態に係るロボット制御システムの構成)
本発明の第1の実施形態に係るロボット制御システムの構成について、図1乃至図6を参照して説明する。図1は、本実施形態に係るロボット制御システム10の全体構成図である。
【0030】
以下、本実施形態では、操作者a及び操作者bが、それぞれ、作業場所A及び作業場所Bから、作業場所Cに存在する第1のロボット12及び第2のロボット14を遠隔操作する場合の例について説明する。ここで、作業場所Cは、作業場所Aや作業場所Bから離れているものとする。
【0031】
また、本実施形態では、作業場所Cにおいて、第1のロボット12と第2のロボット14とが協調して作業対象1に対して作業を実行しているものとする。
【0032】
図1に示すように、本実施形態に係るロボット制御システム10は、第1のロボット12と、第2のロボット14と、当該第1のロボット12を遠隔操作するための第1の操作卓(第1の制御装置)22と、当該第2のロボット14を遠隔操作するための第2の操作卓(第2の制御装置)24とを備えている。
【0033】
第1のロボット12は、作業場所Cに存在しており、無線通信によって基地局40cを介してネットワーク30に接続している。また、第2のロボット14は、無線通信によって基地局40dを介してネットワーク30に接続している。また、本実施形態では、基地局40c、40dは、作業場所Cに存在している。
【0034】
第1の操作卓22は、作業場所Aに存在しており、ネットワーク30を介して第1のロボット12に操作指示を送信するものである。また、第1の操作卓22は、無線通信によって基地局40aを介してネットワーク30に接続している。
【0035】
また、第1の操作卓22は、第1のロボット12から送信された第1のロボット12の作業状況(作業の様子)を示す第1の作業画像と、第2のロボット14から送信された第1のロボットを監視するための第2の監視画像とを表示する。
【0036】
したがって、操作者aは、第1の操作卓22に表示された第1の作業画像及び第2の監視画像を見ながら、第1のロボット12の遠隔操作(制御)を実行することができる。
【0037】
第2の操作卓24は、作業場所Bに存在しており、ネットワーク30を介して第2のロボット14に操作指示を送信するものである。また、第2の操作卓24は、無線通信によって基地局40bを介してネットワーク30に接続している。
【0038】
また、第2の操作卓24は、第2のロボット14から送信された第2のロボット14の作業状況(作業の様子)を示す第2の作業画像と、第1のロボット12から送信された第2のロボットを監視するための第1の監視画像とを表示する。
【0039】
したがって、操作者bは、第2の操作卓24に表示された第2の作業画像及び第1の監視画像を見ながら、第2のロボット14の遠隔操作(制御)を実行することができる。
【0040】
また、本実施形態では、ネットワーク30として、例えば、電話網が使用されるものとする。したがって、本実施形態では、ロボット12、14又は操作卓22、24は、ネットワーク30に設けられている基地局40a乃至40dを介して発呼することにより、互いに通信相手と接続することができる。
【0041】
なお、本発明は、ネットワーク30として、電話網を使用する代わりに、インターネット等の他のネットワークを用いてもよい。例えば、ネットワーク30としてインターネットが使用される場合、基地局40a乃至40dは、インターネットへのアクセスポイントとなる。また、ネットワーク30としてインターネットが使用される場合、インターネット上で従来から知られている種々のプロトコルを用いて、ロボット12、14と操作卓22、24との間でデータ通信が行われる。
【0042】
本実施形態において特徴的なことは、第1のロボット12及び第2のロボット14が互いに相手を監視していることである。具体的には、第1のロボット12及び第2のロボット14は、互いに他のロボットの作業状況を撮影し、撮影した画像を当該他のロボットを制御するための操作卓22、24に送信する。このような動作によって、操作者a、bは、ロボットの作業状況を示す作業画像と共に、当該ロボットを俯瞰した監視画像を見ることができるので、より的確なロボット操作を行うことが可能となる。
【0043】
図2は、第1のロボット12の外観構成を示すものであり、図3は、第1のロボット12の機能ブロックを示すものである。なお、第1のロボット12及び第2のロボット14は、同様の構成を具備するものであるため、以下、第1のロボット12の構成について説明する。
【0044】
図2に示すように、第1のロボット12は、監視用カメラ52と、作業用カメラ54と、アンテナ56と、腕部58と、マーカ60と、駆動輪62とを具備している。
【0045】
また、図3に示すように、第1のロボット12は、バスBUSを介して接続されている内部機能として、監視用カメラ制御部52aと、作業用カメラ制御部54aと、無線部56aと、腕部制御部58aと、移動機構制御部62aと、モータ62bと、CPU64とを具備している。
【0046】
監視用カメラ52は、本発明の特徴的な構成の一つであって、第2のロボット14を監視するための第1の監視画像(例えば、第2のロボット14の外観を含む画像)を撮影するものである。また、監視用カメラ制御部52aは、第2のロボット14を追尾するように監視用カメラ52を制御するものである。
【0047】
例えば、監視用カメラ制御部52aは、マーカ60の色彩等を考慮して、監視用カメラ52によって撮影された画像の中からマーカ60の画像領域を抽出し、抽出した画像領域の重心を検出する。そして、監視用カメラ制御部52aは、当該重心が監視画像のほぼ中心に位置するように監視用カメラ52を制御する(例えば、監視用カメラ52の向きを動かす)。
【0048】
監視用カメラ制御部52aは、監視カメラ52に内蔵されている駆動モータを駆動することによって、当該監視カメラ52の向きを調整することができる。
【0049】
また、監視用カメラ制御部52aは、利用者によって入力された色彩情報や模様情報等に基づいて、追尾するマーカ60を決定することができる。
【0050】
また、監視用カメラ52は、第2のロボット14が画面から外れてしまう確率を少なくするため、いわゆる「広角レンズ」を用いたカメラであることがより望ましい。
【0051】
本実施形態では、画像処理技術の一種であるコンピュータビジョンの技術によって、監視用カメラ制御部52aがマーカ60を追尾する手法が採用されている。
【0052】
また、本実施形態では、監視用カメラ制御部52aが、上述の重心の検出処理及び監視カメラ52の駆動処理を行っているが、CPU64や第2の操作卓24が、これらの処理を行うように構成されていてもよい。
【0053】
例えば、監視用カメラ52によって撮影された監視画像は、常にCPU64を経由しているので、CPU64が、当該監視画像についての画像処理を行うことは十分に可能である。
【0054】
なお、この場合、監視用カメラ52の駆動処理は、CPU64が監視用カメラ制御部52aに指示することによって実行される。監視用カメラ制御部52aは、当該指示を受信すると、当該指示に基づき監視用カメラ52の駆動モータを駆動し、監視用カメラ52の向きを所望の方向に回転させる。
【0055】
また、第2の操作卓24によって上述の処理が行われる場合、第2の操作卓24が、監視用カメラ52の駆動の指示を第1のロボット12に送信する。そして、第1のロボット12の無線部54は、受信した当該指示をCPU64に送信する。CPU64は、受信した当該指示が監視用カメラ52の駆動であると判断した場合には、監視用カメラ制御部52aに当該駆動を指示する。当該指示を受けた監視用カメラ制御部52aは、当該指示に基づき監視用カメラ52の駆動モータを駆動し、監視用カメラ52の向きを所望の方向に回転させる。
【0056】
作業用カメラ54は、第1のロボット12の作業状況を示す第1の作業画像(例えば、第1のロボット12の視点から見た画像)を撮影するものである。また、作業用カメラ制御部54aは、第1のロボット12の作業状況を正確に撮影できるように作業用カメラ54を制御するものである。
【0057】
アンテナ56は、基地局40aとの間で無線通信を行い、ネットワーク30に接続するものである。無線部56aは、アンテナ56を介して、作業用カメラ54により取得した第1の作業画像を第1の操作卓22に送信し、監視用カメラ52により取得した第1の監視画像を第2の操作卓24に送信する通信部を構成する。
【0058】
腕部58は、作業対象1に対して所定作業を行うためのものである。また、腕部制御部58aは、第1の操作卓22から送信された操作指示に応じて腕部58を制御するものである。
【0059】
駆動輪62は、第1のロボット12を移動させるための車輪である。モータ62bは、駆動輪62を駆動するものである。また、移動機構制御部62aは、第1の操作卓22から送信された操作指示に応じてモータ62bを制御するものである。
【0060】
CPU64は、監視用カメラ制御部52aと作業用カメラ制御部54aと無線部56aと腕部制御部58aと移動機構制御部62aとを制御するものである。
【0061】
すなわち、各制御部52a乃至62aは、CPU64による制御を外部に出力し、外部からの入力信号をCPU64に提供するインターフェースである。
【0062】
マーカ60は、第2のロボット14等の他のロボットから撮影の目標とされやすいように、所定の色彩(例えば、赤)や模様が付された球体である。このため、第2のロボット14は、マーカ60を目印として、第1のロボット12の撮影を行うことが容易となる。
【0063】
なお、本実施形態では、マーカ60は、所定の色彩(例えば「赤」)や模様が付された球形の物体として説明されているが、追尾が行いやすい他の色彩や模様が付された他の形状のものであってもよい。
【0064】
本実施形態において特徴的なことは、第2のロボット14が撮影した第1のロボット12の外観を表す監視画像を、第1の操作卓22において表示することによって、操作者aが、当該監視画像を第1のロボット12の遠隔操作の参考とすることが可能となることである。この結果、操作者aは、第1のロボット12を外から見た場合の画像を参照することができ、より的確な操作を行うことが可能となる。
【0065】
図4は、第1の操作卓22の外観構成を示すものであり、図5は、第1の操作卓22の機能ブロックを示すものである。なお、第1の操作卓22及び第2の操作卓24は、同様の構成を具備するものであるため、以下、第1の操作卓22の構成について説明する。
【0066】
図4に示すように、第1の操作卓22は、作業用ディスプレイ70と、監視用ディスプレイ72と、アンテナ76と、マスターアーム78とを具備している。
【0067】
また、図5に示すように、第1の操作卓22は、バスBUSを介して接続されている内部機能として、作業用ディスプレイ制御部70aと、監視用ディスプレイ制御部72aと、制御側無線部74と、マスターアーム制御部78aと、CPU64とを具備している。
【0068】
作業用ディスプレイ70は、第1のロボット12から送信された第1の作業画像を表示する表示部である。ここで、第1の作業画像は、第1のロボット12の作業用カメラ54によって撮影された画像である。また、作業用ディスプレイ制御部70aは、作業用ディスプレイ70の表示を制御するものである。
【0069】
監視用ディスプレイ72は、第2のロボット14から送信された第2の監視画像を表示する表示部である。ここで、第2の監視画像は、第2のロボット14の監視用カメラ52によって撮影された画像である。また、監視用ディスプレイ制御部72aは、作業用ディスプレイ70の表示を制御するものである。
【0070】
具体的には、作業用ディスプレイ制御部70a及び監視用ディスプレイ制御部72aは、いわゆるビデオ回路やビデオカード等によって構成され、CPU80からの指示によって、それぞれ所定の画像を作業用ディスプレイ70又は監視用ディスプレイ72に表示する。
【0071】
図6に、作業用ディスプレイ70及び監視用ディスプレイ72における表示の一例を示す。図6の例では、作業用ディスプレイ70は、第1のロボット12の腕部58と作業対象物1とを含む第1の作業画像を表示している。一方、監視用ディスプレイ72は、第2のロボット14の監視用カメラ52が撮影した第1のロボット12の様子を示す第2の監視画像を表示している。
【0072】
なお、本実施形態では、第1の操作卓は、第1の作業画像と第2の監視画像とを表示するディスプレイを別個に設けているが、1つのディスプレイ上に第1の作業画像と第2の監視画像とを表示するように構成されていてもよい。
【0073】
制御側無線部74は、アンテナ76を介して、第1のロボット12から第1の作業画像を受信し、第2のロボット14から第2の監視画像を受信する画像受信部である。また、制御側無線部74は、アンテナ76を介して、CPU80からの指示に応じて、第1のロボット12に対する操作指示を送信する。
【0074】
マスターアーム78は、第1のロボット12の操縦装置である。具体的には、操作者aが、作業用ディスプレイ70や監視用ディスプレイ72を参照しながら、マスターアーム78を動かすことによって、第1のロボット12を操縦する。
【0075】
また、マスターアーム制御部78aは、マスターアーム78を制御するものである。具体的には、マスターアーム制御部78aは、操作者aによって操作されたマスターアーム78の動きを検出し、当該動きのデータをCPU80に伝送するインターフェースである。そして、CPU80は、当該動きのデータを、第1のロボット12に対する操作指示に変換して、当該操作指示を当該制御側無線部74を介して第1のロボット12に送信する。
【0076】
CPU80は、作業用ディスプレイ制御部70aと、監視用ディスプレイ制御部72aと、制御側無線部74と、マスターアーム制御部78aとを制御するものである。
【0077】
本実施形態において特徴的なことは、作業画像を表示する作業用ディスプレイ70の他に、監視画像を表示する監視用ディスプレイ72とが備えられていることである。このような構成によって、操作者aは、作業画像と監視画像とを参照することによって、より的確にロボットの操作を行うことが可能となる。
【0078】
(本実施形態に係るロボット制御システムの動作)
本実施形態に係るロボット制御システムの動作を、図7乃至図11に示すフローチャートを参照して説明する。
【0079】
第1に、図7を参照して、本実施形態に係るロボット制御システムにおいて、第1のロボット12が、撮影した画像を、第1の操作卓22及び第2の操作卓24に対して送信する動作について説明する。
【0080】
ステップ1001において、第1のロボット12の作業用カメラ54は、第1のロボットの視点からの撮影を行い、作業用カメラ制御部54aは、当該撮影によって取得した第1のロボットの作業状況を示す第1の作業画像をCPU64に供給する。
【0081】
ステップ1002において、CPU64は、無線部56aとアンテナ56と基地局40cとネットワーク30と基地局40aとを介して、第1の作業画像を第1の操作卓22に送信する。
【0082】
一方、ステップ1003において、第1のロボット12の監視用カメラ52は、第2のロボット14を撮影して、監視用カメラ制御部52aは、当該撮影によって取得した第2のロボット14を監視するための第1の監視画像をCPU64に送信する。
【0083】
ステップ1004において、CPU64は、無線部56aとアンテナ56と基地局40cとネットワーク30と基地局40aとを介して、第1の監視画像を第2の操作卓24に送信する。
【0084】
本実施形態において特徴的な事項は、監視用カメラ52が、第2のロボット14を撮影した第1の監視画像を、第1の操作卓22に送信するのではなく、第2の操作卓24に送信することである。このような構成によって、第2の操作卓24は、第2のロボット14を外部から観察した画像を得ることができる。
【0085】
第2に、図8を参照して、本実施形態に係るロボット制御システムにおいて、第1のロボット12が制御される動作について説明する。
【0086】
ステップ1101において、第1のロボット12の無線部54は、第1の操作卓22から、第1のロボット12の腕部58や駆動輪62に対する操作指示を受信すると、当該操作指示をCPU64に供給する。
【0087】
ステップ1102において、CPU64は、当該操作指示を解釈する。そして、CPU64は、当該操作指示が、腕部58の操作を指示するものであると判断した場合には、当該操作指示を腕部制御部58aに供給する。また、CPU64は、当該操作指示が、駆動輪62の回転操作を指示するものであると判断した場合には、当該操作指示を移動機構制御部62aに供給する。
【0088】
ステップ1103において、腕部制御部58aは、CPU64からの操作指示に基づいて腕部58を動かす。また、移動機構制御部62aは、CPU64からの操作指示に基づいてモータ62bを駆動することによって駆動輪62を回転させる。
【0089】
第3に、図9を参照して、本実施形態に係るロボット制御システムにおいて、第1のロボット12の監視用カメラ52が、第2のロボット14に追尾する動作について説明する。
【0090】
ステップ1201において、第1のロボット12の監視用カメラ52が、第2のロボット14が存在する方向を向き、当該第2のロボット14を含む監視画像を撮影している。
【0091】
このような動作を実現するため、第1のロボット12の監視用カメラ52は、第2のロボット14に設けられているマーカ60を追尾することによって、常に第2のロボットを追尾している。
【0092】
また、同様に、第2のロボット14の監視用カメラ52は、第1のロボット12に設けられているマーカ60を追尾することによって、常に第1のロボットを追尾している。
【0093】
この結果、第1の操作卓22において、操作者aが、第1のロボット14の外観を観察することができ、第2の操作卓24において、操作者bが、第2のロボット14の外観を観察することができる。
【0094】
ステップ1202において、監視用カメラ制御部52aは、マーカ60の色彩等を考慮して、監視用カメラ52によって撮影された画像の中からマーカ60の画像領域を抽出し、抽出した画像領域の重心を検出する。
【0095】
ステップ1203において、監視用カメラ制御部52aは、当該重心が監視画像のほぼ中心に位置するように監視用カメラ52を制御する(例えば、監視用カメラ52の向きを動かす)。
【0096】
本実施形態では、画像処理技術の一種であるコンピュータビジョンの技術によって、監視用カメラ制御部52aがマーカ60を追尾する手法が採用されている。
【0097】
第4に、図10を参照して、本実施形態に係るロボット制御システムにおいて、第1の操作卓22において画像を表示する動作について説明する。
【0098】
ステップ1301において、第1の操作卓22の制御側無線部74は、アンテナ76を介して画像を受信してCPU80に供給する。
【0099】
ここで、受信した画像には、ロボット識別情報や画像識別情報が付加されている。ロボット識別情報は、当該画像の送信元のロボット12又は14を識別するための情報であり、例えば、ネットワーク30として電話網が用いられている場合、各ロボット12、14の無線部56aに割り当てられた電話番号であり、ネットワーク30としてインターネットが用いられている場合、各ロボット12、14の無線部56aに割り当てられたIPアドレスである。また、画像識別情報は、当該画像が、作業画像であるか、又は監視画像であるかを識別するための情報である。かかる画像識別情報の付加処理は、ロボット12、14のCPU64において実行されることが好ましい。
【0100】
ステップ1302において、CPU80は、ロボット識別情報又は画像識別情報に基づいて、当該画像が、第1の作業画像であるか、又は第2の監視画像であるかについて判定する。
【0101】
当該画像が第1の作業画像であると判定された場合、ステップ1303において、CPU80は、当該画像を作業用ディスプレイ制御部70aに送信し、作業用ディスプレイ制御部70aが受信した画像をビデオ信号等に変換して作業用ディスプレイ70上に表示する。
【0102】
一方、当該画像が第2の監視画像であると判定された場合、ステップ1304において、CPU80は、当該画像を監視用ディスプレイ制御部72aに送信し、監視用ディスプレイ制御部72aが受信した画像をビデオ信号等に変換して監視用ディスプレイ72上に表示する。
【0103】
本実施形態において特徴的なことは、ロボット識別情報である電話番号やIPアドレスに基づき、画像の送信元を識別することによって、第1の操作卓22において受信した画像が「作業画像」であるのか「監視画像」であるのかを判断していることである。
【0104】
第5に、図11を参照して、本実施形態に係るロボット制御システムにおいて、操作者aが、第1の操作卓22を用いて第1のロボットを制御する動作について説明する。
【0105】
ステップ1401において、第1の操作卓22の作業用ディスプレイ70が、第1のロボット12から送信された第1の作業画像を表示し、第1の操作卓22の監視用ディスプレイ72が、第2のロボット14から送信された第2の監視画像を表示している。
【0106】
ステップ1402において、操作者aは、第1の操作卓22において表示されている第1の作業画像及び第2の監視画像を参照しながら、マスターアーム78を操作する。
【0107】
ステップ1403において、マスターアーム制御部78aは、このマスターアーム78の動きを検出してCPU80に供給する。そして、CPU80は、供給されたマスターアーム78の動きに基づいて操作指示を生成する。
【0108】
ステップ1404において、CPU80は、生成された操作指示を制御側無線部74とアンテナ76と基地局40aとネットワーク30と基地局40c等を介して第1のロボット12に送信する。かかる操作指示には、例えば、腕部58の操作や駆動輪62の回転操作等を含むロボットに対する全ての操作指示が含まれる。
【0109】
上述の第1の操作卓22における動作は、第2の操作卓24でも同様に行われるものであり、操作者bは、第2の操作卓24上で、第2のロボットの作業状況を示す第2の作業画像と、第2のロボットを外部から見た様子を示す第1の監視画像とを見ることができるので、より的確なロボット操作を行うことが可能である。
【0110】
以上述べたように、本実施形態によれば、複数のロボットを用いて互いに監視のための画像を撮影したので、操作者は、より的確なロボット操作を実行することができる。
【0111】
なお、場所Aと場所Bとは、必ずしも離れている場所でなく、同一の場所であってもよい。場所Aと場所Bとが、同一の場所である場合には、第1の操作卓22と第2の操作卓24とが、別個の装置ではなく、同一筐体に収容されていてもよい。
【0112】
(本実施形態に係るロボット制御システムの作用・効果)
本実施形態に係るロボット制御システムによれば、第1の操作卓22が、第1のロボット12から送信された第1の作業画像及び第2のロボット14から送信された第2の監視画像を表示するため、操作者aは、人間が行くことが困難な作業場所を監視するためのカメラを設置することなく、第1のロボット12の作業画像及び監視画像を見ることができ、第1のロボット12の周囲の状況を客観的に把握して当該第1のロボット12の遠隔操作を行うことができる。
【0113】
本実施形態に係るロボット制御システムによれば、第2のロボット14の監視用カメラ制御部52aが、第1のロボット12に設けられたマーカ60を追尾するため、第1のロボット12が移動する場合であっても、第2のロボット14の監視用カメラ52は、第1のロボット12を監視するための第2の監視画像を取得することができる。
【0114】
(本発明の第2の実施形態に係るロボット制御システム)
図12乃至図15を参照して、本発明の第2の実施形態に係るロボット制御システムについて、上述の第1のロボット制御システムと異なる点を主に説明する。
【0115】
図12に示すように、本実施形態に係るロボット制御システムは、監視用カメラ52及び作業用カメラ54の代わりに、両カメラの機能を具備する全方位カメラ90を具備する点で、上述の第1のロボット制御システムと異なる。本実施形態に係るロボット制御システムの他の構成については、上述の第1のロボット制御システムの構成と基本的に同一である。
【0116】
第1のロボット100の構成及び第2のロボットの構成102は、基本的に同一であるため、以下、第1のロボット100の構成について説明する。
【0117】
図13に示すように、第1のロボット100は、全方向カメラ90と、アンテナ56と、腕部58と、マーカ60(図示せず)と、駆動輪62とを具備している。
【0118】
また、図13に示すように、第1のロボット100は、バスBUSを介して接続されている内部機能として、カメラ制御部90aと、無線部56aと、腕部制御部58aと、移動機構制御部62aと、モータ62bと、CPU64とを具備している。
【0119】
全方位カメラ90は、ほぼ360度周囲の画像を撮影することができるカメラである。したがって、全方位カメラ90は、多くの場合、第1のロボット100の視点から当該第1のロボット100の作業状況を示す作業画像を撮影すると共に、第2のロボット102を監視するための監視画像を撮影することができる。
【0120】
また、全方位カメラ90は、透明な筒に下向きの円錐状のミラーがはめ込まれており、当該ミラーと対向する向きに通常のカメラが設けられており、当該通常のカメラが当該円錐状のミラーを撮影する構成をとっている。したがって、全方位カメラ90は、当該円錐状のミラーに写された周囲360度の画像を、ドーナツ状の画像として撮影することができる(図15(1)参照)。
【0121】
カメラ制御部90aは、全方位カメラ90によって撮影された画像に対して所定の処理を施すものである。
【0122】
例えば、カメラ制御部90aは、全方位カメラ90によって撮影された周囲ほぼ360度のドーナッツ状画像を、ほぼ360度のパノラマ状画像に変換して、変換後のパノラマ状画像から、所定の方位角範囲(例えば、左右30度の範囲)の画像を第1の作業画像として抽出する。ここで、全方位カメラ90が左右に回転する場合には、所定の方位角もそれに応じて変化するように構成されている。
【0123】
また、カメラ制御部90aは、変換後のパノラマ状画像から、第2のロボット102のマーカ60の色彩に対応する画像領域のみを抽出し、抽出した画像領域内で重心(例えば、輝度値の重心)を算出する。
【0124】
そして、カメラ制御部90aは、算出した重心を含む所定の方位角範囲(例えば、左右30度乃至60度程度)の画像を抽出することによって、第2のロボット102に係る第2の監視画像を作成する。
【0125】
また、カメラ制御部90aが、全方位カメラ90によって撮影されたほぼ360度周囲の画像をCPU64に送信するによって、CPU64が、上述の処理を行うように構成されていてもよい。
【0126】
また、カメラ制御部90aは、全方位カメラ90がほぼ360度周囲の画像を撮影することができるため、当該全方位カメラ90の駆動処理を行う必要はない。
【0127】
ここで、図14及び図15を参照して、本実施形態に係るロボット制御システムにおいて、第1の作業画像及び第2の監視画像を取得する動作について説明する。
【0128】
ステップ1501において、第1のロボット100のカメラ制御部90aが、全方位カメラ90によって撮影されたドーナッツ状画像120を取得する(図15(1)参照)。ここで、カメラ制御部90aは、取得したドーナッツ状画像120をCPU64に供給する。
【0129】
ステップ1502において、CPU64は、供給されたドーナツ状画像120を展開し、通常の360度のパノラマ状画像122に変換する(図15(2)参照)。
【0130】
ステップ1503において、CPU64は、変換後のパノラマ状画像122から、所定の方位角範囲(例えば、左右30度の範囲)の画像124を抽出する(図15(3)参照)。ステップ1504において、CPU64は、抽出した所定の方位角範囲の画像を第1の作業画像124として無線部54を介して第1の操作卓22に送信する。
【0131】
一方、CPU64は、ステップ1505において、第2のロボット102のマーカ60の色彩に対応する画像領域のみを抽出し、ステップ1506において、抽出した画像領域内で重心(例えば、輝度値の重心)を算出する。
【0132】
ステップ1507において、CPU64は、算出した重心を含む所定の方位角範囲(例えば、左右30度乃至60度程度)の画像を抽出する(図15(3)参照)。ステップ1508において、CPU64は、抽出した所定の方位角範囲の画像を第2の監視画像126として無線部54を介して第2の操作卓24に送信する。
【0133】
(本発明の第3の実施形態に係るロボット制御システム)
図16乃至図22を参照して、本発明の第3の実施形態に係るロボット制御システムについて、上述の第1のロボット制御システムと異なる点を主に説明する。
【0134】
図16に示すように、本実施形態に係るロボット制御システムは、第1のロボット212と第2のロボット214と第3のロボット216という3台のロボットが相互に監視するという点で、上述の第1のロボット制御システムと異なる。
【0135】
図16に示すように、第1のロボット212と第2のロボット214と第3のロボット216とが、作業場所Cにおいて所定の作業を行っている。当該3台のロボットは、ネットワーク30に基地局40dを介して接続している。
【0136】
また、第1のロボット212を制御するための第1の操作卓220は、作業場所aに位置しており、基地局40eを介してネットワーク30に接続している。また、第2のロボット214を制御するための第2の操作卓221は、作業場所bに位置しており、基地局40fを介してネットワーク30に接続している。また、第3のロボット216を制御するための第3の操作卓222は、作業場所dに位置しており、基地局40gを介してネットワーク30に接続している。
【0137】
図17は、第1のロボット212の外観構成を示すものであり、図18は、第1のロボット212の機能ブロックを示すものである。なお、第1のロボット212乃至第3のロボット216は、同様の構成を具備するものであるため、以下、第1のロボット212の構成について説明する。
【0138】
図17に示すように、第1のロボット212は、第1の監視用カメラ252と、第2の監視用カメラ254と、作業用カメラ54と、アンテナ56と、腕部58と、マーカ60と、駆動輪62とを具備している。
【0139】
また、図18に示すように、第1のロボット212は、バスBUSを介して接続されている内部機能として、第1の監視用カメラ制御部252aと、第2の監視用カメラ制御部254aと、作業用カメラ制御部54aと、無線部56aと、腕部制御部58aと、移動機構制御部62aと、モータ62bと、CPU64とを具備している。
【0140】
第1の監視用カメラ252は、第2のロボット214を追尾しており、第2のロボット214に係る監視画像A2を撮影するものである。また、第2の監視用カメラ254は、第3のロボット216を追尾しており、第3のロボット216に係る監視画像A3を撮影するものである。
【0141】
本実施形態では、自己以外の他のロボットが2台存在している。したがって、各ロボットは、他の2台のロボットを撮影するために、2台の監視用カメラを具備している。
【0142】
なお、本実施形態では、ロボット毎に異なる色彩や模様を付したマーカ60を設ける必要がある。例えば、第1のロボット212のマーカ60には「赤」の色彩を付し、第2のロボット214のマーカ60には「青」の色彩を付し、第3のロボット216のマーカ60には「緑」の色彩を付す。このように色分けを行うことによって、監視用カメラ252は、各ロボットを効率的に識別することができる。すなわち、第1のロボットの監視用カメラ252は、「青」の色彩を追跡することによって第2のロボット214を効果的に追尾することができ、「緑」の色彩を追跡することによって第3のロボット216を効率的に追尾することができる。
【0143】
図19は、第1の操作卓220の外観構成を示すものであり、図20は、第1の操作卓220の機能ブロックを示すものである。なお、第1の操作卓220乃至第3の操作卓222は、同様の構成を具備するものであるため、以下、第1の操作卓220の構成について説明する。
【0144】
図19に示すように、第1の操作卓220は、作業用ディスプレイ70と、第1の監視用ディスプレイ272と、第2の監視用ディスプレイ274と、アンテナ76と、マスターアーム78とを具備している。
【0145】
また、図20に示すように、第1の操作卓220は、バスBUSを介して接続されている内部機能として、作業用ディスプレイ制御部70aと、第1の監視用ディスプレイ制御部272aと、第1の監視用ディスプレイ制御部272aと、制御側無線部74と、マスターアーム制御部78aと、CPU64とを具備している。
【0146】
第1の監視用ディスプレイ272は、第2のロボット214によって撮影された第1のロボット212の監視画像B1を表示し、第2の監視用ディスプレイ274は、第3のロボット216によって撮影された第1のロボット212の監視画像C1を表示する。このような構成によって、操作者aは、より的確に第1のロボット212の遠隔操作が可能となる。
【0147】
ここで、図21及び図22を参照して、本実施形態に係るロボット制御システムの動作について説明する。
【0148】
第1に、図21を参照して、本実施形態に係るロボット制御システムにおいて、第1のロボット12が、撮影した画像を、第1の操作卓220乃至第3の操作卓222に対して送信する動作について説明する。
【0149】
ステップ1601において、第1のロボット212の作業用カメラ制御部54aは、第1のロボット212の作業状況を示す作業画像をCPU64に供給する。
【0150】
ステップ1602において、CPU64は、無線部56aとアンテナ56と基地局40cとネットワーク30と基地局40aとを介して、作業画像を第1の操作卓220に送信する。
【0151】
また、ステップ1603において、第1のロボット212の第1の監視用カメラ252は、第2のロボット214を撮影して、第1の監視用カメラ制御部252aは、当該撮影によって取得した第2のロボット214を監視するための監視画像A2をCPU64に送信する。
【0152】
ステップ1604において、CPU64は、無線部56aとアンテナ56と基地局40cとネットワーク30と基地局40aとを介して、監視画像A2を第2の操作卓24に送信する。
【0153】
また、ステップ1605において、第1のロボット212の第2の監視用カメラ254は、第3のロボット216を撮影して、第2の監視用カメラ制御部254aは、当該撮影によって取得した第3のロボット216を監視するための監視画像A3をCPU64に送信する。
【0154】
ステップ1606において、CPU64は、無線部56aとアンテナ56と基地局40cとネットワーク30と基地局40aとを介して、監視画像A3を第2の操作卓24に送信する。
【0155】
第2に、図22を参照して、本実施形態に係るロボット制御システムにおいて、第1の操作卓220において画像を表示する動作について説明する。
【0156】
ステップ1701において、第1の操作卓220の制御側無線部74は、アンテナ76を介して画像を受信してCPU80に供給する。
【0157】
ステップ1702において、CPU80は、ロボット識別情報又は画像識別情報に基づいて、当該画像が、第1のロボット212によって撮影された作業画像であるか、第2のロボット214によって撮影された第1のロボット212を監視するための監視画像B1であるか、又は第3のロボット216によって撮影された第1のロボット212を監視するための監視画像C1であるかについて判定する。
【0158】
当該画像が作業画像であると判定された場合、ステップ1703において、CPU80は、当該画像を作業用ディスプレイ制御部70aに送信し、作業用ディスプレイ制御部70aが受信した画像をビデオ信号等に変換して作業用ディスプレイ70上に表示する。
【0159】
また、当該画像が監視画像B1であると判定された場合、ステップ1704において、CPU80は、当該画像を第1の監視用ディスプレイ制御部272aに送信し、第1の監視用ディスプレイ制御部272aが受信した画像をビデオ信号等に変換して第1の監視用ディスプレイ272上に表示する。
【0160】
また、当該画像が監視画像C1であると判定された場合、ステップ1705において、CPU80は、当該画像を第2の監視用ディスプレイ制御部274aに送信し、第2の監視用ディスプレイ制御部274aが受信した画像をビデオ信号等に変換して第2の監視用ディスプレイ274上に表示する。
【0161】
以上のような動作によって、操作者aは、第1のロボット212を外部から撮影した画像を、2種類見ながら、当該第1のロボット212の操作を実行することが可能である。
【0162】
(変更例1)
変更例1に係るロボット制御システムにおけるロボット212乃至216は、上述の第3の実施形態の場合と異なり、各ロボット212乃至216が、2台の監視用カメラ252及び254を備えている、すなわち、他のロボットを全て監視するのではなく、1台の監視用カメラ252のみを備えている。
【0163】
したがって、本変更例に係るロボット212乃至216は、自己以外の他の1台のロボットしか監視することができないため、以下のように監視の対象を循環的に設定することが好ましい。
【0164】
例えば、第1のロボット212の監視用カメラが、第2のロボット214を監視して、撮影した第2のロボット214の監視画像を、第2のロボットを制御するための第2の操作卓221に送信する。また、第2のロボット214の監視用カメラが、第3のロボット216を監視して、撮影した第3のロボット216の監視画像を、第3のロボット216を制御するための第3の操作卓222に送信する。そして、第3のロボット216の監視用カメラが、第1のロボット212を監視して、撮影した第1のロボット212の監視画像を、第1のロボット212を制御するための操作卓220に送信する。かかる循環の方向は逆でもよい。
【0165】
また、本変更例に係る各ロボットにおける監視対象は、全てのロボットが監視されるように設定されていれば、上述のように循環的に設定されていなくてもよい。
【0166】
本変更例によれば、上述の第1の実施形態で示した構成のロボットを用いつつ、上述の第3の実施形態4のように、3台以上のロボットの監視を行うことが可能である。
【0167】
(変更例2)
本変更例に係るロボット制御システムは、上述の第2の実施形態で説明した全方位カメラを、上述の第4の実施形態や変更例1に適用するものである。この場合、1台の全方位カメラに、作業用カメラ54と第1の監視用カメラ252と第2の監視用カメラ254の役割を果たさせる必要がある。
【0168】
本変更例において、第1のロボット212のCPU64は、以下のようにして、監視画像を取得する。
【0169】
例えば、CPU64は、「青」の色彩が付されたマーカ60の画像領域を抽出して、抽出した画像領域の輝度値の重心を求める。そして、CPU64は、当該重心の位置を中心とした所定の方位角範囲の画像を抽出して、第2のロボット214を監視するための監視画像A2を得ることができる。
【0170】
また、CPU64は、「緑」の色彩が付されたマーカ60の画像領域を抽出して、抽出した画像領域の輝度値の重心を求める。そして、CPU64は、当該重心の位置を中心とした所定の方位角範囲の画像を抽出して、第3のロボット216を監視するための監視画像A3を得ることができる。
【0171】
このように、本変更例のように、全方位カメラを用いる場合でも、各ロボットを識別するために、マーカ60の色彩を、ロボット毎に異ならせることが好ましい。
【0172】
(変更例3)
上述の第1乃至3の実施形態及び変更例1及び2では、ネットワーク30として電話網を使用したが、本発明は、これに限定されるものではない。
【0173】
本発明に係るロボット制御システムは、第1のロボット212と第2のロボット214と第3のロボット216と第1の操作卓220と第2の操作卓221と第3の操作卓222との間で通信が可能であれば、どのような通信路を用いてもかまわない。
【0174】
【発明の効果】
以上説明したように本発明によれば、ロボットの視点から撮影した作業画像に加えて、他のロボットから見た監視画像を取得することによって、作業場所におけるロボットの相対的な位置、ロボットの姿勢、及びロボットの作業環境等を把握することができるロボット制御システム、ロボット制御方法、これらに用いて好適なロボット及び制御装置を提供することができる。
【図面の簡単な説明】
【図1】本発明の一実施形態に係るロボット制御システムの全体構成図である。
【図2】本発明の一実施形態に係るロボット制御システムにおけるロボットの外観図である。
【図3】本発明の一実施形態に係るロボット制御システムにおけるロボットの機能ブロック図である。
【図4】本発明の一実施形態に係るロボット制御システムにおける操作卓の外観図である。
【図5】本発明の一実施形態に係るロボット制御システムにおける操作卓の機能ブロック図である。
【図6】本発明の一実施形態に係るロボット制御システムにおける操作卓の画面表示を示す図である。
【図7】本発明の一実施形態に係るロボット制御システムにおいて、操作卓に対して画像を送信する動作を示すフローチャートである。
【図8】本発明の一実施形態に係るロボット制御システムにおいて、ロボットが制御される動作を示すフローチャートである。
【図9】本発明の一実施形態に係るロボット制御システムにおいて、ロボットに設けられた監視用カメラを制御する動作を示すフローチャートである。
【図10】本発明の一実施形態に係るロボット制御システムにおいて、操作卓において画像を表示する動作を示すフローチャートである。
【図11】本発明の一実施形態に係るロボット制御システムにおいて、操作者が操作卓を用いてロボットを制御する動作を示すフローチャートである。
【図12】本発明の一実施形態に係るロボット制御システムにおけるロボットの外観図である。
【図13】本発明の一実施形態に係るロボット制御システムにおけるロボットの機能ブロック図である。
【図14】本発明の一実施形態に係るロボット制御システムにおいて、操作卓に対して画像を送信する動作を示すフローチャートである。
【図15】本発明の一実施形態に係るロボット制御システムにおいて、操作卓に対して画像を送信する動作を説明するための図である。
【図16】本発明の一実施形態に係るロボット制御システムの全体構成図である。
【図17】本発明の一実施形態に係るロボット制御システムにおけるロボットの外観図である。
【図18】本発明の一実施形態に係るロボット制御システムにおけるロボットの機能ブロック図である。
【図19】本発明の一実施形態に係るロボット制御システムにおける操作卓の外観図である。
【図20】本発明の一実施形態に係るロボット制御システムにおける操作卓の機能ブロック図である。
【図21】本発明の一実施形態に係るロボット制御システムにおいて、操作卓に対して画像を送信する動作を説明するための図である。
【図22】本発明の一実施形態に係るロボット制御システムにおいて、操作卓において画像を表示する動作を示すフローチャートである。
【符号の説明】
a、b、d…操作者
1…作業対象
10…ロボット制御システム
12、100、212…第1のロボット
14、102、214…第2のロボット
22、220…第1の操作卓
24、221…第2の操作卓
30…ネットワーク
40a、40b、40c、40d、40e、40f、40g…基地局
52…監視用カメラ
52a…監視用カメラ制御部
54…作業用カメラ
54a…作業用カメラ制御部
56、76…アンテナ
56a…無線部
58…腕部
58a…腕部制御部
60…マーカ
62…駆動輪
62a…移動機構制御部
62b…モータ
64、80…CPU
70…作業用ディスプレイ
70a…作業用ディスプレイ制御部
72…監視用ディスプレイ
72a…監視用ディスプレイ制御部
74…制御側無線部
78…マスターアーム
78a…マスターアーム制御部
90…全方向カメラ
90a…カメラ制御部
120…ドーナッツ状画像
122…パノラマ状画像
124…作業画像
126…監視画像
216…第3のロボット
222…第3の操作卓
252…第1の監視用カメラ
252a…第1の監視用カメラ制御部
254…第2の監視用カメラ
254a…第2の監視用カメラ制御部
272…第1の監視用ディスプレイ
272a…第1の監視用ディスプレイ制御部
274…第2の監視用ディスプレイ
274a…第2の監視用ディスプレイ制御部

Claims (9)

  1. 制御装置を用いて第1のロボットを制御するためのロボット制御方法であって、
    前記第1のロボットが、作業状況を示す作業画像を取得して前記第1の制御装置に送信する工程と、
    第2のロボットが、前記第1のロボットを監視するための監視画像を取得して前記第1の制御装置に送信する工程と、
    前記制御装置が、前記第1のロボットから送信された前記作業画像及び前記第2のロボットから送信された前記監視画像を表示する工程とを有することを特徴とするロボット制御方法。
  2. 第1のロボットと、第2のロボットと、該第1のロボットを制御する第1の制御装置と、該第2のロボットを制御する第2の制御装置とを具備するロボット制御システムであって、
    前記第1のロボットは、
    該第1のロボットの作業状況を示す第1の作業画像及び前記第2のロボットを監視するための第1の監視画像を取得するカメラと、
    取得した前記第1の作業画像を前記第1の制御装置に送信し、取得した前記第1の監視画像を前記第2の制御装置に送信する通信部とを具備し、
    前記第2のロボットは、
    該第2のロボットの作業状況を示す第2の作業画像及び前記第1のロボットを監視するための第2の監視画像を取得するカメラと、
    取得した前記第2の作業画像を前記第2の制御装置に送信し、取得した前記第2の監視画像を前記第2の制御装置に送信する通信部とを具備し、
    前記第1の制御装置は、前記第1のロボットから送信された前記第1の作業画像及び前記第2のロボットから送信された前記第2の監視画像を表示する表示部を具備し、
    前記第2の制御装置は、前記第2のロボットから送信された前記第2の作業画像及び前記第1のロボットから送信された前記第1の監視画像を表示する表示部を具備することを特徴とするロボット制御システム。
  3. 作業状況を示す作業画像及び他のロボットを監視するための監視画像を取得するカメラと、
    取得した前記作業画像を第1の制御装置に送信し、取得した前記監視画像を第2の制御装置に送信する通信部とを具備することを特徴とするロボット。
  4. 前記カメラは、前記作業画像を取得する作業用カメラと、前記監視画像を取得する監視用カメラとを具備し、
    前記他のロボットに設けられたマーカの画像領域の重心を検出し、該重心が前記監視画像のほぼ中心に位置するように前記監視用カメラを制御する監視用カメラ制御部を具備することを特徴とする請求項3に記載のロボット。
  5. 前記カメラは、
    ほぼ360度のパノラマ状画像を取得し、
    前記パノラマ状画像から、所定の方位角範囲の画像を前記作業画像として抽出し、
    前記パノラマ状画像から、前記他のロボットに設けられたマーカの画像領域の重心を検出し、該重心を中心とした所定の方位角範囲の画像を前記監視画像として抽出することを特徴とする請求項3に記載のロボット。
  6. 前記通信部は、前記作業画像又は前記監視画像と共に、該ロボットを識別するためのロボット識別情報又は画像の種類を識別するための画像識別情報を送信することを特徴とする請求項3に記載のロボット。
  7. 前記第1のロボットの作業状況を示す作業画像を該第1のロボットから受信し、該第1のロボットを監視するための監視画像を第2のロボットから受信する画像受信部と、
    前記作業画像及び前記監視画像を表示する表示部とを具備することを特徴とする制御装置。
  8. 前記画像受信部は、前記ロボットを識別するためのロボット識別情報又は画像の種類を識別するための画像識別情報に基づいて、前記作業画像と前記監視画像とを判定することを特徴とする請求項7に記載の制御装置。
  9. 前記第1のロボットには、前記第2のロボットを監視するための監視画像を取得する監視用カメラが設けられており、
    前記第2のロボットに設けられたマーカの画像領域の重心を検出し、該重心が前記監視画像のほぼ中心に位置するように前記第1のロボットに設けられた監視用カメラを制御することを特徴とする請求項7に記載の制御装置。
JP2003089229A 2003-03-27 2003-03-27 ロボット制御方法、ロボット制御システム、これらに用いて好適なロボット及び制御装置 Pending JP2004291186A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003089229A JP2004291186A (ja) 2003-03-27 2003-03-27 ロボット制御方法、ロボット制御システム、これらに用いて好適なロボット及び制御装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003089229A JP2004291186A (ja) 2003-03-27 2003-03-27 ロボット制御方法、ロボット制御システム、これらに用いて好適なロボット及び制御装置

Publications (1)

Publication Number Publication Date
JP2004291186A true JP2004291186A (ja) 2004-10-21

Family

ID=33403159

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003089229A Pending JP2004291186A (ja) 2003-03-27 2003-03-27 ロボット制御方法、ロボット制御システム、これらに用いて好適なロボット及び制御装置

Country Status (1)

Country Link
JP (1) JP2004291186A (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008536112A (ja) * 2005-03-30 2008-09-04 ザ・トラスティーズ・オブ・ザ・ユニバーシティ・オブ・ペンシルバニア 撮像デバイスの位置特定を行うシステムおよび方法
JP2012171024A (ja) * 2011-02-17 2012-09-10 Japan Science & Technology Agency ロボットシステム
JP2013114324A (ja) * 2011-11-25 2013-06-10 Chiba Inst Of Technology 無人走行体の遠隔操縦システム
JP2013114322A (ja) * 2011-11-25 2013-06-10 Chiba Inst Of Technology 無人走行体の遠隔操縦システム
WO2015194658A1 (ja) * 2014-06-20 2015-12-23 オムロン株式会社 ロボット制御システム
WO2016059663A1 (ja) * 2014-10-16 2016-04-21 日揮株式会社 医薬製造設備
WO2016059662A1 (ja) * 2014-10-16 2016-04-21 日揮株式会社 医薬製造設備
JP2018118813A (ja) * 2017-01-24 2018-08-02 フジテック株式会社 昇降装置の保守確認システム
JP2019057085A (ja) * 2017-09-20 2019-04-11 株式会社東芝 情報処理装置、情報処理方法、プログラムおよび通信システム
JP2020089937A (ja) * 2018-12-05 2020-06-11 三菱電機株式会社 ロボット遠隔操作装置

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008536112A (ja) * 2005-03-30 2008-09-04 ザ・トラスティーズ・オブ・ザ・ユニバーシティ・オブ・ペンシルバニア 撮像デバイスの位置特定を行うシステムおよび方法
JP2012171024A (ja) * 2011-02-17 2012-09-10 Japan Science & Technology Agency ロボットシステム
JP2013114324A (ja) * 2011-11-25 2013-06-10 Chiba Inst Of Technology 無人走行体の遠隔操縦システム
JP2013114322A (ja) * 2011-11-25 2013-06-10 Chiba Inst Of Technology 無人走行体の遠隔操縦システム
CN106457573A (zh) * 2014-06-20 2017-02-22 欧姆龙株式会社 机器人控制系统
WO2015194658A1 (ja) * 2014-06-20 2015-12-23 オムロン株式会社 ロボット制御システム
JP2016007648A (ja) * 2014-06-20 2016-01-18 オムロン株式会社 ロボット制御システム
US10286547B2 (en) 2014-06-20 2019-05-14 Omron Corporation Robot control system
WO2016059663A1 (ja) * 2014-10-16 2016-04-21 日揮株式会社 医薬製造設備
WO2016059662A1 (ja) * 2014-10-16 2016-04-21 日揮株式会社 医薬製造設備
JP2018118813A (ja) * 2017-01-24 2018-08-02 フジテック株式会社 昇降装置の保守確認システム
JP2019057085A (ja) * 2017-09-20 2019-04-11 株式会社東芝 情報処理装置、情報処理方法、プログラムおよび通信システム
JP2020089937A (ja) * 2018-12-05 2020-06-11 三菱電機株式会社 ロボット遠隔操作装置

Similar Documents

Publication Publication Date Title
WO2012153805A1 (ja) 監視システム及び監視方法
US10169880B2 (en) Information processing apparatus, information processing method, and program
JP5028568B2 (ja) ロボット制御システム
JP2019062308A (ja) カメラ付き移動体、カメラ付き移動体制御システム、及びプログラム
JP2004291186A (ja) ロボット制御方法、ロボット制御システム、これらに用いて好適なロボット及び制御装置
US11164390B2 (en) Method and apparatus for displaying virtual reality image
KR20170044451A (ko) 헤드 마운트 디스플레이를 이용한 원격지 카메라 제어 시스템 및 방법
CN114554093B (zh) 图像采集系统及目标跟踪方法
KR20120084159A (ko) 전자발찌 착용자에 대한 영상 감시 시스템 및 방법
JP2019062293A (ja) カメラ装置、カメラ装置制御システム、及びプログラム
JP3912584B2 (ja) 遠隔操作装置
JP2007303913A (ja) 異物検知装置、それを用いたロボット装置、異物検知方法および異物検知プログラム
TWI471825B (zh) 天台安全監控系統及方法
JPH1034570A (ja) ロボット遠隔制御システム
KR20190091870A (ko) 모션센서와 vr을 활용한 로봇 제어 시스템
JP6005496B2 (ja) 遠隔監視装置および遠隔監視方法
CN111010543A (zh) 机器人遥视视频监控方法、装置、电子设备及存储介质
US20230074477A1 (en) System and method for object monitoring, localization, and controlling
WO2006038650A1 (ja) 監視装置
CN110692086A (zh) 用于虚拟现实的对象检测
JP2021177597A (ja) 撮像装置及び撮像システム
WO2019093692A1 (ko) 카메라를 포함하는 무인 비행 장치를 조종하는 방법 및 전자장치
JPH10291188A (ja) 立体映像提示方法
KR20190109168A (ko) 복합현실 표시장치를 이용한 멀티 유저 운영시스템 및 그 방법
WO2023162484A1 (ja) 情報処理装置及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050411

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061017

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061218

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070403