JP2007160427A - ロボット制御システム - Google Patents

ロボット制御システム Download PDF

Info

Publication number
JP2007160427A
JP2007160427A JP2005357208A JP2005357208A JP2007160427A JP 2007160427 A JP2007160427 A JP 2007160427A JP 2005357208 A JP2005357208 A JP 2005357208A JP 2005357208 A JP2005357208 A JP 2005357208A JP 2007160427 A JP2007160427 A JP 2007160427A
Authority
JP
Japan
Prior art keywords
robot
displayed
command
control command
behavior
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005357208A
Other languages
English (en)
Inventor
Masahiro Shiomi
昌裕 塩見
Takayuki Kanda
崇行 神田
Tomohito Koizumi
智史 小泉
Hiroshi Ishiguro
浩 石黒
Norihiro Hagita
紀博 萩田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2005357208A priority Critical patent/JP2007160427A/ja
Publication of JP2007160427A publication Critical patent/JP2007160427A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

【課題】オペレータがロボットの環境に適した行動情報を適切に選択することができる制御システムを提供する。
【解決手段】ロボット制御システム10はコミュニケ−ショロボット12および第1コンピュータ14を含む。第1コンピュータ14には、ロボット12を遠隔制御するためのプログラムが記憶され、当該プログラムが起動されると、ロボット12を制御するための操作画面が表示装置14aに表示される。操作画面では、ロボット12から送信される環境情報(人間の有無、人間の数、人間との距離、人間の接触、周囲の音など)に基づいて、次にロボット12が実行すべきコミュニケーション行動についての行動情報(コマンド)を含む行動カテゴリが表示領域の先頭に来るように、その表示が変化される。
【選択図】図1

Description

この発明はロボット制御システムに関し、特にたとえば、オペレータの指示に従って制御コマンドをロボットに送信して、当該ロボットを遠隔操作する、ロボット制御システムに関する。
背景技術のロボット制御システムの一例が特許文献1に開示される。この特許文献1によれば、パーソナルコンピュータでは、PC用遠隔操作ソフトが起動されると、モニタにコントロールパネルが表示される。ユーザは、コントロールパネルを用いてロボットに行わせるべき各種動作を指定すると、対応するコマンドがロボットに送信される。ロボットは、パーソナルコンピュータからのコマンドを受信すると、当該コマンドに対応する動作を発現する。このようにして、ロボットが遠隔操作される。
特開2003−136455号
しかし、この背景技術では、コントロールパネルに設けられた所望のGUIを選択したり、モーション選択メニューから所望のモーションを選択したりするだけなので、ロボットが存在する場所(空間)の状況(環境)の動的な変化に対応することができない。
それゆえに、この発明の主たる目的は、新規な、ロボット制御システムを提供することである。
この発明の他の目的は、環境に適した行動を実行させることができる、ロボット制御システムを提供することである。
請求項1の発明は、オペレータの指示に従って制御コマンドをロボットに送信して、当該ロボットを遠隔操作するロボット制御システムであって、ロボットが存在する環境情報を検出する環境情報検出手段、および環境情報検出手段によって検出された環境情報に基づいて、ロボットが次に実行すべき行動についての制御コマンドを選択可能に表示する表示制御手段を備える、ロボット制御システムである。
請求項1の発明では、ロボット制御システム(10:実施例で相当する参照符号。以下、同じ。)は、オペレータの指示に従って制御コマンドをロボット(12)に送信し、当該ロボットを遠隔操作する。環境情報検出手段(14,SS13)は、ロボットが存在する環境情報を検出する。表示制御手段(14,S15)は、ロボットが次に実行すべき行動についての制御コマンドを選択可能に表示する。
請求項1の発明によれば、ロボットが存在する環境情報に応じて次に実行すべき行動についての制御コマンドを選択可能に表示させるので、適切な行動を実行させることができる。
請求項2の発明は請求項1に従属し、表示制御手段によって表示された制御コマンドが選択されたか否かを判断する選択判断手段、および選択判断手段によって選択されたことが判断された制御コマンドをロボットに送信する制御コマンド送信手段をさらに備える。
請求項2の発明では、選択判断手段(14,S17,S23)は、表示制御手段によって表示された制御コマンドが選択されたか否かを判断する。制御コマンド送信手段(14,S29,S31)は、選択判断手段によって選択されたことが判断された制御コマンドをロボットに送信する。
請求項2の発明によれば、オペレータが選択した制御コマンドをロボットに送信することができる。
請求項3の発明は請求項2に従属し、選択判断手段によって制御コマンドが選択されたことが判断されたとき、当該制御コマンドをロボットに送信するか否かを判断する送信判断手段、送信判断手段によってロボットに制御コマンドを送信することを判断したとき、ロボットの状態が割り込み動作の状態であるかどうかを判断するロボット状態判断手段、およびロボット状態判断手段によってロボットの状態が割り込み動作の状態であることが判断されたとき、選択判断手段によって選択されたことが判断された制御コマンドを一時記憶する一時記憶手段を備え、制御コマンド送信手段は、ロボット状態判断手段によってロボットの状態が割り込み動作の状態でないことが判断されたとき、選択判断手段によって選択されたことが判断された制御コマンドをロボットに送信する。
請求項3の発明では、送信判断手段(14,S21)は制御コマンドをロボットに送信するか否かを判断する。たとえば、オペレータからの送信指示が有るか否かを判断する。ロボット状態判断手段(14,S25)は、送信判断手段によって制御コマンドをロボットに送信することが判断されたとき、ロボットの状態が割り込み動作の状態であるかどうかを判断する。たとえば、ロボットがオペレータの遠隔操作によって或る行動を実行中であるかどうかを判断する。一時記憶手段(14,S33)は、ロボットが割り込み動作の状態であるとき、送信することが判断された制御コマンドを一時記憶する。制御コマンド送信手段は、ロボットが割り込み動作の状態でないとき、選択された制御コマンドをロボットに送信する。
請求項3の発明によれば、ロボットに状態に応じて制御コマンドを送信するので、ロボットの状態に応じて所望の行動を実行させることができる。
請求項4の発明は請求項1ないし3のいずれかに従属し、環境情報は、少なくともロボットの周囲に存在する人間の数を含む。
請求項4の発明では、環境情報は、少なくともロボットの周囲に存在する人間の数を含む。したがって、たとえば、人間の数に応じた制御コマンドが表示される。これは、個人と複数人とでは、行動や発話する内容に違いがあるためである。
請求項4の発明によれば、ロボットの周囲に存在する人間の数に応じて適切な行動を実行させることができる。
請求項5の発明は請求項1ないし4のいずれかに従属し、ロボットは、身体動作および音声の少なくとも一方を用いて人間との間でコミュニケーション行動を実行するコミュニケーションロボットを含む。
請求項5の発明では、ロボットは、身体動作(振る舞い)および音声の少なくとも一方を用いて人間との間でコミュニケーション行動を実行するコミュニケーションロボットである。したがって、通常、ロボットは、自律行動により、配置された屋内(空間内)を移動し、または、人間との間でコミュニケーション行動を実行し、必要に応じて、オペレータの指示に従う行動(コミュニケーション行動)を実行する。
請求項5の発明によれば、遠隔操作によってロボットにコミュニケーション行動を実行させることができる。
この発明によれば、環境に応じたコマンドを選択可能に表示するので、環境に応じた行動をロボットに実行させることができる。
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
図1を参照して、この実施例のロボット制御システム(以下、単に「システム」という。)10は、コミュニケーションロボット(以下、単に「ロボット」という。)12を備える。ロボット12は、人間との間で、身振り手振りのような身体動作(振る舞い)ないし行動(以下、「コミュニケーション行動」ということがある。)を取ることができる。ただし、コミュニケーション行動としては、ロボット12と人間との間における会話(発話)が含まれる場合もある。
また、システム10はPC或いはワークステーション(WS)のような汎用のコンピュータ(説明の便宜上、「第1コンピュータ」という。)14を含む。この第1コンピュータ14は、無線LANのようなネットワーク18を介して、ロボット12およびコンピュータ(説明の便宜上、「第2コンピュータ」という。)20に通信可能に接続される。ただし、ロボット12、第1コンピュータ14および第2コンピュータ20は、ネットワーク18を介さずに直接的に通信するようにしてもよい。かかる場合には、ロボット12、第1コンピュータ14および第2コンピュータ20は、たとえば、Bluetooth(登録商標)のような近距離無線によって通信することができる。また、第1コンピュータ14には、CRTモニタやLCDのような表示装置14aおよびキーボードやコンピュータマウスなどの入力装置14bが接続される。
第2コンピュータ20もまた、第1コンピュータ14と同様に、PC或いはWSのような汎用のコンピュータであり、ロボット12が配置される(存在する)場所ないしはその周辺に設置される。この第2コンピュータ20には、床センサ(床圧力センサ)22が接続される。図示は省略するが、床センサ22は多数の検出素子(感圧センサ)を含み、この多数の検出素子がロボット12の配置される(存在する)部屋ないし会場の床に埋め込まれる(敷き詰められる)。この実施例では、床センサ22は、ロボット12や人間が部屋ないし会場に存在するとき、その圧力による信号(検出信号)を第2コンピュータ20に出力する。第2コンピュータ20は、検出信号に基づいて2次元座標を検出し、検出した2次元座標の信号(座標信号)をロボット12に送信する。
ここで、後述するように、ロボット12は、自身の状態(行動状態)および自身の周囲の環境(状況)を示す情報(環境情報)を含む送信信号を、第1コンピュータ14に送信するようにしてある。この環境情報に座標信号を含めて送信するため、第2コンピュータ20はロボット12に座標信号を送信するのであるが、直接第1コンピュータ14に座標信号を送信するようにしてもよい。ただし、環境情報は、ロボット12が存在する環境が変化したときだけ第1コンピュータ14に送信される。また、この実施例では、環境情報としては、ロボット12の周囲の混雑度(人間の数)に加えて、周囲音(騒音)または人間の声、人間との距離、人間の接触の有無とその強度、および人間の特定(個人認識)などが該当する。
なお、ロボット12は、このシステム10が適用される会場等のマップデータ(2次元データ)を内部メモリ(メモリ80:図3参照)に記憶している。そして、ロボット12は、任意に設定された原点位置を基準として、マップデータを参照して、会場内を移動する。ただし、ロボット12が参照するマップデータの座標系と、第1コンピュータ14で算出される2次元座標の座標系とは同じに設定される。
また、詳細な説明は省略するが、この実施例では、ロボット12の周囲には、立った状態で人間が存在することを前提とするため、第2コンピュータ20は、床センサ22からの出力に基づいて、2本の足の中点についての座標を人間の座標として算出するようにしてある。また、第2コンピュータ20は、2つの車輪34(図2参照)の中点についての座標をロボット12の位置座標として算出する。
ロボット12は、人間のような身体を有し、その身体を用いてコミュニケーションのために必要な複雑な身体動作を生成する。具体的には、図2を参照して、ロボット12は台車32を含み、この台車32の下面には、このロボット12を自律移動させる車輪34が設けられる。この車輪34は、車輪モータ(ロボット12の内部構成を示す図3において参照番号「36」で示す。)によって駆動され、台車32すなわちロボット12を前後左右任意の方向に動かすことができる。
なお、図2では示さないが、この台車32の前面には、衝突センサ(図3において参照番号「38」で示す。)が取り付けられ、この衝突センサ38は、台車32への人や他の障害物の接触を検知する。そして、ロボット12の移動中に障害物との接触を検知すると、直ちに車輪34の駆動を停止してロボット12の移動を急停止させる。
また、ロボット12の背の高さは、この実施例では、人、特に子供に威圧感を与えることがないように、100cm程度とされている。ただし、この背の高さは任意に変更可能である。
台車32の上には、多角形柱のセンサ取付パネル40が設けられ、このセンサ取付パネル40の各面には、超音波距離センサ42が取り付けられる。この超音波距離センサ42は、取付パネル40すなわちロボット12の周囲の主として人との間の距離を計測するものである。
台車32の上には、さらに、ロボット12の胴体が、その下部が上述の取付パネル40に囲まれて、直立するように取り付けられる。この胴体は下部胴体44と上部胴体46とから構成され、これら下部胴体44および上部胴体46は、連結部48によって連結される。連結部48には、図示しないが、昇降機構が内蔵されていて、この昇降機構を用いることによって、上部胴体46の高さすなわちロボット12の高さを変化させることができる。昇降機構は、後述のように、腰モータ(図3において参照番号「50」で示す。)によって駆動される。上で述べたロボット12の身長100cmは、上部胴体46をそれの最下位置にしたときの値である。したがって、ロボット12の身長は100cm以上にすることができる。
上部胴体46のほぼ中央には、1つの全方位カメラ52と、1つのマイク16とが設けられる。全方位カメラ52は、ロボット12の周囲を撮影するもので、後述の眼カメラ54と区別される。マイク16は、周囲の音、とりわけ人の声を取り込む。
上部胴体46の両肩には、それぞれ、肩関節56Rおよび56Lによって、上腕58Rおよび58Lが取り付けられる。肩関節56Rおよび56Lは、それぞれ3軸の自由度を有する。すなわち、右肩関節56Rは、X軸,Y軸およびZ軸の各軸廻りにおいて上腕58Rの角度を制御できる。Y軸は、上腕58Rの長手方向(または軸)に平行な軸であり、X軸およびZ軸は、そのY軸に、それぞれ異なる方向から直交する軸である。左肩関節56Lは、A軸,B軸およびC軸の各軸廻りにおいて上腕58Lの角度を制御できる。B軸は、上腕58Lの長手方向(または軸)に平行な軸であり、A軸およびC軸は、そのB軸に、それぞれ異なる方向から直交する軸である。
上腕58Rおよび58Lのそれぞれの先端には、肘関節60Rおよび60Lを介して、前腕62Rおよび62Lが取り付けられる。肘関節60Rおよび60Lは、それぞれ、W軸およびD軸の軸廻りにおいて、前腕62Rおよび62Lの角度を制御できる。
なお、上腕58Rおよび58Lならびに前腕62Rおよび62L(いずれも図2)の変位を制御するX,Y,Z,W軸およびA,B,C,D軸では、「0度」がホームポジションであり、このホームポジションでは、上腕58Rおよび58Lならびに前腕62Rおよび62Lは下方向に向けられる。
また、図2では示さないが、上部胴体46の肩関節56Rおよび56Lを含む肩の部分や上述の上腕58Rおよび58Lならびに前腕62Rおよび62Lを含む腕の部分には、それぞれ、タッチセンサ(図3において参照番号64で包括的に示す。)が設けられていて、これらのタッチセンサ64は、人がロボット12のこれらの部位に接触したかどうかを検知する。
前腕62Rおよび62Lのそれぞれの先端には、手に相当する球体66Rおよび66Lがそれぞれ固定的に取り付けられる。なお、この球体66Rおよび66Lに代えて、この実施例のロボット12と異なり指の機能が必要な場合には、人の手の形をした「手」を用いることも可能である。
上部胴体46の中央上方には、首関節68を介して、頭部70が取り付けられる。この首関節68は、3軸の自由度を有し、S軸,T軸およびU軸の各軸廻りに角度制御可能である。S軸は首から真上に向かう軸であり、T軸およびU軸は、それぞれ、このS軸に対して異なる方向で直交する軸である。頭部70には、人の口に相当する位置に、スピーカ72が設けられる。スピーカ72は、ロボット12が、それの周囲の人に対して音声または声によってコミュニケーションを図るために用いられる。ただし、スピーカ72は、ロボット12の他の部位たとえば胴体に設けられてもよい。
また、頭部70には、目に相当する位置に眼球部74Rおよび74Lが設けられる。眼球部74Rおよび74Lは、それぞれ眼カメラ54Rおよび54Lを含む。なお、右の眼球部74Rおよび左の眼球部74Lをまとめて眼球部74といい、右の眼カメラ54Rおよび左の眼カメラ54Lをまとめて眼カメラ54ということもある。眼カメラ54は、ロボット12に接近した人の顔や他の部分ないし物体等を撮影してその映像信号を取り込む。
なお、上述の全方位カメラ52および眼カメラ54のいずれも、たとえばCCDやCMOSのような固体撮像素子を用いるカメラであってよい。
たとえば、眼カメラ54は眼球部74内に固定され、眼球部74は眼球支持部(図示せず)を介して頭部70内の所定位置に取り付けられる。眼球支持部は、2軸の自由度を有し、α軸およびβ軸の各軸廻りに角度制御可能である。α軸およびβ軸は頭部70に対して設定される軸であり、α軸は頭部70の上へ向かう方向の軸であり、β軸はα軸に直交しかつ頭部70の正面側(顔)が向く方向に直交する方向の軸である。この実施例では、頭部70がホームポジションにあるとき、α軸はS軸に平行し、β軸はU軸に平行するように設定されている。このような頭部70において、眼球支持部がα軸およびβ軸の各軸廻りに回転されることによって、眼球部74ないし眼カメラ54の先端(正面)側が変位され、カメラ軸すなわち視線方向が移動される。
なお、眼カメラ54の変位を制御するα軸およびβ軸では、「0度」がホームポジションであり、このホームポジションでは、図2に示すように、眼カメラ54のカメラ軸は頭部70の正面側(顔)が向く方向に向けられ、視線は正視状態となる。
図3には、ロボット12の内部構成を示すブロック図が示される。この図3に示すように、ロボット12は、全体の制御のためにマイクロコンピュータまたはCPU76を含み、このCPU76には、バス78を通して、メモリ80,モータ制御ボード82,センサ入力/出力ボード84および音声入力/出力ボード86が接続される。
メモリ80は、図示しないが、ROMやHDD、RAM等を含み、ROMまたはHDDにはこのロボット12の制御プログラムおよびデータ等が予め格納されている。CPU76は、このプログラムに従って処理を実行する。具体的には、ロボット12のコミュニケーション行動を制御するための複数のプログラム(行動モジュールと呼ばれる。)が記憶される。また、行動モジュールの実行により、発話する内容についての音声ファイル(音声合成データ)も記憶される。たとえば、行動モジュールが示すコミュニケーション行動としては、「こんにちは」、「あそぼ」、「握手」、「じゃんけん」、「抱っこ」、「万歳」…などがある。行動モジュールが示すコミュニケーション行動が「こんにちは」の場合には、当該行動モジュールを実行すると、ロボット12は、たとえば右手を挙げて、「こんにちは」と発話する。行動モジュールが示すコミュニケーション行動が「あそぼ」である場合には、当該行動モジュールを実行すると、ロボット12は、たとえば両手を広げて、「あそぼ」と発話する。行動モジュールが示すコミュニケーション行動が「握手」である場合には、当該行動モジュールを実行すると、ロボット12は、たとえば右手を前に差し出す。行動モジュールが示すコミュニケーション行動が「抱っこ」である場合には、当該行動モジュールを実行すると、ロボット12は、たとえば、両手を前に差し出す。そして、行動モジュールが示すコミュニケーション行動が「万歳」である場合には、当該行動モジュールを実行すると、ロボット12は、たとえば、両手を数回(たとえば、2回)上下させる。また、RAMは、一時記憶メモリとして用いられるとともに、ワーキングメモリとして利用され得る。
モータ制御ボード82は、たとえばDSP(Digital Signal Processor)で構成され、右腕、左腕、頭および眼等の身体部位を駆動するためのモータを制御する。すなわち、モータ制御ボード82は、CPU76からの制御データを受け、右肩関節56RのX,YおよびZ軸のそれぞれの角度を制御する3つのモータと右肘関節60Rの軸Wの角度を制御する1つのモータを含む計4つのモータ(図3ではまとめて、「右腕モータ」として示す。)88の回転角度を調節する。また、モータ制御ボード82は、左肩関節56LのA,BおよびC軸のそれぞれの角度を制御する3つのモータと左肘関節60LのD軸の角度を制御する1つのモータとを含む計4つのモータ(図3ではまとめて、「左腕モータ」として示す。)90の回転角度を調節する。モータ制御ボード82は、また、首関節68のS,TおよびU軸のそれぞれの角度を制御する3つのモータ(図3ではまとめて、「頭部モータ」として示す。)92の回転角度を調節する。モータ制御ボード82は、また、腰モータ50、および車輪34を駆動する2つのモータ(図3ではまとめて、「車輪モータ」として示す。)36を制御する。さらに、モータ制御ボード82は、右眼球部74Rのα軸およびβ軸のそれぞれの角度を制御する2つのモータ(図3ではまとめて、「右眼球モータ」として示す。)94の回転角度を調節し、また、左眼球部74Lのα軸およびβ軸のそれぞれの角度を制御する2つのモータ(図3ではまとめて、「左眼球モータ」として示す。)96の回転角度を調節する。
なお、この実施例の上述のモータは、車輪モータ36を除いて、制御を簡単化するためにそれぞれステッピングモータまたはパルスモータであるが、車輪モータ36と同様に、直流モータであってよい。
センサ入力/出力ボード84も、同様に、DSPで構成され、各センサやカメラからの信号を取り込んでCPU76に与える。すなわち、超音波距離センサ42の各々からの反射時間に関するデータがこのセンサ入力/出力ボード84を通して、CPU76に入力される。また、全方位カメラ52からの映像信号が、必要に応じてこのセンサ入力/出力ボード84で所定の処理が施された後、CPU76に入力される。眼カメラ54からの映像信号も、同様にして、CPU76に与えられる。また、タッチセンサ64からの信号がセンサ入力/出力ボード84を介してCPU76に与えられる。
スピーカ72には音声入力/出力ボード86を介して、CPU76から、合成音声データが与えられ、それに応じて、スピーカ72からはそのデータに従った音声または声が出力される。また、マイク24からの音声入力が、音声入力/出力ボード86を介してCPU76に取り込まれる。
また、CPU76には、バス78を通して、通信LANボード98が接続される。この通信LANボード98も、同様に、DSPで構成され、CPU76から与えられた送信データを無線通信装置100に与え、無線通信装置100から送信データを送信させる。また、通信LANボード98は無線通信装置100を介してデータを受信し、受信データをCPU76に与える。
このような構成のシステム10では、オペレータ(ユーザ)が第1コンピュータ14を用いてロボット12を操作(遠隔操作)することができる。たとえば、オペレータが入力装置14bを用いて、遠隔操作のプログラム(アプリケーションソフト)を起動すると、図4に示すようなメイン操作画面200が表示装置14aに表示される。また、ロボット12は、少なくとも行動状態を含む送信信号を第1コンピュータ14に、定期的(一定時間毎)に送信する。ただし、環境情報が変化した場合には、当該環境情報が送信信号に含まれる。
ここで、行動情報は、ロボット12の状態(IDLE,BUSY)および現在実行しているコミュニケーション行動(行動モジュール)の名称(コマンド名)を含む。ロボット12は、オペレータの指示によらないで自律行動している場合には、その状態はIDLEであり、逆に、オペレータに指示に従ってコミュニケーション行動している場合には、その状態はBUSYである。
また、環境情報は、上述したように、周囲の混雑度(人間の数)、周囲音(騒音)または人間の声、人間との距離、人間の接触とその強度、および人間の特定(個人認識)などである。ロボット12は、第2コンピュータ20から出力される座標信号に基づいて、自身の周囲に存在する人間の数(混雑度)を検出する。また、ロボット12は、マイク16に入力される音量を検出することにより、周囲音を検出する。この周囲音の音量を検出するようにすれば、さらに騒音(雑音)であるか否かを判断することもできる。また、マイク16を介して入力される音声を音声認識することにより、周囲に存在する人間の発話内容を知ることもできる。さらに、ロボット12は、超音波距離センサ42の出力を検出することにより、周囲に存在する人間との距離(位置関係)を知ることもできる。さらにまた、ロボット12は、タッチセンサ64の出力を検出することにより、人間が自身に触れているか否かを知ることもできる。また、ロボット12は、たとえば、無線タグの識別情報(ID情報)を検出することにより、周囲に存在する人間を個別に認識(特定)することもできる。具体的には、人間が周波数タグのような無線タグを所持し、この受信機(アンテナを含む。)をロボット12に設けて、周波数タグが発信(送信)するID情報を受信可能にしておく。一方、ID情報に対応して人間の名称(愛称)等を記載したデータベースを、ロボット12に内蔵したり、ロボット12がアクセス可能に外部に設けたりしておく。このようにすれば、ロボット12は、ID情報を受信(検出)すると、データベースを参照して、当該ID情報に対応する人間の名称(愛称)等を知ることができる。
このような環境情報に基づいて、ロボット12が次に行動すべきコマンドの候補(この実施例では、後述するように、カテゴリに分類した複数のコマンド。以下、「行動カテゴリ」ということがある。)がオペレータによって選択可能に表示される。具体的な内容については、以下に、操作画面を用いて説明することにする。
図4を参照して、メイン操作画面200は、第1領域202および第2領域204を含み、第1領域202には、現在のロボット12の状況(状態)および実行中のコミュニケーション行動(行動モジュール)のコマンド名を示す内容がテキスト(文字)で表示される。図4に示す例では、ロボット12は、その状態が「IDLE」であり、“あそぼ(ASOBO)”の行動モジュールを実行していることが示される。図示は省略するが、オペレータの指示に従ってコミュニケーション行動を実行している場合には、その状態として「BUSY」が表示される。
第2領域204には、表示領域204a,204b,204c,204d,204e,204f,204g,204h,204iおよび204jが設けられる。表示領域204a−204cには、オペレータがロボット12に指示することができるコミュニケーション行動(行動モジュール)の名称(コマンド名)が表示されている。詳細な説明は省略するが、表示領域204a−204cには、上述したように、「こんにちは(HELLO)」、「あそぼ(ASOBO)」、「握手(AKUSHU)」や「じゃんけん(ZYAN)」などのコミュニケーション行動についてのコマンド名が表示される。ただし、オペレータの操作の便宜上、すいている時(ロボット12の周囲の人が少ない時)、混んでいる時(ロボット12の周囲の人が多い時)、通常動作の3つの表示領域204a−204cに分類してコマンド名を表示してあるが、分類せずに1つの表示領域に表示するようにしてもよい。また、図面では省略するが、多数のコマンド名が表示されるため、実際には、表示内容をスクロールするためのスクロールバーが設けられる。他の表示領域も同様である。
なお、表示領域204a−204cの各々に表示されるコマンド名は、このソフトの開発者ないし設計者によって予め登録される。ただし、このソフトのオペレータがカスタマイズできるようにしてもよい。
表示領域204dには、コマンド履歴が表示される。つまり、ロボット12に送信され、実行されたコミュニケーション行動についてのコマンド名が、たとえば時系列に従って表示される。表示領域204eには、未送信コマンドが表示される。たとえば、ロボット12が第1コンピュータ14から送信されたコマンドに従って割り込みでコミュニケーション行動を実行している状態(BUSY状態)では、次の(他の)コマンドが送信(指示)された場合であっても、当該次のコマンドを割り込みで実行しないようにしてあるため、当該次のコマンドが未送信コマンドとして表示領域204eに表示(一時記憶)される。
表示領域204fには、割り込み音声のコマンド名(ファイル名)が表示される。割り込み音声は、割り込み処理によってロボット12に発話(出力)させる音声を意味する。したがって、割り込み音声のファイル名をロボット12に送信すると、ロボット12では、対応する音声ファイルが再生され、スピーカ72から出力される。
なお、図4では、簡単のため、割り込み音声のコマンド名を1つだけ記載してあるが、オペレータによってさらに追加することができる。
表示領域204gには、割り込み動作のコマンド名が表示される。割り込み動作は、割り込み処理によってロボット12に実行させたい動作を意味する。ここで、「動作」は、単に首を動かしたり、手を上げたりするような仕草を意味するが、コミュニケーション行動であってもよい。したがって、割り込み動作のコマンドをロボット12に送信すると、ロボット12は対応する動作を実行する。ただし、上述したように、ロボット12の状態がBUSYである場合には、割り込み動作は実行されない。或いは、コミュニケーション行動の実行が終了し、ロボット12の状態がBUSYでなくなったときに、割り込み動作が実行される。
表示領域204hには、オペレータによって選択されたコマンドについての説明文がテキスト表示される。たとえば、表示領域204cに記載されたコマンド「ZYAN」が選択されると、表示領域204hには、「じゃんけん」と表示され、ロボット12が当該コマンドを実行すると、コミュニケーション行動として「じゃんけん」することが分かる。ただし、表示領域204hには、単に「じゃんけん」と表示するのではなく、実際のロボット12のコミュニケーション行動について解説した内容を表示してもよい。たとえば、「“じゃんけん、ぽん”と発話しながら、右手を前に出す。」のような解説(説明文)を表示することができる。
表示領域204iには、個人認識された人間の名前が記述される。個人の認識方法は上述したとおりである。表示領域204jには、エピソード・ルールを記載したテキストデータのファイル名が記述される。ここで、エピソード・ルールとは、行動モジュールの基本的な実行順序に関する規則をいう。また、基本的な実行順序とは、短期的な行動の遷移ないし推移であることを意味し、たとえば数個程度の行動モジュールの繋がりないし関係であり得るが、長期(たとえば一日中)やすべての行動の推移を定めたものではない。つまり、人間の行動について、たとえば挨拶したら握手するなど、或る程度の行動の短い繋がり或いは順序付けを定めることが可能であるが、一日中の行動のすべてを予め定めることは不可能であり、エピソード・ルールとしてはこのような短い繋がりないし順序付けを規定する。エピソード・ルールは、基本的には、或る状況(履歴)において次に実行する行動モジュールが規定される。また、エピソード・ルールは、次の行動モジュールの実行を抑制するための否定の規則を含む。たとえば、ロボット12が人に何処から来たのか尋ねてその数分後にその人に同じ質問をしてしまう場合等は、状況が調和しておらず矛盾していて不適切であるので、このような不適切な行動の推移はエピソード・ルールによって抑制される。
なお、行動モジュールおよびエピソード・ルールについては、本件出願人が先に出願し、既に出願公開された特開2004−114242号公報に開示されている。
また、メイン操作画面200では、第1領域202に、ボタン(アイコン)210および212が表示され、第2領域204に、ボタン214,216,218,220,222,224,226,228,230,232,234および236が表示される。
ボタン210は、メイン操作画面200を閉じる、すなわちロボット12の遠隔操作を終了するためのボタンである。ボタン212は、後述するサブ操作画面300(図5参照)を表示するためのボタンである。後で説明するが、サブ操作画面300には、選択すべきコマンドがカテゴリに分類されて表示される。ボタン214は、オペレータによって選択されたコマンドをロボット12に送信するためのボタンである。ただし、ボタン214を操作しなくても、選択されたコマンドが再度選択されることにより(ダブルクリック)、当該コマンドをロボット12に送信することもできる。また、ロボット12の状態がBUSYであれば、オペレータによって選択されたコマンドが未送信コマンドとして一時記憶され、表示領域204eにコマンド名が表示される。
ボタン216は、ロボット12を緊急停止させるためのボタンである。たとえば、ロボット12の腕などに人間の服が引っかかったり、ロボット12が自力で脱出できない所に嵌ってしまったりしたような緊急時に、ボタン216が操作される。ただし、ボタン216の操作に代えて、コントロールキー(Crtlキー)とアルファベットの「Q」キーとを複合的に操作することにより、緊急停止のコマンドを送信することも可能である。
なお、詳細な説明は省略するが、ロボット12が緊急である旨の行動情報を送信するようにしてもよく、ロボット12から全方位カメラ52や眼カメラ54の映像を第1コンピュータ14に送信するようにしておき、その映像を表示装置14aに表示して、オペレータが緊急時か否かを判断するようにしてもよい。
ボタン218は、ロボット12の首を左に所定角度だけ回動させるためのボタンである。たとえば、ボタン218がクリックされる度に、ロボット12の首が左方向に5度ずつ回動される。ボタン220は、ロボット12の首を正面(0度)の方向に向ける(回動させる)ためのボタンである。したがって、たとえば、ボタン220がクリックされると、ロボット12が正面を向くように、首が回動される。ボタン222は、ロボット12の首を右に所定角度だけ回動させるためのボタンである。たとえば、ボタン222がクリックされる度に、ロボット12の首が右方向に5度ずつ回動される。
ボタン224は、表示領域204eに表示された未送信コマンドを削除するためのボタンである。たとえば、ボタン224がクリックされると、表示領域204eに表示されたすべての未送信コマンドが削除される。ただし、未送信コマンドを1つずつ削除するようにしてもよい。または、予め選択された未送信コマンドを削除するようにしてもよい。
ボタン226は、ロボット12を前進させるためのボタンである。たとえば、ボタン226がクリックされると、ロボット12は前進し、停止命令が与えられると、停止する。ただし、ボタン226の操作に代えて、Crtlキーとアルファベットの「W」キーとを複合的に操作することにより、前進のコマンドを送信することも可能である。
ボタン228は、ロボット12を左回転(左旋回)させるためのボタンである。たとえば、ボタン228がクリックされると、ロボット12は左回転(左旋回)し、停止命令が与えられると、停止する。ただし、ボタン228の操作に代えて、Crtlキーとアルファベットの「A」キーとを複合的に操作することにより、左回転のコマンドを送信することも可能である。
ボタン230は、ロボット12を右回転(右旋回)させるためのボタンである。たとえば、ボタン230がクリックされると、ロボット12は右回転(右旋回)し、停止命令が与えられると、停止する。ただし、ボタン230の操作に代えて、Crtlキーとアルファベットの「D」キーとを複合的に操作することにより、右回転のコマンドを送信することも可能である。
ボタン232は、ロボット12を後退させるためのボタンである。たとえば、ボタン232がクリックされると、ロボット12は後退し、停止命令が与えられると、停止する。ただし、ボタン232の操作に代えて、Crtlキーとアルファベットの「X」キーとを複合的に操作することにより、後退のコマンドを送信することも可能である。
ボタン234は、ロボット12を停止されるためのボタンである。たとえば、ボタン234がクリックされると、ロボット12に停止命令が与えられ、ロボット12は、前進、左回転、右回転または後退を停止する。ただし、ボタン234の操作に代えて、Crtlキーとアルファベットの「S」キーとを複合的に操作することにより、停止のコマンドを送信することも可能である。
ボタン236は、ロボット12自体の運転を終了(停止)させるためのボタンである。たとえば、ボタン236がクリックされると、ロボット12に終了命令が与えられ、ロボット12は、各部位をホームポジションに戻した後、図3に示したような回路コンポーネントへの電源供給を停止する。ただし、ボタン236の操作に代えて、Crtlキーとアルファベットの「F」キーとを複合的に操作することにより、終了のコマンドを送信することも可能である。
また、上述したように、ボタン212がクリックされると、図5に示すようなサブ操作画面300が表示装置14aに表示される。ただし、このサブ操作画面300は、遠隔操作のプログラムを起動したときに、メイン操作画面200とともに表示装置14aに表示されるようにしてもよい。図面では省略するが、メイン操作画面200とサブ操作画面300とは、表示装置14aに並んで表示される。
図5に示すように、サブ操作画面300は、6つの表示領域300a,300b,300c,300d,300eおよび300fを含む。表示領域300aは、以前のビヘービア(コミュニケーション行動)についてのコマンド名が表示される領域である。ただし、上述したように、メイン操作画面200の表示領域204dにコマンドの履歴を表示するようにしてあるため、この表示領域300aは無くてもよい。表示領域300bは、選択されたコマンド(ビヘービア)についての説明文が表示される領域である。ただし、上述したように、メイン操作画面200の表示領域204hに説明文を表示するようにしてあるため、この表示領域300bは無くてもよい。
表示領域300cは、次に選択されるべきコマンドがカテゴリに分けて表示される領域である。この表示領域300cでは、次に選択されるべきコマンドがその先頭に表示されるように、適宜ソートされる。たとえば、次に選択されるべきコマンドは、環境情報に基づいて、通常の人間が行う動作に従って(たとえば、エピソード・ルールと同様のルールに従って)決定される。具体的には、1人の人間と挨拶を行った後では、当該人間と握手したり、当該人間に自己紹介したりするなどの行動カテゴリが表示される。また、複数の人間と挨拶を行った後では、当該複数の人間に自己紹介したり、数人程度であれば、各人間と握手したりするなどの行動カテゴリが表示される。図5からも分かるように、各カテゴリは、さらに異なる種類のカテゴリに分類され、行動カテゴリがツリー状に表示される。つまり、大分類、中分類、小分類のように分類され、その中に複数のコマンドが記述(表示)されているのである。したがって、たとえば、「挨拶」の行動カテゴリは、「初めての挨拶」と「初めてじゃない挨拶」との行動カテゴリに分類される。そして、「初めての挨拶」の行動カテゴリには、「HELLO」,「NAME」および「HAZIMETE_AISATU」のように異なるビヘービアの名称(コマンド名)が表示される。詳細な説明は省略するが、他の行動カテゴリについても同様である。なお、コマンドをロボット12に送信する方法は、メイン操作画面200を用いて説明したのと同様である。
表示領域300dは、常に使うもの(コマンド)として、カテゴリに分類された複数のコマンドがツリー状に表示される領域である。ここでは、常に使用されるコマンドがカテゴリに分類されて固定的に表示される以外は、表示領域300cと同様である。表示領域300eは、次の次に選択されるべきコマンドが表示される領域である。たとえば、表示領域300cに表示されたコマンドのいずれかが選択(指示)されたとき、当該コマンドの次に選択されるべきコマンドが表示領域300eに表示される。表示領域300fは、ロボット12が存在する場所の環境状態(周囲の状況)が表示される領域である。たとえば、ロボット12の周囲(周辺)に数人の人間が存在する場合には、図5に示すように、「近くに少し居る」と表示される。図示は省略するが、たくさんの人間が存在する場合には、「近くにたくさん居る」と表示される。また、検出される音(音声)が大きい場合には、「ざわついている(うるさい)」などと表示される。逆に、検出される音(音声)が小さい場合には、「静か」などと表示される。
具体的には、図1に示した第1コンピュータ14(厳密には、CPUのようなプロセサ)が図6および図7に示すフロー図に従って操作画面の表示制御およびコマンド送信処理を実行する。図6を参照して、第1コンピュータ14が操作画面の表示制御およびコマンド送信処理を開始すると、ステップS1で、メイン操作画面200およびサブ操作画面300を表示する。なお、ここでは、簡単のため、メイン操作画面200およびサブ操作画面300の両方が表示されるようにしてあるが、実際には、上述したように、メイン操作画面200のボタン212がクリックされると、サブ操作画面300が表示される。続くステップS3では、ロボット12を制御する行動情報(コマンド)を、メイン操作画面200の第2領域204に表示する。つまり、表示領域204a、204b、204c、204f、204gおよび204jの内容が表示される。
続いて、ステップS5では、オペレータによる遠隔操作の終了指示が有るかどうかを判断する。つまり、ボタン210がクリックされたかどうかを判断する。ステップS5で“YES”であれば、つまりボタン210がクリックされれば、オペレータによる遠隔操作の終了指示が有ると判断して、ロボット12の遠隔操作を終了すべく、操作画面の表示制御およびコマンド送信処理を終了する。一方、ステップS5で“NO”であれば、つまりボタン210がクリックされていなければ、オペレータによる遠隔操作の終了指示が無いと判断して、ステップS7で、ロボット12からの送信信号が有るかどうかを判断する。ステップS7で“NO”であれば、つまりロボット12からの送信信号が無ければ、そのまま図7に示すステップS17に進む。
しかし、ステップS7で“YES”であれば、つまりロボット12からの送信信号が有れば、ステップS9で、ロボット12の状態変化が有るかどうかを判断する。つまり、ロボット12から送信信号に含まれる状態情報に変化が有るか否かを判断するのである。ステップS9で“NO”であれば、つまりロボット12の状態変化が無ければそのままステップS13に進む。しかし、ステップS9で“YES”であれば、つまりロボット12の状態変化が有れば、ステップS11で、ロボット12の状態をメイン操作画面200の第1領域202に表示して、ステップS13に進む。ただし、ロボット12の遠隔操作を開始した当初では、つまり操作画面の表示制御およびコマンド送信処理を開始した当初では、ロボット12の状態変化ではなく、ロボット12の状態を検出して、検出した状態が第1領域202に表示される。
ステップS13では、環境情報が有るかどうかを判断する。つまり、ロボット12からの送信信号に環境情報が含まれるかどうかを判断する。ステップS13で“NO”であれば、つまり環境情報が無ければ、そのままステップS17に進む。しかし、ステップS13で“YES”であれば、つまり環境情報が有れば、ステップS15で、環境情報から限定されたロボット12を制御する行動カテゴリをサブ操作画面300に設けられる次候補の表示領域300c(の先頭)に表示して、ステップS17に進む。つまり、ステップS15では、次に選択すべきコミュニケーション行動の候補が選択可能に表示されるのである。
図7に示すように、ステップS17では、オペレータがロボット12の行動情報すなわちコマンドを選択したかどうかを判断する。ステップS17で“NO”であれば、つまりロボット12の行動情報が選択されていなければ、そのまま図6に示したステップS5に戻る。一方、ステップS17で“YES”であれば、つまりロボット12の行動情報が選択されれば、ステップS19で、選択された行動情報についての説明文を説明文の表示領域204hに表示する。
続くステップS21では、行動情報の送信指示が有るかどうかを判断する。ここでは、上述したように、コマンド送信のボタン214がクリックされたり、コマンド(行動情報)がダブルクリックされたりしたかどうかを判断する。ステップS21で“NO”であれば、つまり行動情報の送信指示が無ければ、ステップS23で、行動情報の選択変更かどうかを判断する。つまり、他の行動情報が選択されたかどうかを判断する。ステップS23で“NO”であれば、つまり選択変更でなければ、そのままステップS21に戻る。一方、ステップS23で“YES”であれば、つまり選択変更であれば、ステップS19に戻って、変更された行動情報の説明文を表示する。
また、ステップS21で“YES”であれば、つまり行動情報の送信指示が有れば、ステップS25で、ロボット12の状態がBUSYであるかどうかを判断する。つまり、現在、ロボット12がオペレータの指示に従ったコミュニケーション行動を実行しているかどうかを判断する。ステップS25で“YES”であれば、つまりロボット12の状態がBUSYであれば、そのままステップS33に進む。一方、ステップS25で“NO”であれば、ロボット12の状態がBUSYでなけば、ステップS27で、未送信の行動情報が有るかどうかを判断する。つまり、表示領域204eに行動情報が表示されているかどうかを判断する。
ステップS27で“YES”であれば、つまり未送信の行動情報が有れば、未送信の行動情報のうち、最も古い行動情報をロボット12に送信して、ステップS33で、今回選択された行動情報を未送信コマンドの表示領域204eに表示して、ステップS35に進む。つまり、ステップS33では、行動情報が一時記憶される。しかし、ステップS27で“NO”であれば、つまり未送信の行動情報がなければ、ステップS31で、今回選択された行動情報をロボット12に送信し、ステップS35で、行動情報をメイン操作画面200のコマンド履歴の表示領域204dに表示して、ステップS5に戻る。
たとえば、ロボット12は、或る会場の展示物を説明したり、或る会場の道案内をしたりするなどのサービスを提供する。図8は、ロボット12が或る展示物OBを複数の人間(ここでは、3人の人間A,B,C)に説明している様子を示す。図示は省略するが、ロボット12以外の第1コンピュータ14、ネットワーク18、第2コンピュータ20および床コンピュータ22も勿論設けられる。ただし、第1コンピュータ14は、ロボット12が設置される場所或いはその近傍に必ずしも設ける必要はなく、ネットワーク18を介してロボット12に接続可能であれば、どこに設けてもよい。
図8に示す例では、ロボット12は、オペレータの遠隔操作に従って、1または複数の人間に挨拶し、当該1または複数の人間に展示品(展示物)などを説明し、そして、お別れの挨拶するというコミュニケーション行動を実行する。ただし、通常、ロボット12は自律行動により、会場を移動したり、出会った人間との間でコミュニケーション行動を実行したりしている。
このような場合、たとえば、第2コンピュータ20からの出力(座標信号)に従って人間の人数(環境情報)を検出し、この環境情報に基づいてサブ操作画面300の表示を制御することができる。具体的なサブ操作画面300の表示制御処理の一例は図9に示すフロー図で表わされるが、これはロボット12を展示会場における説明員として適用させる場合の処理であり、図6に示したステップS15の処理を具体化したものである。
図9を参照して、第1コンピュータ14は、サブ操作画面の表示制御処理を開始すると、ステップS51で、ロボット12の周囲に人間が存在するかどうかを判断する。ここでは、ロボット12から送信された環境情報を検出し、周囲に人間が存在するか否かを判断する。ステップS51で“NO”であれば、つまりロボット12の周囲に人間が存在しなければ、ステップS53で、次候補の表示領域300cの先頭に、「待機」の行動カテゴリを表示(ソート)して、サブ操作画面の表示制御処理をリターンする。一方、ステップS51で“YES”であれば、つまりロボット12の周囲に人間が存在すれば、ステップS55で、現在のロボット12の行動状態が「待機」であるかどうかを判断する。
ステップS55で“NO”であれば、つまり現在のロボット12の行動状態が「待機」でなければ、そのままステップS63に進む。一方、ステップS55で“YES”であれば、つまり現在のロボット12の行動状態が「待機」であれば、ステップS57で、複数の人間がロボット12の周囲に存在するか否かを判断する。ステップS57で“NO”であれば、つまり1人の人間がロボット12の周囲に存在する場合には、ステップS59で、表示領域300cの先頭に「個人への挨拶」を表示して、サブ操作画面の表示制御処理をリターンする。一方、ステップS57で“YES”であれば、つまり複数の人間がロボット12の周囲に存在する場合には、ステップS61で、表示領域300cの先頭に「集団への挨拶」を表示して、サブ操作画面の表示制御処理をリターンする。
なお、詳細な説明は省略するが、個人への挨拶と集団への挨拶とでは、異なるコミュニケーション行動が実行される。たとえば、個人への挨拶の場合、当該個人の方を向き、「〇〇さん、はじめまして」や「〇〇さん、こんにちは」と発話する。また、集団への挨拶の場合、集団を見渡すように首を左右に動かした後に正面を向いて、「みなさん、はじめまして」や「みなさん、こんにちは」と発話する。
ステップS63では、ロボット12の現在のコミュニケーション行動が「お別れの挨拶」であるかどうかを判断する。つまり、展示物OBの説明が終了したかどうかを判断する。ステップS63で“YES”であれば、つまりロボット12の現在のコミュニケーション行動が「お別れの挨拶」であれば、次の説明機会までロボット12を待機させるべく、ステップS65で、次候補の表示領域300cの先頭に「待機」の行動カテゴリを表示して、サブ操作画面の表示制御をリターンする。
また、ステップS63で“NO”であれば、つまりロボット12の現在のコミュニケーション行動が「お別れの挨拶」でなければ、ステップS67で、ロボット12の現在のコミュニケーション行動が「展示説明」であるかどうかを判断する。ステップS67で“YES”であれば、つまりロボット12の現在のコミュニケーション行動が「展示説明」であれば、ステップS69で、次候補の表示領域300cの先頭に「お別れの挨拶」を表示して、サブ操作画面の表示制御処理をリターンする。一方、ステップS67で“NO”であれば、つまりロボット12の現在のコミュニケーション行動が「展示説明」でなければ、ステップS71で、次候補の表示領域300cの先頭に「展示説明」の行動カテゴリを表示して、サブ操作画面の表示制御をリターンする。
なお、図8および図9に示す例では、環境情報としての人間の人数のみに基づいてサブ操作画面の表示制御を実行する場合について説明した。しかし、上述したように、環境情報は他の情報を含むため、この例に限定されるべきではない。
図示は省略するが、たとえば、環境情報に含まれる周囲音の音量も参照する場合には、ステップS71の前に、周囲音の音量が一定の閾値以上であるか否かを判断する。つまり、ロボット12の周囲がざわついているかどうかを判断する。ここで、周囲音が一定の閾値未満であれば、ステップS71に進むが、音量が一定の閾値以上であれば、ざわついていると判断して、表示領域300cの先頭に「注意」の行動カテゴリを表示するようにする。したがって、オペレータは、「注意」の行動カテゴリの中から「静かにするように注意する」旨のコマンドを選択して、これをロボット12に送信することができる。ただし、上述の「挨拶」の行動カテゴリの場合と同様に、「注意」の行動カテゴリを、さらに「個人への注意」と「集団への注意」との行動カテゴリに分類しておき、これを人間の人数で選択的に表示するようにしてもよい。
また、たとえば、人間との距離が一定の範囲内であるかどうかを判断し、人間との距離が一定の範囲外である場合には、人間を「誘導」するための行動カテゴリを表示領域300cの先頭に表示して、人間を一定範囲内に移動させた(誘導した)後に、展示品の説明を実行するようにしてもよい。また、「誘導」の行動カテゴリを、さらに「個人の誘導」と「集団の誘導」との行動カテゴリに分類しておき、これを人間の人数で選択的に表示するようにしてもよい。
さらに、たとえば、個人認識の情報を参照するようにしておき、ロボット12が展示品の説明を行った人間の履歴を記憶しておくようにすれば、同じ人間に対して同じ行動を繰り返すような不都合を避けることもできる。このことは、単に挨拶する場合にも同様のことが言える。つまり、初めて挨拶する場合と、それ以降に挨拶する場合とでは異なる行動を取るべきだからである。
さらにまた、この実施例では、ロボット12が或る会場で説明員として存在する場合について説明したが、これに限定される必要はなく、ロボット12と人間とが共存し得る場所に適用することができることは言うまでもない。
この実施例によれば、ロボットが存在する環境ないし状況に基づいて行動すべき次候補を表示するため、オペレータは適切な行動をロボットに指示することができる。
なお、この実施例では、人間の存在やその人数を検出するために床センサを設け、この床センサの出力に基づいてコンピュータで座標信号を求め、コンピュータからロボットに座標信号を与えるようにした。ただし、ロボットの全方位カメラの映像を解析することにより、ロボットの周囲に存在する人間およびその人数を検出することもできる。かかる場合には、第2コンピュータと床センサとを省略することができる。また、床センサに代えて、天井カメラを設け、当該天井カメラの映像を解析することにより、ロボットの周囲に存在する人間およびその数を検出することもできる。かかる場合には、人間の向き(ロボットの方を向いているかどうか)も知ることができる。
図1はこの発明のロボット制御システムの一例を示すブロック図である。 図2は図1実施例に示すロボットの外観を説明するための図解図である。 図3は図1および図2に示すロボットの電気的な構成を示す図解図である。 図4は図1に示すロボットを遠隔制御するためのメイン操作画面の一例を示す図解図である。 図5は図1に示すロボットを遠隔制御するためのサブ操作画面の一例を示す図解図である。 図6は図3に示すCPUの操作画面の表示制御およびコマンド送信処理の一部を示すフロー図である。 図7は図3に示すCPUの操作画面の表示制御およびコマンド送信処理の他の一部であり、図6に後続するフロー図である。 図8は図1に示すシステムの適用例を示す図解図である。 図9は図3に示すCPUのサブ操作画面の表示制御処理の一例を示すフロー図である。
符号の説明
10 …ロボット制御システム
12 …コミュニケーションロボット
14,20 …コンピュータ
16 …マイク
22 …床センサ
38 …衝突センサ
42 …超音波距離センサ
52 …全方位カメラ
54 …眼カメラ
64 …タッチセンサ
76 …CPU
80 …メモリ
82 …モータ制御ボード
84 …センサ入力/出力ボード
86 …音声入力/出力ボード
88−96 …モータ
98 …通信LANボード
100 …無線通信装置

Claims (5)

  1. オペレータの指示に従って制御コマンドをロボットに送信して、当該ロボットを遠隔操作するロボット制御システムであって、
    ロボットが存在する環境情報を検出する環境情報検出手段、および
    前記環境情報検出手段によって検出された環境情報に基づいて、前記ロボットが次に実行すべき行動についての制御コマンドを選択可能に表示する表示制御手段を備える、ロボット制御システム。
  2. 前記表示制御手段によって表示された制御コマンドが選択されたか否かを判断する選択判断手段、および
    前記選択判断手段によって選択されたことが判断された前記制御コマンドを前記ロボットに送信する制御コマンド送信手段をさらに備える、請求項1記載のロボット制御システム。
  3. 前記選択判断手段によって前記制御コマンドが選択されたことが判断されたとき、当該制御コマンドを前記ロボットに送信するか否かを判断する送信判断手段、
    前記送信判断手段によって前記ロボットに前記制御コマンドを送信することを判断したとき、前記ロボットが割り込み動作の状態であるかどうかを判断するロボット状態判断手段、および
    前記ロボット状態判断手段によって前記ロボットの状態が割り込み動作の状態あることが判断されたとき、前記選択判断手段によって選択されたことが判断された前記制御コマンドを一時記憶する一時記憶手段を備え、
    前記制御コマンド送信手段は、前記ロボット状態判断手段によって前記ロボットの状態が割り込み動作の状態でないことが判断されたとき、前記選択判断手段によって選択されたことが判断された前記制御コマンドを前記ロボットに送信する、請求項2記載のロボット制御システム。
  4. 前記環境情報は、少なくとも前記ロボットの周囲に存在する人間の数を含む、請求項1ないし3のいずれかに記載のロボット制御システム。
  5. 前記ロボットは、身体動作および音声の少なくとも一方を用いて人間との間でコミュニケーション行動を実行するコミュニケーションロボットを含む、請求項1ないし4のいずれかに記載のロボット制御システム。
JP2005357208A 2005-12-12 2005-12-12 ロボット制御システム Pending JP2007160427A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005357208A JP2007160427A (ja) 2005-12-12 2005-12-12 ロボット制御システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005357208A JP2007160427A (ja) 2005-12-12 2005-12-12 ロボット制御システム

Publications (1)

Publication Number Publication Date
JP2007160427A true JP2007160427A (ja) 2007-06-28

Family

ID=38243907

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005357208A Pending JP2007160427A (ja) 2005-12-12 2005-12-12 ロボット制御システム

Country Status (1)

Country Link
JP (1) JP2007160427A (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101192471B1 (ko) 2012-05-30 2012-10-17 이재영 이동통신플랫폼에 기반한 원격 로봇제어장치
JP2015066621A (ja) * 2013-09-27 2015-04-13 株式会社国際電気通信基礎技術研究所 ロボット制御システム、ロボット、出力制御プログラムおよび出力制御方法
JP2015136762A (ja) * 2014-01-23 2015-07-30 セイコーエプソン株式会社 処理装置、ロボット、ロボットシステム及び処理方法
JP2017170568A (ja) * 2016-03-24 2017-09-28 株式会社国際電気通信基礎技術研究所 サービス提供ロボットシステム
JP2019051568A (ja) * 2017-09-14 2019-04-04 大日本印刷株式会社 案内装置、案内システム、案内方法及びプログラム
WO2019138650A1 (ja) * 2018-01-10 2019-07-18 株式会社日立製作所 移動体
JP2020026011A (ja) * 2018-08-14 2020-02-20 日本放送協会 ロボット操作装置及びロボット操作プログラム
JP7402450B2 (ja) 2019-10-09 2023-12-21 Telexistence株式会社 ロボット制御装置、ロボット制御方法及びロボット制御システム

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1086698A (ja) * 1996-09-12 1998-04-07 Hitachi Ltd 自動車の走行制御装置
JP2001350509A (ja) * 2000-06-08 2001-12-21 Fanuc Ltd ロボット制御装置
JP2003136455A (ja) * 2001-11-07 2003-05-14 Sony Corp ロボットシステム、遠隔操作装置及び遠隔操作方法並びにロボット装置及びその制御方法
JP2003305669A (ja) * 2002-01-21 2003-10-28 Center For Advanced Science & Technology Incubation Ltd ロボットフォン
JP2004114242A (ja) * 2002-09-26 2004-04-15 Advanced Telecommunication Research Institute International コミュニケーションロボットおよびその開発支援装置
JP2005125460A (ja) * 2003-10-24 2005-05-19 Sony Corp ロボット装置のためのモーション編集装置及びモーション編集方法、並びにコンピュータ・プログラム
JP2005271094A (ja) * 2004-03-23 2005-10-06 Advanced Telecommunication Research Institute International ロボット遠隔制御システム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1086698A (ja) * 1996-09-12 1998-04-07 Hitachi Ltd 自動車の走行制御装置
JP2001350509A (ja) * 2000-06-08 2001-12-21 Fanuc Ltd ロボット制御装置
JP2003136455A (ja) * 2001-11-07 2003-05-14 Sony Corp ロボットシステム、遠隔操作装置及び遠隔操作方法並びにロボット装置及びその制御方法
JP2003305669A (ja) * 2002-01-21 2003-10-28 Center For Advanced Science & Technology Incubation Ltd ロボットフォン
JP2004114242A (ja) * 2002-09-26 2004-04-15 Advanced Telecommunication Research Institute International コミュニケーションロボットおよびその開発支援装置
JP2005125460A (ja) * 2003-10-24 2005-05-19 Sony Corp ロボット装置のためのモーション編集装置及びモーション編集方法、並びにコンピュータ・プログラム
JP2005271094A (ja) * 2004-03-23 2005-10-06 Advanced Telecommunication Research Institute International ロボット遠隔制御システム

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101192471B1 (ko) 2012-05-30 2012-10-17 이재영 이동통신플랫폼에 기반한 원격 로봇제어장치
JP2015066621A (ja) * 2013-09-27 2015-04-13 株式会社国際電気通信基礎技術研究所 ロボット制御システム、ロボット、出力制御プログラムおよび出力制御方法
JP2015136762A (ja) * 2014-01-23 2015-07-30 セイコーエプソン株式会社 処理装置、ロボット、ロボットシステム及び処理方法
JP2017170568A (ja) * 2016-03-24 2017-09-28 株式会社国際電気通信基礎技術研究所 サービス提供ロボットシステム
JP2019051568A (ja) * 2017-09-14 2019-04-04 大日本印刷株式会社 案内装置、案内システム、案内方法及びプログラム
JP7000759B2 (ja) 2017-09-14 2022-01-19 大日本印刷株式会社 案内装置、案内システム、案内方法及びプログラム
JP2019119028A (ja) * 2018-01-10 2019-07-22 株式会社日立製作所 移動体、動作制御システム、及び移動体システム
WO2019138650A1 (ja) * 2018-01-10 2019-07-18 株式会社日立製作所 移動体
JP7081926B2 (ja) 2018-01-10 2022-06-07 株式会社日立製作所 移動体、動作制御システム、及び移動体システム
US11378960B2 (en) 2018-01-10 2022-07-05 Hitachi, Ltd. Mobile entity
JP2020026011A (ja) * 2018-08-14 2020-02-20 日本放送協会 ロボット操作装置及びロボット操作プログラム
JP7186036B2 (ja) 2018-08-14 2022-12-08 日本放送協会 ロボット操作装置及びロボット操作プログラム
JP7402450B2 (ja) 2019-10-09 2023-12-21 Telexistence株式会社 ロボット制御装置、ロボット制御方法及びロボット制御システム

Similar Documents

Publication Publication Date Title
JP4822319B2 (ja) コミュニケーションロボットおよびそれを用いた注意制御システム
JP5033994B2 (ja) コミュニケーションロボット
JP4639343B2 (ja) ロボット遠隔操作システム
US10532003B2 (en) Guide robot and method and system for operating the same
JP5070441B2 (ja) ロボット遠隔操作システム
JP4386367B2 (ja) コミュニケーションロボット改良システム
JP5318623B2 (ja) 遠隔操作装置および遠隔操作プログラム
JP5429462B2 (ja) コミュニケーションロボット
JP2007160427A (ja) ロボット制御システム
JP5366048B2 (ja) 情報提供システム
JP4512830B2 (ja) コミュニケーションロボット
JP2009241166A (ja) ロボット遠隔操作システム
JP2007147217A (ja) ロボット
JP4599522B2 (ja) コミュニケーションロボット
JP2007260822A (ja) 道案内ロボット
WO2018155116A1 (ja) 情報処理装置、情報処理方法及びコンピュータプログラム
JP2007196300A (ja) ロボット制御システム
JP2004216513A (ja) コミュニケーションロボット
WO2019138619A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2009166184A (ja) ガイドロボット
KR20130060952A (ko) 서비스로봇 원격제어 시스템
JP2015066624A (ja) ロボット制御システム、ロボット制御プログラムおよび説明ロボット
JP2009151419A (ja) 対象物特定方法および装置
JP2009131914A (ja) ロボット制御システム
JP7102169B2 (ja) 装置、ロボット、方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080331

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110201

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110705