JP2011000656A - 案内ロボット - Google Patents

案内ロボット Download PDF

Info

Publication number
JP2011000656A
JP2011000656A JP2009143872A JP2009143872A JP2011000656A JP 2011000656 A JP2011000656 A JP 2011000656A JP 2009143872 A JP2009143872 A JP 2009143872A JP 2009143872 A JP2009143872 A JP 2009143872A JP 2011000656 A JP2011000656 A JP 2011000656A
Authority
JP
Japan
Prior art keywords
robot
guidance
person
destination
guide
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009143872A
Other languages
English (en)
Other versions
JP2011000656A5 (ja
Inventor
Masahiro Shiomi
昌裕 塩見
Takayuki Kanda
崇行 神田
Dylan Fairchild Glas
フェアチャイルド グラス ディラン
Satoshi Satake
聡 佐竹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2009143872A priority Critical patent/JP2011000656A/ja
Publication of JP2011000656A publication Critical patent/JP2011000656A/ja
Publication of JP2011000656A5 publication Critical patent/JP2011000656A5/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

【構成】 案内ロボット10は、擬人的な姿を有する人間型ロボットであり、イベント会場などに配置されて、人間を先導して目的地まで案内する案内サービスを提供する。案内ロボット10は、タスク設定手段(62,66,S1)を備え、不特定多数の人間を対象とする案内タスクを実行するときには、体の向きを後ろ方向に向けた状態で移動する。
【効果】 後ろ方向を向いた状態で移動するので、人間の関心を惹きつけながらの案内が可能となる。したがって、無関係の人間が合流し易くなり、より多くの人間を集めて目的地まで案内できる。
【選択図】 図1

Description

この発明は案内ロボットに関し、特にたとえば、人間を先導して目的地まで案内する、案内ロボットに関する。
従来技術の一例である特許文献1には、被案内者の歩行状態に応じた案内を行う案内ロボットが開示されている。特許文献1の案内ロボットは、被案内者の歩行速度および移動方向、すなわち歩行速度ベクトルを被案内者の歩行状態として検出する。そして、自身の走行速度ベクトルと被案内者の歩行速度ベクトルとを監視し、被案内者との距離が所定距離以上離れると、自身の速度を落とす速度制御を実行する。これによって、案内ロボットは、被案内者を置き去りにすることなく目的地まで案内することができる。
特開2003−340764号公報 [B25J 13/00]
特許文献1の技術などの従来の案内ロボットは、案内対象となる個人またはグループを特定してから案内を開始し、その特定した個人またはグループだけを目的地まで案内している。つまり、案内開始時に特定した人間以外の人間は案内しない(或いは考慮しない)ようにしている。たとえば、オフィスにおいて特定の顧客を応接室まで案内するような場合には、その応接室までの案内を希望する他の人間が存在する状況は考え難いので、特定した人間のみを案内する従来の案内ロボットで問題はない。
しかしながら、イベント会場などのように不特定多数の人間が混在する環境においては、案内を求める多くの人間が存在し、その中には目的地の共通する人間が存在する場合も多い。このような場合、目的地が共通する人間については、無関係の人間同士であっても同時に案内する方が効率的である。しかし、無関係の人間同士は、互いに遠慮してしまうので、たとえば或る人間が案内ロボットに案内を受けているときに、他の無関係の人間が一緒についていきたいと考えても、無関係の人間の集団に加わることにためらいを感じて諦めてしまう場合が多い。したがって、不特定多数の人間をより多く集めて目的地まで案内するためには、無関係の人間が自然と合流できる状況を作り出すことが重要となる。
それゆえに、この発明の主たる目的は、新規な、案内ロボットを提供することである。
この発明の他の目的は、より多くの人間を集めて目的地まで案内できる、案内ロボットを提供することである。
この発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明などは、本発明の理解を助けるために後述する実施の形態との対応関係を示したものであって、この発明を何ら限定するものではない。
第1の発明は、人間を先導して目的地まで案内する人間型の案内ロボットであって、案内タスクを設定するタスク設定手段、およびタスク設定手段に設定された案内タスクが不特定多数の人間を対象とするとき、体の向きを後ろ方向に向けた状態で移動するように制御する第1移動制御手段を備える、案内ロボットである。
第1の発明では、案内ロボット(10)は、擬人的な姿を有する人間型ロボットであり、イベント会場などに配置されて、人間を先導して目的地まで案内する案内サービスを提供する。案内ロボットは、タスク設定手段(62,66,S1)を備え、第1移動制御手段(62,66,S9,S15)は、タスク設定手段に設定された案内タスクが不特定多数の人間を対象とするとき、体の向きを後ろ方向に向けた状態で移動するように案内ロボットの動作を制御する。つまり、案内ロボットは、不特定多数の人間を案内するとき、体(32)の正面側を後続する人間側(被案内者側)に向けて移動する。
ここで、「不特定多数の人間を対象とする案内タスク」とは、案内開始時に特定した人間以外の人間も案内する(或いは案内する可能性がある)案内タスクをいい、不特定多数の人間をより多く集めて目的地まで案内することが望まれる案内タスク、たとえば、環境内の或る場所で催し物が始まるときに、その場所まで人間を誘導するような誘導案内サービスを提供する案内タスクを含む。
第1の発明によれば、後ろ方向を向いた状態で移動するので、人間の関心を惹きつけながらの案内が可能となる。したがって、無関係の人間が合流し易くなり、より多くの人間を集めて目的地まで案内できる。
第2の発明は、第1の発明に従属し、タスク設定手段に設定された案内タスクが特定の人間を対象とするとき、体の向きを進行方向に向けた状態で移動するように制御する第2移動制御手段を備える。
第2の発明では、第2移動制御手段(62,66,S9,S11)は、タスク設定手段(62,66,S1)に設定された案内タスクが特定の人間を対象とするとき、体の向きを進行方向に向けた状態で移動するように案内ロボットの動作を制御する。つまり、案内ロボットは、特定の人間を案内するとき、体(32)の正面側を進行方向に向けて移動する。
ここで、「特定の人間を対象とする案内タスク」とは、案内開始時に特定した人間のみをそのまま目的地まで案内する、つまり案内の途中に被案内者の数が増減しない案内タスクをいい、たとえば、オフィスにおいて顧客を応接室まで案内するような道案内サービスを提供する案内タスクを含む。
第2の発明によれば、案内タスクの内容および目的に応じて案内方法を変更するので、その状況により適した案内が可能となる。
この発明によれば、後ろ方向を向いた状態で移動するので、人間の関心を惹きつけながらの案内が可能となる。したがって、無関係の人間が合流し易くなり、より多くの人間を集めて目的地まで案内できる。
この発明の上述の目的、その他の目的、特徴および利点は、図面を参照して行う後述の実施例の詳細な説明から一層明らかとなろう。
この発明の一実施例である案内ロボットが人間を案内する様子を示す図解図である。 図1の案内ロボットの外観の一例を示す図解図である。 図1の案内ロボットの電気的構成の一例を示す図解図である。 図3に示すCPUの全体処理の動作の一例を示すフロー図である。 図3に示すCPUの視線制御処理の動作の一例を示すフロー図である。 図3に示すCPUの移動制御処理の動作の一例を示すフロー図である。 図3に示すCPUの会話制御処理の動作の一例を示すフロー図である。
図1を参照して、この実施例の案内ロボット(以下、単に「ロボット」という。)10は、音声および身体動作を用いて人間とコミュニケーションを実行する機能を備える相互作用指向の人間型ロボットである。ここで、人間型ロボットとは、擬人的な姿を有するロボットをいう。ただし、この発明における人間型ロボットは、移動可能であれば、自律2足歩行できるロボットに限定されない。
ロボット10は、地下街、イベント会場、遊園地および美術館などの不特定多数の人間が存在する環境に配置され、人間(被案内者)を先導して目的地まで案内する案内サービスを提供する。ロボット10が提供する案内サービス、つまりロボット10に与えられる案内タスクには、展示案内サービス、誘導案内サービスおよび道案内サービス等が含まれ、ロボット10は、不特定多数の人間をより多く集めて目的地まで案内したい状況において、特にその効果を発揮する。
ここで、展示案内サービスとは、たとえば、配置された環境内を巡回して人間を展示物(或いは商品)まで案内し、展示物に応じた説明を行うような案内サービスをいう。また、誘導案内サービスとは、たとえば、環境内の或る場所で催し物が始まるときに、その場所まで人間を誘導するような案内サービスをいう。さらに、道案内サービスとは、たとえば、目的地までの経路が分からない、つまり道に迷った人間を目的地まで案内するような案内サービスをいう。ただし、ロボット10が提供するこれらの案内サービスはあくまで一例であり、人間を先導して目的地まで案内する案内サービスであれば、その具体的態様は限定されない。
図2は、ロボット10の外観を示す正面図である。先ず、この図2を参照して、ロボット10のハードウェアの構成について説明する。ロボット10は台車20を含み、この台車20の下面にはロボット10を自律移動させる2つの車輪22および1つの従輪24が設けられる。2つの車輪22は車輪モータ26(図3参照)によってそれぞれ独立に駆動され、台車20すなわちロボット10を前後左右任意の方向に動かすことができる。また、従輪24は車輪22を補助する補助輪である。このように、ロボット10は、配置された環境内を自由に移動可能なものである。ただし、ロボット10の移動機構は、車輪タイプに限定されず、公知の移動機構を適宜採用でき、たとえば2足歩行タイプの移動機構を採用することもできる。
台車20の上には、円柱形のセンサ取付パネル28が設けられ、このセンサ取付パネル28には、赤外線距離センサ30が取り付けられる。この赤外線距離センサ30は、センサ取付パネル28すなわちロボット10の周囲の物体(人間や障害物など)との距離を計測するものである。
また、センサ取付パネル28の上には、胴体32が直立するように設けられる。胴体32の前方中央上部(胸に相当する位置)には、上述した赤外線距離センサ30がさらに設けられる。これは、ロボット10の前方の主として人間との距離を計測する。また、胴体32には、1つの全方位カメラ34が設けられる。全方位カメラ34は、たとえば背面側上端部のほぼ中央から延びる支柱36上に設けられる。全方位カメラ34は、ロボット10の周囲を撮影するものであり、後述する眼カメラ60とは区別される。この全方位カメラ34としては、たとえばCCDやCMOSのような固体撮像素子を用いるカメラを採用することができる。なお、これら赤外線距離センサ30および全方位カメラ34の設置位置は当該部位に限られず適宜変更され得る。
胴体32の両側面上端部(肩に相当する位置)のそれぞれには、肩関節38Rおよび38Lによって、上腕40Rおよび40Lが設けられる。図示は省略するが、肩関節38Rおよび38Lのそれぞれは、直交する3軸の自由度を有する。すなわち、肩関節38Rは、直交する3軸のそれぞれの軸廻りにおいて上腕40Rの角度を制御できる。肩関節38Rの或る軸(ヨー軸)は、上腕40Rの長手方向(または軸)に平行な軸であり、他の2軸(ピッチ軸、ロール軸)は、それにそれぞれ異なる方向から直交する軸である。同様に、肩関節38Lは、直交する3軸のそれぞれの軸廻りにおいて上腕40Lの角度を制御できる。肩関節38Lの或る軸(ヨー軸)は、上腕40Lの長手方向(または軸)に平行な軸であり、他の2軸(ピッチ軸、ロール軸)は、それにそれぞれ異なる方向から直交する軸である。
また、上腕40Rおよび40Lのそれぞれの先端には、肘関節42Rおよび42Lを介して、前腕44Rおよび44Lが設けられる。図示は省略するが、肘関節42Rおよび42Lは、それぞれ1軸の自由度を有し、この軸(ピッチ軸)の軸廻りにおいて前腕44Rおよび44Lの角度を制御できる。
前腕44Rおよび44Lのそれぞれの先端には、手に相当する球体46Rおよび46Lがそれぞれ固定的に設けられる。ただし、指や掌の機能が必要な場合には、人間の手の形をした「手」を用いることも可能である。
また、図示は省略するが、台車20の前面、肩関節38R,38Lを含む肩に相当する部位、上腕40R,40L、前腕44R,44Lおよび球体46R,46Lには、それぞれ、接触センサ(図2で包括的に示す。:48)が設けられている。台車20の前面の接触センサ48は、台車20への人間や他の障害物の接触を検知する。したがって、ロボット10の移動中に障害物との接触があると、それを検知し、直ちに車輪22の駆動を停止してロボット10の移動を急停止させることができる。また、その他の接触センサ48は、主に、人間がロボット10の当該各部位に触れたかどうかを検知する。なお、接触センサ48の設置位置はこれらに限定されず、適宜な位置(胸、腹、脇、背中、腰など)に設けられてよい。
胴体32の中央上部(首に相当する位置)には首関節50が設けられ、さらにその上には頭部52が設けられる。図示は省略するが、首関節50は、3軸の自由度を有し、3軸の各軸廻りに角度制御可能である。或る軸(ヨー軸)はロボット10の真上(鉛直上向き)に向かう軸であり、他の2軸(ピッチ軸、ロール軸)は、それぞれ、それと異なる方向で直交する軸である。
頭部52には、口に相当する位置に、スピーカ54が設けられる。スピーカ54は、ロボット10が、それの周辺の人間に対して音声ないし音によってコミュニケーションを取るために用いられる。また、耳に相当する位置には、マイク56Rおよび56Lが設けられる。以下、右耳に相当するマイク56Rと左耳に相当するマイク56Lとをまとめて「マイク56」ということがある。マイク56は、周囲の音、とりわけコミュニケーションを実行する対象である人間の声を取り込む。さらに、目に相当する位置には、眼球部58Rおよび58Lが設けられる。眼球部58Rおよび58Lは、それぞれ眼カメラ60Rおよび60Lを含む。以下、右の眼球部58Rと左の眼球部58Lとをまとめて「眼球部58」ということがあり、また、右の眼カメラ60Rと左の眼カメラ60Lとをまとめて「眼カメラ60」ということがある。
眼カメラ60は、ロボット10に接近した人間の顔や他の部分ないし物体などを撮影して、それに対応する映像信号を取り込む。眼カメラ60としては、上述した全方位カメラ34と同様のカメラを用いることができる。たとえば、眼カメラ60は眼球部58内に固定され、眼球部58は眼球支持部(図示せず)を介して頭部52内の所定位置に取り付けられる。図示は省略するが、眼球支持部は、2軸の自由度を有し、それらの各軸廻りに角度制御可能である。たとえば、この2軸の一方は、頭部52の上へ向かう方向の軸(ヨー軸)であり、他方は、一方の軸に直交しかつ頭部52の正面側(顔)が向く方向に直交する方向の軸(ピッチ軸)である。眼球支持部がこの2軸の各軸廻りに回転されることによって、眼球部58ないし眼カメラ60の先端(正面)側が変位され、カメラ軸すなわち視線方向が移動される。
なお、上述のスピーカ54、マイク56および眼カメラ60の設置位置は、これらに限定されず、適宜な位置に設けてられてよい。
図3は、ロボット10の電気的な構成を示すブロック図である。図3に示すように、ロボット10は、全体を制御するCPU62を含む。CPU62は、マイクロコンピュータ或いはプロセサとも呼ばれ、バス64を介して、メモリ66、モータ制御ボード68、センサ入力/出力ボード70および音声入力/出力ボード72に接続される。
メモリ66は、図示は省略するが、ROMやHDDおよびRAMを含む。ROMやHDDには、ロボット10の制御プログラム(人間12との間でコミュニケーションを実行するための行動制御プログラム、人間12を先導して案内するための移動制御プログラム、および外部コンピュータとの間で必要な情報を送受信するための通信プログラム等)が予め記憶される。また、ROMやHDDには、コミュニケーションを実行する際にスピーカ54から発生すべき音声または声の音声データ(音声合成データ)、および配置される現場(地下街やイベント会場など)の地図データなどの適宜なデータが記憶される。また、RAMは、ワークメモリやバッファメモリとして用いられる。
モータ制御ボード68は、たとえばDSPで構成され、各腕や首関節50および眼球部58などの各軸モータの駆動を制御する。すなわち、モータ制御ボード68は、CPU62からの制御データを受け、右眼球部58Rの2軸のそれぞれの角度を制御する2つのモータ(図3では、まとめて「右眼球モータ」と示す。)74の回転角度を制御する。同様に、モータ制御ボード68は、CPU62からの制御データを受け、左眼球部58Lの2軸のそれぞれの角度を制御する2つのモータ(図3では、まとめて「左眼球モータ」と示す。)76の回転角度を制御する。
また、モータ制御ボード68は、CPU62からの制御データを受け、右肩関節38Rの直交する3軸のそれぞれの角度を制御する3つのモータと右肘関節42Rの角度を制御する1つのモータとの計4つのモータ(図3では、まとめて「右腕モータ」と示す。)78の回転角度を調節する。同様に、モータ制御ボード68は、CPU62からの制御データを受け、左肩関節38Lの直交する3軸のそれぞれの角度を制御する3つのモータと左肘関節42Lの角度を制御する1つのモータとの計4つのモータ(図3では、まとめて「左腕モータ」と示す。)80の回転角度を調節する。
さらに、モータ制御ボード68は、CPU62からの制御データを受け、首関節50の直交する3軸のそれぞれの角度を制御する3つのモータ(図3では、まとめて「頭部モータ」と示す。)82の回転角度を制御する。さらにまた、モータ制御ボード68は、CPU62からの制御データを受け、車輪22を駆動する2つのモータ(図3では、まとめて「車輪モータ」と示す。)26の回転角度を制御する。
なお、この実施例では、車輪モータ26を除くモータは、制御を簡素化するために、ステッピングモータ或いはパルスモータを用いるようにしてある。ただし、車輪モータ26と同様に、直流モータを用いるようにしてもよい。
センサ入力/出力ボード70もまた、同様に、DSPで構成され、各センサからの信号を取り込んでCPU62に与える。すなわち、赤外線距離センサ30のそれぞれからの反射時間に関するデータがこのセンサ入力/出力ボード70を通してCPU62に入力される。また、全方位カメラ34からの映像信号が、必要に応じてこのセンサ入力/出力ボード70で所定の処理を施された後、CPU62に入力される。眼カメラ60からの映像信号も、同様にして、CPU62に入力される。また、上述した複数の接触センサ(図3では、まとめて「接触センサ48」と示す。)からの信号がセンサ入力/出力ボード70を介してCPU62に与えられる。
音声入力/出力ボード72もまた、同様に、DSPで構成され、CPU62から与えられる音声合成データに従った音声または声がスピーカ54から出力される。また、マイク56からの音声入力が、音声入力/出力ボード56を介してCPU62に取り込まれる。
また、CPU62は、バス64を介して通信LANボード84に接続される。通信LANボード84は、DSPで構成され、CPU62から送られる送信データを無線通信装置86に与え、無線通信装置86から送信データを、たとえば、無線LANのようなネットワークを介して外部コンピュータに送信する。また、通信LANボード84は、無線通信装置86を介してデータを受信し、受信したデータをCPU62に与える。つまり、この通信LANボード84および無線通信装置86によって、ロボット10は外部コンピュータなどと無線通信を行うことができる。
このような構成のロボット10は、上述したように、イベント会場などに配置され、人間を先導して目的地まで案内する案内サービスを提供する。
ここで、ロボット10のような人間型ロボットをイベント会場などに配置して自由に移動させておくと、人間型ロボットは未だ貴重で人気が高いため、人間型ロボットの行くところについていく人間が出てくる。つまり、人間型ロボット自体が人間を惹きつける高い能力を有するので、人間型ロボットは、多くの人間を集めて誘導することに向いていると言える。しかし、このような人間を惹きつける能力は、人間型ロボットの目新しさに依拠するところが大きいと考えられる。
そこで本発明者らは、近い将来、人間型ロボットの目新しさが薄れるであろうことを考慮して、より人間の関心を惹きつけながら案内できる人間型の案内ロボットの案内態様を鋭意検討した結果、体の向きを後ろ方向に向けた状態で移動する、つまり人間側(被案内者側)を向いて後ろ向きに移動する案内態様がよいことに想到した。
検証実験として、本発明者らは、多くの人間が集まるイベント会場に人間型ロボットを配置し、前向きの移動と後ろ向きの移動とを人間型ロボットに実行させた。すると、前向きに移動させたときよりも、後ろ向きに移動させたときの方が、より多くの人間が人間型ロボットについてくるという検証結果が得られた。これは、恐らく、人間型ロボットが人間に背中を向けて移動するよりも、人間側を向いて移動する方が、人間の関心が人間型ロボットに集中し易くなり、その結果人間は、人間型ロボットに先導される他の人間をあまり気にすることなくその集団に合流できるようになったためと推定される。
その上、人間型ロボットは、人間の方を向いて移動することによって、移動しながらのコミュニケーションを人間に対して行い易くなる。つまり、人間型ロボットは、人間に背中を向けて移動していてはできなかった様々なコミュニケーションを、人間に対して実行できるようになる。したがって、そのコミュニケーションによって人間の関心をより惹きつけながら案内することができるので、他の人間がより合流し易い環境を作りだすことができると共に、一度合流した人間が案内途中で離れていくことも防止でき、より多くの人間を集めて案内することができるようになる。
そこで、この実施例のロボット10では、不特定多数の人間を対象とする案内タスクのとき、つまり案内開始時に特定した人間以外の人間も案内したいときには、より多くの人間を集めて目的地まで案内するために、体の向きを後ろ方向に向けた状態で移動するようにしている。ただし、ここでいう「後ろ方向」とは、真後ろ方向だけでなく、斜め後ろ方向も含む概念であり、ロボット10は、後続する人間がロボット10の体(胴体32)の正面側(胸側)を視認できる状態で移動する。
また、ロボット10は、特定の人間を対象とする案内タスクのとき、つまり案内開始時に特定した人間のみをそのまま目的地まで案内したいときには、体の向きを進行方向に向けた状態で移動するようにしている。特定の人間を案内する場合には、無関係の他の人間が合流し易い状況を作り出す必要がないからである。
したがって、この実施例における案内タスク(案内サービス)は、不特定多数の人間を対象とするものと、特定の人間を対象とするものとに分類されてメモリ66等に適宜記憶されており、ロボット10は、実行する案内タスクの内容や目的などに応じてその案内方法(前向きに移動するか、後ろ向きに移動するか)を変更する。
たとえば、環境内の或る場所で催し物が始まるときに、なるべく多くの人間を集めてその場所まで誘導するというような案内タスクは、不特定多数の人間を対象とするものに分類される。また、たとえば、イベント会場内を巡回案内し、展示物に応じた説明を無料で行うような案内タスク、つまり誰がついてきてもよいような案内タスクは、不特定多数の人間を対象とするものに分類される。
一方、たとえば、オフィスにおいて顧客を応接室まで案内するような案内タスクや、イベント会場において迷子をその保護者の所まで連れて行くような案内タスクは、特定の人間を対象とするものに分類される。また、たとえば、有料のバスツアー等に専属で配置され、そのツアー客を先導してイベント会場内を巡回案内するような案内タスクは、特定の人間を対象とするものに分類される。
言い換えると、ロボット10は、不特定多数の人間を案内するときの第1案内モードと、特定の人間を案内するときの第2案内モードとを有し、実行する案内タスクの内容や目的などに応じてその案内モードを変更すると言える。
なお、ロボット10が実行する案内タスクは、配置する環境に応じて予め固定的に設定しておいてもよいし、配置した環境のそのときの状況をオペレータが判断し、そのときの状況に応じて、たとえば外部コンピュータからオペレータが指示を送信することによって設定するようにしてもよい。また、ロボット10或いは環境に設けられたセンサによって検出されたセンサ情報に基づいて、そのときの状況をロボット10(CPU62)自身が判断し、その状況に応じて自身で案内タスクを設定(変更)することもできる。
以下には、具体例を挙げて、ロボット10が提供する案内サービスの一連の流れについて説明する。ここでは、イベント会場の或る場所において催し物が始まるときに、人間を集めてその場所まで誘導する誘導案内サービス(案内タスク)を、ロボット10が実行する場合を一例として説明する。
ロボット10が案内サービスを開始する際には、先ず、提供する案内サービスの内容を規定する案内タスクを設定する。この場合には、不特定多数の人間を対象とする誘導案内サービスを提供するという案内タスクが設定される。
上述の案内タスクが設定されると、ロボット10は、たとえばイベント会場の入場口や休憩室のような人間の多い場所に移動する。ただし、人間が多く集まるそのような場所に、ロボット10を予め配置しておいてもよい。そして、ロボット10は、検出した人間に対して積極的に話しかける。
ここで、ロボット10は、上述したように、イベント会場の地図データを予めメモリ66に記憶しているため、その地図データを参照して、自己位置を把握しながらイベント会場内を自由に自律移動できる。また、ロボット10は、イベント会場内に存在する障害物(壁や柱、置物など)の位置を把握しているので、たとえば、赤外線距離センサ30の検出結果に基づいて地図データに存在しないもの(障害物)を検出すると、それを人間とみなし、自身の周囲に存在する人間を認識することができる。この際、たとえば、イベント会場内の各人間に無線IDタグ(RFICタグなど)を装着させ、その無線IDタグの情報を読み取る無線IDタグリーダをロボット10が備える等して、各個人を識別可能に認識するようにすることもできる。ただし、ロボット10自身に備えたセンサによって人間を検出する必要は無く、たとえば、外部コンピュータが管理する、環境に設置したセンサ(レーザレンジファインダ、無線IDタグリーダ、床センサおよび天井カメラ等)によって人間を検出し、その検出結果を外部コンピュータからロボット10に与えるようにしてもよい。
人間を検出すると、ロボット10は、「○○でイベントが始まるけど一緒に行かない?案内するよ。」等とその人間に対して話しかける。そして、音声認識などによって肯定的な返事を得られたときには、現在地から目的地(催し物が行われる場所○○)までの移動経路を取得し、目的地への移動を開始する。このとき、周囲に他の人間が存在するときには、「○○でイベントが始まるけど、みんなも一緒に行かない?」等と他の人間に問いかけてから移動を開始するようにしてもよい。より多くの人間を集めてから案内を開始した方が、効率的だからである。ただし、周囲に複数の人間を検出した場合には、複数の人間全体に対して呼びかけるようにして案内が必要かどうかを問いかけ、少なくとも1人の人間が肯定的な返事をしたときに、目的地への移動を開始するようにすることもできる。
なお、現在地からの目的地までの移動経路は、ロボット10自身が算出することもできるし、外部コンピュータで算出したものをロボット10に与えることもできる。算出する移動経路は、最短経路であってもよいし、本件発明者らが先に出願した特開2007−260822に記載されている見通し経路であってもよい。このような移動経路は、曲がり角などに設定される仮目的地(パス)を順次通過して、目的地まで到達するものである。
目的地までの移動経路を取得すると、ロボット10は、先ず仮目的地に向けて移動するが、ここでの案内タスクは不特定多数の人間を対象としているので、体の向きを後ろ方向に向けた状態で移動する。つまり、案内している人間(被案内者)の方に体の正面側を向け、後ろ向きに移動する。
この移動の際には、ロボット10は、被案内者の数や種類および被案内者との位置関係など応じて、顔の向きや移動速度、コミュニケーション内容などを変更する制御を適宜行う。
具体例を挙げると、ロボット10は、被案内者が1人のときには、顔(または視線)の向きをその被案内者の方に向けて会話する。一方、被案内者が複数のときには、たとえば、その複数の被案内者の重心座標方向に顔の方向を向けたり、最も両側に位置する被案内者の方向に交互に顔を向けたり(つまり被案内者全体を見回す)して、複数の被案内者全体に話しかけるようにする。このような視線方向の制御は、ロボット10が、体の正面側を被案内者の方に向けて移動しているからこそ自然に実行できる動作(コミュニケーション)の1つである。
また、ロボット10は、被案内者が1人のときには、その被案内者までの距離を算出し、その距離に応じて移動速度を変更する。たとえば、距離が離れすぎると移動速度を遅くしたり、距離が近づきすぎると移動速度を速くしたりする。一方、被案内者が複数のときには、たとえば最後尾の被案内者までの距離を算出し、その距離に応じて移動速度を変更する。
なお、このときの被案内者の位置(座標)や自身との位置関係は、ロボット10または環境に設けられたセンサからのセンサ情報に基づいてロボット10自身が算出してもよいし、外部コンピュータで算出した情報を受信して取得してもよい。
さらに、ロボット10は、無線IDタグ等を用いて被案内者を個別に識別して検出することによって、被案内者に応じた動作をより緻密に行うこともできる。たとえば、被案内者の集団に幼い子供が含まれる場合には、移動速度を遅くしたり、子供向けの会話をしたりする。また、たとえば、被案内者の集団が1つのグループ(家族や友人など)であるときには、そのグループの種類に応じた会話を行う。
また、ロボット10は、案内の途中に他の人間を検出したときには、その検出した他の人間の方に視線を向けて、「○○に行きたい人は僕についてきてね。」等と話しかけ、一緒についてくるように促す。移動途中に検出された人間に対してロボット10が話しかけることにより、無関係の他の人間がより合流し易くなるからである。ただし、必ずしもロボット10が積極的に呼びかけることによって他の人間を集める必要はなく、たとえば、「○○行き」等と書かれたガイド旗をロボット10に持たせておくだけでも、人間を集め得る。
次に、上述のようなロボット10の動作の一例を、フロー図を用いて説明する。具体的には、ロボット10のCPU62が、図4に示すフロー図に従って全体処理を実行する。
図4を参照して、CPU62は、全体処理を開始すると、ステップS1で案内タスクを設定する。たとえば、外部コンピュータから送信されるオペレータの指示を受信することによって案内タスクを設定してもよいし、ロボット10或いは環境に備えられたセンサ情報に基づきそのときの状況を判断して案内タスクを設定してもよい。ただし、配置環境に応じた案内タスクが予め固定的に設定されている場合には、このステップS1は省略される。
続くステップS3では、対話ユーザが案内を求めているか否か、つまり案内を求める人間が存在するか否かを判断する。たとえば、検出した人間に対して、「もうすぐイベント△△が始まるけど、一緒に行かない?案内するよ。」などと話しかけ、人間の返答を音声認識することによって、その人間(対話ユーザ)が案内を求めているか否かを判断する。ステップS3で“NO”のとき、すなわち対話ユーザが案内を求めていない場合(案内を求める人間が存在しない場合)には、そのままこの全体処理を終了する。一方、ステップS3で“YES”のとき、すなわち対話ユーザが案内を求めている場合には、ステップS5に進む。
ステップS5では、目的地(たとえば、イベント△△の場所)までの経路情報を取得する。たとえば、メモリ66に記憶した環境の地図データを参照して、曲がり角などに設定される仮目的地を含む、現在地から目的地までの見通し経路を算出し、メモリ66等に記憶する。次のステップS7では、仮目的地を設定する。つまり、ステップS5で取得した経路情報を参照して、最初に(或いは次に)向かうべき仮目的地の座標を設定する。
次のステップS9では、ステップS1で設定された案内タスクが、不特定多数の人間を対象としているか否かを判断する。
ステップS9で“NO”のとき、たとえば、ロボット10が有料のバスツアー等に専属で配置され、そのツアー客を先導して目的地まで案内するような、特定の人間を対象とする案内タスクを実行している場合には、ステップS11に進む。ステップS11では、体の向きを、進行方向つまり仮目的地の方向に設定し、当該仮目的地への移動を開始する。この移動の際には、会話などのコミュニケーションを被案内者との間で行ったり、被案内者との距離に応じて移動速度を変更したりする制御処理を適宜実行する。
続くステップS13では、仮目的地に到着したか否かを判断する。ステップS13で“NO”のとき、すなわち仮目的地の座標位置まで到着していないときには、そのまま移動を続ける。一方、ステップS13で“YES”のとき、すなわち仮目的地の座標位置まで到着したときには、ステップS25に進む。
また、ステップS9で“YES”のとき、つまり、誰がついてきてもよいような、不特定多数の人間を対象とする案内タスクを実行している場合には、ステップS15に進む。ステップS15では、体の向きを、後ろ方向つまり仮目的地の方向とは逆向きに設定し、当該仮目的地への移動を開始する。つまり、車輪モータ26の駆動を制御する信号を送ることによって、仮目的地に背中側を向けるように体(具体的には台車20および胴体32)を回転し、その後ろ向きの状態で移動を開始する。なお、この移動を開始する際に、周囲に他の人間が存在するときには、「イベント△△が始まるけど、みんなも一緒に行かない?」等と他の人間に一緒についてくるように促してから移動を開始するとよい。また、移動途中に、他の人間を検出したときには、その検出した他の人間の方に視線を向けて、「イベント△△に行きたい人は、僕についてきてね。」等と話しかけ、一緒についてくるように促すとよい。
続くステップS17、S19およびS21では、後述する、視線制御処理(図5)、移動制御処理(図6)および会話制御処理(図7)を実行し、ステップS23に進む。
ステップS23では、仮目的地に到着したか否かを判断する。ステップS23で“NO”のとき、すなわち仮目的地の座標位置まで到着していないときには、ステップS17に戻り、仮目的地への移動を続ける。一方、ステップS23で“YES”のとき、すなわち仮目的地の座標位置まで到着したときには、ステップS25に進む。
ステップS25では、目的地に到着したか否かを判断する。つまり、ステップS13またはステップS23で到着したと判断した仮目的地が、最終目的地であるか否かを判断する。ステップS25で“NO”のとき、すなわち目的地に到着していない場合には、ステップS7に戻って次の仮目的地を設定し、移動を続ける。一方、ステップS25で“YES”のとき、すなわち目的地に到着した場合には、この全体処理を終了する。
図5は、図4に示した視線制御処理(ステップS17)の動作の一例を示すフロー図であり、図6は、図4に示した移動制御処理(ステップS19)の動作の一例を示すフロー図であり、図7は、図4に示した会話制御処理(ステップS21)の動作の一例を示すフロー図である。これらの処理は、ロボット10のCPU62によって一定時間ごとに並列的に実行される。
図5を参照して、CPU62は、視線制御処理を開始すると、ステップS31で、進行方向に障害物が存在するか否かを判断する。たとえば、赤外線距離センサ30の検出情報に基づいて、所定距離内の進路上に障害物が存在するか否かを判断する。ステップS31で“YES”のとき、すなわち進行方向に障害物が存在するときには、ステップS33に進む。
ステップS33では、視線方向を障害物方向に設定する。すなわち、頭部モータ82および眼球モータ74,76の駆動を制御する信号を送り、頭部52および眼球部58を障害物方向に向ける。ロボット10(CPU62)は、赤外線距離センサ30等の検出情報に基づいて障害物の存在の有無を判断できるため、実際には視線方向(眼カメラ60)を障害物方向に向ける必要はない。しかし、追従している被案内者(人間)は、後進しているロボット10が進行方向の障害物に気づいているかどうかは分からない。このため、視線方向を障害物方向に向けて、ロボット10が障害物に気づいていることを示すことにより、被案内者の不安を除くようにしているのである。また、視線方向を障害物方向に向けることにより、被案内者に障害物の存在を気付かせることができ、注意を与えることもできる。ステップS33の処理が終了すると、そのまま当該処理を図4の全体処理にリターンする。
また、ステップS31で“NO”のとき、すなわち進行方向に障害物が存在しないときには、ステップS35に進む。ステップS35では、複数の被案内者が存在するか否かを判断する。たとえば、ロボット10との距離が所定範囲内であり、かつロボット10との距離の変化量が所定量よりも小さい人間が存在する場合には、その人間を被案内者とみなす。ステップS35で“NO”のとき、すなわち被案内者が1人のときには、ステップS37で視線方向をその被案内者の方向に設定し、当該処理を図4の全体処理にリターンする。一方、ステップS35で“YES”のとき、すなわち複数の被案内者が存在するときには、ステップS39で視線方向を複数の被案内者の重心座標方向に設定し、当該処理を図4の全体処理にリターンする。
なお、ステップS35では、複数の被案内者が存在するか否かの代わりに、被案内者の人数に増減があるかないかを判断し、増減があったときに、視線方向を変更する制御処理を行うようにしてもよい。
また、図6を参照して、CPU62は、移動制御処理を開始すると、ステップS41で、進行方向に障害物が存在するか否かを判断する。ステップS41で“YES”のとき、すなわち進行方向に障害物が存在するときには、ステップS43に進む。ステップS43では、障害物を回避する回避行動処理を行う。たとえば、障害物が存在しない方向に回転した後、一定距離前進する従来の手法などを適宜用いるとよい。ステップS43の処理が終了すると、そのまま当該処理を図4の全体処理にリターンする。また、ステップS41で“NO”のとき、すなわち進行方向に障害物が存在しないときには、ステップS45に進む。
ステップS45では、仮目的地の方向と進行方向とがなす角度Deg_tがM度以上か否かを判断する。つまり、仮目的地の方向(進みたい方向)と現在の進行方向とにずれが生じているか否かを判断する。ステップS45で“YES”のとき、すなわち仮目的地の方向と進行方向とがなす角度Deg_tがM度以上のときには、ステップS47でDeg_tがM度未満になるように進行方向を修正し、ステップS49に進む。一方、ステップS45で“NO”のとき、すなわち仮目的地の方向と進行方向とがなす角度Deg_tがM度未満のときには、そのままステップS49に進む。
ステップS49では、複数の被案内者が存在するか否かを判断する。ステップS49で“NO”のとき、すなわち被案内者が1人のときには、ステップS51で被案内者までの距離をDist_uとし、ステップS55に進む。一方、ステップS51で“YES”のとき、すなわち複数の被案内者が存在するときには、ステップS53で最も離れた被案内者までの距離をDist_uとし、ステップS55に進む。
ステップS55では、距離Dist_uに応じて移動速度を調整する。たとえば、「Speed=350mm/sec(Dist_u≧1.5m),Speed=700mm/sec(Dist_u<1.5m)」のような式を用いて、距離Dist_uが小さい場合には低速移動を行い、距離Dist_uが大きい場合には高速移動を行うように、移動速度を決定するとよい。なお、各パラメータの値は、案内タスクに応じて変更するようにしてもよい。ステップS55の処理が終了すると、当該処理を図4の全体処理にリターンする。
また、図7を参照して、CPU62は、会話制御処理を開始すると、ステップS61で、目的地に到着したか否かを判断する。たとえば、目的地までの距離が所定距離より小さくなった場合には、目的地に到着したと判断する。ステップS61で“YES”のとき、すなわち目的地に到着した場合には、ステップS63に進む。ステップS63では、「着きましたよ」等と発話して、被案内者に目的地に到着したことを伝え、当該処理を図4の全体処理にリターンする。一方、ステップS61で“NO”のとき、すなわち目的地に到着していない場合には、ステップS65に進む。ステップS65では、案内タスクに応じた雑談などを行う。たとえば、環境内の設備や展示物に関する雑談や、ロボット10自身の経験に関する雑談を行ったり、被案内者が1つのグループである場合には、グループに応じた雑談などを行ったりする。ステップS65の処理が終了すると、当該処理を図4の全体処理にリターンする。
この実施例によれば、不特定多数の人間を対象とする案内タスクのときには、後ろ方向を向いた状態で移動するので、人間の関心を惹きつけながらの案内が可能となる。したがって、ロボット10についてきている人間(集団)に無関係の人間が合流し易くなり、より多くの人間を集めて目的地まで案内することができる。つまり、効率的に案内サービスを提供できる。
また、ロボット10は、人間の方を向いて移動することによって、人間との移動しながらのコミュニケーションを行い易くなるので、そのコミュニケーションによって人間の関心をより惹きつけることができる。したがって、無関係の人間がより合流し易い環境を作りだすことができると共に、一度合流した人間が案内途中で離れていくことも防止でき、より多くの人間を集めて案内することができる。
さらに、ロボット10は、特定の人間を対象とする案内タスクのときには、進行方向を向いた状態で移動する。つまり、案内タスクの内容および目的に応じて案内方法を変更するので、その状況により適した案内が可能となる。
なお、上述の実施例では、特定の人間を対象とする案内タスクのときには、進行方向を向いた状態で移動するようにしたが、これに限定されず、ロボット10は、特定の人間を案内するときでも、体の向きを後ろ方向、つまり被案内者側に向けて移動するようにしてもよい。これにより、移動しながらのコミュニケーションを実行し易くなるので、特定の人間の関心(興味)を惹きつけながらの案内が可能となる。
10 …案内ロボット
22 …車輪
26 …車輪モータ
32 …胴体
52 …頭部
62 …CPU
66 …メモリ

Claims (2)

  1. 人間を先導して目的地まで案内する人間型の案内ロボットであって、
    案内タスクを設定するタスク設定手段、および
    前記タスク設定手段に設定された前記案内タスクが不特定多数の人間を対象とするとき、体の向きを後ろ方向に向けた状態で移動するように制御する第1移動制御手段を備える、案内ロボット。
  2. 前記タスク設定手段に設定された前記案内タスクが特定の人間を対象とするとき、体の向きを進行方向に向けた状態で移動するように制御する第2移動制御手段を備える、請求項1記載の案内ロボット。
JP2009143872A 2009-06-17 2009-06-17 案内ロボット Pending JP2011000656A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009143872A JP2011000656A (ja) 2009-06-17 2009-06-17 案内ロボット

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009143872A JP2011000656A (ja) 2009-06-17 2009-06-17 案内ロボット

Publications (2)

Publication Number Publication Date
JP2011000656A true JP2011000656A (ja) 2011-01-06
JP2011000656A5 JP2011000656A5 (ja) 2012-07-05

Family

ID=43559061

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009143872A Pending JP2011000656A (ja) 2009-06-17 2009-06-17 案内ロボット

Country Status (1)

Country Link
JP (1) JP2011000656A (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2013114493A1 (ja) * 2012-02-03 2015-05-11 日本電気株式会社 コミュニケーション引き込みシステム、コミュニケーション引き込み方法およびコミュニケーション引き込みプログラム
JPWO2016132729A1 (ja) * 2015-02-17 2017-11-30 日本電気株式会社 ロボット制御装置、ロボット、ロボット制御方法およびプログラム
JP2018144118A (ja) * 2017-03-01 2018-09-20 株式会社国際電気通信基礎技術研究所 案内ロボット
JP2019051568A (ja) * 2017-09-14 2019-04-04 大日本印刷株式会社 案内装置、案内システム、案内方法及びプログラム
JP2019074783A (ja) * 2017-10-12 2019-05-16 トヨタ自動車株式会社 移動支援システムおよび移動支援方法
JP2022048184A (ja) * 2019-04-24 2022-03-25 セコム株式会社 監視表示装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003340762A (ja) * 2002-05-24 2003-12-02 Mitsubishi Heavy Ind Ltd ロボットおよびロボットシステム
JP2005329515A (ja) * 2004-05-21 2005-12-02 Hitachi Ltd サービスロボットシステム
JP2006297531A (ja) * 2005-04-20 2006-11-02 Fujitsu Ltd サービスロボット
WO2007132571A1 (ja) * 2006-05-16 2007-11-22 Murata Kikai Kabushiki Kaisha ロボット
JP2008152504A (ja) * 2006-12-18 2008-07-03 Hitachi Ltd 案内ロボット装置及び案内システム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003340762A (ja) * 2002-05-24 2003-12-02 Mitsubishi Heavy Ind Ltd ロボットおよびロボットシステム
JP2005329515A (ja) * 2004-05-21 2005-12-02 Hitachi Ltd サービスロボットシステム
JP2006297531A (ja) * 2005-04-20 2006-11-02 Fujitsu Ltd サービスロボット
WO2007132571A1 (ja) * 2006-05-16 2007-11-22 Murata Kikai Kabushiki Kaisha ロボット
JP2008152504A (ja) * 2006-12-18 2008-07-03 Hitachi Ltd 案内ロボット装置及び案内システム

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2013114493A1 (ja) * 2012-02-03 2015-05-11 日本電気株式会社 コミュニケーション引き込みシステム、コミュニケーション引き込み方法およびコミュニケーション引き込みプログラム
US9662788B2 (en) 2012-02-03 2017-05-30 Nec Corporation Communication draw-in system, communication draw-in method, and communication draw-in program
JPWO2016132729A1 (ja) * 2015-02-17 2017-11-30 日本電気株式会社 ロボット制御装置、ロボット、ロボット制御方法およびプログラム
JP2018144118A (ja) * 2017-03-01 2018-09-20 株式会社国際電気通信基礎技術研究所 案内ロボット
JP2019051568A (ja) * 2017-09-14 2019-04-04 大日本印刷株式会社 案内装置、案内システム、案内方法及びプログラム
JP7000759B2 (ja) 2017-09-14 2022-01-19 大日本印刷株式会社 案内装置、案内システム、案内方法及びプログラム
JP2019074783A (ja) * 2017-10-12 2019-05-16 トヨタ自動車株式会社 移動支援システムおよび移動支援方法
JP7031212B2 (ja) 2017-10-12 2022-03-08 トヨタ自動車株式会社 移動支援システムおよび移動支援方法
JP2022048184A (ja) * 2019-04-24 2022-03-25 セコム株式会社 監視表示装置
JP7356524B2 (ja) 2019-04-24 2023-10-04 セコム株式会社 監視表示装置

Similar Documents

Publication Publication Date Title
JP5764795B2 (ja) 移動ロボット、移動ロボット用の学習システムおよび移動ロボットの行動学習方法
JP5324286B2 (ja) ネットワークロボットシステム、ロボット制御装置、ロボット制御方法およびロボット制御プログラム
JP5732632B2 (ja) ロボットシステムおよびそれに用いる空間陣形認識装置
JP5366048B2 (ja) 情報提供システム
JP5033994B2 (ja) コミュニケーションロボット
JP4822319B2 (ja) コミュニケーションロボットおよびそれを用いた注意制御システム
JP2007260822A (ja) 道案内ロボット
JP5768273B2 (ja) 歩行者の軌跡を予測して自己の回避行動を決定するロボット
JP4639343B2 (ja) ロボット遠隔操作システム
JP5617562B2 (ja) 移動ロボット
JP2011000656A (ja) 案内ロボット
JP2008149399A (ja) 移動ロボットおよび移動速度推定方法
JPWO2007132571A1 (ja) ロボット
JP2000202790A (ja) ロボット装置
JP5145569B2 (ja) 対象物特定方法および装置
JP6134895B2 (ja) ロボット制御システム、ロボット制御プログラムおよび説明ロボット
JP2007222968A (ja) コミュニケーションロボット
WO2013065312A1 (ja) 遠隔制御システム
JP2006272471A (ja) コミュニケーションロボット
JP4962940B2 (ja) 道案内システム
JP2017170568A (ja) サービス提供ロボットシステム
JP4793904B2 (ja) コミュニケーションロボットシステムおよびコミュニケーションロボット
JP2007130691A (ja) コミュニケーションロボット
JP5732633B2 (ja) コミュニケーションロボット
JP5115886B2 (ja) 道案内ロボット

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120517

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120517

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20131015