JP2007265329A - Route guidance system - Google Patents
Route guidance system Download PDFInfo
- Publication number
- JP2007265329A JP2007265329A JP2006092934A JP2006092934A JP2007265329A JP 2007265329 A JP2007265329 A JP 2007265329A JP 2006092934 A JP2006092934 A JP 2006092934A JP 2006092934 A JP2006092934 A JP 2006092934A JP 2007265329 A JP2007265329 A JP 2007265329A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- destination
- route
- person
- route guidance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000004891 communication Methods 0.000 claims abstract description 46
- 238000001514 detection method Methods 0.000 claims abstract description 14
- 230000033001 locomotion Effects 0.000 claims description 9
- 238000006243 chemical reaction Methods 0.000 claims description 4
- 238000000034 method Methods 0.000 description 18
- 210000005252 bulbus oculi Anatomy 0.000 description 16
- 210000003128 head Anatomy 0.000 description 15
- 230000008569 process Effects 0.000 description 15
- 230000006399 behavior Effects 0.000 description 13
- 210000001508 eye Anatomy 0.000 description 12
- 230000009471 action Effects 0.000 description 9
- 210000000323 shoulder joint Anatomy 0.000 description 9
- 241000282412 Homo Species 0.000 description 6
- 230000004044 response Effects 0.000 description 6
- 230000004397 blinking Effects 0.000 description 5
- 210000002310 elbow joint Anatomy 0.000 description 4
- 210000000245 forearm Anatomy 0.000 description 4
- 238000009434 installation Methods 0.000 description 3
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 210000001015 abdomen Anatomy 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010845 search algorithm Methods 0.000 description 1
Images
Landscapes
- Traffic Control Systems (AREA)
- Instructional Devices (AREA)
- Manipulator (AREA)
Abstract
Description
この発明は道案内システムに関し、特にたとえば、音声および身体動作を用いて情報提示を行うコミュニケーションロボットと地図情報の可視表示によって情報提示を行う表示装置とが連携して道案内を実行する、道案内システムに関する。 The present invention relates to a road guidance system, and in particular, for example, a road guidance in which a communication robot that presents information using voice and body movement and a display device that presents information by visual display of map information cooperate to execute road guidance. About the system.
背景技術の一例が特許文献1に開示される。この特許文献1のユーザ誘導装置の技術は、第1のディスプレイを有する移動ロボットと、第2のディスプレイを有する携帯端末装置と、ロボット管理サーバとによって構成される。ユーザが携帯端末装置に目的地を入力すると、第2のディスプレイには、目的地に至る道、ユーザおよび目的地方向を示す矢印がCGキャラクタとして表示される。ロボット管理サーバは、携帯端末装置に目的地が入力されたことに応じて、ユーザの近くに移動ロボットが存在するかどうかを判断する。ユーザの近くに移動ロボットが存在しない場合、或いは他のユーザを誘導中である場合には、ユーザは、そのまま第2のディスプレイに表示されたCGキャラクタに従って目的地まで移動する。一方、ユーザの近くに空いている移動ロボットが存在する場合には、第2のディスプレイに表示されたCGキャラクタが消去されるとともに、第1のディスプレイに同じCGキャラクタが表示される。これによって、携帯端末上の情報が移動ロボットに移ったことをユーザに知らせることができる。この後、移動ロボットは、ユーザとともに移動することによって、目的地までユーザを誘導する。
特許文献1の技術では、ディスプレイにCGキャラクタを表示することによって、分かり易く目的地までユーザを案内することができる。ユーザにとって親切ではあるが、移動ロボットが目的地までユーザとともに移動するので、1人の人間を道案内するのに時間がかかってしまう。つまり、非効率的である。
In the technique of
また、地図を理解することが苦手な人間は、たとえば現在地および目的地並びにその経路が地図上に示されていても、現在自分がどちらの方向を向いているのか分からなかったり、どちらの方向に進めばよいのか分からなかったりして、目的地まで辿り着けないということがある。 In addition, people who are not good at understanding the map, for example, even if the current location and destination and its route are shown on the map, do not know which direction you are currently facing, in which direction Sometimes you don't know what to do and you can't reach your destination.
それゆえに、この発明の主たる目的は、効率よく道案内を実行することができる、道案内システムを提供することである。 Therefore, a main object of the present invention is to provide a road guidance system that can efficiently perform road guidance.
この発明の他の目的は、地図を理解することが苦手な人間にとっても分かり易く道案内を実行することができる、道案内システムを提供することである。 Another object of the present invention is to provide a road guidance system that can execute road guidance in an easy-to-understand manner even for people who are not good at understanding maps.
本発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明等は、本発明の理解を助けるために後述する実施の形態との対応関係を示したものであって、本発明を何ら限定するものではない。 The present invention employs the following configuration in order to solve the above problems. The reference numerals in parentheses, supplementary explanations, and the like indicate correspondence relationships with embodiments described later to help understanding of the present invention, and do not limit the present invention in any way.
請求項1の発明は、少なくとも地図を表示装置に表示する地図表示手段、道案内の目的地を示す目的地情報を取得する目的地情報取得手段、目的地情報取得手段によって目的地情報が取得されたとき、表示装置の設置された現在地から目的地までの経路を要所に従って地図上に可視表示する経路表示手段、および経路表示手段によって経路が可視表示されるとき、要所毎に人間が進行すべき方向を音声および身体動作によって当該人間に説明するコミュニケーションロボットを制御する制御手段を備える、道案内システムである。 According to the first aspect of the present invention, destination information is acquired by at least map display means for displaying a map on a display device, destination information acquisition means for acquiring destination information indicating a destination for route guidance, and destination information acquisition means. When the route display means displays the route from the current location where the display device is installed to the destination on the map according to the important points, and the route is visually displayed by the route display means, a human progresses at each important point. It is a road guidance system provided with the control means which controls the communication robot which explains the direction which should be done to the said person with an audio | voice and a body motion.
請求項1の発明では、道案内システム(100)は、音声(発話)および身体動作(ジェスチャ)を用いた情報提示(説明)によって道案内を行うコミュニケーションロボット(10)と地図情報(地図や経路に関する情報)を可視表示することによって道案内を行う表示装置(12)とが、たとえばコンピュータ(14)を介して連携を取り、道案内を実行する。地図表示手段(12,14,S13)は、少なくとも地図を表示装置の画面に表示する。たとえば、現在地(たとえば、表示装置が設置される地点)を含む地図を表示する。目的地情報取得手段(10,14,S11)は、人間から道案内の目的地情報を取得する。たとえば、人間の発話やタッチパネル操作に基づいて目的地情報を取得してよい。経路表示手段(12,14,S13,S25,S29)は、目的地情報取得手段によって目的地情報が取得されたとき、表示装置の画面に表示された地図上に、現在地から目的地までの経路を要所に従って(道順に従って)可視表示する。ここで、要所とは、曲がり角や交差点などの人間が方向転換(右折や左折)を行う地点を意味する。ただし、要所には、現在地および目的地も含まれる。制御手段(14,S27,S31,S37)は、たとえば制御コマンドをコミュニケーションロボットに送信することによって、コミュニケーションロボットの動作(発話やジェスチャ)を制御する。たとえば、経路表示手段によって経路が道順に従って可視表示されるとき、それに対応(連携)させて、コミュニケーションロボットに、要所毎に人間が進行すべき方向を発話させたり、ジェスチャで提示させたりして、目的地までの経路を説明させる。 In the first aspect of the invention, the route guidance system (100) includes a communication robot (10) that performs route guidance by information presentation (explanation) using voice (utterance) and body movement (gesture), and map information (map and route). A display device (12) that provides road guidance by visually displaying information on the information) cooperates, for example, via a computer (14) to execute road guidance. The map display means (12, 14, S13) displays at least a map on the screen of the display device. For example, a map including the current location (for example, a point where a display device is installed) is displayed. The destination information acquisition means (10, 14, S11) acquires destination information for route guidance from a human. For example, the destination information may be acquired based on human speech or touch panel operation. The route display means (12, 14, S13, S25, S29) is a route from the current position to the destination on the map displayed on the screen of the display device when the destination information is acquired by the destination information acquisition means. Is visually displayed according to important points (following directions). Here, the key points mean points where a person turns around (turns right or left) such as a corner or an intersection. However, the key points include the current location and destination. The control means (14, S27, S31, S37) controls the operation (speech and gesture) of the communication robot by transmitting a control command to the communication robot, for example. For example, when the route is visually displayed according to the route by the route display means, the communication robot is made to respond (link) and let the communication robot speak the direction that the person should travel for each important point, or present it with a gesture. Explain the route to the destination.
請求項1の発明によれば、現在地から目的地までの経路を表示したり、進行すべき経路を発話やジェスチャで人間に説明したりするので、コミュニケーションロボットが人間と一緒に目的地まで移動することなく、地図を理解することが苦手な人間にとっても分かり易く当該経路を説明することができる。したがって、効率よく道案内を実行することができる。 According to the first aspect of the present invention, the route from the current location to the destination is displayed, or the route to be traveled is explained to the human by utterance or gesture, so the communication robot moves to the destination together with the human. Therefore, the route can be explained in an easy-to-understand manner even for a person who is not good at understanding a map. Therefore, the route guidance can be executed efficiently.
請求項2の発明は、請求項1に従属し、少なくとも表示装置の近傍に存在する人間を検出する人間検出手段をさらに備え、制御手段は、人間検出手段によって人間が検出されたとき、当該人間に対して道案内が必要であるかどうかをコミュニケーションロボットに質問させ、その質問に対する人間の反応に基づいてコミュニケーションロボットの動作を制御する。
The invention of claim 2 is dependent on
請求項2の発明では、人間検出手段(14,18,S3)をさらに備える。人間検出手段は、少なくとも表示装置の近傍(表示装置の画面に表示される内容を確認できる程度の距離、たとえば2m以内)に存在する人間(つまり、道を探していそうな人間)を検出する。制御手段(14,S5)は、人間検出手段によって人間が検出されたとき、当該人間に対して道案内が必要であるかどうかをコミュニケーションロボットに質問させる。つまり、検出した人間に対してコミュニケーションロボットが積極的に働きかける。そして、この質問に対する人間の反応(発話や特定の行動など)に基づいてコミュニケーションロボットの動作を制御する。たとえば、コミュニケーションロボットに当該人間に対して目的地を質問させたり、当該人間に対する働きかけを終了させたりする。したがって、表示装置の近傍で道を探していそうな人間にも積極的に働きかけ、道案内を実行することができる。 The invention of claim 2 further includes human detection means (14, 18, S3). The human detection means detects a human (that is, a human who is looking for a road) existing at least in the vicinity of the display device (a distance at which the content displayed on the screen of the display device can be confirmed, for example, within 2 m). When the person is detected by the human detection means, the control means (14, S5) causes the communication robot to ask whether or not the person needs route guidance. That is, the communication robot actively works on the detected human. Then, the operation of the communication robot is controlled based on a human reaction to the question (speech, specific action, etc.). For example, the communication robot is made to ask the person about the destination, or the action for the person is ended. Accordingly, it is possible to actively work on a person who seems to be searching for a road in the vicinity of the display device, and to execute the road guide.
この発明によれば、人間と一緒にコミュニケーションロボットが目的地まで移動することなく、地図を理解することが苦手な人間にとっても分かり易く目的地までの経路を説明することができる。つまり、効率よく道案内を実行することができる。 According to the present invention, the route to the destination can be explained in an easy-to-understand manner even for a person who is not good at understanding a map without the communication robot moving to the destination together with the person. That is, the route guidance can be executed efficiently.
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。 The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.
図1を参照して、この実施例の道案内システム(以下、単に「システム」という。)100は、コミュニケーションロボット(以下、単に「ロボット」という。)10、表示装置12、コンピュータ14、データベース(DB)16および床センサ18を含む。このシステム100は、たとえばコンピュータ14を介して、ロボット10と表示装置12とが連携を取り、道案内サービスを提供する。図1からも分かるように、システム100では、たとえば、ロボット10は、無線によって通信可能にコンピュータ14に接続され、このコンピュータ14には、表示装置12、DB16および床センサ18が有線によって接続される。
Referring to FIG. 1, a road guidance system (hereinafter simply referred to as “system”) 100 of this embodiment includes a communication robot (hereinafter simply referred to as “robot”) 10, a
なお、ロボット10とコンピュータ14とは、無線によって接続されるようにしてあるが、有線で接続されるようにしてもよい。
The
ロボット10は、主として人間のようなコミュニケーションの対象とコミュニケーションを実行することを目的とした相互作用指向のもので、音声および身振り手振りなどの身体動作を用いてコミュニケーションを実行する機能を備えている。ロボット10は、詳細は後述するが、音声(発話)と身体動作(ジェスチャ)とによって、道案内を必要とする人間に対して目的地までの経路(道順)を説明する。また、ロボット10の外観ないし電気的な構成については、後で詳細に説明することにする。
The
表示装置12は、たとえばCRTディスプレイや液晶ディスプレイであり、上述したように、コンピュータ14が接続され、このコンピュータ14によって表示制御される。この表示装置12には、道案内サービスを提供する範囲に相当する地図が表示される。また、表示装置12は、道案内を実行するとき、地図上の現在地および目的地を判別可能に表示したり、現在地から目的地までの経路を可視表示したりする。
The
なお、現在地および目的地を判別可能に表示するとは、その位置に色を付して示したり、その位置を光の明滅で示したりすることなどを意味する。また、経路の可視表示については後で詳細に説明する。 Note that displaying the current location and the destination in a distinguishable manner means that the location is indicated by a color, or that the location is indicated by blinking light. The visual display of the route will be described in detail later.
コンピュータ14は、汎用のパーソナルコンピュータ(PC)やワークステーションのようなコンピュータであり、上述したように、表示装置12の表示を制御したり、ロボット10のコミュニケーション行動を制御したりする。
The
DB16は、システム100が道案内サービスを提供する範囲(環境)についての地図の情報(地図情報)を記憶する。図示は省略するが、この地図情報は、地図についての画像データおよび曲がり角や交差点などの人間が方向転換(右折や左折)を行う可能性の有る全ての地点、環境内の目的地となり得る全ての地点のような要所を示す要所データを含む。ただし、要所データが示す要所には、現在地(たとえば、表示装置12が設置される地点)も含まれる。また、DB16には、地図情報に関連して、各目的地に対応付けて、現在地から該当する目的地までの最短距離となる経路(道順)およびその経路における要所の情報とを含む経路情報が記憶される。ただし、経路における各要所は、現在地から目的地までの道順に従う順序で記憶される。したがって、コンピュータ14は、地図情報と経路情報とに基づいて、表示装置12の表示を制御する。たとえば、コンピュータ14は、地図情報に基づいて、道案内サービスを提示する範囲についての地図を表示装置12に表示し、道案内を実行する場合には、地図情報と経路情報とに基づいて、現在地から目的地までの経路を道順に従って地図上に表示する。
The DB 16 stores map information (map information) about a range (environment) in which the
また、DB16には、ロボット10の動作を制御するための制御コマンドのコマンド名が記憶されている。このコマンド名は、ロボット10の行動モジュールの名称である。したがって、コンピュータ14は、道案内サービスを提供する場合には、ロボット10の制御コマンド(行動モジュール名)をロボット10に送信(指示)する。ロボット10は、コンピュータ14からの制御コマンドに従って、コミュニケーション行動すなわち道案内を実行する。たとえば、コンピュータ14は、地図情報と経路情報とに基づいて、表示装置12に現在地から目的地までの経路を道順に従って地図上に表示するとき、ロボット10に、要所毎の進行方向を発話させたり、身振り手振り(ジェスチャ)で提示させたりする。
The
床センサ(床圧力センサ)18は多数の検出素子(感圧センサ)を含み、この多数の検出素子は、たとえば、表示装置12の近傍(人間が表示装置12に表示された内容を確認できる程度の距離内)の床に埋め込まれる(敷き詰められる)。この実施例では、床センサ18は、表示装置12の近傍に人間が存在するとき、その圧力による信号(検出信号)をコンピュータ14に出力する。したがって、コンピュータ14は、床センサ18からの検出信号の有無に基づいて、表示装置12の近傍に人間が存在するか否かを知ることができる。
The floor sensor (floor pressure sensor) 18 includes a large number of detection elements (pressure-sensitive sensors). The large number of detection elements are, for example, in the vicinity of the display device 12 (a person can confirm the contents displayed on the display device 12). Embedded within the floor). In this embodiment, when a person is present near the
図2はロボット10の外観を示す正面図であり、この図2を参照して、ロボット10のハードウェアの構成について説明する。ロボット10は台車20を含み、この台車20の下面にはロボット10を自律移動させる2つの車輪22および1つの従輪24が設けられる。2つの車輪22は車輪モータ26(図3参照)によってそれぞれ独立に駆動され、台車20すなわちロボット10を前後左右任意の方向に動かすことができる。また、従輪24は車輪22を補助する補助輪である。したがって、ロボット10は、配置された空間内を自由に移動することができる。
FIG. 2 is a front view showing the appearance of the
台車20の上には、円柱形のセンサ取付パネル28が設けられ、このセンサ取付パネル28には、赤外線距離センサ30が取り付けられる。この赤外線距離センサ30は、センサ取付パネル28すなわちロボット10の周囲の物体(人間や障害物など)との距離を計測するものである。
A cylindrical
また、センサ取付パネル28の上には、胴体32が直立するように設けられる。胴体32の前方中央上部(胸に相当する位置)には、上述した赤外線距離センサ30がさらに設けられる。これは、ロボット10の前方の主として人間との距離を計測する。また。胴体32には、1つの全方位カメラ34が設けられる。全方位カメラ34は、たとえば背面側上端部のほぼ中央から延びる支柱36上に設けられる。全方位カメラ34は、ロボット10の周囲を撮影するものであり、後述する眼カメラ60とは区別される。この全方位カメラ34としては、たとえばCCDやCMOSのような固体撮像素子を用いるカメラを採用することができる。なお、これら赤外線距離センサ30および全方位カメラ34の設置位置は当該部位に限られず適宜変更され得る。
Further, the
胴体32の両側面上端部(肩に相当する位置)には、それぞれ、肩関節38Rおよび38Lによって、上腕40Rおよび40Lが設けられる。図示は省略するが、肩関節38Rおよび38Lは、それぞれ、直交する3軸の自由度を有する。すなわち、肩関節38Rは、直交する3軸のそれぞれの軸廻りにおいて上腕40Rの角度を制御できる。肩関節38Rの或る軸(ヨー軸)は、上腕40Rの長手方向(または軸)に平行な軸であり、他の2軸(ピッチ軸、ロール軸)は、それにそれぞれ異なる方向から直交する軸である。同様に、肩関節38Lは、直交する3軸のそれぞれの軸廻りにおいて上腕40Lの角度を制御できる。肩関節38Lの或る軸(ヨー軸)は、上腕40Lの長手方向(または軸)に平行な軸であり、他の2軸(ピッチ軸、ロール軸)は、それにそれぞれ異なる方向から直交する軸である。
また、上腕40Rおよび40Lのそれぞれの先端には、肘関節42Rおよび42Lを介して、前腕44Rおよび44Lが設けられる。図示は省略するが、肘関節42Rおよび42Lは、それぞれ1軸の自由度を有し、この軸(ピッチ軸)の軸廻りにおいて前腕44Rおよび44Lの角度を制御できる。
Further, forearms 44R and 44L are provided at the tips of the
前腕44Rおよび44Lのそれぞれの先端には、手に相当する球体46Rおよび46Lがそれぞれ固定的に設けられる。ただし、指や掌の機能が必要な場合には、人間の手の形をした「手」を用いることも可能である。
また、図示は省略するが、台車20の前面、肩関節38R,38Lを含む肩に相当する部位、上腕40R,40L、前腕44R,44Lおよび球体46R,46Lには、それぞれ、接触センサ(図3で包括的に示す。:48)が設けられている。台車20の前面の接触センサ48は、台車20への人間や他の障害物の接触を検知する。したがって、ロボット10の移動中に障害物との接触があると、それを検知し、直ちに車輪22の駆動を停止してロボット10の移動を急停止させることができる。また、その他の接触センサ48は、主に、人間がロボット10の当該各部位に触れたかどうかを検知する。なお、接触センサ48の設置位置はこれらに限定されず、適宜な位置(胸、腹、脇、背中、腰、頭など)に設けられてよい。
Although illustration is omitted, a contact sensor (FIG. 3) is provided on each of the front surface of the
胴体32の中央上部(首に相当する位置)には首関節50が設けられ、さらにその上には頭部52が設けられる。図示は省略するが、首関節50は、3軸の自由度を有し、3軸の各軸廻りに角度制御可能である。或る軸(ヨー軸)はロボット10の真上(鉛直上向き)に向かう軸であり、他の2軸(ピッチ軸、ロール軸)は、それぞれ、それと異なる方向で直交する軸である。
A neck joint 50 is provided at the upper center of the body 32 (a position corresponding to the neck), and a
頭部52には、口に相当する位置に、スピーカ54が設けられる。スピーカ54は、ロボット10が、それの周辺の人間に対して音声ないし音によってコミュニケーションを取るために用いられる。また、耳に相当する位置には、マイク56Rおよび56Lが設けられる。以下、右耳に相当するマイク56Rと左耳に相当するマイク56Lとをまとめてマイク56ということがある。マイク56は、周囲の音、とりわけコミュニケーションを実行する対象である人間の声を取り込む。さらに、目に相当する位置には、眼球部58Rおよび58Lが設けられる。眼球部58Rおよび58Lは、それぞれ眼カメラ60Rおよび60Lを含む。以下、右の眼球部58Rと左の眼球部58Lとをまとめて眼球部58ということがあり、また、右の眼カメラ60Rと左の眼カメラ60Lとをまとめて眼カメラ60ということがある。
The
眼カメラ60は、ロボット10に接近した人間の顔や他の部分ないし物体等を撮影して、それに対応する映像信号を取り込む。眼カメラ60としては、上述した全方位カメラ34と同様のカメラを用いることができる。たとえば、眼カメラ60は眼球部58内に固定され、眼球部58は眼球支持部(図示せず)を介して頭部52内の所定位置に取り付けられる。図示は省略するが、眼球支持部は、2軸の自由度を有し、それらの各軸廻りに角度制御可能である。たとえば、この2軸の一方は、頭部52の上へ向かう方向の軸(ヨー軸)であり、他方は、一方の軸に直交しかつ頭部52の正面側(顔)が向く方向に直交する方向の軸(ピッチ軸)である。眼球支持部がこの2軸の各軸廻りに回転されることによって、眼球部58ないし眼カメラ60の先端(正面)側が変位され、カメラ軸すなわち視線方向が移動される。
The
なお、上述のスピーカ54、マイク56および眼カメラ60の設置位置は、これらに限定されず、適宜な位置に設けてよい。
The installation positions of the
図3はロボット10の電気的な構成を示すブロック図であり、この図3を参照して、ロボット10は、全体を制御するCPU62を含む。CPU62は、マイクロコンピュータ或いはプロセサとも呼ばれ、バス64を介して、メモリ66、モータ制御ボード68、センサ入力/出力ボード70および音声入力/出力ボード72に接続される。
FIG. 3 is a block diagram showing an electrical configuration of the
メモリ66は、図示は省略するが、ROMやHDDおよびRAMを含み、ROMやHDDには、ロボット10の制御プログラム(人間との間でコミュニケーションを実行するための行動制御プログラム)が予め記憶されるとともに、コミュニケーションを実行する際にスピーカ54から発生すべき音声または声の音声データ(音声合成データ)および所定の身振りを提示するための角度データなども記憶される。ただし、ロボット10は、1または複数の行動制御プログラムに従って、人間との間でコミュニケーションを行い、すなわちジェスチャや発話を実行し、当該人間に対して道案内を行う。また、ROMやHDDには、外部コンピュータ(コンピュータ14など)との間で必要な情報を送受信するための通信プログラムなどが記録される。また、RAMは、ワークメモリやバッファメモリとして用いられる。
Although not shown, the
たとえば、道案内を行うための行動制御プログラム(行動モジュール)としては、“質問A”,“質問B”,…,“道案内A”,“道案内B”,…がある。ただし、“”内は、行動モジュールの名称である。ロボット10が、行動モジュール“質問A”を実行すると、たとえば、「道案内は必要ですか?」と発話して、首を傾げる。具体的には、CPU62は、メモリ66から「道案内は必要ですか?」に対応する音声データ(合成音声データ)を読み出し、音声入力/出力ボード72を介してスピーカ54から出力する。これと同時或いはほぼ同時に、CPU62は、メモリ66から首を傾げる場合の角度データを読み出し、モータ制御ボード68に与える。すると、首を傾げるように、頭部モータ82が回転される。
For example, there are “question A”, “question B”,..., “Road guidance A”, “road guidance B”,. However, “” is the name of the action module. When the
また、ロボット10が、行動モジュール“質問B”を実行すると、たとえば、「どこに行きたいの?」と発話して、首を傾げる。具体的には、CPU62は、メモリ66から「どこに行きたいの?」に対応する音声データを読み出し、音声入力/出力ボード72を介してスピーカ54から出力する。これと同時或いはほぼ同時に、CPU62は、メモリ66から首を傾げる場合の角度データを読み出し、モータ制御ボード68に与える。すると、首を傾げるように、頭部モータ82が回転される。
When the
さらに、ロボット10が、行動モジュール“道案内A”を実行すると、たとえば、右手を前方に挙げ、右方向に90度旋回して、「この方向を直進して、直ぐの突き当たりを」と発話する。具体的には、CPU62は、メモリ66から右手を前方に挙げる場合の角度データおよび右方向に90度旋回するための角度データを読み出し、モータ制御ボード68に与える。すると、右手を前方に挙げるように右腕モータ78が所定角度だけ回転され、右方向に90度旋回するように車輪モータ26が回転される。その後、CPU62は、メモリ66から「この方向を直進して、直ぐの突き当たりを」に対応する音声データを読み出し、音声入力/出力ボード72を介してスピーカ54から出力する。
Further, when the
さらにまた、ロボット10が、行動モジュール“道案内B”を実行すると、たとえば、左方向に90度旋回して、「左に曲がり、直ぐの交差点を」と発話する。具体的には、CPU62は、メモリ66から左方向に90度旋回するための角度データを読み出し、モータ制御ボード68に与える。すると、左方向に90度旋回するように車輪モータ26が回転される。その後、CPU62は、メモリ66から「左に曲がり、直ぐの交差点を」に対応する音声データを読み出し、音声入力/出力ボード72を介してスピーカ54から出力する。
Furthermore, when the
なお、これらの行動モジュールおよびそのコミュニケーション行動は、単なる例示であり、ロボット10が配置される環境や状況などに応じて、開発者ないし設計者によって、適宜設定される。
Note that these behavior modules and their communication behavior are merely examples, and are set as appropriate by the developer or designer according to the environment or situation in which the
モータ制御ボード68は、たとえばDSPで構成され、各腕や首関節および眼球部等の各軸モータの駆動を制御する。すなわち、モータ制御ボード68は、CPU62からの制御データを受け、右眼球部58Rの2軸のそれぞれの角度を制御する2つのモータ(図3では、まとめて「右眼球モータ」と示す。)74の回転角度を制御する。同様に、モータ制御ボード68は、CPU62からの制御データを受け、左眼球部58Lの2軸のそれぞれの角度を制御する2つのモータ(図3では、まとめて「左眼球モータ」と示す。)76の回転角度を制御する。
The
また、モータ制御ボード68は、CPU62からの制御データを受け、右肩関節38Rの直交する3軸のそれぞれの角度を制御する3つのモータと右肘関節42Rの角度を制御する1つのモータとの計4つのモータ(図3では、まとめて「右腕モータ」と示す。)78の回転角度を調節する。同様に、モータ制御ボード68は、CPU62からの制御データを受け、左肩関節38Lの直交する3軸のそれぞれの角度を制御する3つのモータと左肘関節42Lの角度を制御する1つのモータとの計4つのモータ(図3では、まとめて「左腕モータ」と示す。)80の回転角度を調節する。
The
さらに、モータ制御ボード68は、CPU62からの制御データを受け、首間接50の直交する3軸のそれぞれの角度を制御する3つのモータ(図3では、まとめて「頭部モータ」と示す。)82の回転角度を制御する。さらにまた、モータ制御ボード68は、CPU62からの制御データを受け、車輪22を駆動する2つのモータ(図3では、まとめて「車輪モータ」と示す。)26の回転角度を制御する。
Further, the
なお、この実施例では、車輪モータ26を除くモータは、制御を簡素化するために、ステッピングモータ或いはパルスモータを用いるようにしてある。ただし、車輪モータ26と同様に、直流モータを用いるようにしてもよい。
In this embodiment, a motor other than the
センサ入力/出力ボード70もまた、同様に、DSPで構成され、各センサからの信号を取り込んでCPU62に与える。すなわち、赤外線距離センサ30のそれぞれからの反射時間に関するデータがこのセンサ入力/出力ボード70を通してCPU62に入力される。また、全方位カメラ34からの映像信号が、必要に応じてこのセンサ入力/出力ボード70で所定の処理を施された後、CPU62に入力される。眼カメラ60からの映像信号も、同様にして、CPU62に入力される。また、上述した複数の接触センサ(図3では、まとめて「接触センサ48」と示す。)からの信号がセンサ入力/出力ボード70を介してCPU62に与えられる。
Similarly, the sensor input /
音声入力/出力ボード72もまた、同様に、DSPで構成され、CPU62から与えられる音声合成データに従った音声または声がスピーカ54から出力される。たとえば、後述する相対座標系による情報提示(目的地までの経路の説明)などが音声または声としてスピーカ54から発せられる。また、マイク56からの音声入力が、音声入力/出力ボード56を介してCPU62に取り込まれる。
Similarly, the voice input /
また、CPU62は、バス64を介して通信LANボード84に接続される。通信LANボード84は、DSPで構成され、CPU62から送られる送信データを無線通信装置86に与え、無線通信装置86から送信データを、たとえば、無線LANのようなネットワークを介して、外部コンピュータ(図1および図4ではコンピュータ14)などに送信する。また、通信LANボード84は、無線通信装置86を介してデータを受信し、受信したデータをCPU62に与える。つまり、この通信LANボード84および無線通信装置86によって、ロボット10はコンピュータ14などと無線通信を行うことができる。ただし、ロボット10とコンピュータ14とは、近距離無線(Bluetooth(登録商標))や有線によって直接通信可能に接続するようにしてもよい。
The
このような構成のシステム100は、或る地下街(ショッピングモール)やイベント会場などに適用され、道案内サービスを提供する。図4は、ロボット10と表示装置12とが連携して、人間(ここでは、人間A)に道案内を行っている様子の一例を示す。たとえば、表示装置12は、或る地下街の道案内所に設置される。ロボット10は、この表示装置12の近傍に固定的に設置される。また、ロボット10は自律移動できるため、表示装置12の周辺を移動可能に設置されてもよい。ただし、ロボット10は、後述するように、地図に従って人間が進行するときの方向を中心(基準)として、相対的な方向(真っ直ぐ、右、左等)を含む語句ないし言葉を発話するとともに、その方向を指差しするなどのジェスチャを実行することにより、道案内(情報提示)を行うので、固定的に設置される場合であっても、旋回可能に(自身の向きを変えられるように)設けられる。さらに、上述したように、表示装置12が設置される地点(場所)の近傍には床センサ18が埋め込まれている。
The
なお、図4では、コンピュータ14およびDB16は省略するが、図1に示したように、ロボット10、表示装置12および床センサ18は、コンピュータ14に接続され、このコンピュータ14にDB16が接続される。
In FIG. 4, the
図5は、表示装置12が提供する道案内(画面に表示する表示内容)の一例を示す。表示装置12には、たとえば、道案内を実行していない場合、図5(A)に示すように、現在地p1を含む地図が表示される。ただし、図5(A)(図5(B)−図5(F)も同じ。)では、三角印によって、人間の位置を、経路に従って表示するようにしてある。また、ここでは、簡単のため、表示装置12には、道案内を行う全範囲についての地図が固定的に表示されているものとする。ただし、道案内を行う範囲が広範である場合には、適宜、画面を縮小したり、拡大したり、または、スクロールしたりして、表示範囲を変更できるようにしてもよい。図5(A)に示す状態において、人間から目的地を取得すると、図5(B)に示すように、さらに目的地pnが地図上に表示される。ここで、pi(i=1,2,…,n)は、現在地p1から目的地pnまでの要所(経路ポイント)を意味し、現在地p1および目的地pnを含む。したがって、nは要所の総数である。また、図5(B)(図5(C)−図5(F)も同じ。)では、目的地pnをその文字を付すとともに、背景を白色にすることによって示してあるが、上述したように、実際には、色を付したり、光を明滅させたりすることによって、目的地pnを表示するようにしてもよい。
FIG. 5 shows an example of route guidance (display contents displayed on the screen) provided by the
これ以降では、現在地p1から目的地pnまでの経路(最短経路)に従って、要所を示しながら、地図上の三角印の位置を更新する。まず、図5(C)では、地図上で、現在地p1から下向きに進行し、突き当りとなる(方向転換すべき)要所p2までの経路が示される。次に、図5(D)に示すように、地図上で、要所p2から左方向に進行し、分岐点となる(方向転換すべき)要所p3までの経路が示される。続いて、図5(E)に示すように、地図上で、要所p3から上方向に進行し、左折する地点となる要所p4までの経路が示される。そして、図5(F)に示すように、地図上で、要所p4から左方向に進行し、目的地pnに到着するまでの経路が示される。 After this, the position of the triangle mark on the map is updated while showing the important points according to the route (shortest route) from the current location p1 to the destination pn. First, FIG. 5C shows a route on the map that travels downward from the current location p1 to the important point p2 that is the end (should change direction). Next, as shown in FIG. 5 (D), a route is shown on the map from the important point p2 to the left, and the route to the important point p3 that becomes a branch point (to change direction). Subsequently, as shown in FIG. 5 (E), a route is shown on the map from the key point p3 to the key point p4, which is a point to turn left and turn left. Then, as shown in FIG. 5F, the route from the important point p4 to the left and reaching the destination pn is shown on the map.
一方、ロボット10は、音声(発話)および身振り手振りのような身体動作(ジェスチャ)を用いて、目的地までの経路を説明する。ただし、上述したように、ロボット10は、人間の進行方向を基準として、相対的に決定される方向を用いて発話したり、当該方向を身体動作で指示したりする。たとえば、人間が北方を向いているときは北方が基準となり、人間が南方を向いているときは南方が基準となる。したがって、たとえば、ロボット10は、道案内に際して、「その交差点を右に行って、次の十字路を左に…」のように、人間が実際に道を進んでいる状況を想定した発話やジェスチャを実行することができる。
On the other hand, the
具体的には、図5(C)−図5(F)で示したように、地図上で、人間の進行方向が示されるとき、ロボット10は、適宜、人間が進行する場合を想定して、道案内を実行する。まず、図5(C)に示したように、地図上で、現在地p1から要所p2までの経路が示されるとき、ロボット10は、要所p2の方向に旋回するとともに、当該方向を指差しながら、「この方向を直進して、突き当りを」などと発話する。次に、図5(D)に示したように、地図上で、要所p2から要所p3の経路が示されるとき、ロボット10は、「右に曲がり、しばらく直進して、その突き当りを」などと発話しながら、右方向(現在地p1から要所p2に向かう方向を基準とした場合の右方向)を向くように旋回する。さらに、図5(E)に示したように、地図上で、要所p3から要所p4までの経路が示されるとき、ロボット10は、「右に曲がり、20mほど行くと」などと発話しながら、右方向(要所p2から要所p3に向かう方向を基準とした場合の右方向)に旋回する。また、図5(F)に示したように、地図上で、要所p4から目的地pnまでの経路が示されるとき、ロボット10は、「左手が目的地です。」と発話しながら、左方向(要所p3から要所p4に向かう方向を基準とした場合の左方向)を指差しする。
Specifically, as shown in FIGS. 5C to 5F, when the human traveling direction is shown on the map, the
つまり、図5(C)−図5(F)に示すように、地図上で、現在地p1から目的地pnまでの経路が順次示されるとき、それに対応させて、ロボット10は、「この方向を直進して、直ぐの突き当りを右に曲がり、しばらく直進して、その突き当りを右に曲がり、20mほど行くと左手が目的地です。」と発話するとともに、当該発話に応じたジェスチャを行うのである。このように、ロボット10は、人間が実際に道を進んでいる状況を想定した道案内を実行するので、地図を理解することが苦手な人間に対しても、分かり易く目的地までの経路を説明することができる。
That is, as shown in FIGS. 5 (C) to 5 (F), when a route from the current location p1 to the destination pn is sequentially displayed on the map, the
なお、詳細な説明は省略するが、ロボット10の説明を聞いている人間は、ロボット10のコミュニケーション行動(発話やジェスチャ)に応じて、適宜自身の体や顔の向きを変えると想定してある。
Although detailed explanation is omitted, it is assumed that the person who is listening to the explanation of the
上述のようなシステム100の動作をフロー図に従って説明する。具体的には、コンピュータ14が図6に示すフロー図に従って全体処理を実行し、道案内サービスを提供する。図6に示すように、コンピュータ14は、全体処理を開始すると、ステップS1で、停止命令が有るか否かを判断する。たとえば、停止命令は、システム100の管理者等が、コンピュータ14の入力装置(キーボード,コンピュータマウスなど)を用いて入力する。ステップS1で“YES”のとき、すなわち停止命令が有る場合には、道案内サービスの提供を終了すべく、そのまま全体処理を終了する。一方、ステップS1で“NO”のとき、すなわち停止命令が無い場合には、ステップS3で、表示装置12の近傍に人間が存在するか否かを判断する。すなわち、たとえば床センサ18の検出結果に基づいて、表示装置12の近傍(表示装置12の画面に表示される地図情報が確認できる程度の距離、たとえば、2m以内)に人間を検出したかどうかを判断する。
The operation of the
ステップS3で“NO”のとき、すなわち表示装置12の近傍に人間が存在しない場合には、ステップS1に戻る。一方ステップS3で“YES”のとき、すなわち表示装置12の近傍に人間が存在する場合には、ステップS5で、ロボット10に制御コマンドを送信する。この制御コマンドは、その人間が道案内を必要としているかどうかを、ロボット10に質問させるための行動モジュール“質問A”である。図示は省略するが、ロボット10は、この制御コマンドを受信すると、CPU62が当該制御コマンドに対応した動作(道案内が必要であるかどうかを質問する動作)を実行する。したがって、たとえば、ロボット10は、「道案内は必要ですか?」と発話して、首を傾げたり、「道案内が必要な場合は、僕の肩に触れてください。」と発話したりして、道案内が必要であるかどうかを人間に質問する。
If “NO” in the step S3, that is, if there is no human in the vicinity of the
次のステップS7では、道案内が必要であるか否かを判断する。ただし、この実施例では、ロボット10が、道案内が必要であるか否かを判断し、その結果をコンピュータ14に送信するようにしてある。たとえば、ロボット10は、制御コマンドに従って道案内が必要であるかどうかを人間に質問し、これに応じて、人間が肯定的な返答(たとえば、「はい」)を発話したり、ロボット10の肩に触れたりすると、道案内が必要であると判断する。ただし、ロボット10は、制御コマンドに従って道案内が必要であるかどうかを人間に質問し、これに対して、何らリアクションが無い場合には、道案内が不要であると判断する。
In the next step S7, it is determined whether or not route guidance is necessary. However, in this embodiment, the
ステップS7で“NO”のとき、すなわち道案内が不要である場合には、そのままステップS1に戻る。一方、ステップS7で“YES”のとき、すなわち道案内が必要である場合には、ステップS9で、制御コマンドを送信する。この制御コマンドは、ロボット10に、人間に対して目的地を質問させるための行動モジュール“質問B”である。ロボット10は、この制御コマンドを受信すると、当該制御コマンドに対応したコミュニケーション行動(目的地を質問する動作)を実行する。たとえば、ロボット10は、「どこに行きたいの?」と発話するとともに、首を傾げて、人間に目的地を聞く(質問する)。
If “NO” in the step S7, that is, if the route guidance is unnecessary, the process returns to the step S1 as it is. On the other hand, if “YES” in the step S7, that is, if the route guidance is necessary, a control command is transmitted in a step S9. This control command is an action module “question B” for causing the
次のステップS11では、道案内の目的地情報を取得する。ただし、この実施例では、ロボット10が人間に目的地を聞くため、ここでは、コンピュータ14は、ロボット10から目的地情報を取得するのである。たとえば、ロボット10は、人間が返答(発話)した場所を音声認識することによって目的地情報を取得する。
In the next step S11, the destination information of the route guidance is acquired. However, in this embodiment, since the
続いて、ステップS13では、現在地p1と目的地pnとを含む地図を表示装置12に表示する。つまり、図5(B)に示したように、図5(A)に示した地図に、目的地pnが表示される。たとえば、コンピュータ14のVRAM(図示せず)上に展開された地図データのうち、目的地に相当する位置(一定の領域ないし範囲)に、pnの文字が表示されるとともに、その背景として色(たとえば、赤色)が付される。したがって、表示装置12に、目的地pnが示される。次のステップS15では、目的地pnに対応した経路情報および制御コマンド情報をDB16から取得する。そして、ステップS17で、後述する道案内処理(図7参照)を実行して、ステップS1に戻る。
Subsequently, in step S13, a map including the current location p1 and the destination pn is displayed on the
図7は、図6に示したステップS17の道案内処理を示すフロー図である。図7に示すように、コンピュータ14は、道案内処理を開始すると、ステップS21で、変数jを初期化する(j=1)。この変数jは、道案内(処理)を実行した回数を示す。続くステップS23では、変数iを初期化する(i=1)。つまり、要所piを現在地p1に設定する。
FIG. 7 is a flowchart showing the route guidance process of step S17 shown in FIG. As shown in FIG. 7, when starting the route guidance process, the
次のステップS25では、表示装置12に現在地p1を点滅表示する。つまり、地図上に表示されている現在地p1を示す三角印を点滅させることによって、現在地p1を人間に対して分かり易いように示す。ただし、上述したように、その位置に色を付したり、その位置の光を明滅させたりして、現在地p1を示してもよい。続くステップS27では、ロボット10に制御コマンドを送信する。この制御コマンドは、ロボット10に、地図上の現在地p1を説明させるための行動モジュールである。ロボット10は、この制御コマンドを受信すると、たとえば、地図上の現在地p1を指差し、「今はここだよ」と発話する。このステップS25およびステップS27の処理によって、人間は、地図上における現在地p1を確認する(知る)ことができる。
In the next step S25, the current location p1 is displayed blinking on the
次のステップS29では、表示装置12に、要所piから要所pi+1までの経路を表示する。したがって、表示装置12の画面には、要所piおよび要所pi+1を示す三角印およびそれらを進行方向に結ぶ矢印が地図上に表示される。たとえば、i=1では、図5(C)に示したように、現在地p1および要所p2のそれぞれが三角印で表示されるとともに、現在地p1から要所p2に向かう経路を示す矢印が地図上に表示される。続くステップS31では、ロボット10に制御コマンドを送信する。この制御コマンドは、ロボット10に要所piから要所pi+1までの経路を説明させるための行動モジュール(“案内A”,“案内B”,…)である。たとえば、i=1では、図5(C)に示した現在地p1から要所p2までの経路が表示されるとき、ロボット10は、要所p2の方向に旋回するとともに、当該方向を指差しながら、「この方向を直進して、突き当りを」などと発話する。このステップS29およびステップS31の処理によって、人間は、要所piから要所pi+1までの経路を知ることができる。
In the next step S29, the route from the important point pi to the important point pi + 1 is displayed on the
続いて、ステップS33では、変数iがn−1以上であるかどうかを判断する。ここで、上述したように、nは当該目的地までの最短経路に含まれる要所(経路ポイント)の総数であり、変数iがn−1以上であれば、目的地pnまでの経路を全て説明したことを意味する。ステップS33で“NO”のとき、すなわち、未だ目的地pnまでの経路を全て説明していない場合には、ステップS35で、変数iをインクリメント(i=i+1)して、ステップS29に戻る。一方、ステップS33で“YES”のとき、すなわち、目的地までの経路を全て説明した場合には、ステップS37で、ロボット10に制御コマンドを送信する。この制御コマンドは、ロボット10に、地図上の目的地pnを説明させるためのものである。ロボット10は、この制御コマンドを受信すると、たとえば、地図上の目的地pnを指差し、「ここが目的地だよ」と発話する。このステップS37の処理によって、人間は地図上での目的地を確認することができる。
Subsequently, in step S33, it is determined whether or not the variable i is n−1 or more. Here, as described above, n is the total number of important points (route points) included in the shortest route to the destination. If the variable i is n−1 or more, all the routes to the destination pn are displayed. Means what was explained. If “NO” in the step S33, that is, if all the routes to the destination pn have not yet been described, the variable i is incremented (i = i + 1) in a step S35, and the process returns to the step S29. On the other hand, if “YES” in the step S33, that is, if all the routes to the destination are described, a control command is transmitted to the
次のステップS39では、人間が目的地までの経路を理解したかどうかを判断する。ただし、ロボット10が、人間に質問するため、コンピュータ14は、ロボット10から人間が経路を理解したか否かの判断結果を取得する。たとえば、ロボット10は、「分かりましたか?」などと発話し、これに応じて、人間が肯定的な返答(たとえば、「はい」)を発話した場合には、それを音声認識することによって当該人間が目的地までの経路を理解したと判断することができる。ただし、人間が否定的な返答(たとえば、「いいえ」,「分からない」)を発話した場合には、当該人間が目的地までの経路を理解していないと判断することができる。
In the next step S39, it is determined whether or not the person understands the route to the destination. However, since the
ステップS39で“YES”のとき、すなわち、人間が目的地までの経路を理解した場合には、そのままステップS45に進む。一方、ステップS39で“NO”のとき、すなわち人間が目的地までの経路を理解していない場合には、ステップS41で、変数jが説明限度回数m以上であるかどうかを判断する。ここで、説明限度回数mは、当該人間について同じ道案内を何回繰り返すかを決定するための回数であり、たとえば2〜3に設定される。ステップS41で“NO”のとき、すなわち、まだ説明限度回数mに達していない場合には、ステップS23に戻り、同じ道案内を繰り返す。一方、ステップS41で“YES”のとき、すなわち、説明限度回数mに達した場合には、ステップS45に進む。 If “YES” in the step S39, that is, if the person understands the route to the destination, the process proceeds to a step S45 as it is. On the other hand, if “NO” in the step S39, that is, if the person does not understand the route to the destination, in a step S41, it is determined whether or not the variable j is equal to or more than the explanation limit number m. Here, the explanation limit number m is a number for determining how many times the same route guidance is repeated for the person, and is set to 2 to 3, for example. If “NO” in the step S41, that is, if the explanation limit number m has not yet been reached, the process returns to the step S23 to repeat the same route guidance. On the other hand, if “YES” in the step S41, that is, if the explanation limit number m is reached, the process proceeds to a step S45.
ステップS45では、ロボット10に制御コマンドを送信する。この制御コマンドは、ロボット10に、当該説明が終了したことを人間に対して知らせさせるためのものである。ロボット10は、この制御コマンドを受信すると、「説明は以上です」などと発話する。そして、ステップS45の処理を終了すると、図6に示した全体処理にリターンする。
In step S45, a control command is transmitted to the
この実施例によれば、地図上で現在地から目的地までの経路を、要所毎に順次表示装置に表示するとともに、ロボットが発話やジェスチャによって要所毎に道案内を行うので、ロボットと表示装置とが連携して道案内を実行することができる。つまり、地図上で経路を可視表示したり、ロボットのコミュニケーション行動によって人間が進行すべき方向を伝えたりするので、地図を理解することが苦手な人間にとっても分かり易く経路を説明することができる。 According to this embodiment, the route from the current location to the destination is displayed on the map in order for each important point on the display device, and the robot provides route guidance for each important point by speech or gesture. Road guidance can be executed in cooperation with the device. In other words, the route is visually displayed on the map, and the direction in which the person should travel is transmitted by the robot's communication behavior, so that the route can be explained easily even for a person who is not good at understanding the map.
また、この実施例では、ロボットが人間を目的地まで誘導するようなことはしないので、効率的よく道案内をすることができる。 In this embodiment, since the robot does not guide the person to the destination, the route can be guided efficiently.
なお、上述の実施例では、表示装置12は、地図上に現在地および目的地を含む要所を経路の順番に従って表示するようにしたが、これに限定される必要はない。たとえば、現在地および目的地を含む最短経路および全ての要所および進行方向を示す矢印を最初から表示してもよい。このような場合には、ロボット10の道案内と対応させるべく、ロボット10が説明中の要所および矢印の色を変化させたり、光を明滅させたりすることによって、ロボット10が現在どの地点の説明を行っているのかを人間に対して知らせるようにしてもよい。
In the above-described embodiment, the
また、上述の実施例では、床センサ18を用いて、表示装置12の近くに人間を検出するようにしたが、これに限定されない。たとえば、環境に設置した天井カメラを用いて人間を検出するようにしてもよいし、無線タグ読取システムを用いて人間を検出してもよい。また、ロボット10が備えるセンサによって人間を検出するようにしてもよい。たとえば、赤外線距離センサ30の検出結果に基づいて、人間を検出するようにしてもよい。
In the above-described embodiment, the person is detected near the
また、上述の実施例では、表示装置12の近傍に存在する人間を検出すると、ロボット10が人間に話しかけ、道案内が必要であることを判断してから、目的地情報を取得して、道案内を開始するようにしたが、これに限定されるべきでない。たとえば、表示装置12の近傍に目的地を選択するためのボタンを設けておき、目的地に対応するボタンが選択されたときに当該ボタンに対応する場所を目的地として取得し、道案内を開始するというようにしてもよい。また、たとえば、タッチパネルを表示装置12の画面上に設けるようにすれば、直接的に地図上の目的地を選択することもできる。
Further, in the above-described embodiment, when a person existing in the vicinity of the
さらに、上述の実施例では、簡単のため、表示装置12の近傍に存在する人間を検出して、道案内を実行するようにしたが、これに限定されず、たとえば、表示装置12の表示が見難い位置に存在する人間にも積極的に働きかけて、道案内を実行するようにしてもよい。たとえば、表示装置12が設置される或る部屋(たとえば、道案内サービスセンタ)内の人間を検出するようにして、ロボット10は、この部屋内を自由に移動するようにする。そして、当該部屋に入ってきた人間に対してロボット10が話しかけ、道案内が必要であると判断した場合は、表示装置12の前(表示が見易い地点)まで誘導してから道案内を開始するというようにしてもよい。
Further, in the above-described embodiment, for simplicity, a person existing in the vicinity of the
また、上述の実施例では、予め各目的地に対応付けて経路情報および操作コマンド情報を生成し記憶しておくようにしたが、これに限定される必要はない。たとえば、取得した目的地に基づいて、既存の経路探索アルゴリズム(ダイナクストラ法やウォーシャルフロイド法など)を用いて最短経路を生成し、この最短経路に含まれる要所(経路ポイント)同士の関係と地図情報とに基づいてロボット10の動作(発話やジェスチャ)や表示装置12の表示内容を自動生成するようにしてもよい。
In the above-described embodiment, the route information and the operation command information are generated and stored in advance in association with each destination. However, the present invention is not limited to this. For example, based on the acquired destination, a shortest route is generated using an existing route search algorithm (such as Dynaxtra method or Warsal Floyd method), and the relationship between key points (route points) included in this shortest route The operation (speech and gesture) of the
10 …コミュニケーションロボット
12 …表示装置
14 …コンピュータ
16 …データベース
18 …床センサ
54 …スピーカ
56 …マイク
62 …CPU
66 …メモリ
68 …モータ制御ボード
70 …センサ入力/出力ボード
72 …音声入力/出力ボード
84 …通信LANボード
86 …無線通信装置
DESCRIPTION OF
66 ...
Claims (2)
道案内の目的地を示す目的地情報を取得する目的地情報取得手段、
前記目的地情報取得手段によって目的地情報が取得されたとき、前記表示装置の設置された現在地から前記目的地までの経路を要所に従って前記地図上に可視表示する経路表示手段、および
前記経路表示手段によって前記経路が可視表示されるとき、前記要所毎に人間が進行すべき方向を音声および身体動作によって当該人間に説明するコミュニケーションロボットを制御する制御手段を備える、道案内システム。 Map display means for displaying at least a map on a display device;
Destination information acquisition means for acquiring destination information indicating the destination of the route guidance;
When the destination information is acquired by the destination information acquisition means, a route display means for visually displaying a route from the current location where the display device is installed to the destination according to important points on the map, and the route display A route guidance system comprising control means for controlling a communication robot that explains to a person the direction in which the person should travel for each important point by means of voice and physical movement when the route is visually displayed by the means.
前記制御手段は、前記人間検出手段によって人間が検出されたとき、当該人間に対して道案内が必要であるかどうかを前記コミュニケーションロボットに質問させ、その質問に対する人間の反応に基づいて前記コミュニケーションロボットの動作を制御する、請求項1記載の道案内システム。 Human detection means for detecting at least a human present in the vicinity of the display device;
When the human is detected by the human detection means, the control means causes the communication robot to ask whether or not the person needs route guidance, and based on a human reaction to the question, the communication robot The route guidance system according to claim 1, which controls the operation of
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006092934A JP4962940B2 (en) | 2006-03-30 | 2006-03-30 | Route guidance system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006092934A JP4962940B2 (en) | 2006-03-30 | 2006-03-30 | Route guidance system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007265329A true JP2007265329A (en) | 2007-10-11 |
JP4962940B2 JP4962940B2 (en) | 2012-06-27 |
Family
ID=38638212
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006092934A Active JP4962940B2 (en) | 2006-03-30 | 2006-03-30 | Route guidance system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4962940B2 (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007149053A (en) * | 2005-10-24 | 2007-06-14 | Shimizu Corp | Route guidance system and method |
JP2009166184A (en) * | 2008-01-17 | 2009-07-30 | Saitama Univ | Guide robot |
JP2010046780A (en) * | 2008-08-25 | 2010-03-04 | Advanced Telecommunication Research Institute International | Route guiding robot |
JP2010188429A (en) * | 2009-02-16 | 2010-09-02 | Advanced Telecommunication Research Institute International | Guidance robot |
JP2011180660A (en) * | 2010-02-26 | 2011-09-15 | Advanced Telecommunication Research Institute International | Area-dividing device, area division program area division method and communication robot |
JP2013239209A (en) * | 2013-09-04 | 2013-11-28 | Advanced Telecommunication Research Institute International | Communication robot, robot control program, and robot control method |
JP7439572B2 (en) | 2020-03-05 | 2024-02-28 | オムロン株式会社 | Self-propelled robot, guidance method, and guidance program |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108303972B (en) | 2017-10-31 | 2020-01-17 | 腾讯科技(深圳)有限公司 | Interaction method and device of mobile robot |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07239671A (en) * | 1994-02-28 | 1995-09-12 | Temusu:Kk | Robot system for acceptance/guidance |
JP2000099871A (en) * | 1998-09-22 | 2000-04-07 | Atr Media Integration & Communications Res Lab | User guiding device |
JP2001236137A (en) * | 2000-02-22 | 2001-08-31 | Totoku Electric Co Ltd | Guide robot, information processor and information processor with guide robot |
JP2002361585A (en) * | 2001-06-07 | 2002-12-18 | Atr Media Integration & Communications Res Lab | Communication robot |
JP2003271243A (en) * | 2002-03-18 | 2003-09-26 | Advanced Telecommunication Research Institute International | Communication robot |
JP2005066745A (en) * | 2003-08-22 | 2005-03-17 | Oki Electric Ind Co Ltd | Guide robot system |
JP2005103722A (en) * | 2003-09-30 | 2005-04-21 | Toshiba Corp | Cooperative robot device and system, and navigation robot device |
JP2005131713A (en) * | 2003-10-28 | 2005-05-26 | Advanced Telecommunication Research Institute International | Communication robot |
JP2005309708A (en) * | 2004-04-21 | 2005-11-04 | Pia Corp | Guide system, and computer program and method for achieving it |
-
2006
- 2006-03-30 JP JP2006092934A patent/JP4962940B2/en active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07239671A (en) * | 1994-02-28 | 1995-09-12 | Temusu:Kk | Robot system for acceptance/guidance |
JP2000099871A (en) * | 1998-09-22 | 2000-04-07 | Atr Media Integration & Communications Res Lab | User guiding device |
JP2001236137A (en) * | 2000-02-22 | 2001-08-31 | Totoku Electric Co Ltd | Guide robot, information processor and information processor with guide robot |
JP2002361585A (en) * | 2001-06-07 | 2002-12-18 | Atr Media Integration & Communications Res Lab | Communication robot |
JP2003271243A (en) * | 2002-03-18 | 2003-09-26 | Advanced Telecommunication Research Institute International | Communication robot |
JP2005066745A (en) * | 2003-08-22 | 2005-03-17 | Oki Electric Ind Co Ltd | Guide robot system |
JP2005103722A (en) * | 2003-09-30 | 2005-04-21 | Toshiba Corp | Cooperative robot device and system, and navigation robot device |
JP2005131713A (en) * | 2003-10-28 | 2005-05-26 | Advanced Telecommunication Research Institute International | Communication robot |
JP2005309708A (en) * | 2004-04-21 | 2005-11-04 | Pia Corp | Guide system, and computer program and method for achieving it |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007149053A (en) * | 2005-10-24 | 2007-06-14 | Shimizu Corp | Route guidance system and method |
JP2009166184A (en) * | 2008-01-17 | 2009-07-30 | Saitama Univ | Guide robot |
JP2010046780A (en) * | 2008-08-25 | 2010-03-04 | Advanced Telecommunication Research Institute International | Route guiding robot |
JP2010188429A (en) * | 2009-02-16 | 2010-09-02 | Advanced Telecommunication Research Institute International | Guidance robot |
JP2011180660A (en) * | 2010-02-26 | 2011-09-15 | Advanced Telecommunication Research Institute International | Area-dividing device, area division program area division method and communication robot |
JP2013239209A (en) * | 2013-09-04 | 2013-11-28 | Advanced Telecommunication Research Institute International | Communication robot, robot control program, and robot control method |
JP7439572B2 (en) | 2020-03-05 | 2024-02-28 | オムロン株式会社 | Self-propelled robot, guidance method, and guidance program |
Also Published As
Publication number | Publication date |
---|---|
JP4962940B2 (en) | 2012-06-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2007260822A (en) | Guide robot | |
JP4962940B2 (en) | Route guidance system | |
JP4639343B2 (en) | Robot remote control system | |
US11338429B2 (en) | Robot | |
US7653458B2 (en) | Robot device, movement method of robot device, and program | |
JP4386367B2 (en) | Communication robot improvement system | |
JP5070441B2 (en) | Robot remote control system | |
JP5366048B2 (en) | Information provision system | |
JP2009241166A (en) | Robot remote operation system | |
JP5145569B2 (en) | Object identification method and apparatus | |
JP2006297531A (en) | Service robot | |
JP6134895B2 (en) | Robot control system, robot control program, and explanation robot | |
JP2007216363A (en) | Communication robot | |
JP6150429B2 (en) | Robot control system, robot, output control program, and output control method | |
US9640199B2 (en) | Location tracking from natural speech | |
JP5776544B2 (en) | Robot control method, robot control device, and robot | |
JP6134894B2 (en) | Robot control system and robot | |
KR20190080988A (en) | Center of gravity shifting force device | |
JP2007160427A (en) | Robot control system | |
JP2017170568A (en) | Service providing robot system | |
JP2010082714A (en) | Communication robot | |
JP5115886B2 (en) | Road guidance robot | |
JP2004209562A (en) | Mobile robot | |
JP5324956B2 (en) | Road guidance robot | |
JP6142306B2 (en) | Robot control system, robot, output control program, and output control method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090306 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110830 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20111024 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120305 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120319 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 Ref document number: 4962940 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150406 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |