JP2010046780A - Route guiding robot - Google Patents

Route guiding robot Download PDF

Info

Publication number
JP2010046780A
JP2010046780A JP2008215023A JP2008215023A JP2010046780A JP 2010046780 A JP2010046780 A JP 2010046780A JP 2008215023 A JP2008215023 A JP 2008215023A JP 2008215023 A JP2008215023 A JP 2008215023A JP 2010046780 A JP2010046780 A JP 2010046780A
Authority
JP
Japan
Prior art keywords
route
robot
destination
voice
arm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008215023A
Other languages
Japanese (ja)
Other versions
JP5115886B2 (en
Inventor
Atsushi Izawa
敦 井澤
Takayuki Kanda
崇行 神田
Masahiro Shiomi
昌裕 塩見
Daisuke Sakamoto
大介 坂本
Hiroshi Ishiguro
浩 石黒
Norihiro Hagita
紀博 萩田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2008215023A priority Critical patent/JP5115886B2/en
Publication of JP2010046780A publication Critical patent/JP2010046780A/en
Application granted granted Critical
Publication of JP5115886B2 publication Critical patent/JP5115886B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a route guiding robot capable of not only facilitating a person to understand but also preventing generation of wasteful time for changing a direction of the robot by turning its body and the energy consumption. <P>SOLUTION: The route guiding robot, when guiding a person along a route to a destination, determines whether or not the route to the destination is complicated and the difficulty level (S25, S31) is high. When the difficulty level is not high (flag H: off), the robot guides the person by explaining the route by indicating a direction using its arm and voice as the person is able to understand the route easily. When the difficulty level is high (flag H: on), the robot guides the person by explaining the route by adding indication of the direction using a direction of the robot body for assisting the person in understanding along with the directional indication using the arm and voice of the robot. Therefore, when the route to be guided is not complicated, the directional indication using the direction of the robot body is skipped, meanwhile when the route is complicated, the directional indication using the direction of the robot body is employed, so that the robot can not only facilitate the person to understand the route but also prevent generation of wasteful time and energy consumption due to change of direction. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

この発明は、道案内ロボットに関し、特に、音声および身体動作を用いて人間に目的地までの経路を案内する道案内ロボットに関する。   The present invention relates to a road guidance robot, and more particularly, to a road guidance robot that guides a route to a human destination using voice and body movement.

この種の道案内ロボットの一例が特許文献1に開示されている。特許文献1に開示されている道案内ロボットは液晶ディスプレイなどとともに道案内システムを構成する。この道案内ロボットは、液晶ディスプレイの近辺に配置され、液晶ディスプレイの近くに寄ってきた人間に対して、液晶ディスプレイに表示されている地図を人間に参照させつつ人間の所望する目的地への経路を説明して案内する。そして、この道案内ロボットは、道案内に際して、音声の出力、腕による方向の指示、および体の向きによる方向の指示を用いつつ人間に経路を伝える。
特開2007−265329号公報[G08G 1/005,B25J 13/00,G09B 29/00,G09B 29/10]
An example of this type of road guidance robot is disclosed in Patent Document 1. The road guidance robot disclosed in Patent Document 1 constitutes a road guidance system together with a liquid crystal display and the like. This route guidance robot is arranged in the vicinity of the liquid crystal display, and makes it possible for a person approaching the liquid crystal display to refer to a map displayed on the liquid crystal display and to route the user to a desired destination. Explain and guide. The road guidance robot transmits a route to a human using a voice output, a direction instruction by an arm, and a direction instruction by a body direction at the time of road guidance.
JP 2007-265329 A [G08G 1/005, B25J 13/00, G09B 29/00, G09B 29/10]

このように、特許文献1の道案内ロボットは、体の向きによって進行方向や曲がる方向を人間に示すために旋回して体の向きを変える。しかし、道案内ロボットが旋回して体の向きを変えるには時間がかかるので、特許文献1の道案内ロボットでは、道案内ロボットが体を旋回させる間、人間は無駄な時間を過ごさなければならなかった。また、道案内ロボットの体の旋回には比較的大きな電気エネルギーを必要とするので、道案内ロボットのエネルギーの消耗が早まっていた。しかし、体の向きによる方向の指示を省略すると、人間がロボットによる経路の説明を理解しにくくなるという問題が発生する。   As described above, the road guidance robot of Patent Document 1 turns to change the direction of the body in order to indicate to the human the direction of travel or the direction of bending depending on the direction of the body. However, since it takes time for the road guidance robot to turn and change the direction of the body, in the road guidance robot of Patent Document 1, humans must spend wasted time while the road guidance robot turns the body. There wasn't. Further, since the turn of the body of the road guidance robot requires a relatively large amount of electric energy, the energy consumption of the road guidance robot has been expedited. However, if the direction instruction according to the direction of the body is omitted, there arises a problem that it becomes difficult for a human to understand the explanation of the route by the robot.

それゆえに、この発明の主たる目的は、新規な、道案内ロボットを提供することである。   Therefore, a main object of the present invention is to provide a novel road guidance robot.

また、この発明の他の目的は、人間による理解の容易化と、旋回による体の向きの変更のための無駄な待ち時間の発生やエネルギーの消費の防止とを両立できる道案内ロボットを提供することである。   In addition, another object of the present invention is to provide a road guide robot capable of both facilitating understanding by humans and generating unnecessary waiting time for changing the body direction by turning and preventing energy consumption. That is.

本発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明などは、本発明の理解を助けるために後述する実施の形態との対応関係を示したものであって、本発明を何ら限定するものではない。   The present invention employs the following configuration in order to solve the above problems. Note that reference numerals in parentheses, supplementary explanations, and the like indicate correspondence relationships with embodiments described later to help understanding of the present invention, and do not limit the present invention in any way.

第1の発明は、音声ならびに腕および体による身体動作を用いて人間に目的地までの経路を案内する道案内ロボットであって、目的地を示す目的地情報を取得する目的地情報取得手段、自身の現在地を示す現在地情報を取得する現在地情報取得手段、道案内の対象地域の地図情報を記憶する地図情報記憶手段、目的地情報取得手段によって取得された目的地情報、現在地情報取得手段によって取得された現在地情報、および地図情報記憶手段に記憶された地図情報に基づいて現在地から目的地までの経路を特定する特定手段、特定手段によって特定された経路が複雑であるか否かを判断する判断手段、判断手段によって経路が複雑でないと判断した場合に、腕による方向の指示と音声とを用いて経路を案内する第1案内手段、および判断手段によって経路が複雑であると判断した場合に、腕による方向の指示、体の向きによる方向の指示、および音声を用いて経路を案内する第2案内手段を備える、道案内ロボットである。   A first invention is a route guidance robot for guiding a route to a human destination using voice and body movements by arms and bodies, and destination information acquisition means for acquiring destination information indicating the destination, Current location information acquisition means for acquiring current location information indicating its current location, map information storage means for storing map information of a target area for route guidance, destination information acquired by destination information acquisition means, acquired by current location information acquisition means Determining means for specifying the route from the current position to the destination based on the current location information and the map information stored in the map information storage means, and determining whether the route specified by the specifying means is complicated Means for guiding the route using the direction instruction by the arm and sound when the route is determined not to be complicated by the means and the determination unit, and the determination unit Therefore when the path is determined to be complex, the arm direction indicated by the direction indication by orientation of the body, and a second guide means for guiding a route with a voice, a road guide robot.

第1の発明によれば、道案内ロボット(10)は、音声ならびに腕および体による身体動作を用いて人間に目的地までの経路を案内する。そして、道案内ロボットにおいて、目的地情報取得手段(56,72,62,S5)は目的地を示す目的地情報を取得し、現在地情報取得手段(56,72,62,S11)は自身の現在地を示す現在地情報を取得する。そして、地図情報記憶手段(88)は道案内の対象地域の地図情報を記憶する。また、特定手段(62,S13)は目的地情報取得手段によって取得された目的地情報、現在地情報取得手段によって取得された現在地情報、および地図情報記憶手段に記憶された地図情報に基づいて現在地から目的地までの経路を特定し、判断手段(62,S25,S31)は特定手段によって特定された経路が複雑であるか否かを判断する。さらに、第1案内手段(62)は判断手段によって経路が複雑でないと判断した場合に、腕による方向の指示と音声とを用いて経路を案内し、第2案内手段(62)は判断手段によって経路が複雑であると判断した場合に、腕による方向の指示、体の向きによる方向の指示、および音声を用いて経路を案内する案内する。   According to the first invention, the route guidance robot (10) guides a route to a destination to a human by using voice and physical movement by an arm and a body. In the route guidance robot, the destination information acquisition means (56, 72, 62, S5) acquires destination information indicating the destination, and the current location information acquisition means (56, 72, 62, S11) Get current location information. Then, the map information storage means (88) stores the map information of the target area for the route guidance. Further, the specifying means (62, S13) determines from the current location based on the destination information acquired by the destination information acquiring means, the current location information acquired by the current location information acquiring means, and the map information stored in the map information storage means. The route to the destination is specified, and the judging means (62, S25, S31) judges whether the route specified by the specifying means is complicated. Further, when the first guiding means (62) determines that the route is not complicated by the determining means, the first guiding means (62) guides the route using the direction instruction by the arm and the voice, and the second guiding means (62) is determined by the determining means. When it is determined that the route is complicated, guidance is provided for guiding the route using a direction instruction by an arm, a direction instruction by a body direction, and voice.

第1の発明によれば、案内する経路が複雑でない場合には、体の向きによる方向の指示を省略し、案内する経路が複雑である場合には、体の向きによる方向の指示を行うので、人間による案内の理解の容易化と、体の向きの変更に伴う無駄な時間の発生および無駄なエネルギーの消費の防止とを両立することができる。   According to the first invention, when the route to be guided is not complicated, the direction instruction according to the direction of the body is omitted, and when the route to be guided is complicated, the direction according to the direction of the body is indicated. Therefore, it is possible to achieve both easy understanding of guidance by humans, generation of wasted time associated with a change in body orientation, and prevention of wasted energy consumption.

第2の発明は、第1の発明に従属する発明であって、判断手段は、経路における曲がり角の数に基づいて当該経路が複雑であるか否かを判断する。   The second invention is an invention subordinate to the first invention, and the judging means judges whether or not the route is complicated based on the number of corners in the route.

第2の発明では、判断手段は、経路における曲がり角の数に基づいて当該経路が複雑であるか否かを判断するので、曲がり角の数が多くて人間が経路の説明を理解しづらい場合には、体の向きによって方向を示して理解を容易にすることができる。   In the second invention, since the judging means judges whether or not the route is complicated based on the number of corners in the route, when the number of corners is large and it is difficult for humans to understand the explanation of the route. The direction of the body can be indicated to facilitate understanding.

第3の発明は、第1の発明および第2の発明に従属する発明であって、記判断手段は、経路における階移動の有無に基づいて当該経路が複雑であるか否かを判断する。   The third invention is an invention subordinate to the first invention and the second invention, and the determination means determines whether or not the route is complicated based on the presence or absence of a floor movement in the route.

第3の発明では、判断手段は経路における階移動の有無に基づいて当該経路が複雑であるか否かを判断するので、エレベータや階段などを使用する階の移動があり、人間が経路の説明を理解しづらい場合には、体の向きによって方向を示して理解を容易にすることができる。   In the third invention, the judging means judges whether or not the route is complicated based on the presence / absence of the floor movement in the route. Therefore, there is a movement of the floor using an elevator or a staircase, and the person explains the route. If it is difficult to understand, the direction can be indicated by the direction of the body to facilitate understanding.

第4の発明は、第1の発明ないし第3の発明のいずれかに従属する発明であって、第1案内手段は、音声で曲がる方向を案内する際に、腕によって曲がる方向を指し示す。   The fourth invention is an invention dependent on any one of the first to third inventions, and the first guiding means indicates the direction of bending by the arm when guiding the direction of bending by voice.

第4の発明によれば、第1案内手段は、音声で曲がる方向を案内する際に、腕によって曲がる方向を指し示すので、体の向きを変えることによる無駄な待ち時間の発生やエネルギーの消費を防止することができる。   According to the fourth aspect of the invention, the first guiding means indicates the direction of bending by the arm when guiding the direction of bending by voice, so that unnecessary waiting time and energy consumption by changing the direction of the body are reduced. Can be prevented.

第5の発明は、第1の発明ないし第4の発明のいずれかに従属する発明であって、第2案内手段は、音声で曲がる方向を案内する際に、体の向きおよび腕によって曲がる方向を示す。   The fifth invention is an invention dependent on any one of the first to fourth inventions, wherein the second guiding means is a direction of bending by the body direction and arm when guiding the direction of bending by voice. Indicates.

第5の発明によれば、第2案内手段は、音声で曲がる方向を案内する際に、体の向きおよび腕によって曲がる方向を示すので、人間が曲がる方向を容易に理解することができる。   According to the fifth invention, the second guiding means indicates the direction of the body and the direction of bending by the arm when guiding the direction of bending by voice, so that the human can easily understand the direction of bending.

第6の発明は、第1の発明ないし第5の発明のいずれかに従属する発明であって、第1案内手段は、音声で目的地の方向を案内する際に、腕によって目的地の方向を指し示す。   A sixth invention is an invention dependent on any one of the first to fifth inventions, wherein the first guiding means guides the direction of the destination by voice, and the direction of the destination by the arm. Point to.

第6の発明によれば、第1案内手段は、音声で目的地の方向を案内する際に、腕によって目的地の方向を指し示すので、体の向きを変えることによる無駄な待ち時間の発生やエネルギーの消費を防止することができる。   According to the sixth aspect of the invention, the first guiding means indicates the direction of the destination with the arm when guiding the direction of the destination by voice. Energy consumption can be prevented.

第7の発明は、第1の発明ないし第6の発明のいずれかに従属する発明であって、第2案内手段は、音声で目的地の方向を案内する際に、体の向きおよび腕によって目的地の方向を示す。   The seventh invention is an invention subordinate to any one of the first to sixth inventions, wherein the second guiding means uses the direction of the body and the arm when guiding the direction of the destination by voice. Indicates the direction of the destination.

第7の発明によれば、第2案内手段は、音声で目的地の方向を案内する際に、体の向きおよび腕によって目的地の方向を示すので、人間が目的地の方向を容易に理解することができる。   According to the seventh invention, the second guide means indicates the direction of the destination by the body direction and the arm when guiding the direction of the destination by voice, so that a human can easily understand the direction of the destination. can do.

この発明によれば、人間による理解の容易化と、道案内ロボットの体の向きの変更に伴う無駄な時間の発生やエネルギーの消費の防止を両立することができる。   According to the present invention, it is possible to achieve both facilitation of understanding by humans and prevention of wasteful time generation and energy consumption associated with the change of the body direction of the road guidance robot.

この発明の上述の目的、その他の目的、特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。   The above object, other objects, features, and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

図1を参照して、本発明の実施の形態の一例である道案内ロボット(以下、単に「ロボット」と言う。)10は、主として人間のようなコミュニケーションの対象とコミュニケーションを実行することを目的とした相互作用指向のものである。このロボット10は、音声ならびに腕および体による身体動作を用いて人間に所望の目的地までの経路を説明して案内する。   Referring to FIG. 1, a route guidance robot (hereinafter simply referred to as “robot”) 10 which is an example of an embodiment of the present invention is mainly intended to execute communication with a communication target such as a human being. Interaction-oriented. The robot 10 explains and guides a route to a desired destination to a human using voice and physical movements by arms and body.

ロボット10は、たとえば、地下街やイベント会場などの当該場所に不慣れな人間が存在する場所に配置され、道案内を求める人間に対して道案内のサービスを提供する。   For example, the robot 10 is arranged in a place where an unfamiliar person exists in the place such as an underground mall or an event venue, and provides a road guidance service to a person who seeks road guidance.

図1はロボット10の外観を示す正面図であり、この図1を参照して、ロボット10のハードウェアの構成について説明する。ロボット10は台車20を含み、この台車20の下面にはロボット10を自律移動させる2つの車輪22および1つの従輪24が設けられる。2つの車輪22は車輪モータ26(図2参照)によってそれぞれ独立に駆動され、台車20すなわちロボット10を前後左右任意の方向に動かすことが可能であり、またロボット10を旋回させてその場で体の向きを変えることができる。また、従輪24は車輪22を補助する補助輪である。このように、ロボット10は、配置された空間内を移動可能である。   FIG. 1 is a front view showing the appearance of the robot 10, and the hardware configuration of the robot 10 will be described with reference to FIG. The robot 10 includes a carriage 20, and two wheels 22 and one slave wheel 24 for moving the robot 10 autonomously are provided on the lower surface of the carriage 20. The two wheels 22 are independently driven by a wheel motor 26 (see FIG. 2), and the carriage 20, that is, the robot 10 can be moved in any direction, front, back, left, and right. You can change the direction. The slave wheel 24 is an auxiliary wheel that assists the wheel 22. As described above, the robot 10 can move in the arranged space.

台車20の上には、円柱形のセンサ取付パネル28が設けられ、このセンサ取付パネル28には、赤外線距離センサ30が取り付けられる。この赤外線距離センサ30は、センサ取付パネル28すなわちロボット10の周囲の物体(人間や障害物など)との距離を計測するものである。   A cylindrical sensor mounting panel 28 is provided on the carriage 20, and an infrared distance sensor 30 is mounted on the sensor mounting panel 28. The infrared distance sensor 30 measures the distance from the sensor mounting panel 28, that is, the object (human or obstacle) around the robot 10.

また、センサ取付パネル28の上には、胴体32が直立するように設けられる。胴体32の前方中央上部(胸に相当する位置)には、上述した赤外線距離センサ30がさらに設けられる。これは、ロボット10の前方の主として人間との距離を計測するものである。また。胴体32には、1つの全方位カメラ34が設けられる。全方位カメラ34は、たとえば背面側上端部のほぼ中央から延びる支柱36上に設けられる。全方位カメラ34は、ロボット10の周囲を撮影するものであり、後述する眼カメラ60とは区別される。この全方位カメラ34としては、たとえばCCD(Charge Coupled Devices)やCMOS(Complementary Metal Oxide Semiconductor)のような固体撮像素子を用いるカメラを採用することができる。なお、これら赤外線距離センサ30および全方位カメラ34の設置位置は当該部位に限られず適宜変更され得る。   Further, the body 32 is provided on the sensor mounting panel 28 so as to stand upright. The above-described infrared distance sensor 30 is further provided on the front center upper portion of the body 32 (a position corresponding to the chest). This measures the distance to the human being mainly in front of the robot 10. Also. The body 32 is provided with one omnidirectional camera 34. The omnidirectional camera 34 is provided, for example, on a support column 36 extending from substantially the center of the upper end on the back side. The omnidirectional camera 34 captures the surroundings of the robot 10 and is distinguished from an eye camera 60 described later. As this omnidirectional camera 34, for example, a camera using a solid-state imaging device such as a charge coupled device (CCD) or a complementary metal oxide semiconductor (CMOS) can be employed. In addition, the installation positions of the infrared distance sensor 30 and the omnidirectional camera 34 are not limited to the portions, and can be changed as appropriate.

胴体32の両側面上端部(肩に相当する位置)には、それぞれ、肩関節38Rおよび38Lによって、上腕40Rおよび40Lが設けられる。図示は省略するが、肩関節38Rおよび38Lは、それぞれ、直交する3軸の自由度を有する。すなわち、肩関節38Rは、直交する3軸のそれぞれの軸廻りにおいて上腕40Rの角度を制御できる。肩関節38Rのある軸(ヨー軸)は、上腕40Rの長手方向(または軸)に平行な軸であり、他の2軸(ピッチ軸、ロール軸)は、それにそれぞれ異なる方向から直交する軸である。同様に、肩関節38Lは、直交する3軸のそれぞれの軸廻りにおいて上腕40Lの角度を制御できる。肩関節38Lのある軸(ヨー軸)は、上腕40Lの長手方向(または軸)に平行な軸であり、他の2軸(ピッチ軸、ロール軸)は、それにそれぞれ異なる方向から直交する軸である。   Upper arms 40R and 40L are provided at upper end portions (positions corresponding to shoulders) on both side surfaces of the body 32 by shoulder joints 38R and 38L, respectively. Although illustration is omitted, the shoulder joints 38R and 38L each have three orthogonal degrees of freedom. That is, the shoulder joint 38R can control the angle of the upper arm 40R around each of the three orthogonal axes. The axis (yaw axis) with the shoulder joint 38R is an axis parallel to the longitudinal direction (or axis) of the upper arm 40R, and the other two axes (pitch axis and roll axis) are axes orthogonal to each other from different directions. is there. Similarly, the shoulder joint 38L can control the angle of the upper arm 40L around each of the three orthogonal axes. The axis (yaw axis) with the shoulder joint 38L is an axis parallel to the longitudinal direction (or axis) of the upper arm 40L, and the other two axes (pitch axis and roll axis) are axes orthogonal to each other from different directions. is there.

また、上腕40Rおよび40Lのそれぞれの先端には、肘関節42Rおよび42Lを介して、前腕44Rおよび44Lが設けられる。図示は省略するが、肘関節42Rおよび42Lは、それぞれ1軸の自由度を有し、この軸(ピッチ軸)の軸廻りにおいて前腕44Rおよび44Lの角度を制御できる。   Further, forearms 44R and 44L are provided at the tips of the upper arms 40R and 40L via elbow joints 42R and 42L, respectively. Although illustration is omitted, each of the elbow joints 42R and 42L has one degree of freedom, and the angle of the forearms 44R and 44L can be controlled around the axis (pitch axis).

前腕44Rおよび44Lのそれぞれの先端には、手に相当する球体46Rおよび46Lがそれぞれ固定的に設けられる。ただし、指や掌の機能が必要な場合には、人間の手の形をした「手」を用いることも可能である。   Spheres 46R and 46L corresponding to hands are fixedly provided at the tips of the forearms 44R and 44L, respectively. However, when a finger or palm function is required, a “hand” in the shape of a human hand can be used.

このように、ロボット10は、上腕40Rおよび40L、肘関節42Rおよび42L、並びに前腕44Rおよび44Lからなる腕を供えているので、道案内に際して、進む方向や角を曲がる方向などを腕で示すことができる。以下において、上腕40Rおよび40L、肘関節42Rおよび42L、並びに前腕44Rおよび44Lを単に腕と言う場合がある。   As described above, the robot 10 has the arms including the upper arms 40R and 40L, the elbow joints 42R and 42L, and the forearms 44R and 44L. Can do. Hereinafter, the upper arms 40R and 40L, the elbow joints 42R and 42L, and the forearms 44R and 44L may be simply referred to as arms.

また、図示は省略するが、台車20の前面、肩関節38R,38Lを含む肩に相当する部位、上腕40R,40L、前腕44R,44Lおよび球体46R,46Lには、それぞれ、接触センサ(図2で包括的に示す。:48)が設けられている。台車20の前面の接触センサ48は、台車20への人間や他の障害物の接触を検知する。したがって、ロボット10の移動中に障害物との接触があると、それを検知し、直ちに車輪22の駆動を停止してロボット10の移動を急停止させることができる。また、その他の接触センサ48は、主に、人間がロボット10の当該各部位に触れたかどうかを検知する。なお、接触センサ48の設置位置はこれらに限定されず、適宜な位置(胸、腹、脇、背中、腰など)に設けられてよい。   Although not shown, the front surface of the carriage 20, the parts corresponding to the shoulder including the shoulder joints 38R and 38L, the upper arms 40R and 40L, the forearms 44R and 44L, and the spheres 46R and 46L are each provided with a contact sensor (FIG. 2). 48) is provided. The contact sensor 48 on the front surface of the carriage 20 detects contact of a person or another obstacle with the carriage 20. Therefore, if there is contact with an obstacle while the robot 10 is moving, it can be detected, and the driving of the wheel 22 can be immediately stopped to suddenly stop the movement of the robot 10. The other contact sensors 48 mainly detect whether or not a human has touched each part of the robot 10. The installation position of the contact sensor 48 is not limited to these, and may be provided at an appropriate position (chest, abdomen, side, back, waist, etc.).

胴体32の中央上部(首に相当する位置)には首関節50が設けられ、さらにその上には頭部52が設けられる。図示は省略するが、首関節50は、3軸の自由度を有し、3軸の各軸廻りに角度制御可能である。ある軸(ヨー軸)はロボット10の真上(鉛直上向き)に向かう軸であり、他の2軸(ピッチ軸、ロール軸)は、それぞれ、それと異なる方向で直交する軸である。   A neck joint 50 is provided at the upper center of the body 32 (a position corresponding to the neck), and a head 52 is further provided thereon. Although illustration is omitted, the neck joint 50 has a degree of freedom of three axes, and the angle can be controlled around each of the three axes. A certain axis (yaw axis) is an axis directed directly above (vertically upward) of the robot 10, and the other two axes (pitch axis and roll axis) are axes orthogonal to each other in different directions.

頭部52には、口に相当する位置に、スピーカ54が設けられる。スピーカ54は、ロボット10が、それの周辺の人間に対して音声ないし音によってコミュニケーションを取るために用いられる。また、耳に相当する位置には、マイク56Rおよび56Lが設けられる。以下、右耳に相当するマイク56Rと左耳に相当するマイク56Lとをまとめてマイク56ということがある。マイク56は、周囲の音、とりわけコミュニケーションを実行する対象である人間の声を取り込む。さらに、目に相当する位置には、眼球部58Rおよび58Lが設けられる。眼球部58Rおよび58Lは、それぞれ眼カメラ60Rおよび60Lを含む。以下、右の眼球部58Rと左の眼球部58Lとをまとめて眼球部58ということがあり、また、右の眼カメラ60Rと左の眼カメラ60Lとをまとめて眼カメラ60ということがある。   The head 52 is provided with a speaker 54 at a position corresponding to the mouth. The speaker 54 is used for the robot 10 to communicate with a person around it by voice or sound. Further, microphones 56R and 56L are provided at positions corresponding to the ears. Hereinafter, the microphone 56R corresponding to the right ear and the microphone 56L corresponding to the left ear may be collectively referred to as the microphone 56. The microphone 56 captures ambient sounds, particularly a human voice that is an object for performing communication. Further, eyeball portions 58R and 58L are provided at positions corresponding to the eyes. Eyeball portions 58R and 58L include eye cameras 60R and 60L, respectively. Hereinafter, the right eyeball portion 58R and the left eyeball portion 58L may be collectively referred to as the eyeball portion 58, and the right eye camera 60R and the left eye camera 60L may be collectively referred to as the eye camera 60.

眼カメラ60は、ロボット10に接近した人間の顔や他の部分ないし物体などを撮影して、それに対応する映像信号を取り込む。眼カメラ60としては、上述した全方位カメラ34と同様のカメラを用いることができる。たとえば、眼カメラ60は眼球部58内に固定され、眼球部58は眼球支持部(図示せず)を介して頭部52内の所定位置に取り付けられる。図示は省略するが、眼球支持部は、2軸の自由度を有し、それらの各軸廻りに角度制御可能である。たとえば、この2軸の一方は、頭部52の上へ向かう方向の軸(ヨー軸)であり、他方は、一方の軸に直交しかつ頭部52の正面側(顔)が向く方向に直交する方向の軸(ピッチ軸)である。眼球支持部がこの2軸の各軸廻りに回転されることによって、眼球部58ないし眼カメラ60の先端(正面)側が変位され、カメラ軸すなわち視線方向が移動される。   The eye camera 60 captures a human face approaching the robot 10, other parts or objects, and captures a corresponding video signal. As the eye camera 60, a camera similar to the omnidirectional camera 34 described above can be used. For example, the eye camera 60 is fixed in the eyeball part 58, and the eyeball part 58 is attached to a predetermined position in the head 52 via an eyeball support part (not shown). Although illustration is omitted, the eyeball support portion has two degrees of freedom, and the angle can be controlled around each of these axes. For example, one of the two axes is an axis (yaw axis) in a direction toward the top of the head 52, and the other is orthogonal to one axis and the direction in which the front side (face) of the head 52 faces. It is an axis (pitch axis) in the direction to be. By rotating the eyeball support portion around each of these two axes, the tip (front) side of the eyeball portion 58 or the eye camera 60 is displaced, and the camera axis, that is, the line-of-sight direction is moved.

なお、上述のスピーカ54、マイク56および眼カメラ60の設置位置は、これらに限定されず、適宜な位置に設けてられてよい。   The installation positions of the speaker 54, the microphone 56, and the eye camera 60 described above are not limited to these, and may be provided at appropriate positions.

図2はロボット10の電気的な構成を示すブロック図であり、この図2を参照して、ロボット10は、全体を制御するCPU62を含む。CPU62は、マイクロコンピュータあるいはプロセサとも呼ばれ、バス64を介して、メモリ66、モータ制御ボード68、センサ入力/出力ボード70および音声入力/出力ボード72に接続される。   FIG. 2 is a block diagram showing an electrical configuration of the robot 10. With reference to FIG. 2, the robot 10 includes a CPU 62 for controlling the whole. The CPU 62 is also called a microcomputer or a processor, and is connected to the memory 66, the motor control board 68, the sensor input / output board 70, and the audio input / output board 72 via the bus 64.

メモリ66は、図示は省略するが、ROMやHDDおよびRAMを含む。ROMやHDDには、ロボット10の主制御プログラムが予め記憶されるとともに、音声出力による発話ならびに腕や体による身体動作によって目的地までの経路を説明して案内するための案内プログラム、および外部コンピュータとの間で必要な情報を送受信するための通信プログラムなどが記録される。   Although not shown, the memory 66 includes a ROM, an HDD, and a RAM. In the ROM and HDD, a main control program for the robot 10 is stored in advance, and a guidance program for explaining and guiding a route to a destination by utterance by voice output and body movement by an arm or body, and an external computer A communication program for transmitting and receiving necessary information to and from is recorded.

また、ROMやHDDには、ロボット10による音声出力ならびに腕や体による身体動作のそれぞれの動作を実行するためのデータの集まりである行動モジュールが各行動毎に記憶されている。この行動モジュールは、音声を発話する行動の行動モジュールであれば音声データなどが含まれ、腕を動かしたり体の向きを変えたりといった物理的動きを伴う行動の行動モジュールであれば各モータを制御するためのモータ制御データなどが含まれる。なお、物理的動きを伴う行動の行動モジュールには、モータについての角度データを含むものと、角度データを引数としてその都度に取り込むものがある。また、RAMは、ワークメモリやバッファメモリとして用いられる。   The ROM and HDD store a behavior module, which is a collection of data for executing voice output by the robot 10 and body movements by arms and bodies, for each action. This behavior module includes voice data if it is a behavior module that speaks speech, and controls each motor if it is a behavior module that involves physical movement such as moving an arm or changing the direction of the body. Motor control data to be included. In addition, the action module of the action accompanied by the physical motion includes one that includes angle data about the motor and one that captures the angle data as an argument each time. The RAM is used as a work memory or a buffer memory.

モータ制御ボード68は、たとえばDSPで構成され、各腕や首関節50および眼球部58などの各軸モータの駆動を制御する。すなわち、モータ制御ボード68は、CPU62からの制御データを受け、右眼球部58Rの2軸のそれぞれの角度を制御する2つのモータ(図2では、まとめて「右眼球モータ」と示す。)74の回転角度を制御する。同様に、モータ制御ボード68は、CPU62からの制御データを受け、左眼球部58Lの2軸のそれぞれの角度を制御する2つのモータ(図2では、まとめて「左眼球モータ」と示す。)76の回転角度を制御する。   The motor control board 68 is configured by, for example, a DSP, and controls driving of motors of the axes such as the arms, the neck joint 50, and the eyeball unit 58. That is, the motor control board 68 receives the control data from the CPU 62, and controls two motors for controlling the respective angles of the two axes of the right eyeball portion 58R (collectively referred to as “right eyeball motor” in FIG. 2) 74. Control the rotation angle. Similarly, the motor control board 68 receives control data from the CPU 62, and controls two angles of the two axes of the left eyeball unit 58L (in FIG. 2, collectively referred to as “left eyeball motor”). The rotation angle of 76 is controlled.

また、モータ制御ボード68は、CPU62からの制御データを受け、右肩関節38Rの直交する3軸のそれぞれの角度を制御する3つのモータと右肘関節42Rの角度を制御する1つのモータとの計4つのモータ(図2では、まとめて「右腕モータ」と示す。)78の回転角度を調節する。同様に、モータ制御ボード68は、CPU62からの制御データを受け、左肩関節38Lの直交する3軸のそれぞれの角度を制御する3つのモータと左肘関節42Lの角度を制御する1つのモータとの計4つのモータ(図2では、まとめて「左腕モータ」と示す。)80の回転角度を調節する。   The motor control board 68 receives control data from the CPU 62, and includes three motors for controlling the angles of the three orthogonal axes of the right shoulder joint 38R and one motor for controlling the angle of the right elbow joint 42R. The rotation angles of a total of four motors 78 (collectively referred to as “right arm motor” in FIG. 2) 78 are adjusted. Similarly, the motor control board 68 receives control data from the CPU 62 and includes three motors for controlling the angles of the three orthogonal axes of the left shoulder joint 38L and one motor for controlling the angle of the left elbow joint 42L. The rotation angles of a total of four motors (collectively referred to as “left arm motor” in FIG. 2) 80 are adjusted.

さらに、モータ制御ボード68は、CPU62からの制御データを受け、首関節50の直交する3軸のそれぞれの角度を制御する3つのモータ(図2では、まとめて「頭部モータ」と示す。)82の回転角度を制御する。さらにまた、モータ制御ボード68は、CPU62からの制御データを受け、車輪22を駆動する2つのモータ(図2では、まとめて「車輪モータ」と示す。)26の回転角度を制御する。   Further, the motor control board 68 receives the control data from the CPU 62, and controls three motors for controlling the angles of the three orthogonal axes of the neck joint 50 (in FIG. 2, collectively referred to as “head motors”). The rotation angle of 82 is controlled. Furthermore, the motor control board 68 receives the control data from the CPU 62 and controls the rotation angle of two motors 26 (hereinafter collectively referred to as “wheel motors”) 26 that drive the wheels 22.

なお、この実施例では、車輪モータ26を除くモータは、制御を簡素化するために、ステッピングモータあるいはパルスモータを用いるようにしてある。ただし、車輪モータ26と同様に、直流モータを用いるようにしてもよい。   In this embodiment, stepping motors or pulse motors are used for the motors other than the wheel motor 26 in order to simplify the control. However, as with the wheel motor 26, a DC motor may be used.

センサ入力/出力ボード70もまた、同様に、DSPで構成され、各センサからの信号を取り込んでCPU62に与える。すなわち、赤外線距離センサ30のそれぞれからの反射時間に関するデータがこのセンサ入力/出力ボード70を通してCPU62に入力される。また、全方位カメラ34からの映像信号が、必要に応じてこのセンサ入力/出力ボード70で所定の処理を施された後、CPU62に入力される。眼カメラ60からの映像信号も、同様にして、CPU62に入力される。また、上述した複数の接触センサ(図2では、まとめて「接触センサ48」と示す。)からの信号がセンサ入力/出力ボード70を介してCPU62に与えられる。   Similarly, the sensor input / output board 70 is also configured by a DSP, and takes in signals from each sensor and gives them to the CPU 62. That is, data relating to the reflection time from each of the infrared distance sensors 30 is input to the CPU 62 through the sensor input / output board 70. Further, a video signal from the omnidirectional camera 34 is input to the CPU 62 after being subjected to predetermined processing by the sensor input / output board 70 as necessary. Similarly, the video signal from the eye camera 60 is also input to the CPU 62. Further, signals from the plurality of contact sensors described above (collectively referred to as “contact sensors 48” in FIG. 2) are provided to the CPU 62 via the sensor input / output board 70.

音声入力/出力ボード72もまた、同様に、DSPで構成され、CPU62から与えられる音声合成データに従った音声または声がスピーカ54から出力される。また、マイク56からの音声入力が、音声入力/出力ボード72を介してCPU62に取り込まれる。   Similarly, the voice input / output board 72 is also configured by a DSP, and a voice or voice according to voice synthesis data provided from the CPU 62 is output from the speaker 54. Further, the voice input from the microphone 56 is taken into the CPU 62 via the voice input / output board 72.

また、CPU62は、バス64を介して通信LANボード84に接続される。通信LANボード84は、DSPで構成され、CPU62から送られる送信データを無線通信装置86に与え、無線通信装置86から送信データを、たとえば、無線LANのようなネットワークを介して外部コンピュータに送信する。また、通信LANボード84は、無線通信装置86を介してデータを受信し、受信したデータをCPU62に与える。つまり、この通信LANボード84および無線通信装置86によって、ロボット10は外部コンピュータなどと無線通信を行うことができる。   The CPU 62 is connected to the communication LAN board 84 via the bus 64. The communication LAN board 84 is constituted by a DSP, gives transmission data sent from the CPU 62 to the wireless communication device 86, and transmits the transmission data from the wireless communication device 86 to an external computer via a network such as a wireless LAN. . The communication LAN board 84 receives data via the wireless communication device 86 and gives the received data to the CPU 62. That is, the communication LAN board 84 and the wireless communication device 86 allow the robot 10 to perform wireless communication with an external computer or the like.

さらに、CPU62は、バス64を介して地図情報データベース(以下、「地図情報DB」という。)88に接続される。地図情報DB88は、ロボット10が現在地から人間が所望する目的地までの経路を特定し、その経路を案内するために必要な、環境内の地図データをはじめとする地図に関する情報を記憶するデータベースである。この地図情報DB88には、ダイクストラ法やウォーシャルフロイド法などの既存の経路探索アルゴリズムを用いて、現在地から目的地までの最短経路を特定するために必要な情報が記憶されている。また、地図情報DB88には、経路探索アルゴリズムによって特定された最短経路に含まれる通路(道)の方向を特定するための情報や、経路上において目印となるランドマークの情報も記憶されている。CPU62は、現在地の情報と目的地の情報とを元にこの地図情報DB88を参照して、目的地までの最短経路に含まれる通路(道)、曲がり角、曲がり角において曲がる角度(方向)、曲がる方向の目印となるランドマーク、階移動の手段のリストを得ることができる。このリストを「経路リスト」と呼ぶ。なお、曲がり角において曲がる角度(方向)は、たとえば、曲がり角によって接続される経路上の2つの通路(道)のそれぞれの方向から特定することができる。   Further, the CPU 62 is connected to a map information database (hereinafter referred to as “map information DB”) 88 via the bus 64. The map information DB 88 is a database that stores information related to maps including map data in the environment necessary for the robot 10 to identify a route from the current location to a destination desired by a human and guide the route. is there. The map information DB 88 stores information necessary for specifying the shortest route from the current location to the destination using an existing route search algorithm such as the Dijkstra method or the Warshall Floyd method. The map information DB 88 also stores information for specifying the direction of the passage (road) included in the shortest route specified by the route search algorithm, and information on landmarks serving as landmarks on the route. The CPU 62 refers to the map information DB 88 based on the current location information and the destination information, and includes a path (road), a turning angle, a turning angle (direction), and a turning direction included in the shortest route to the destination. A list of landmarks and floor moving means can be obtained. This list is called a “route list”. It should be noted that the angle (direction) at which the turn is made can be specified from the respective directions of the two passages (roads) on the route connected by the turn, for example.

図3は、ロボット10が道案内を行う、たとえば、イベント会場の地図を示すものであり、現在地Sから目的地Gまでの最短経路が示されている。このような図3に示す条件の場合、経路リストは「L1C1α1LM1+L2C2α2LM2+L3Gα3」となる。ここで、「Li(iは自然数。以下同じ)」は通路(道)、「Ci」は曲がり角、「αi」は曲がる角度(方向)、「LMi」はランドマーク、「G」は目的地をそれぞれ示している。なお、「L3Gα3」のように目的地「G」に続く「αi」(ここでは「α3」)は、進行方向において目的地が存在する方向(の角度)を示している。   FIG. 3 shows, for example, a map of an event venue where the robot 10 provides route guidance. The shortest route from the current location S to the destination G is shown. In the case of the conditions shown in FIG. 3, the path list is “L1C1α1LM1 + L2C2α2LM2 + L3Gα3”. Here, “Li (i is a natural number; the same shall apply hereinafter)” is a passage (road), “Ci” is a turning angle, “αi” is a turning angle (direction), “LMi” is a landmark, and “G” is a destination. Each is shown. Note that “αi” (here, “α3”) following the destination “G” like “L3Gα3” indicates the direction (angle) in which the destination exists in the traveling direction.

また、図4に示すような条件の場合、経路リストは「L1C1α1LM1+L2C2α2LM2+L3C3α3LM3+L4C4α4LM4+L5C5α5LM5+L6Gα6」となる。   In the case of the conditions as shown in FIG. 4, the path list is “L1C1α1LM1 + L2C2α2LM2 + L3C3α3LM3 + L4C4α4LM4 + L5C5α5LM5 + L6Gα6”.

さらに、図5の(a)および(b)に示すような条件の場合、経路リストは「L1C1α1LM1+L2C2α2LM2+L3E3α3+L4C4α4LM4+L5Gα5」となる。ここで、「Ei」はエレベータを示している。なお、「L3E3α3」のようにエレベータ「Ei」(ここでば「E3」)に続く「αi」(ここでは「α3」)は、エレベータ内での向きの変更を示している。図5の(a)および(b)の例では、エレベータの入口と出口は同じでありエレベータ内では向きを反転するので「αi」は「180°」である。しかし、停止する階によって出口として開くドアが異なる特殊なエレベータが存在するので、このような場合には「αi」は停止する階によって異なったものとなる。   Further, in the case of the conditions as shown in FIGS. 5A and 5B, the route list is “L1C1α1LM1 + L2C2α2LM2 + L3E3α3 + L4C4α4LM4 + L5Gα5”. Here, “Ei” indicates an elevator. Note that “αi” (here “α3”) following the elevator “Ei” (here “E3”) as in “L3E3α3” indicates a change in the direction in the elevator. In the examples of FIGS. 5A and 5B, the entrance and exit of the elevator are the same and the direction is reversed in the elevator, so “αi” is “180 °”. However, there are special elevators whose doors open as exits depending on the floor to be stopped. In such a case, “αi” varies depending on the floor to be stopped.

ところで、ロボット10は、このような経路リストに基づいて人間に現在地から目的地までの経路を説明する場合、2つの車輪22を互いに逆の方向に駆動させるなどして旋回して体の向きを変えることによって、体の向きで進行方向や曲がり角で曲がる方向を人間に示すことができる。しかし、旋回して体の向きを変える動作には時間がかかって人間を待たせることになるし、多くの電気エネルギーを必要とする。そのため、旋回して体の向きを変える動作は極力控える方がよい。しかし、体の向きによって方向を指示する動作を省略すると、人間が進行方向や曲がり角での曲がる方向を認識しづらくなる。   By the way, when the robot 10 explains the route from the present location to the destination based on such a route list, the robot 10 turns to turn the body by driving the two wheels 22 in opposite directions. By changing it, it is possible to show the person the direction of the body and the direction of turning at the corner. However, the action of turning and changing the direction of the body takes time and makes humans wait and requires a lot of electrical energy. Therefore, it is better to refrain as much as possible from turning and changing the direction of the body. However, if the operation of instructing the direction according to the direction of the body is omitted, it becomes difficult for a human to recognize the direction of travel or the direction of turning at a corner.

そこで、ロボット10が案内する経路が簡単で難易度が低い場合は体の向きによって方向を指示する動作を省略し、経路が複雑で難易度が高い場合は体の向きによって方向を指示する動作を実行する。たとえば、図3に示した場合の経路リストのように、案内する経路に含まれる曲がり角「Ci」の数が5個未満の場合には経路が簡単であり難易度が低いとし、図4に示した場合の経路リストのように、案内する経路に含まれる曲がり角「Ci」の数が5個以上の場合には経路が複雑であり難易度が高いとする。   Therefore, when the route guided by the robot 10 is simple and the degree of difficulty is low, the operation of instructing the direction according to the direction of the body is omitted, and when the route is complicated and the degree of difficulty is high, the operation of instructing the direction according to the direction of the body. Execute. For example, as in the route list shown in FIG. 3, when the number of corners “Ci” included in the route to be guided is less than 5, the route is simple and the difficulty level is low. In the case where the number of corners “Ci” included in the route to be guided is five or more as in the route list in the case of the route, it is assumed that the route is complicated and the degree of difficulty is high.

また、曲がり角「Ci」の数が5個未満であっても、図5の(a)および(b)に示した場合の経路リストのように、案内する経路にエレベータ「Ei」が含まれて階を移動する場合は経路が複雑であり難易度が高いとする。このようにすることによって、旋回して体の向きを変える動作を必要な場合のみ実行して極力省略することができる。   Further, even when the number of corners “Ci” is less than 5, the elevator “Ei” is included in the route to be guided as in the route list shown in FIGS. 5A and 5B. When moving on the floor, the route is complicated and the difficulty level is high. By doing so, it is possible to perform the operation of turning and changing the direction of the body only when necessary, and omit it as much as possible.

次に、図6から図11に示すフロー図を用いて、ロボット10が道案内をする場合に、CPU62が実行する処理について説明する。なお、CPU62は、メモリ66に記憶されている所定のプログラムに基づいて図6から図11に示すフロー図の処理を実行する。なお、以下の説明において、上述の経路リストにおける「Li」や「Ci」などの経路リストを構成する要素のそれぞれを「項目」と呼ぶことにする。   Next, processing executed by the CPU 62 when the robot 10 provides route guidance will be described using the flowcharts shown in FIGS. The CPU 62 executes the processing of the flowcharts shown in FIGS. 6 to 11 based on a predetermined program stored in the memory 66. In the following description, each element constituting the route list such as “Li” and “Ci” in the above-described route list is referred to as “item”.

まず、CPU62は、ステップS1において、周囲に人間が存在するか否かを判断する。ロボット10は、上述したように、自身が配置された環境の地図データを地図情報DB88に記憶しているため、この環境内に存在する壁、柱、置物などの障害物の位置を把握している。したがって、たとえば、赤外線距離センサ30の検出結果に基づいて地図データに存在しない物を検出すると、それを人間とみなすことによって、自身の周囲に存在する人間を認識することができる。   First, in step S1, the CPU 62 determines whether or not there is a person around. As described above, since the robot 10 stores the map data of the environment in which the robot 10 is arranged in the map information DB 88, the robot 10 grasps the position of obstacles such as walls, pillars, and figurines existing in the environment. Yes. Therefore, for example, when an object that does not exist in the map data is detected based on the detection result of the infrared distance sensor 30, it is possible to recognize a person existing around the user by regarding it as a person.

ただし、人間を検出する方法はこれに限定されず、赤外線距離センサ30に代えて、あるいは赤外線距離センサとともに、レーザレンジファインダや超音波距離センサを備えるようにし、これらを用いて人間を検出するようにしてもよい。また、ロボット10自身が備えるセンサによって人間を検出する必要は無く、たとえば、外部コンピュータが管理する、環境に設置された床センサや天井カメラなどのセンサによって人間を検出し、その検出結果を外部コンピュータからロボット10に与えるようにしてもよい。人間を検出する方法は、この他にも適宜な方法が採用され得る。   However, the method for detecting a person is not limited to this, and a laser range finder or an ultrasonic distance sensor may be provided instead of or together with the infrared distance sensor 30 to detect a person using these. It may be. Further, it is not necessary to detect a human by a sensor provided in the robot 10 itself. For example, a human is detected by a sensor such as a floor sensor or a ceiling camera installed in an environment managed by an external computer, and the detection result is output to the external computer. May be provided to the robot 10. In addition to this, an appropriate method can be adopted as a method for detecting a human.

CPU62がステップS1で人間が周囲に存在すると判断すると(ステップS1:YES)、次に、CPU62は、ステップS3で存在する(検出された)人間が道案内を必要としているか否かを判断する。道案内が必要か否かを確認するのは、検出されたすべての人間が道案内を必要としているとは限らないからである。   If the CPU 62 determines in step S1 that a human is present in the surroundings (step S1: YES), then the CPU 62 determines whether or not the human being present (detected) in step S3 needs route guidance. The reason for confirming whether or not the route guidance is necessary is that not all detected humans need the route guidance.

たとえば、ロボット10は、「道案内は必要ですか?」などと人間に問いかけ、この問いかけに対する人間の返答を音声認識することによって当該人間が道案内を必要としているか否かを判断する。「道案内は必要ですか?」の発話は、メモリ66から「道案内は必要ですか?」に対応する行動モジュールを読み出し、さらに、読み出した行動モジュールから取り出した音声合成データを、音声入力/出力ボート72を介してスピーカ54から出力することによって行う。以下における各発話はこれと同様にして行われる。また、たとえば、「道案内が必要な場合は僕の肩に触れてね」などと人間に対して発話し、それに応じて人間がロボット10の肩に触れた場合、すなわち肩部の接触センサ48がオンになった場合に、当該人間が道案内を必要としていると判断するようにしてもよい。   For example, the robot 10 asks a person “Do you need road guidance?” And determines whether or not the person needs road guidance by recognizing a human reply to the question. For the utterance of “Do you need route guidance?”, The action module corresponding to “Do you need route guidance?” Is read from the memory 66, and the voice synthesis data extracted from the read action module is input to the voice / This is performed by outputting from the speaker 54 via the output boat 72. Each utterance in the following is performed in the same manner. Further, for example, when the person touches the shoulder of the robot 10 in response to saying “Please touch my shoulder when guidance is required,” and the person touches the shoulder of the robot 10 accordingly, that is, the shoulder contact sensor 48. When is turned on, it may be determined that the person needs route guidance.

検出した人間が道案内を必要としていると判断すると(ステップS3:YES)、次に、CPU62は、ステップS5で人間から目的地の情報を取得する。たとえば、「どこに行きたいの?」などと発話することによって人間に目的地を質問し、人間の返答した音声を音声認識することによって目的地の情報を取得する。   If it is determined that the detected person needs route guidance (step S3: YES), then the CPU 62 acquires destination information from the person in step S5. For example, the user asks the person about the destination by saying "Where do you want to go?", And obtains the destination information by recognizing the voice that the person has answered.

そして、次に、ステップS7で、ステップ5において取得した目的地の情報が地図情報DB88に存在するか否かを判断する。目的地の情報が地図情報DB88に存在しないと判断すると(ステップS7:NO)、ステップS9で、「ご案内できません」と発話して頭を下げる。つまり、目的地までの経路が分からず道案内サービスを提供することができないので、その旨を人間に伝える。このとき、メモリ66から頭を下げる動作のための行動モジュールを読み出し、読み足した行動モジュールに含まれる頭部モータ82についてのモータ制御データと角度データとに基づいて、頭を下げるように頭の角度を制御する。   Next, in step S7, it is determined whether or not the destination information acquired in step 5 exists in the map information DB 88. If it is determined that the destination information does not exist in the map information DB 88 (step S7: NO), in step S9, “You cannot guide” is spoken and the head is lowered. That is, since the route to the destination is not known and the route guidance service cannot be provided, the fact is notified to a human being. At this time, the behavior module for the operation of lowering the head is read from the memory 66, and based on the motor control data and the angle data about the head motor 82 included in the behavior module that has been read out, Control the angle.

一方、目的地の情報が地図情報DB88に存在すると判断すると(ステップS7:YES)、CPU62は、ステップS11で自身の現在地の情報を取得する。ロボット10は、上述したように、配置される環境内の地図データを予め地図情報DB88に記憶しており、この地図データを参照して自律移動を行う。つまあり、ロボット10は、現在、自身がどの地点にいてどの方向を向いているかを、たとえば、内蔵されたあるいは環境に配置されたセンサの情報に基づいて、常に把握している。したがって、ロボット10のCPU62は、当該地図データとセンサ情報を参照して現在地の情報および現在の向きの情報を取得することができる。   On the other hand, if it is determined that the destination information is present in the map information DB 88 (step S7: YES), the CPU 62 acquires information on its current location in step S11. As described above, the robot 10 stores map data in the environment in which it is placed in the map information DB 88 in advance, and performs autonomous movement with reference to this map data. In other words, the robot 10 currently knows at which point and in which direction the robot 10 is currently facing, for example, on the basis of information of sensors built in or arranged in the environment. Therefore, the CPU 62 of the robot 10 can acquire current location information and current orientation information with reference to the map data and sensor information.

目的地の情報と現在地の情報とを取得すると、CPU62は、ステップS13で目的地の情報と現在地の情報とを基に地図情報DB88を利用して上述の経路リストを作成する。経路リストの作成には、上述したように、ウォーシャルフロイド法やダイクストラ法などの既存の経路探索アルゴリズムが用いられる。なお、経路リストの作成は、必ずしもロボット10で実行する必要は無く、たとえば、外部コンピュータで経路リストを生成して、これを外部コンピュータからロボット10に与えるようにしてもよい。したがって、地図情報DB88も外部コンピュータなどが備えるようにしてもよい。   When the destination information and the current location information are acquired, the CPU 62 creates the above-described route list using the map information DB 88 based on the destination information and the current location information in step S13. As described above, an existing route search algorithm such as the Warshall Floyd method or the Dijkstra method is used to create the route list. The creation of the route list is not necessarily executed by the robot 10. For example, a route list may be generated by an external computer, and the route list may be given to the robot 10 from the external computer. Therefore, the map information DB 88 may also be provided in an external computer or the like.

そして、経路リストが作成されると、CPU62は、ステップS15において経路の難易度を評価し、ステップS17でこの経路の難易度の評価と経路リストに基づいて道案内を行う。   When the route list is created, the CPU 62 evaluates the difficulty level of the route in step S15, and performs route guidance based on the evaluation of the difficulty level of the route and the route list in step S17.

経路の難易度の評価の処理は、具体的には、図7のフロー図に示す処理に従って実行される。まず、CPU62は、ステップS21でフラグHをオフ状態に設定し、ステップS23でフラグEをオフ状態に設定してそれぞれのフラグを初期化する。フラグHは、経路リストに基づいて案内する経路が複雑であり難易度が高いと評価したか否かを示すフラグであり、複雑であり難易度が高いと評価した場合にオン状態に設定される。また、フラグEは経路リストに基づいて案内する経路においてエレベータが存在するか否か、つまり階移動が行われるか否かを示すフラグであり、エレベータが存在する場合(階移動が行われる場合)にオン状態に設定される。なお、この実施の形態ではエレベータの使用により階移動するものとするが、階段の使用により階移動してもかまわない。   Specifically, the process of evaluating the difficulty level of the route is executed according to the process shown in the flowchart of FIG. First, the CPU 62 sets the flag H to an off state in step S21, sets the flag E to an off state in step S23, and initializes each flag. The flag H is a flag indicating whether or not the route to be guided based on the route list is complex and evaluated as having a high difficulty level, and is set to an on state when it is evaluated as being complicated and having a high difficulty level. . The flag E is a flag indicating whether or not an elevator exists in the route to be guided based on the route list, that is, whether or not floor movement is performed. When the elevator exists (when floor movement is performed). Is set to ON. In this embodiment, the floor is moved by using an elevator, but the floor may be moved by using stairs.

次に、CPU62は、案内する経路上にエレベータが存在するか否かを判断する。つまり、経路リストに「Ei」の項目が含まれるか否かを判断する。そして、経路上にエレベータが存在すると判断すると(ステップS25:YES)、ステップS27でフラグEをオン状態に設定し、ステップS29でフラグHをオン状態に設定する。   Next, the CPU 62 determines whether an elevator exists on the route to be guided. That is, it is determined whether or not the item “Ei” is included in the route list. If it is determined that there is an elevator on the route (step S25: YES), the flag E is set to an on state in step S27, and the flag H is set to an on state in step S29.

一方、経路上にエレベータが存在しないと判断すると(ステップS25:NO)、ステップS31において経路上に曲がり角が5つ以上存在するか否かを判断する。つまり、経路リストに「Ci」の項目が5つ以上含まれるか否かを判断する。経路上に曲がり角が5つ以上存在すると判断すると(ステップS31:YES)、ステップS29でフラグHをオン状態とする。一方、曲がり角が5つ以上存在しないと判断すると(ステップS31:NO)、そのまま経路の難易度の評価の処理を終了してリターンする。   On the other hand, if it is determined that there is no elevator on the route (step S25: NO), it is determined in step S31 whether there are five or more corners on the route. That is, it is determined whether five or more items of “Ci” are included in the route list. If it is determined that there are five or more corners on the route (step S31: YES), the flag H is turned on in step S29. On the other hand, if it is determined that there are not five or more corners (step S31: NO), the process of evaluating the difficulty level of the route is terminated and the process returns.

また、道案内の処理は、具体的には、図8ないし図11のフロー図に示す処理に従って実行される。まず、CPU62は、ステップS41において、フラグEがオン状態であるか否か、つまり経路にエレベータが存在し階移動を伴うか否かを判断する。ステップS41において経路にエレベータが存在すると判断すると(ステップS41:YES)、CPU62は、目的地は現在地のある階とは異なる階にあることを示すために、ステップS43において、たとえば、「目的地は2階にあります」と発話する。一方、経路にエレベータが存在しないと判断すると(ステップS41:NO)、ステップS43をスキップする。   Further, the route guidance processing is specifically executed according to the processing shown in the flowcharts of FIGS. First, in step S41, the CPU 62 determines whether or not the flag E is in an on state, that is, whether or not an elevator exists on the route and floor movement is involved. If it is determined in step S41 that there is an elevator on the route (step S41: YES), the CPU 62 indicates in step S43, for example, “Destination is in order to indicate that the destination is on a different floor from the floor where the current location is. It ’s on the second floor. ” On the other hand, if it is determined that there is no elevator on the route (step S41: NO), step S43 is skipped.

そして、ステップS45で、「そこに行くには」と発話して経路の案内を開始し、ステップS47において、ポインタpの値を「1」として初期化する。このポインタpは、経路リストに含まれる項目を順にポイントするためのものである。なお、経路リストの先頭の項目は常に通路(道)を示す「L1」である。   In step S45, the route guidance is started by saying "To get there", and in step S47, the value of the pointer p is initialized to "1". The pointer p is used to point to items included in the route list in order. The head item of the route list is always “L1” indicating a passage (road).

ステップS49では、地図情報DB88でポインタpが示している1番目の項目である「L1」の通路を参照して通路「L1」の方向の情報を取得し、この情報に基づいて特定される進行方向にロボット10の体の向きを変える。このとき、メモリ66から体の向きを変えるための行動モジュールを読み出し、この行動モジュールに含まれる車輪モータ26についてのモータ制御データと引数として与えられた角度データとをモータ制御ボード68へ送信してロボット10の体が旋回するように車輪22を制御する。なお、引数としての角度データは、ロボット10の現在の向きと通路「L1」の方向とから算出した現在の向きから通路「L1」の方向への角度に基づいて決定される。このステップS49では、経路の難易度の評価の結果とは無関係に、つまりフラグHの状態とは無関係にロボット10を旋回させて体の向きを進行方向に向ける。   In step S49, information on the direction of the passage “L1” is obtained by referring to the passage of “L1” which is the first item indicated by the pointer p in the map information DB 88, and the progress specified based on this information. Change the direction of the body of the robot 10 in the direction. At this time, the behavior module for changing the direction of the body is read from the memory 66, and the motor control data for the wheel motor 26 included in the behavior module and the angle data given as an argument are transmitted to the motor control board 68. The wheel 22 is controlled so that the body of the robot 10 turns. The angle data as an argument is determined based on the angle from the current direction calculated from the current direction of the robot 10 and the direction of the path “L1” to the direction of the path “L1”. In this step S49, the robot 10 is turned to turn the body in the traveling direction regardless of the evaluation result of the difficulty level of the route, that is, regardless of the state of the flag H.

次に、ステップS51では、経路リストについてポインタpがポイントしているp番目の項目が通路「Li」であるか否かを判断する。p番目の項目が通路「Li」でないと判断した場合には(ステップS51:NO)、ステップS67でエラー処理を行う。ステップS67のエラー処理では、「エラーが発生しました。プログラムを初期化します。」と発話してプログラムカウンターを初期化してステップS1に戻る。   Next, in step S51, it is determined whether or not the p-th item pointed to by the pointer p in the route list is the passage “Li”. If it is determined that the p-th item is not the passage “Li” (step S51: NO), error processing is performed in step S67. In the error processing in step S67, the program counter is initialized by saying "An error has occurred. The program is initialized" and the process returns to step S1.

一方、p番目の項目が通路「Li」であると判断すると(ステップS51:YES)、ステップS52において、地図情報DB88でポインタpが示しているp番目の項目である「Li」の通路の情報を参照して通路「Li」の方向をの情報を取得し、この情報に基づいて特定される進行方向をたとえば右腕で示す。このとき、メモリ66から右腕で方向を指し示すための行動モジュールを読み出し、この行動モジュールに含まれる右肩関節38Rを制御するモータについてのモータ制御データと引数として与えられた角度データとをモータ制御ボード68へ送信して右腕で方向を指し示すように制御する。なお、引数としての角度データは、腕の現在の向きと通路「Li」の方向とから算出された現在の腕の向きから通路「Li」の方向への角度に基づいて決定される。そして、ステップS53で、ポインタpの値を「1」だけインクリメントする。   On the other hand, if it is determined that the p-th item is the passage “Li” (step S51: YES), in step S52, information on the passage of “Li”, which is the p-th item indicated by the pointer p in the map information DB 88. , Information on the direction of the passage “Li” is acquired, and the traveling direction specified based on this information is indicated by, for example, the right arm. At this time, the behavior module for pointing the direction with the right arm is read from the memory 66, and the motor control data about the motor for controlling the right shoulder joint 38R included in the behavior module and the angle data given as an argument are obtained from the motor control board. Control is performed so that the direction is indicated by the right arm. The angle data as an argument is determined based on the angle from the current arm direction calculated from the current arm direction and the direction of the passage “Li” to the direction of the passage “Li”. In step S53, the value of the pointer p is incremented by “1”.

次に、CPU62は、ステップS55で、現在経路リストにおいてポインタpがポイントしているp番目の項目が曲がり角「Ci」であるか否かを判断する。p番目の項目が曲がり角「Ci」であると判断すると(ステップS55:YES)、ステップS57でポインタpの値を「1」だけインクリメントし、さらに図9のステップS71で、ポインタpがポイントしているp番目の項目が、曲がる角度を示す角度「αi」であるか否かを判断する。   Next, in step S55, the CPU 62 determines whether or not the p-th item pointed to by the pointer p in the current route list is the turning corner “Ci”. If it is determined that the p-th item is the turning angle “Ci” (step S55: YES), the value of the pointer p is incremented by “1” in step S57, and the pointer p is pointed to in step S71 of FIG. It is determined whether or not the p-th item is an angle “αi” indicating a turning angle.

ステップS71で角度「αi」でないと判断すると(ステップS71:NO)、図8のステップS67において上述したようなエラー処理を行う。一方、角度「αi」であると判断すると(ステップS71:YES)、ステップS75で「この方向を曲がり角まで進んでください」を発話する。なお、先のステップS55において判断した曲がり角「Ci」に対応つけて曲がり角の態様についての情報を地図情報DB88に記憶しておき、ここではその態様の情報に従って、「この方向を十字路まで進んでください」や「この方向をT字路まで進んでください」などと発話してもよい。   If it is determined in step S71 that the angle is not “αi” (step S71: NO), error processing as described above is performed in step S67 of FIG. On the other hand, when it is determined that the angle is “αi” (step S71: YES), “Please proceed in this direction to the corner” is uttered in step S75. The map information DB 88 stores the information about the turning angle corresponding to the turning angle “Ci” determined in the previous step S55. Here, according to the information of the setting, “go this direction to the crossroads” Or “Please proceed in this direction to the T-junction”.

次に、CPU62は、ステップS77で「曲がり角に来たら」を発話し、ステップS79でフラグHがオン状態であるか否か、つまり経路の難易度の評価において難易度が高いと評価したか否かを判断する。   Next, the CPU 62 utters “when it comes to a corner” in step S77, and whether or not the flag H is in an on state in step S79, that is, whether or not the difficulty level is evaluated as high in the evaluation of the difficulty level of the route. Determine whether.

フラグHがオン状態である、つまり経路の難易度が高いと判断すると(ステップS79:YES)、ステップS71で、ポインタpがポイントしている角度「αi」に基づいて曲がり角で曲がる角度(方向)を特定し、その方向にロボット10を旋回して体を向ける。このとき、メモリ66から体の向きを変えるための行動モジュールを読み出し、この行動モジュールに含まれる車輪モータ26についてのモータ制御データと引数として与えられた角度データとをモータ制御ボード68へ送信してロボット10の体が旋回するように車輪22を制御する。なお、引数として与えられる角度データは、ステップS71でポインタpがポイントしている角度「αi」に基づいて決定される。   If it is determined that the flag H is in an on state, that is, the degree of difficulty of the route is high (step S79: YES), an angle (direction) of turning at a turning angle based on the angle “αi” pointed to by the pointer p in step S71. And turn the robot 10 in that direction to point the body. At this time, the behavior module for changing the direction of the body is read from the memory 66, and the motor control data for the wheel motor 26 included in the behavior module and the angle data given as an argument are transmitted to the motor control board 68. The wheel 22 is controlled so that the body of the robot 10 turns. Note that the angle data given as an argument is determined based on the angle “αi” pointed to by the pointer p in step S71.

ここで、角度「αi」は、たとえば、ロボット10の正面を基準として時計回りの角度であり、曲がり角「Ci」において右側に曲がる場合は角度「αi」は「90°」であり、左側に曲がる場合は角度「αi」は「270°」である。また、十字路で直進する場合は角度「αi」は「0°」である。   Here, the angle “αi” is, for example, a clockwise angle with respect to the front of the robot 10, and when turning to the right at the turning angle “Ci”, the angle “αi” is “90 °” and turns to the left. In this case, the angle “αi” is “270 °”. In addition, the angle “αi” is “0 °” when traveling straight on a crossroad.

次に、ステップS83では、現在ロボット10の体が向いている方向、つまり曲がる方向であるロボット10の正面を右腕で指し示す。このとき、メモリ66から右腕で方向を指し示すための行動モジュールを読み出し、この行動モジュールに含まれる右肩関節38Rを制御するモータについてのモータ制御データと引数として与えられた角度データとをモータ制御ボード68へ送信して右腕で方向を指し示すように制御する。なお、引数としての角度データは、腕がロボット10の正面を指し示すように予め設定された値によって与えられる。   Next, in step S83, the front side of the robot 10 in the direction in which the body of the robot 10 is currently facing, that is, the direction of bending, is pointed with the right arm. At this time, the behavior module for pointing the direction with the right arm is read from the memory 66, and the motor control data about the motor for controlling the right shoulder joint 38R included in the behavior module and the angle data given as an argument are obtained from the motor control board. Control is performed so that the direction is indicated by the right arm. The angle data as the argument is given by a value set in advance so that the arm points to the front of the robot 10.

一方、ステップS79においてフラグHがオン状態でない、つまり経路の難易度が高くないと判断すると(ステップS79:NO)、ステップS85で、ポインタpがポイントしている角度「αi」に基づいて曲がり角で曲がる角度(方向)を特定し、その方向を右腕で指し示す。このとき、メモリ66から右腕で方向を指し示すための行動モジュールを読み出し、この行動モジュールに含まれる右肩関節38Rを制御するモータについてのモータ制御データと引数として与えられた角度データとをモータ制御ボード68へ送信して右腕で方向を指し示すように制御する。なお、引数としての角度データは、ステップS71でポインタpがポイントしている角度「αi」に基づいて決定される。   On the other hand, if it is determined in step S79 that the flag H is not in the ON state, that is, the degree of difficulty of the route is not high (step S79: NO), in step S85, the turning angle is determined based on the angle “αi” pointed to by the pointer p. The turning angle (direction) is specified, and the direction is indicated with the right arm. At this time, the behavior module for pointing the direction with the right arm is read from the memory 66, and the motor control data about the motor for controlling the right shoulder joint 38R included in the behavior module and the angle data given as an argument are obtained from the motor control board. Control is performed so that the direction is indicated by the right arm. Note that the angle data as an argument is determined based on the angle “αi” pointed to by the pointer p in step S71.

そして、ステップS87では、ポインタpの値を「1」だけインクリメントし、ステップS89で経路リストにおいてポインタpがポイントしているp番目の項目がランドマーク「LMi」であるか否かを判断する。   In step S87, the value of the pointer p is incremented by “1”. In step S89, it is determined whether or not the p-th item pointed to by the pointer p in the route list is the landmark “LMi”.

p番目の項目がランドマークであると判断すると(ステップS89:YES)、ステップS91で、たとえば、「赤い看板が見える右に曲がってください」を発話する。この発話の例は、ステップS89で判断されたランドマークが「赤い看板」であり、ステップS71で判断された角度「αi」が「90°」である場合である。なお、角度「αi」が「270°」である場合には「赤い看板が見える左に曲がってください」と発話し、角度「αi」が「0°」である場合には「赤い看板が見える前方に直進してください」と発話する。そして、ステップS93では、ポインタpの値を「1」だけインクリメントして、図8のステップS51に戻る。   If it is determined that the p-th item is a landmark (step S89: YES), for example, “Please turn right to see a red signboard” is spoken in step S91. An example of this utterance is a case where the landmark determined in step S89 is a “red signboard” and the angle “αi” determined in step S71 is “90 °”. If the angle “αi” is “270 °”, say “Please turn left where you can see the red signboard”, and if the angle “αi” is “0 °”, you can see “Red signboard”. Go straight ahead. " In step S93, the value of the pointer p is incremented by “1”, and the process returns to step S51 in FIG.

一方、ステッ89でp番目の項目がランドマークでないと判断すると(ステップS89:NO)、ステップS95で、たとえば、「右に曲がってください」と発話する。この発話の例は、ステップS71で判断された角度「αi」が「90°」である場合である。なお、角度「αi」が「270°」である場合には「左に曲がってください」と発話し、角度「αi」が「0°」である場合には「前方に直進してください」と発話する。そして、図8のステップS51に戻る。   On the other hand, when it is determined in step 89 that the p-th item is not a landmark (step S89: NO), in step S95, for example, "Please turn right" is spoken. An example of this utterance is a case where the angle “αi” determined in step S71 is “90 °”. When the angle “αi” is “270 °”, say “Please turn left”, and when the angle “αi” is “0 °”, “Please go straight ahead” Speak. And it returns to step S51 of FIG.

図8のステップS55に戻って、現在ポインタpがポイントしている経路リストのp番目の項目が曲がり角「Ci」でないと判断すると(ステップS55:NO)、ステップS59でp番目の項目がエレベータ「Ei」であるか否かを判断する。p番目の項目がエレベータであると判断すると(ステップS59:YES)、ポインタpの値を「1」だけインクリメントする。   Returning to step S55 of FIG. 8, if it is determined that the p-th item of the route list currently pointed to by the pointer p is not the turning corner “Ci” (step S55: NO), the p-th item is the elevator “ It is determined whether it is “Ei”. If it is determined that the p-th item is an elevator (step S59: YES), the value of the pointer p is incremented by "1".

次に、図10のステップS101で、ポインタpが現在ポイントしている経路リストのp番目の項目が角度「αi」であるか否かを判断する。p番目の項目が角度「αi」でないと判断すると(ステップS101:NO)、図8のステップS67で上述したようなエラー処理を実行する。   Next, in step S101 in FIG. 10, it is determined whether or not the p-th item of the route list currently pointed to by the pointer p is an angle “αi”. If it is determined that the p-th item is not the angle “αi” (step S101: NO), the error processing as described above is executed in step S67 of FIG.

一方、p番目の項目が角度「αi」であると判断すると(ステップS101:YES)、ステップS105で、たとえば、「前方にあるエレベータに乗って2階を目指してください」を発話する。そして、ステップS101で判断した「αi」に基づいて、ステップS107で体の向きを「αi」だけ変えて、ステップS109で、たとえば、「2階に到着したらエレベータを降りてください」を発話する。   On the other hand, if it is determined that the p-th item is the angle “αi” (step S101: YES), for example, “Please get on the elevator in front and aim for the second floor” is uttered. Then, based on “αi” determined in step S101, the direction of the body is changed by “αi” in step S107, and in step S109, for example, “Please get off the elevator when arriving at the second floor” is uttered.

このとき、メモリ66から体の向きを変えるための行動モジュールを読み出し、この行動モジュールに含まれる車輪モータ26についてのモータ制御データと引数として与えられた角度データとをモータ制御ボード68へ送信してロボット10の体が旋回するように車輪22を制御する。なお、引数として与えられる角度データは、ステップS101でポインタpがポイントしている角度「αi」に基づいて決定される。   At this time, the behavior module for changing the direction of the body is read from the memory 66, and the motor control data for the wheel motor 26 included in the behavior module and the angle data given as an argument are transmitted to the motor control board 68. The wheel 22 is controlled so that the body of the robot 10 turns. The angle data given as an argument is determined based on the angle “αi” pointed to by the pointer p in step S101.

なお、エレベータを降りるときの出口の扉が、エレベータに乗り込んだときの入口の扉と異なる場合には、先のステップ109で、たとえば、「2階に到着したら、乗り込んだときの入口の扉の右側にある扉からエレベータを降りてください」などとと発話するようにするとよい。ここで、出口の扉が入口の扉のたとえば右側にあることは、ステップS101で判断した「αi」の値から判断することができる。   If the exit door when exiting the elevator is different from the entrance door when entering the elevator, in step 109, for example, “When you arrive on the second floor, enter the entrance door when entering the elevator. Please get out of the elevator from the door on the right. " Here, it can be determined from the value of “αi” determined in step S101 that the exit door is on the right side of the entrance door, for example.

ステップS111では、ポインタpの値を「1」だけインクリメントして、図8のステップS51に戻る。   In step S111, the value of the pointer p is incremented by “1”, and the process returns to step S51 in FIG.

図8のステップS59に戻って、p番目の項目がエレベータ「Ei」でないと判断すると(ステップS59:NO)、ステップS63において、p番目の項目は目的地「G」であるか否かを判断する。p番目の項目が目的地「G」でないと判断すると(ステップS63:NO)、ステップS67で上述したようなエラー処理を実行する。   Returning to step S59 of FIG. 8, if it is determined that the p-th item is not the elevator “Ei” (step S59: NO), it is determined in step S63 whether the p-th item is the destination “G”. To do. If it is determined that the p-th item is not the destination “G” (step S63: NO), the error processing as described above is executed in step S67.

一方、p番目の項目が目的地「G」であると判断すると(ステップS63:YES)、ステップS65でポインタpの値を「1」だけインクリメントする。   On the other hand, if it is determined that the p-th item is the destination “G” (step S63: YES), the value of the pointer p is incremented by “1” in step S65.

次に、図11のステップS121で、経路リストにおいてポインタpがポイントしているp番目の項目が角度「αi」であるか否かを判断する。p番目の項目が角度「αi」でないと判断すると(ステップS121:NO)、図8のステップS67で上述したようなエラー処理を実行する。   Next, in step S121 in FIG. 11, it is determined whether or not the p-th item pointed by the pointer p in the route list is an angle “αi”. If it is determined that the p-th item is not the angle “αi” (step S121: NO), the error processing as described above is executed in step S67 of FIG.

一方、p番目の項目が角度「αi」であると判断すると(ステップS121:YES)、ステップS125で、「この方向を真っ直ぐ目的地まで進んでください」を発話する。   On the other hand, when it is determined that the p-th item is the angle “αi” (step S121: YES), “Please go straight to the destination in this direction” is uttered in step S125.

そして、ステップS127で、フラグHがオン状態であるか否か、つまり経路の難易度が高いか否かを判断する。フラグHがオン状態であると判断すると(ステップS127:YES)、ステップS129で、ステップS121において判断した角度「αi」に基づいて目的地がある方向を判断し、その方向にロボット10を旋回して体を向ける。   In step S127, it is determined whether or not the flag H is in an on state, that is, whether or not the difficulty of the route is high. If it is determined that the flag H is on (step S127: YES), in step S129, the direction in which the destination is located is determined based on the angle “αi” determined in step S121, and the robot 10 is turned in that direction. Turn your body.

このとき、メモリ66から体の向きを変えるための行動モジュールを読み出し、この行動モジュールに含まれる車輪モータ26についてのモータ制御データと引数として与えられた角度データとをモータ制御ボード68へ送信してロボット10の体が旋回するように車輪22を制御する。なお、引数として与えられる角度データは、ステップS121でポインタpがポイントしている角度「αi」に基づいて決定される。   At this time, the behavior module for changing the body orientation is read from the memory 66, and the motor control data for the wheel motor 26 included in the behavior module and the angle data given as an argument are transmitted to the motor control board 68. The wheel 22 is controlled so that the body of the robot 10 turns. Note that the angle data given as an argument is determined based on the angle “αi” pointed to by the pointer p in step S121.

さらに、ステップS131で、目的地の方向、つまりロボット10の正面を右腕で指し示す。このとき、メモリ66から右腕で方向を指し示すための行動モジュールを読み出し、この行動モジュールに含まれる右肩関節38Rを制御するモータについてのモータ制御データと引数として与えられた角度データとをモータ制御ボード68へ送信して右腕で方向を指し示すように制御する。なお、引数としての角度データは、腕がロボット10の正面を指し示すように予め設定された値によって与えられる。   In step S131, the direction of the destination, that is, the front of the robot 10 is pointed with the right arm. At this time, the behavior module for pointing the direction with the right arm is read from the memory 66, and the motor control data about the motor for controlling the right shoulder joint 38R included in the behavior module and the angle data given as an argument are obtained from the motor control board. Control is performed so that the direction is indicated by the right arm. The angle data as the argument is given by a value set in advance so that the arm points to the front of the robot 10.

一方、ステップS127で、フラグHがオン状態でないと判断すると(ステップS127:NO)、ステップS121において判断した角度「αi」に基づいて目的地がある方向を判断し、その方向を右腕で指し示す。このとき、メモリ66から右腕で方向を指し示すための行動モジュールを読み出し、この行動モジュールに含まれる右肩関節38Rを制御するモータについてのモータ制御データと引数として与えられた角度データとをモータ制御ボード68へ送信して右腕で方向を指し示すように制御する。なお、引数として与えられる角度データは、ステップS121でポインタpがポイントしている角度「αi」に基づいて決定される。   On the other hand, if it is determined in step S127 that the flag H is not in the ON state (step S127: NO), the direction where the destination is located is determined based on the angle “αi” determined in step S121, and the direction is indicated by the right arm. At this time, the behavior module for pointing the direction with the right arm is read from the memory 66, and the motor control data about the motor for controlling the right shoulder joint 38R included in the behavior module and the angle data given as an argument are obtained from the motor control board. Control is performed so that the direction is indicated by the right arm. The angle data given as an argument is determined based on the angle “αi” pointed to by the pointer p in step S121.

そして、ステップS135では、たとえば、「目的地は左側にあります」を発話する。なお、この発話の例は、ステップS121において判断した角度「αi」が「270°」の場合である。角度「αi」が「90°」の場合は「目的地は右側にあります」と発話し、角度「αi」が「0°」の場合は「目的地は正面にあります」と発話する。ステップS135の後はリターンして道案内の処理を終了する。   In step S135, for example, “the destination is on the left side” is uttered. An example of this utterance is when the angle “αi” determined in step S121 is “270 °”. When the angle “αi” is “90 °”, “the destination is on the right side” is spoken, and when the angle “αi” is “0 °”, “the destination is in front”. After step S135, the process returns to end the route guidance process.

以上に説明したように、この実施例のロボット10は、人間に目的地までの経路を案内する際に、目的地までの経路が複雑であり難易度が高いか否かを判断する。そして、難易度が高くない場合は、人間が容易に経路の説明を理解できるため、腕による方向の指示と音声とによって経路を説明して案内し、難易度が高い場合は、人間の理解を助けるため、腕による方向の指示および音声に、体の向きによる方向の指示を加えて経路を説明して案内する。   As described above, when the robot 10 of this embodiment guides the route to the destination to a human, the robot 10 determines whether the route to the destination is complicated and the difficulty level is high. And if the difficulty is not high, humans can easily understand the explanation of the route, so explain and guide the route with direction instructions and voice by arm, and if the difficulty is high, understand the human In order to assist, the direction instruction by the arm and the voice are added to the direction instruction by the body direction to explain the route and guide.

このように、人間の理解を助けるために必要な場合にのみ体の向きによる方向の指示を行うことによって、人間による経路の理解の容易化と、ロボット10の旋回による体の向きの変更に伴う無駄な待ち時間の発生やエネルギーの消費の防止とを両立することができる。   In this way, the direction of the body direction is instructed only when necessary to assist human understanding, thereby facilitating understanding of the path by the human and changing the body direction by turning the robot 10. It is possible to achieve both unnecessary waiting time and prevention of energy consumption.

この発明の道案内ロボットの外観を正面から見た図解図である。It is the illustration figure which looked at the external appearance of the road guidance robot of this invention from the front. 図1に示す道案内ロボットの電気的な構成を示すブロック図である。It is a block diagram which shows the electrical structure of the route guidance robot shown in FIG. 道案内ロボットが案内する経路の一例を示す図解図である。It is an illustration figure which shows an example of the path | route which a road guidance robot guides. 道案内ロボットが案内する経路の一例を示す図解図である。It is an illustration figure which shows an example of the path | route which a road guidance robot guides. 道案内ロボットが案内する経路の一例を示す図解図である。It is an illustration figure which shows an example of the path | route which a road guidance robot guides. 道案内ロボットの図2に示すCPUの全体処理の一例を示すフロー図である。It is a flowchart which shows an example of the whole process of CPU shown in FIG. 2 of a route guidance robot. 道案内ロボットの図2に示すCPUの経路の難易度の決定の処理の一例を示すフロー図である。It is a flowchart which shows an example of the process of determination of the difficulty of the route of CPU shown in FIG. 2 of a route guidance robot. 道案内ロボットの図2に示すCPUの道案内の処理の一例を示すフロー図である。It is a flowchart which shows an example of the process of the route guidance of CPU shown in FIG. 2 of a route guidance robot. 道案内ロボットの図2に示すCPUの道案内の処理の一例を示すフロー図である。It is a flowchart which shows an example of the process of the route guidance of CPU shown in FIG. 2 of a route guidance robot. 道案内ロボットの図2に示すCPUの道案内の処理の一例を示すフロー図である。It is a flowchart which shows an example of the process of the route guidance of CPU shown in FIG. 2 of a route guidance robot. 道案内ロボットの図2に示すCPUの道案内の処理の一例を示すフロー図である。It is a flowchart which shows an example of the process of the route guidance of CPU shown in FIG. 2 of a route guidance robot.

符号の説明Explanation of symbols

10 …道案内ロボット(ロボット)
62 …CPU
88 …地図情報データベース(地図情報DB)
10 ... Robot guidance robot
62 ... CPU
88 ... Map information database (Map information DB)

Claims (7)

音声ならびに腕および体による身体動作を用いて人間に目的地までの経路を案内する道案内ロボットであって、
目的地を示す目的地情報を取得する目的地情報取得手段、
自身の現在地を示す現在地情報を取得する現在地情報取得手段、
道案内の対象地域の地図情報を記憶する地図情報記憶手段、
前記目的地情報取得手段によって取得された目的地情報、前記現在地情報取得手段によって取得された現在地情報、および前記地図情報記憶手段に記憶された地図情報に基づいて現在地から目的地までの経路を特定する特定手段、
前記特定手段によって特定された経路が複雑であるか否かを判断する判断手段、
前記判断手段によって前記経路が複雑でないと判断した場合に、腕による方向の指示と音声とを用いて前記経路を案内する第1案内手段、および
前記判断手段によって前記経路が複雑であると判断した場合に、腕による方向の指示、体の向きによる方向の指示、および音声を用いて前記経路を案内する第2案内手段を備える、道案内ロボット。
A route guidance robot that guides a route to a human destination using voice and physical movements by arms and body,
Destination information acquisition means for acquiring destination information indicating the destination;
Current location information acquisition means for acquiring current location information indicating its current location;
Map information storage means for storing map information of the target area of the route guidance;
A route from the current location to the destination is identified based on the destination information acquired by the destination information acquisition unit, the current location information acquired by the current location information acquisition unit, and the map information stored in the map information storage unit Specific means to
Determining means for determining whether the route specified by the specifying means is complicated;
When it is determined that the route is not complicated by the determining unit, the route is determined to be complicated by the first guiding unit that guides the route using a direction instruction by an arm and a voice, and the determining unit. In this case, a road guidance robot comprising second guidance means for guiding the route using a direction instruction by an arm, a direction instruction by a body direction, and a voice.
前記判断手段は、前記経路における曲がり角の数に基づいて当該経路が複雑であるか否かを判断する、請求項1記載の道案内ロボット。   The route guidance robot according to claim 1, wherein the determination unit determines whether or not the route is complicated based on the number of corners in the route. 前記判断手段は、前記経路における階移動の有無に基づいて当該経路が複雑であるか否かを判断する、請求項1または2記載の道案内ロボット。   The route guidance robot according to claim 1 or 2, wherein the determination unit determines whether or not the route is complicated based on presence or absence of floor movement in the route. 前記第1案内手段は、音声で曲がる方向を案内する際に、腕によって曲がる方向を指し示す、請求項1ないし3のいずれかに記載の道案内ロボット。   The road guide robot according to any one of claims 1 to 3, wherein the first guide means indicates a direction of bending by an arm when guiding the direction of bending by voice. 前記第2案内手段は、音声で曲がる方向を案内する際に、体の向きおよび腕によって曲がる方向を示す、請求項1ないし4のいずれかに記載の道案内ロボット。   The road guidance robot according to any one of claims 1 to 4, wherein the second guide means indicates a direction of the body and a direction of bending by the arm when guiding the direction of bending by voice. 前記第1案内手段は、音声で目的地の方向を案内する際に、腕によって目的地の方向を指し示す、請求項1ないし5のいずれかに記載の道案内ロボット。   The road guidance robot according to any one of claims 1 to 5, wherein the first guide means indicates the direction of the destination with an arm when guiding the direction of the destination by voice. 前記第2案内手段は、音声で目的地の方向を案内する際に、体の向きおよび腕によって目的地の方向を示す、請求項1ないし6のいずれかに記載の道案内ロボット。   The route guidance robot according to any one of claims 1 to 6, wherein the second guide means indicates the direction of the destination by a body direction and an arm when guiding the direction of the destination by voice.
JP2008215023A 2008-08-25 2008-08-25 Road guidance robot Active JP5115886B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008215023A JP5115886B2 (en) 2008-08-25 2008-08-25 Road guidance robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008215023A JP5115886B2 (en) 2008-08-25 2008-08-25 Road guidance robot

Publications (2)

Publication Number Publication Date
JP2010046780A true JP2010046780A (en) 2010-03-04
JP5115886B2 JP5115886B2 (en) 2013-01-09

Family

ID=42064313

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008215023A Active JP5115886B2 (en) 2008-08-25 2008-08-25 Road guidance robot

Country Status (1)

Country Link
JP (1) JP5115886B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012181081A (en) * 2011-03-01 2012-09-20 Advanced Telecommunication Research Institute International Route perspective model construction method and robot
EP3792848A1 (en) * 2019-09-12 2021-03-17 eBay, Inc. Systems and methods for deploying a robotic security escort to enhance enterprise security

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110136711A (en) * 2019-04-30 2019-08-16 厦门大学 A kind of voice interactive method of the guide to visitors robot based on cloud platform

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007160440A (en) * 2005-12-12 2007-06-28 Honda Motor Co Ltd Control device of legged mobile robot
JP2007249427A (en) * 2006-03-14 2007-09-27 Honda Motor Co Ltd Information management system
JP2007260822A (en) * 2006-03-28 2007-10-11 Advanced Telecommunication Research Institute International Guide robot
JP2007265329A (en) * 2006-03-30 2007-10-11 Advanced Telecommunication Research Institute International Route guidance system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007160440A (en) * 2005-12-12 2007-06-28 Honda Motor Co Ltd Control device of legged mobile robot
JP2007249427A (en) * 2006-03-14 2007-09-27 Honda Motor Co Ltd Information management system
JP2007260822A (en) * 2006-03-28 2007-10-11 Advanced Telecommunication Research Institute International Guide robot
JP2007265329A (en) * 2006-03-30 2007-10-11 Advanced Telecommunication Research Institute International Route guidance system

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012181081A (en) * 2011-03-01 2012-09-20 Advanced Telecommunication Research Institute International Route perspective model construction method and robot
EP3792848A1 (en) * 2019-09-12 2021-03-17 eBay, Inc. Systems and methods for deploying a robotic security escort to enhance enterprise security
CN112571413A (en) * 2019-09-12 2021-03-30 电子湾有限公司 System and method for deploying a robotic security escort to enhance enterprise security
CN112571413B (en) * 2019-09-12 2024-02-27 电子湾有限公司 System and method for deploying robot security importers to enhance enterprise security

Also Published As

Publication number Publication date
JP5115886B2 (en) 2013-01-09

Similar Documents

Publication Publication Date Title
JP2007260822A (en) Guide robot
JP5366048B2 (en) Information provision system
JP4276624B2 (en) Robot control apparatus, robot control method, and robot control program
JP3906743B2 (en) Guide robot
CN109605363B (en) Robot voice control system and method
JP5764795B2 (en) Mobile robot, mobile robot learning system, and mobile robot behavior learning method
JP5768273B2 (en) A robot that predicts a pedestrian&#39;s trajectory and determines its avoidance behavior
JP2007139710A (en) Walking-aid robot
US20130218395A1 (en) Autonomous moving apparatus and method for controlling the same
JP6150429B2 (en) Robot control system, robot, output control program, and output control method
JP6134895B2 (en) Robot control system, robot control program, and explanation robot
JP5145569B2 (en) Object identification method and apparatus
JP4962940B2 (en) Route guidance system
KR20160000162A (en) Self moving method of service robot
WO2022247325A1 (en) Navigation method for walking-aid robot, and walking-aid robot and computer-readable storage medium
JP2006231447A (en) Confirmation method for indicating position or specific object and method and device for coordinate acquisition
JP2017170568A (en) Service providing robot system
JP5115886B2 (en) Road guidance robot
JP2021174467A (en) Information processing device
JP2015066623A (en) Robot control system and robot
JP2011224737A (en) Guide robot, guide method, and program for controlling guide
JP5324956B2 (en) Road guidance robot
JP2006263873A (en) Communication robot system and communication robot
JP5842245B2 (en) Communication robot
JP5732633B2 (en) Communication robot

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110701

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120907

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121002

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121005

R150 Certificate of patent or registration of utility model

Ref document number: 5115886

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151026

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250