JP4886572B2 - robot - Google Patents

robot Download PDF

Info

Publication number
JP4886572B2
JP4886572B2 JP2007086584A JP2007086584A JP4886572B2 JP 4886572 B2 JP4886572 B2 JP 4886572B2 JP 2007086584 A JP2007086584 A JP 2007086584A JP 2007086584 A JP2007086584 A JP 2007086584A JP 4886572 B2 JP4886572 B2 JP 4886572B2
Authority
JP
Japan
Prior art keywords
robot
index
motivation
action
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007086584A
Other languages
Japanese (ja)
Other versions
JP2008238383A (en
Inventor
直亮 住田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2007086584A priority Critical patent/JP4886572B2/en
Publication of JP2008238383A publication Critical patent/JP2008238383A/en
Application granted granted Critical
Publication of JP4886572B2 publication Critical patent/JP4886572B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、所定のタスクを実行するロボットに係り、特に、自律移動可能なロボットに関するものである。   The present invention relates to a robot that executes a predetermined task, and more particularly to a robot that can move autonomously.

従来、移動可能なロボットが知られている(例えば、特許文献1、特許文献2参照)。特許文献1に記載のロボットは、荷物の運搬業務や案内業務などの各種の作業(以下、総称して「タスク」という)を行うエリアを示すタスク実行エリアにおいて、複数のロボットを管理する管理用コンピュータの制御の下でタスクを実行するものである。このロボットは、管理用コンピュータから新たなタスクを割り当てられるまで待機している。   Conventionally, movable robots are known (see, for example, Patent Document 1 and Patent Document 2). The robot described in Patent Document 1 is for management that manages a plurality of robots in a task execution area that indicates an area where various operations such as luggage transportation operations and guidance operations (hereinafter collectively referred to as “tasks”) are performed. A task is executed under the control of a computer. This robot waits until a new task is assigned from the management computer.

特許文献2に記載のペット型ロボットは、視覚認識した現在の興味対象に近づいたり手足で触ったりする好奇心行動をとっているときに、叩かれたり、触られたり、音声が入力したりするきっかけがあった場合に、新たな興味対象の方向に視線を変更する。このようなきっかけがあった場合に、ペット型ロボットは、現在の興味対象と新たな興味対象との興味度のより大きい方に好奇心行動をとる。このペット型ロボットは時間の経過とともに興味対象に飽きるように、興味度が時間経過と共に減衰する関数で定義されている。
特開2006−106919号公報(段落0018、図1) 特開2001−179666号公報(段落0027〜段落0038、図2)
The pet-type robot described in Patent Document 2 is hit or touched or inputs voice when taking a curiosity approaching the current interest of visual recognition or touching with a limb. When there is a chance, the line of sight is changed in the direction of the new object of interest. When such a trigger occurs, the pet-type robot takes a curious behavior toward the person with the higher degree of interest between the current interest object and the new interest object. This pet-type robot is defined by a function whose interest level decays with time so that it gets bored with the object of interest with time.
Japanese Patent Laying-Open No. 2006-106919 (paragraph 0018, FIG. 1) JP 2001-179666 (paragraph 0027 to paragraph 0038, FIG. 2)

しかしながら、特許文献1に記載のロボットは、現在実行すべきタスクを有していないときに新たなタスクを割り当てられるまで待機しているので、現在実行すべきタスクを有していないロボットを有効に活用することができない。そこで、例えば、待機中のロボットに人間とコミュニケーションをとらせることが要望されている。
また、特許文献2に記載のペット型ロボットは、外部からはたらきかけてくる対象に反応してペットや幼児が行うような好奇心行動をとるものであり、能動的に行動することができず、また、タスクを実行することができないという問題があった。
However, since the robot described in Patent Document 1 waits until a new task is assigned when it does not have a task to be executed at present, the robot having no task to be executed is made effective. It cannot be used. Therefore, for example, it is demanded that a waiting robot communicate with a human.
Further, the pet type robot described in Patent Document 2 takes a curiosity action that a pet or an infant performs in response to an object working from the outside, and cannot act actively. There was a problem that the task could not be performed.

そこで、本発明では、前記した問題を解決し、現在実行すべきタスクを有していないときに能動的に行動することができるロボットを提供することを目的とする。   Therefore, an object of the present invention is to provide a robot that can solve the above-described problems and can actively act when there is no task to be executed at present.

本発明は、前記目的を達成するために創案されたものであり、本発明のうち請求項1に記載のロボットは、対象物を検知する対象検知手段と、予め定められたタスクを実行するための行動計画を管理する行動計画管理手段とを備えたロボットであって、予め設定された前記対象物に関する既存の情報または前記対象物に対して行った過去の行動を数値化し、当該対象物に対して行う次の行動の実行可能性の大きさを示すモチベーション指数として、前記対象物に対する当該ロボットの直近の行動から経過した時間に関する経過時間指数と、前記対象物に対する当該ロボットの過去の行動の回数および行動時間に関する行動指数との単純和、または前記経過時間指数および前記行動指数を重み付けて加算した線形和を算出するモチベーション指数算出手段と、前記算出されたモチベーション指数を前記対象物毎に記憶するモチベーション指数記憶手段と、当該ロボットの内部状態を示す所定の信号値を検出する内部状態検出手段と、前記検出された信号値が所定のしきい値より小さいか否かを判別することで、当該ロボットの内部状態が次の行動に支障をきたす状態であるか否かを判別する内部状態判別手段と、前記内部状態が次の行動に支障をきたす状態ではない場合に、現在実行すべきタスクを保有しているか否かを判別するタスク判別手段と、現在実行すべきタスクを保有していない場合に、前記モチベーション指数記憶手段を参照して、前記モチベーション指数が所定値よりも高い対象物を選択するモチベーション指数判別手段と、前記モチベーション指数判別手段で選択された対象物に対して次に行う行動計画を追加する行動計画追加手段とを備え、前記モチベーション指数算出手段は、前記モチベーション指数判別手段で対象物が選択された場合、当該選択された対象物のモチベーション指数を減少させると共に、そのときに選択されなかった他の対象物のモチベーション指数を増加させることで前記モチベーション指数記憶手段に記憶された各モチベーション指数を更新することを特徴とする。 The present invention has been made to achieve the above-mentioned object, and the robot according to claim 1 of the present invention is to execute a predetermined task and target detection means for detecting a target object. An action plan management means for managing the action plan of the object, wherein the existing information relating to the object set in advance or the past action performed on the object is digitized, and the object is As a motivation index indicating the degree of feasibility of the next action to be performed on the object, an elapsed time index related to a time elapsed from the most recent action of the robot with respect to the object, and a past action of the robot with respect to the object motivation finger to calculate a simple sum linear sum or the sum of the elapsed time index and the behavior index Te weights, the behavior index for the number and behavior time A calculation unit, and motivation index storage means for storing the motivation index the calculated for each of the object, and the internal state detecting means for detecting a predetermined signal value indicating the internal state of the robot, the detected signal value Determining whether or not the internal state of the robot is in a state that interferes with the next action by determining whether or not the internal state is smaller than a predetermined threshold; A task discriminating unit for discriminating whether or not the current task to be executed is possessed when the current task is not disturbed, and the motivation index storage unit when the current task to be performed is not possessed The motivation index discriminating means for selecting an object having a motivation index higher than a predetermined value, and the motivation index discriminating means. Then performs a action plan additional means for adding an action plan to an object, the motivation index calculating means, when the object is selected in the motivation index determination means, of the selected object Each of the motivation indices stored in the motivation index storage means is updated by decreasing the motivation index and increasing the motivation index of other objects not selected at that time .

かかる構成によれば、ロボットは、当該ロボットの内部状態が行動に支障をきたす状態ではなく、現在実行すべきタスクを保有していない場合に、行動計画追加手段によって、モチベーション指数に基づいて対象物に対して次に行う行動計画を追加する。ここで、内部状態が行動に支障をきたす状態とは、ロボットの内部状態を示す所定の信号値が所定のしきい値より小さい場合を指す。ここで、所定の信号値は、例えば、バッテリ残量を示す信号やモータ駆動信号を示す電流値や電圧値、温度や湿度などの内部動作環境を示す物理量が含まれる。また、対象物とは、例えば、人間や場所等である。また、対象物に対して次に行う行動計画とは、対象物自体に近づく行動のほか、例えば、ロビーや休憩所など人間が集まる特定の場所に近づく行動、対象物に関する情報を有した情報源に近づく行動が含まれる。   According to such a configuration, when the robot is not in a state in which the internal state of the robot interferes with the action and does not have a task to be executed at the present time, the robot plans to add the object based on the motivation index by the action plan adding unit. The action plan to be performed next is added. Here, the state in which the internal state interferes with the action refers to a case where a predetermined signal value indicating the internal state of the robot is smaller than a predetermined threshold value. Here, the predetermined signal value includes, for example, a physical quantity indicating an internal operating environment such as a signal indicating a remaining battery level, a current value or a voltage value indicating a motor drive signal, and temperature or humidity. The object is, for example, a person or a place. In addition to the action approaching the object itself, the action plan to be performed next to the object is, for example, an information source having information about the object, an action approaching a specific place where people gather, such as a lobby or a resting place. The action which approaches is included.

また、請求項2に記載のロボットは、請求項1に記載のロボットであって、前記内部状態が、バッテリ残量であり、前記内部状態判別手段が、前記バッテリ残量を示す信号値が所定のしきい値より小さいか否かを判別することを特徴とする。   A robot according to a second aspect is the robot according to the first aspect, wherein the internal state is a remaining battery level, and the internal state determination unit has a signal value indicating the remaining battery level. It is characterized in that it is determined whether or not it is smaller than the threshold value.

かかる構成によれば、ロボットは、バッテリ残量が所定のしきい値より小さい場合に行動に支障をきたす状態と判定する。一方、ロボットは、バッテリ残量が所定のしきい値より大きく、かつ、タスクを有していない場合に、対象物に対して次に行う行動計画を追加する。したがって、ロボットは、追加する行動計画から、バッテリを補給するための行動計画を除外することができる。   According to this configuration, the robot determines that the behavior is hindered when the remaining battery level is smaller than the predetermined threshold value. On the other hand, the robot adds an action plan to be performed next to the target object when the remaining battery level is greater than a predetermined threshold and does not have a task. Therefore, the robot can exclude the action plan for supplying the battery from the action plan to be added.

また、請求項3に記載のロボットは、請求項1または請求項2に記載のロボットであって、前記対象物が人間であり、予め定められた人物の嗜好する話題を記憶する人物情報記憶手段と、音声入力手段に入力された人物の音声を認識する音声認識手段と、前記予め定められた人物の嗜好する話題と音声認識結果とに基づいた音声を出力する音声出力手段とをさらに備えることを特徴とする。   According to a third aspect of the present invention, there is provided the robot according to the first or second aspect, wherein the object is a human and a person information storage means for storing a topic preferred by a predetermined person. And voice recognition means for recognizing the voice of the person input to the voice input means, and voice output means for outputting voice based on the predetermined topic preferred by the person and the voice recognition result. It is characterized by.

かかる構成によれば、ロボットは、当該ロボットの内部状態が行動に支障をきたす状態ではなく、現在実行すべきタスクを保有していない場合に、モチベーション指数に基づく人物を選択して、その人物に会ってコミュニケーションをとる行動を、行動計画として追加する。また、会った人物の嗜好する話題を音声出力することで、当該人物がロボットに対して親しみを感じることが可能となる。   According to such a configuration, the robot selects a person based on the motivation index when the internal state of the robot is not in a state that hinders the action and does not have a task to be executed at present. Add actions to meet and communicate as action plans. In addition, by outputting voices of topics that are preferred by the person who met, the person can feel familiar with the robot.

また、請求項4に記載のロボットは、請求項1記載のロボットであって、前記モチベーション指数算出手段が、前記モチベーション指数判別手段で対象物が選択された場合、選択されなかった他の対象物のモチベーション指数を増加させるときに、当該モチベーション指数を、前記モチベーション指数判別手段で選択された回数が多い対象物ほど早く増加させることを特徴とする。 The robot according to claim 4 is the robot according to claim 1, wherein the motivation index calculating means, when the object is selected in the motivation index discriminating means, other objects that have not been selected When the motivation index of an object is increased, the motivation index is increased earlier for an object having a larger number of times selected by the motivation index discriminating means .

かかる構成によれば、ロボットは、経過時間指数と行動指数とに基づいて算出されたモチベーション指数に基づいて、行動計画を追加する。ここで、行動計画を追加すべき対象物の候補が複数ある場合に、モチベーション指数は対象物ごとにその値が異なる。したがって、経過時間指数と行動指数とに基づくモチベーション指数を用いることで、どの対象物に対する行動計画を優先すべきか決定し易くなる。   According to this configuration, the robot adds an action plan based on the motivation index calculated based on the elapsed time index and the action index. Here, when there are a plurality of candidate objects to which an action plan is to be added, the value of the motivation index differs for each object. Therefore, by using the motivation index based on the elapsed time index and the action index, it becomes easy to determine which object the action plan should be prioritized.

また、請求項5に記載のロボットは、請求項4に記載のロボットであって、前記経過時間指数が、当該ロボットの直近の行動から経過した時間の大きさに比例して設定され、前記行動指数が、当該ロボットの過去の行動の回数および行動時間の大きさに比例して設定され、前記モチベーション指数が、前記経過時間指数と前記行動指数との和であり、前記行動計画追加手段が、前記モチベーション指数の最も大きい対象物に対して次に行う行動計画を追加することを特徴とする。   The robot according to claim 5 is the robot according to claim 4, wherein the elapsed time index is set in proportion to the amount of time that has elapsed since the most recent action of the robot, An index is set in proportion to the number of past actions of the robot and the magnitude of the action time, the motivation index is the sum of the elapsed time index and the action index, and the action plan adding means includes: An action plan to be performed next is added to the object having the largest motivation index.

かかる構成によれば、ロボットは、モチベーション指数の最も大きい対象物に対して次に行う行動計画を追加する。ここで、モチベーション指数の最も大きい対象物とは、ロボットを擬人化した場合に、経過時間指数が大きいほど対象物に対する懐古性が高く、また、行動指数が大きいほど対象物に対する親密性が高い対象物である。したがって、ロボットは、あたかも人間のように、例えば、知り合いの複数の人物の中から、懐古性が高い人物や親密性が高い人物を選ぶことができる。   According to this configuration, the robot adds an action plan to be performed next to an object having the largest motivation index. Here, the object with the largest motivation index is an object that, when the robot is anthropomorphic, the greater the elapsed time index, the more retroactive the object, and the greater the action index, the more intimate with the object. It is a thing. Therefore, the robot can select, for example, a person with high nostalgia or a person with high intimacy from among a plurality of people who are acquainted as if they were humans.

また、請求項6に記載のロボットは、請求項1ないし請求項5のいずれか一項に記載のロボットであって、当該ロボットの移動手段と、当該ロボットの現在位置を検出する自己位置検出手段と、地図データを記憶した地図データ記憶手段と、前記対象物の位置情報を記憶する記憶手段とをさらに備え、前記行動計画追加手段が、前記地図データと前記対象物の位置情報とに基づいて、前記検出された当該ロボットの現在位置から前記対象物の位置までの移動計画を前記行動計画として追加することを特徴とする。   A robot according to a sixth aspect is the robot according to any one of the first to fifth aspects, wherein the moving means of the robot and a self-position detecting means for detecting the current position of the robot. And map data storage means for storing map data; and storage means for storing position information of the object, wherein the action plan adding means is based on the map data and the position information of the object. A movement plan from the detected current position of the robot to the position of the object is added as the action plan.

かかる構成によれば、ロボットは、モチベーション指数に基づいて選択した対象物の位置する場所まで移動することができる。ここで、移動手段は、例えば、陸上移動であれば2足等の多足歩行や2輪以上の車輪走行が可能な手段である。また、自己位置検出手段は、例えば、GPS受信器等である。   According to this configuration, the robot can move to a location where the target object selected based on the motivation index is located. Here, the moving means is, for example, a means capable of walking on multiple legs such as two legs or traveling on two or more wheels if it is land movement. The self-position detecting means is, for example, a GPS receiver.

請求項1に記載の発明によれば、ロボットは、自らの維持管理とタスク実行とを優先させつつ現在実行すべきタスクを有していないときに能動的に行動することができる。
請求項2に記載の発明によれば、ロボットは、バッテリ残量が充分であり、かつ、タスクを有していない場合に、対象物に対して次に行う行動計画を追加することができる。
請求項3に記載の発明によれば、ロボットは、識別対象の人物が好む話題を用いて対話することができる。
According to the first aspect of the present invention, the robot can act actively when it does not have a task to be executed while giving priority to its own maintenance and task execution.
According to the second aspect of the present invention, the robot can add an action plan to be performed next to the object when the remaining battery level is sufficient and the robot does not have a task.
According to the third aspect of the present invention, the robot can interact using the topic preferred by the person to be identified.

請求項4に記載の発明によれば、ロボットは、対象物の候補が複数ある場合に、どの対象物に対する行動計画を優先すべきか決定し易くなる。
請求項5に記載の発明によれば、ロボットは、複数の対象物の候補の中から懐古性が高い対象物人物や親密性が高い対象物人物を選択することができる。
請求項6に記載の発明によれば、ロボットは、選択した対象物の位置まで移動することで対象物に会うことができる。
According to the fourth aspect of the present invention, when there are a plurality of candidate objects, the robot can easily determine which object should be given priority on the action plan.
According to the fifth aspect of the present invention, the robot can select a target person having a high degree of retrospectiveness or a target person having a high degree of intimacy from among a plurality of target object candidates.
According to the invention described in claim 6, the robot can meet the object by moving to the position of the selected object.

以下、図面を参照して本発明のロボットを実施するための最良の形態(以下「実施形態」という)について詳細に説明する。まず、本発明の実施形態に係るロボットを含むロボット制御システムAの全体構成について図1を参照して説明する。図1は、本発明の実施形態に係るロボットを含むロボット制御システムの構成を模式的に示す図である。   Hereinafter, the best mode for carrying out the robot of the present invention (hereinafter referred to as “embodiment”) will be described in detail with reference to the drawings. First, an overall configuration of a robot control system A including a robot according to an embodiment of the present invention will be described with reference to FIG. FIG. 1 is a diagram schematically showing a configuration of a robot control system including a robot according to an embodiment of the present invention.

(ロボット制御システムAの構成)
図1に示すように、ロボット制御システムAは、ロボットRと、このロボットRと無線通信によって接続された基地局1と、この基地局1とロボット専用ネットワーク2を介して接続された管理用コンピュータ3と、この管理用コンピュータ3にネットワーク4を介して接続された端末5とから構成される。
(Configuration of robot control system A)
As shown in FIG. 1, a robot control system A includes a robot R, a base station 1 connected to the robot R by wireless communication, and a management computer connected to the base station 1 via a robot dedicated network 2. 3 and a terminal 5 connected to the management computer 3 via a network 4.

図1に示すように、このロボット制御システムAは、移動機能を備えた複数のロボットRA,RB,RC(ただし、ロボットを特定しない場合は、単にロボットRという)を有しており、各ロボットRは、管理用コンピュータ3においてロボットR毎に予め設定されたタスクの実行計画(タスクスケジュール)に従って、タスクを実行する。 As shown in FIG. 1, the robot control system A has a plurality of robots R A , R B , and R C having a moving function (however, when a robot is not specified, it is simply referred to as a robot R). Each robot R executes a task in accordance with a task execution plan (task schedule) preset for each robot R in the management computer 3.

ここでは、自律移動型の2足歩行ロボットを一例として説明する。
ロボットRは、管理用コンピュータ3から入力された実行命令に従ってタスクを実行するものであり、ロボットRがタスクを実行する領域として予め設定されたタスク実行エリア内に、少なくとも一台配置されている。
ここで、図1には、来訪者を会議室などの所定の場所に案内するという内容のタスク(案内タスク)を実行中のロボットRAと、荷物をある人に渡すという内容のタスク(荷物配達タスク)を実行中のロボットRBと、新たなタスクが割り当てられるまで待機中のロボットRCとが、例示されている。
Here, an autonomous mobile biped robot will be described as an example.
The robot R executes a task in accordance with an execution command input from the management computer 3, and at least one robot R is arranged in a task execution area set in advance as an area where the robot R executes the task.
Here, FIG. 1 shows a robot RA that is executing a task (guidance task) that guides a visitor to a predetermined place such as a conference room, and a task (package) that delivers a package to a person. A robot R B executing the delivery task) and a robot R C waiting until a new task is assigned are illustrated.

ロボットRは、図2に示すように、頭部R1、腕部R2、脚部R3、胴部R4および背面格納部R5を有しており、頭部R1、腕部R2、脚部R3は、それぞれアクチュエータにより駆動され、自律移動制御部50(図6参照)により2足歩行の制御がなされる。この2足歩行についての詳細は、例えば、特開2001−62760号公報に開示されている。   As shown in FIG. 2, the robot R has a head R1, an arm R2, a leg R3, a torso R4, and a rear housing R5. The head R1, the arm R2, and the leg R3 are: Each is driven by an actuator, and biped walking is controlled by the autonomous movement control unit 50 (see FIG. 6). Details of this bipedal walking are disclosed in, for example, Japanese Patent Application Laid-Open No. 2001-62760.

このロボットRは、例えば、案内タスクを実行するときには、人物Hを所定の案内領域(オフィスや廊下などの移動領域)で案内する。ここでは、ロボットRは、周囲に光(例えば、赤外光、紫外光、レーザ光など)および電波を発信して周辺領域に、タグTを備えた人物Hが存在するか否かを検知し、検知した人物Hの位置を特定して接近し、タグTに基づいて、人物Hが誰であるのかという個人識別を行う。このタグTは、ロボットRが人物の位置(距離および方向)を特定するために発する赤外光および電波を受信する。このタグTは、受信した赤外光に含まれる受光方向を示す信号と、受信した電波に含まれるロボットIDとに基づいて、タグ識別番号を含む受信報告信号を生成し、当該ロボットRに返信する。この受信報告信号を受信したロボットRは、受信報告信号に基づいて、タグTを装着した人物Hまでの距離と方向とを認識し、当該人物Hに接近することができる。   For example, when executing a guidance task, the robot R guides the person H in a predetermined guidance area (a movement area such as an office or a corridor). Here, the robot R detects whether or not the person H having the tag T exists in the peripheral area by transmitting light (for example, infrared light, ultraviolet light, laser light, etc.) and radio waves to the surroundings. Then, the position of the detected person H is specified and approached, and based on the tag T, personal identification as to who the person H is is performed. The tag T receives infrared light and radio waves emitted from the robot R to specify the position (distance and direction) of the person. The tag T generates a reception report signal including a tag identification number based on the signal indicating the light receiving direction included in the received infrared light and the robot ID included in the received radio wave, and returns it to the robot R. To do. The robot R that has received the reception report signal can recognize the distance and direction to the person H wearing the tag T based on the reception report signal, and can approach the person H.

ロボットRは、あるタスク(例えば案内タスクや荷物配達タスクなど)を実行するために案内領域内を自律移動する場合に、レーザスリット光または赤外線を照射して、路面状態あるいは路面上のマークを探索するようになっている。すなわち、ロボットRは、自己が移動領域内のどこを移動しているかを把握し、通常の移動領域内にいる場合はレーザスリット光を路面に照射して路面の段差、うねり、障害物の有無などを検出し、マークMの設置領域内にいる場合は、赤外線を路面に照射してマークMを検出し、自己位置の確認・補正などを行うようになっている。ここで、マークMは、例えば赤外線を再帰的に反射する反射材料で構成された部材である。また、マークMは位置データを有しており、当該位置データは地図データに含まれる形で記憶部30(図6参照)に記憶されている。なお、地図データは、案内領域内の特定の場所に設置されたマークの位置データと、当該位置データに所定の幅(範囲)を持たせたマークの設置領域に関するデータとを含んでいる。また、マークMの設置領域とは、マークMから所定距離の範囲内にある領域をいい、例えば、マークMを中心とした半径1〜3mの円形領域や、マークMの手前(ロボット側)3mの矩形領域などのように任意に設定される。   When the robot R autonomously moves within the guidance area to execute a certain task (for example, a guidance task or a package delivery task), the robot R irradiates laser slit light or infrared rays to search for a road surface state or a mark on the road surface. It is supposed to be. In other words, the robot R knows where the robot is moving in the moving area, and when in the normal moving area, the robot R irradiates the road surface with laser slit light to check for road steps, swells, and obstacles. When the mark M is within the installation area of the mark M, the mark M is detected by irradiating the road surface with infrared rays, and the self position is confirmed and corrected. Here, the mark M is a member made of a reflective material that recursively reflects infrared rays, for example. The mark M has position data, and the position data is stored in the storage unit 30 (see FIG. 6) in a form included in the map data. Note that the map data includes position data of a mark placed at a specific location in the guidance area, and data related to a mark placement area in which the position data has a predetermined width (range). The mark M installation area refers to an area within a predetermined distance from the mark M. For example, a circular area having a radius of 1 to 3 m around the mark M, or 3 m before the mark M (robot side). It is arbitrarily set like a rectangular area.

図1に戻って、ロボット制御システムAの構成の説明を続ける。
基地局1は、ロボットRと管理用コンピュータ3との間のデータ交換を仲介するものである。
具体的には、基地局1は、管理用コンピュータ3から出力された実行命令をロボットRに送信すると共に、ロボットRから送信されたロボットRの状態に関するデータ(ステータス情報)やロボットRが実行命令を受信したことを示す信号(受信報告信号)を受信して、管理用コンピュータ3に出力するものである。
基地局1は、ロボットRと管理用コンピュータ3との間のデータ交換を確実に行えるようにするために、タスク実行エリア内に少なくとも一つ設けられている。
なお、タスク実行エリアが建物の数フロアに亘って設定されている場合には、フロア毎に設けられていることが好ましく、一つの基地局1では総てのタスク実行エリアをカバーできない場合には、複数の基地局1がタスク実行エリア内に設けられていることが好ましい。
Returning to FIG. 1, the description of the configuration of the robot control system A will be continued.
The base station 1 mediates data exchange between the robot R and the management computer 3.
Specifically, the base station 1 transmits an execution command output from the management computer 3 to the robot R, and also transmits data (status information) on the state of the robot R transmitted from the robot R and the execution command from the robot R. Is received and a signal (reception report signal) is received and output to the management computer 3.
At least one base station 1 is provided in the task execution area in order to ensure data exchange between the robot R and the management computer 3.
In addition, when the task execution area is set over several floors of the building, it is preferable to be provided for each floor. When one base station 1 cannot cover all the task execution areas, A plurality of base stations 1 are preferably provided in the task execution area.

ロボット専用ネットワーク2は、基地局1と、管理用コンピュータ3と、ネットワーク4とを接続するものであり、LAN(Local Area Network)などにより実現されるものである。   The robot dedicated network 2 connects the base station 1, the management computer 3, and the network 4, and is realized by a LAN (Local Area Network) or the like.

管理用コンピュータ3は、複数のロボットRを管理するものであり、基地局1、ロボット専用ネットワーク2を介してロボットRの移動・発話などの各種制御を行うと共に、ロボットRに対して必要な情報を提供する。ここで、必要な情報とは、検知された人物の氏名や、ロボットRの周辺の地図(ローカル地図)などがこれに相当し、これらの情報は、管理用コンピュータ3の記憶部3aに記憶されている。   The management computer 3 manages a plurality of robots R, and performs various controls such as movement and speech of the robot R via the base station 1 and the robot dedicated network 2 and information necessary for the robot R. I will provide a. Here, the necessary information corresponds to the name of the detected person, a map around the robot R (local map), and the like. These pieces of information are stored in the storage unit 3a of the management computer 3. ing.

図3は、図1に示したロボットシステムで用いられるローカル地図の一例を示す図である。ここでは、案内領域301は、図3に示すように、建物のあるフロアの長方形の領域である。ロボットRやロボットRが案内すべき人物は、案内領域301の出入口302の外側の通路303を通って案内領域301に入る。出入口302の内側には、ホール304が広がっており、ホール304の奥の隅には受付305が配置され、案内領域301の壁側には個室として仕切られた複数の会議室306(306a,306b,306c)が設けられている。受付305は、L字型のカウンタテーブル305aと、受付スタッフが配置されるカウンタスペース305bとから成る。カウンタスペース305bには、基地局1が設置されている。なお、管理用コンピュータ3は、通路や部屋などのローカル地図の情報を位置座標データと関連づけて登録したローカルマップ(ローカル地図データ)と、ローカルマップを集積したタスク実行エリアの地図情報であるグローバルマップとを記憶部3a(図1参照)に保持している。   FIG. 3 is a diagram showing an example of a local map used in the robot system shown in FIG. Here, as shown in FIG. 3, the guide area 301 is a rectangular area on the floor where the building is located. The robot R or a person to be guided by the robot R enters the guide area 301 through the passage 303 outside the entrance / exit 302 of the guide area 301. A hall 304 extends inside the entrance / exit 302, and a reception 305 is disposed in the back corner of the hall 304, and a plurality of conference rooms 306 (306a, 306b) partitioned as private rooms on the wall side of the guide area 301 are provided. , 306c). The reception 305 includes an L-shaped counter table 305a and a counter space 305b in which reception staff are arranged. The base station 1 is installed in the counter space 305b. The management computer 3 includes a local map (local map data) in which information on local maps such as passages and rooms is registered in association with position coordinate data, and a global map that is map information of a task execution area in which the local maps are accumulated. Are stored in the storage unit 3a (see FIG. 1).

また、管理用コンピュータ3は、ロボットRに実行させるタスクに関する情報(タスクデータ)を記憶するタスク情報データベースを記憶部3a(図1参照)に保持している。
図4に示すように、タスク情報データベース400には、タスク毎に割り当てられた固有の識別子であるタスクID、タスクの優先度、タスクの重要度、タスクを実行させるロボットの識別子であるロボットID、案内や運搬(荷物配達)などのタスクの内容、タスク実行エリア内におけるタスクを開始する位置(開始位置)、タスク実行エリア内におけるタスクを終了する位置(終了位置)、タスクの実行に要する時間(所要時間)、そしてタスクの開始予定時刻(開始時刻)、タスクの終了予定時刻(終了時刻)、そしてタスクの状態などが、情報項目として含まれている。
Further, the management computer 3 holds a task information database that stores information (task data) related to tasks to be executed by the robot R in the storage unit 3a (see FIG. 1).
As shown in FIG. 4, the task information database 400 includes a task ID that is a unique identifier assigned to each task, a task priority, a task importance, a robot ID that is an identifier of a robot that executes the task, Contents of tasks such as guidance and transportation (package delivery), the position where the task starts within the task execution area (start position), the position where the task ends within the task execution area (end position), and the time required to execute the task ( Time required), scheduled task start time (start time), scheduled task end time (end time), task status, and the like are included as information items.

また、管理用コンピュータ3は、ロボットRに実行させるタスクの実行計画(タスクスケジュール)を、ロボットR毎に設定するものである。
図5に示すように、タスクスケジュールテーブル500は、ロボットRに実行させるタスクの実行順位、タスク情報データベース400(図4参照)に登録されたタスクを特定するためのタスクID、タスクの優先度、タスクの内容、そしてタスクの状態を情報項目として含むテーブルである。
このタスクスケジュールテーブル500では、これら情報項目が、タスク実行エリア内に配置されたロボットR毎に整理されており、どの様なタスクが、どのような順番で各ロボットRに割り当てられているのかを把握できるようになっている。
The management computer 3 sets an execution plan (task schedule) for tasks to be executed by the robot R for each robot R.
As shown in FIG. 5, the task schedule table 500 includes an execution order of tasks to be executed by the robot R, a task ID for identifying a task registered in the task information database 400 (see FIG. 4), a task priority, It is a table that includes task contents and task status as information items.
In this task schedule table 500, these information items are arranged for each robot R arranged in the task execution area, and what kind of tasks are assigned to each robot R in what order. It is possible to grasp.

再び、図1に戻って、ロボット制御システムAの構成の説明を続ける。
端末5は、ネットワーク4を介して管理用コンピュータ3に接続し、管理用コンピュータ3の記憶部3aに、人物に関する情報などを登録する、もしくは登録されたこれらの情報を修正するものである。また、端末5は、ロボットRに実行させるタスクの登録や、管理用コンピュータ3において設定されるタスクスケジュールの変更や、ロボットRの動作命令の入力などを行うものである。
Returning to FIG. 1 again, the description of the configuration of the robot control system A will be continued.
The terminal 5 is connected to the management computer 3 via the network 4 and registers information related to a person in the storage unit 3a of the management computer 3 or corrects the registered information. The terminal 5 is used for registering tasks to be executed by the robot R, changing a task schedule set in the management computer 3, inputting an operation command for the robot R, and the like.

以下、ロボットRについて詳細に説明する。   Hereinafter, the robot R will be described in detail.

[ロボット]
ロボットRは、図6に示すように、頭部R1、腕部R2、脚部R3、胴部R4および背面格納部R5に加えて、これら各部R1〜R5の適所に、カメラC,C、スピーカS、マイクMC,MC、画像処理部10、音声処理部20、記憶部30、主制御部40、自律移動制御部50、無線通信部60、バッテリ70、対象検知部80、および周辺状態検知部90を有する。
さらに、ロボットRは、ロボットRの向いている方向を検出するジャイロセンサSR1や、ロボットRの存在する位置座標を取得するためのGPS(Global Positioning System)受信器SR2を有している。
[robot]
As shown in FIG. 6, in addition to the head R1, the arm R2, the leg R3, the trunk R4, and the rear housing R5, the robot R includes cameras C and C, speakers at appropriate positions of these parts R1 to R5. S, microphone MC, MC, image processing unit 10, audio processing unit 20, storage unit 30, main control unit 40, autonomous movement control unit 50, wireless communication unit 60, battery 70, object detection unit 80, and surrounding state detection unit 90.
Furthermore, the robot R includes a gyro sensor SR1 that detects the direction in which the robot R is facing, and a GPS (Global Positioning System) receiver SR2 that acquires position coordinates where the robot R exists.

[カメラ]
カメラC,Cは、ロボットRの前方移動方向側の映像をデジタルデータとして取り込むことができるものであり、例えば、カラーCCD(Charge-Coupled Device)カメラが使用される。カメラC,Cで撮影された画像情報は画像処理部10に出力される。カメラC,Cは、左右に平行に並んで配置され、撮影した画像は画像処理部10に出力される。このカメラC,Cと、スピーカSおよびマイクMC,MCは、いずれも頭部R1の内部に配設される。スピーカ(音声出力手段)Sは、音声処理部20で音声合成された所定の音声を発することができる。
[camera]
The cameras C and C are capable of capturing an image of the robot R in the forward movement direction as digital data. For example, a color CCD (Charge-Coupled Device) camera is used. Image information captured by the cameras C and C is output to the image processing unit 10. The cameras C and C are arranged side by side in parallel on the left and right, and the captured image is output to the image processing unit 10. The cameras C and C, the speaker S, and the microphones MC and MC are all disposed inside the head R1. The speaker (sound output means) S can emit a predetermined sound synthesized by the sound processing unit 20.

[画像処理部]
画像処理部10は、カメラC,Cが撮影した画像を処理して、撮影された画像からロボットRの周囲の状況を把握するため、周囲の障害物や人物の認識を行う部分である。この画像処理部10は、ステレオ処理部11a、移動体抽出部11b、および顔認識部11cを含んで構成される。
ステレオ処理部11aは、左右のカメラC,Cが撮影した2枚の画像の一方を基準としてパターンマッチングを行い、左右の画像中の対応する各画素の視差を計算して視差画像を生成し、生成した視差画像および元の画像を移動体抽出部11bに出力する。なお、この視差は、ロボットRから撮影された物体までの距離を表すものである。
[Image processing unit]
The image processing unit 10 is a part for recognizing surrounding obstacles and persons in order to process images taken by the cameras C and C and grasp the situation around the robot R from the taken images. The image processing unit 10 includes a stereo processing unit 11a, a moving body extraction unit 11b, and a face recognition unit 11c.
The stereo processing unit 11a performs pattern matching on the basis of one of the two images taken by the left and right cameras C and C, calculates the parallax of each corresponding pixel in the left and right images, and generates a parallax image. The generated parallax image and the original image are output to the moving object extraction unit 11b. This parallax represents the distance from the robot R to the photographed object.

移動体抽出部11bは、ステレオ処理部11aから出力されたデータに基づき、撮影した画像中の移動体を抽出するものである。移動する物体(移動体)を抽出するのは、移動する物体が人物であると推定して、人物の認識をするためである。
移動体の抽出をするために、移動体抽出部11bは、過去の数フレーム(コマ)の画像を記憶しており、最も新しいフレーム(画像)と、過去のフレーム(画像)を比較して、パターンマッチングを行い、各画素の移動量を計算し、移動量画像を生成する。そして、視差画像と、移動量画像とから、カメラC,Cから所定の距離範囲内で、移動量の多い画素がある場合に、人物があると推定し、その所定距離範囲のみの視差画像として、移動体を抽出し、顔認識部11cへ移動体の画像を出力する。
The moving body extraction unit 11b extracts a moving body in the photographed image based on the data output from the stereo processing unit 11a. The reason for extracting the moving object (moving body) is to recognize the person by estimating that the moving object is a person.
In order to extract the moving object, the moving object extraction unit 11b stores images of several past frames (frames), compares the newest frame (image) with the past frames (images), and Pattern matching is performed, the movement amount of each pixel is calculated, and a movement amount image is generated. Then, from the parallax image and the movement amount image, when there are pixels with a large movement amount within a predetermined distance range from the cameras C and C, it is estimated that there is a person, and as a parallax image of only the predetermined distance range The moving body is extracted, and an image of the moving body is output to the face recognition unit 11c.

顔認識部11cは、抽出した移動体から肌色の部分を抽出して、その大きさ、形状などから顔の位置を認識する。なお、同様にして、肌色の領域と、大きさ、形状などから手の位置も認識される。
認識された顔の位置は、ロボットRが移動するときの情報として、また、その人とのコミュニケーションを取るため、主制御部40に出力される。
The face recognition unit 11c extracts a skin color portion from the extracted moving body, and recognizes the face position from the size, shape, and the like. Similarly, the position of the hand is also recognized from the skin color area, size, shape, and the like.
The recognized face position is output to the main control unit 40 as information when the robot R moves and to communicate with the person.

[音声処理部]
音声処理部20は、音声合成部21aと、音声認識部21bと、音源定位部21cとを有する。
音声合成部21aは、主制御部40が決定し、出力してきた発話行動の指令に基づき、文字情報(テキストデータ)から音声データを生成し、スピーカSに音声を出力する部分である。音声データの生成には、予め記憶部30に記憶している文字情報(テキストデータ)と音声データとの対応関係を利用する。なお、音声データは、管理用コンピュータ3から取得され、記憶部30に保存される。
音声認識部(音声認識手段)21bは、マイクMC,MCから音声データが入力され、入力された音声データから文字情報(テキストデータ)を生成し、主制御部40に出力するものである。なお、音声データと文字情報(テキストデータ)との対応関係は、記憶部30に予め記憶されている。
音源定位部21cは、マイクMC,MC間の音圧差および音の到達時間差に基づいて音源位置(ロボットRが認識する平面状の位置)を特定し、主制御部40に出力するものである。音源位置は、例えば、ロボットRの立っている方向(z軸方向)周りの回転角θzで表される。
[Audio processor]
The voice processing unit 20 includes a voice synthesis unit 21a, a voice recognition unit 21b, and a sound source localization unit 21c.
The voice synthesizer 21a is a part that generates voice data from character information (text data) and outputs the voice to the speaker S based on the speech action command determined and output by the main controller 40. For the generation of the voice data, the correspondence between the character information (text data) stored in the storage unit 30 in advance and the voice data is used. The audio data is acquired from the management computer 3 and stored in the storage unit 30.
The voice recognition unit (voice recognition unit) 21 b receives voice data from the microphones MC and MC, generates character information (text data) from the input voice data, and outputs the character information to the main control unit 40. The correspondence relationship between the voice data and the character information (text data) is stored in the storage unit 30 in advance.
The sound source localization unit 21 c specifies a sound source position (a planar position recognized by the robot R) based on the sound pressure difference between the microphones MC and MC and the sound arrival time difference, and outputs the sound source position to the main control unit 40. The sound source position is represented by, for example, a rotation angle θ z around the direction in which the robot R stands (z-axis direction).

[記憶部]
記憶部(記憶手段)30は、例えば、一般的なハードディスク等から構成され、管理用コンピュータ3から送信された必要な情報(ローカル地図データ、会話用データなど)を記憶するものである。
[Memory]
The storage unit (storage means) 30 is composed of, for example, a general hard disk or the like, and stores necessary information (local map data, conversation data, etc.) transmitted from the management computer 3.

[主制御部]
主制御部40は、画像処理部10、音声処理部20、記憶部30、自律移動制御部50、無線通信部60、対象検知部80、および周辺状態検知部90を統括制御するものである。また、ジャイロセンサSR1、およびGPS受信器SR2が検出したデータは、主制御部40に出力され、ロボットRの行動を決定するために利用される。この主制御部40は、例えば、管理用コンピュータ3と通信を行うための制御、管理用コンピュータ3から取得したタスク実行命令に基づいて所定のタスクを実行するための制御、ロボットRを目的地に移動させるための制御、人物を識別するための制御、人物と対話するための制御を行うために、種々の判断を行ったり、各部の動作のための指令を生成したりする。
[Main control section]
The main control unit 40 controls the image processing unit 10, the sound processing unit 20, the storage unit 30, the autonomous movement control unit 50, the wireless communication unit 60, the target detection unit 80, and the surrounding state detection unit 90. The data detected by the gyro sensor SR1 and the GPS receiver SR2 is output to the main control unit 40 and used to determine the behavior of the robot R. The main control unit 40 includes, for example, control for communicating with the management computer 3, control for executing a predetermined task based on a task execution command acquired from the management computer 3, and the robot R as a destination. In order to perform control for movement, control for identifying a person, and control for interacting with a person, various determinations are made and commands for the operation of each unit are generated.

[自律移動制御部]
自律移動制御部50は、主制御部40の指示に従い頭部R1、腕部R2および脚部R3を駆動するものである。この自律移動制御部50は、図示を省略するが、頭部R1を駆動する頭部制御部、腕部R2を駆動する腕部制御部、脚部R3を駆動する脚部制御部を有する。この自律移動制御部50および脚部R3は移動手段を構成する。
[Autonomous Movement Control Unit]
The autonomous movement control unit 50 drives the head R1, the arm R2, and the leg R3 in accordance with instructions from the main control unit 40. Although not shown, the autonomous movement control unit 50 includes a head control unit that drives the head R1, an arm control unit that drives the arm R2, and a leg control unit that drives the leg R3. This autonomous movement control part 50 and leg part R3 comprise a moving means.

[無線通信部]
無線通信部60は、管理用コンピュータ3とデータの送受信を行う通信装置である。無線通信部60は、公衆回線通信装置61aおよび無線通信装置61bを有する。
公衆回線通信装置61aは、携帯電話回線やPHS(Personal Handyphone System)回線などの公衆回線を利用した無線通信手段である。一方、無線通信装置61bは、IEEE802.11b規格に準拠するワイヤレスLANなどの、近距離無線通信による無線通信手段である。
無線通信部60は、管理用コンピュータ3からの接続要求に従い、公衆回線通信装置61aまたは無線通信装置61bを選択して管理用コンピュータ3とデータ通信を行う。
[Wireless communication part]
The wireless communication unit 60 is a communication device that transmits and receives data to and from the management computer 3. The wireless communication unit 60 includes a public line communication device 61a and a wireless communication device 61b.
The public line communication device 61a is a wireless communication means using a public line such as a mobile phone line or a PHS (Personal Handyphone System) line. On the other hand, the wireless communication device 61b is a wireless communication unit using short-range wireless communication such as a wireless LAN conforming to the IEEE802.11b standard.
The wireless communication unit 60 performs data communication with the management computer 3 by selecting the public line communication device 61 a or the wireless communication device 61 b in accordance with a connection request from the management computer 3.

バッテリ70は、ロボットRの各部の動作や処理に必要な電力の供給源である。   The battery 70 is a power supply source necessary for the operation and processing of each unit of the robot R.

[対象検知部]
対象検知部(対象検知手段)80は、ロボットRの周囲にタグTを備える人物が存在するか否かを検知するものである。対象検知部80は、複数の発光部81(図6では1つのみ表示した)を備える。これら発光部81は、例えば、LEDから構成され、ロボットRの頭部R1外周に沿って前後左右などに配設される(図示は省略する)。対象検知部80は、発光部81から、各発光部81を識別する発光部IDを示す信号を含む赤外光をそれぞれ発信すると共に、この赤外光を受信したタグTから受信報告信号を受信する。いずれかの赤外光を受信したタグTは、その赤外光に含まれる発光部IDに基づいて、受信報告信号を生成するので、ロボットRは、この受信報告信号に含まれる発光部IDを参照することにより、当該ロボットRから視てどの方向にタグTが存在するかを特定することができる。また、対象検知部80は、タグTから取得した受信報告信号の電波強度に基づいて、タグTまでの距離を特定する機能を有する。したがって、対象検知部80は、受信報告信号に基づいて、タグTの位置(距離および方向)を、人物の位置として特定することができる。さらに、対象検知部80は、発光部81から赤外光を発光するだけではなく、ロボットIDを示す信号を含む電波を図示しないアンテナから発信する。これにより、この電波を受信したタグTは、赤外光を発信したロボットRを正しく特定することができる。なお、対象検知部80およびタグTについての詳細は、例えば、特開2006−192563号公報に開示されている。
[Target detection unit]
The target detection unit (target detection means) 80 detects whether or not there is a person with the tag T around the robot R. The target detection unit 80 includes a plurality of light emitting units 81 (only one is displayed in FIG. 6). These light emitting units 81 are constituted by LEDs, for example, and are arranged on the front and rear, right and left along the outer periphery of the head R1 of the robot R (not shown). The target detection unit 80 transmits infrared light including a signal indicating a light emitting unit ID for identifying each light emitting unit 81 from the light emitting unit 81 and receives a reception report signal from the tag T that has received the infrared light. To do. The tag T that has received any infrared light generates a reception report signal based on the light emitting unit ID included in the infrared light, so that the robot R determines the light emitting unit ID included in the reception report signal. By referencing, it is possible to specify in which direction the tag T exists as viewed from the robot R. Further, the target detection unit 80 has a function of specifying the distance to the tag T based on the radio wave intensity of the reception report signal acquired from the tag T. Therefore, the target detection unit 80 can specify the position (distance and direction) of the tag T as the position of the person based on the reception report signal. Further, the target detection unit 80 not only emits infrared light from the light emitting unit 81 but also transmits a radio wave including a signal indicating the robot ID from an antenna (not shown). Thus, the tag T that has received the radio wave can correctly identify the robot R that has transmitted infrared light. Details of the target detection unit 80 and the tag T are disclosed in, for example, Japanese Patent Application Laid-Open No. 2006-192563.

[周辺状態検知部]
周辺状態検知部90は、ロボットRの周辺状態を検知するものであり、ジャイロセンサSR1やGPS受信器SR2によって検出された自己位置データを取得可能になっている。また、周辺状態検知部90は、探索域に向かってスリット光を照射するレーザ照射部91と、探索域に向かって赤外線を照射する赤外線照射部92と、スリット光または赤外線が照射された探索域を撮像する床面カメラ93とを有する。この周辺状態検知部90は、床面カメラ93で撮像したスリット光画像(スリット光が照射されたときの画像)を解析して路面状態を検出する。また、周辺状態検知部90は、床面カメラ93で撮像した赤外線画像(赤外線が照射されたときの画像)を解析してマークM(図2参照)を検出し、検出されたマークMの位置(座標)からマークMとロボットRとの相対的な位置関係を計算する。なお、周辺状態検知部90についての詳細は、例えば、特開2006−167844号公報に開示されている。
[Ambient condition detector]
The peripheral state detection unit 90 detects the peripheral state of the robot R, and can acquire self-position data detected by the gyro sensor SR1 and the GPS receiver SR2. The peripheral state detection unit 90 includes a laser irradiation unit 91 that irradiates slit light toward the search region, an infrared irradiation unit 92 that irradiates infrared light toward the search region, and a search region irradiated with slit light or infrared rays. And a floor camera 93. The peripheral state detection unit 90 detects a road surface state by analyzing a slit light image (an image when the slit light is irradiated) captured by the floor camera 93. Further, the peripheral state detection unit 90 analyzes the infrared image captured by the floor camera 93 (image when irradiated with infrared rays) to detect the mark M (see FIG. 2), and the position of the detected mark M The relative positional relationship between the mark M and the robot R is calculated from (coordinates). Details of the peripheral state detection unit 90 are disclosed in, for example, Japanese Patent Application Laid-Open No. 2006-167844.

[主制御部の構成]
図7は、図6に示したロボットの主制御部の構成を示すブロック図である。
主制御部40は、静止障害物統合部41と、オブジェクトデータ統合部42と、行動パターン部43と、身振り統合部44と、内部状態検出部45と、行動計画管理部46と、モチベーション管理部47とを備えている。
[Configuration of main controller]
FIG. 7 is a block diagram showing the configuration of the main control unit of the robot shown in FIG.
The main control unit 40 includes a stationary obstacle integration unit 41, an object data integration unit 42, an action pattern unit 43, a gesture integration unit 44, an internal state detection unit 45, an action plan management unit 46, and a motivation management unit. 47.

静止障害物統合部41は、周辺状態検知部90で検知されたロボットRの周辺状態に関する情報を統合し、行動パターン部43に出力するものである。例えば、静止障害物統合部41が、ロボットRの進路の床面に段ボール箱などの障害物を検知した場合や、床面の段差を検知した場合には、行動パターン部43は、この統合された障害物情報に基づいて、図示しない局所回避モジュールによって迂回経路を探索する。   The stationary obstacle integration unit 41 integrates information related to the peripheral state of the robot R detected by the peripheral state detection unit 90 and outputs the information to the behavior pattern unit 43. For example, when the stationary obstacle integration unit 41 detects an obstacle such as a cardboard box on the floor surface of the path of the robot R or detects a step on the floor surface, the behavior pattern unit 43 is integrated. Based on the obstacle information, a bypass route is searched by a local avoidance module (not shown).

オブジェクトデータ統合部42は、ロボットRの姿勢データ、画像処理部10、対象検知部80および音源定位部21cからの入力データに基づいて、対象物(オブジェクト)に関する識別データ(オブジェクトデータ)を統合し、この統合したオブジェクトデータを記憶部30のオブジェクトデータ記憶手段31に出力するものである。これにより、オブジェクトデータ記憶手段31には、オブジェクトデータをオブジェクト別かつ時刻別に記録したデータであるオブジェクトマップが生成される。   The object data integration unit 42 integrates identification data (object data) related to the object (object) based on the posture data of the robot R, the input data from the image processing unit 10, the target detection unit 80, and the sound source localization unit 21c. The integrated object data is output to the object data storage means 31 of the storage unit 30. As a result, an object map, which is data in which object data is recorded for each object and for each time, is generated in the object data storage unit 31.

[オブジェクトマップの構成]
ここで、図8を参照して、オブジェクトデータ記憶手段31に記憶されるオブジェクトマップの構成を説明する。図8は、オブジェクトデータの一例を示す図である。
オブジェクトマップは、時刻別に分類された複数の時刻別データ801を備えている。この時刻別データ801には、それぞれ、時刻情報としてのカウント802と、姿勢データおよびカメラ姿勢と、表803が付されている。姿勢データは、例えば顔の位置(x,y,z)と顔の向き(θx,θy,θz)で表され、カメラ姿勢は、例えばパン、チルト、ロールの各軸周りの回転角度(pan,tilt,role)で表される。また、この表803では、列に識別すべき対象(オブジェクト)が配され、行に、このオブジェクトを特徴付ける複数の項目が配されており、オブジェクト別に(列ごとに)レコードが蓄積されている。以下に、各項目の詳細を説明する。
[Composition of object map]
Here, the configuration of the object map stored in the object data storage means 31 will be described with reference to FIG. FIG. 8 is a diagram illustrating an example of object data.
The object map includes a plurality of time-specific data 801 classified by time. Each time data 801 is provided with a count 802 as time information, posture data and camera posture, and a table 803. The posture data is represented by, for example, a face position (x, y, z) and a face direction (θx, θy, θz), and the camera posture is, for example, a rotation angle (pan, tilt, pan, tilt, roll axis) (tilt, role). In this table 803, a target (object) to be identified is arranged in a column, a plurality of items characterizing this object are arranged in a row, and a record is accumulated for each object (for each column). Details of each item will be described below.

オブジェクトナンバ804は、ロボットRがオブジェクトを検出した順番に最大M個まで付されるものであり、この表803では、「0」〜「10」の11個(M=11)のオブジェクトを管理できるようになっている。
ボディ位置805は、画像処理部10から出力される位置座標データであり、ロボットRが認識している座標平面における人物(オブジェクト)の重心位置座標(x,y)で表される。
速度806は、画像処理部10から出力される速度データであり、ロボットRが認識している座標平面における人物(オブジェクト)の移動速度(Vx,Vy)で表される。
The object number 804 is assigned up to M objects in the order in which the robot R detects the objects. In this table 803, eleven (M = 11) objects “0” to “10” can be managed. It is like that.
The body position 805 is position coordinate data output from the image processing unit 10 and is represented by the gravity center position coordinates (x, y) of the person (object) on the coordinate plane recognized by the robot R.
The speed 806 is speed data output from the image processing unit 10 and is represented by the moving speed (Vx, Vy) of the person (object) on the coordinate plane recognized by the robot R.

人物ID807は、人物を識別するための識別番号である。
人物確度808は、人物ID807の確度を示すものであり、完全一致を100%として定められている。
人物ライフカウント809は、人物ID807に登録されたデータのオブジェクトデータ上での経過時間を表している。
The person ID 807 is an identification number for identifying a person.
The person accuracy 808 indicates the accuracy of the person ID 807, and is defined as 100% perfect match.
The person life count 809 represents the elapsed time on the object data of the data registered in the person ID 807.

RFID識別番号810は、タグに記録された人物(オブジェクト)の識別番号であり、対象検知部80から出力されたものである。
RFID位置811は、対象検知部80から出力される位置データであり、ロボットRの周囲におけるタグ(オブジェクト)までの距離および方向で定まる領域で表される。
RFID確度812は、RFID識別番号810のデータ(識別番号)の確度を示すものである。
RFIDライフカウント813は、RFID識別番号810に登録されたデータ(識別番号)のオブジェクトマップ上での経過時間を表している。
The RFID identification number 810 is an identification number of a person (object) recorded on the tag and is output from the target detection unit 80.
The RFID position 811 is position data output from the target detection unit 80, and is represented by an area determined by the distance and direction to the tag (object) around the robot R.
The RFID accuracy 812 indicates the accuracy of the data (identification number) of the RFID identification number 810.
The RFID life count 813 represents an elapsed time on the object map of data (identification number) registered in the RFID identification number 810.

音源位置814は、音源定位部21cから出力されるデータであり、ロボットRが認識している座標平面における発声する人物(オブジェクト)の角度θzで表される。
音源確度815は、音源位置814のデータの確度を示すものである。
音源ライフカウント816は、音源位置814に登録されたデータ(位置座標)のオブジェクトマップ上での経過時間を表している。
The sound source position 814 is data output from the sound source localization unit 21c, and is represented by an angle θz of a person (object) speaking on a coordinate plane recognized by the robot R.
The sound source accuracy 815 indicates the accuracy of the data of the sound source position 814.
The sound source life count 816 represents the elapsed time on the object map of the data (position coordinates) registered at the sound source position 814.

オブジェクトライフカウント817は、オブジェクトに対して、人物データ、RFID識別データ、音源識別データのいずれかが初めて入力されたときに開始されたカウントを表すものである。
TOTAL_ID818は、人物ID807とRFID識別番号810に基づいてオブジェクトデータ統合部42で決定されたオブジェクトの識別番号である。
TOTAL_確度819は、人物確度808とRFID確度812とに基づいてオブジェクトデータ統合部42で決定されたオブジェクトの識別番号の確度を示すものである。
The object life count 817 represents a count started when any one of person data, RFID identification data, and sound source identification data is input to an object for the first time.
TOTAL_ID 818 is an object identification number determined by the object data integration unit 42 based on the person ID 807 and the RFID identification number 810.
The TOTAL_accuracy 819 indicates the accuracy of the object identification number determined by the object data integration unit 42 based on the person accuracy 808 and the RFID accuracy 812.

図7を参照して主制御部40の構成の説明を続ける。
行動パターン部43は、ロボットRの予め定められた行動(行動パターン)を実行するための各種プログラム(モジュール)を格納すると共に、この行動パターンを実行するときに、記憶部30を参照して、行動パターンに反映するものである。
The description of the configuration of the main control unit 40 will be continued with reference to FIG.
The behavior pattern unit 43 stores various programs (modules) for executing a predetermined behavior (behavior pattern) of the robot R, and refers to the storage unit 30 when executing this behavior pattern. It is reflected in the behavior pattern.

本実施形態では、図7に示すように、記憶部30に、オブジェクトデータ記憶手段31のほかに、ローカル地図データ記憶手段32と、モチベーション指数記憶手段33と、シナリオ記憶手段34と、人物情報記憶手段35とを備えている。なお、記憶部30は、予め定められた人物の位置情報等も記憶している。ここで、人物の位置情報とは、当該人物の所在を示す情報であり、例えば、曜日、時間等に関連付けて予め作成されたものである。   In the present embodiment, as shown in FIG. 7, in addition to the object data storage unit 31, the local map data storage unit 32, the motivation index storage unit 33, the scenario storage unit 34, and the personal information storage are stored in the storage unit 30. Means 35. Note that the storage unit 30 also stores position information of a predetermined person. Here, the position information of the person is information indicating the location of the person, and is created in advance in association with the day of the week, time, or the like, for example.

ローカル地図データ記憶手段32は、図3を参照して説明したロボットRの周辺の地図(ローカル地図)を記憶するものである。このローカル地図は、例えば、管理用コンピュータ3から取得される。
モチベーション指数記憶手段33は、モチベーション指数を記憶するものである。モチベーション指数は、モチベーション管理部47が管理するものなので詳細は後記する。
The local map data storage means 32 stores a map (local map) around the robot R described with reference to FIG. This local map is acquired from the management computer 3, for example.
The motivation index storage means 33 stores a motivation index. Since the motivation index is managed by the motivation management unit 47, details will be described later.

シナリオ記憶手段34は、各種行動パターンに対応したシナリオ(台本)を記憶するものである。シナリオは、例えば、歩行中に人物や障害物(オブジェクト)に遭遇したときにオブジェクトの1m手前で立ち止まるといったもの、立ち止まってから10秒後に腕部R2を所定位置まで上げるといったものなど動作に関するものと、発話に関するものとがある。
人物情報記憶手段35は、予め定められた人物の嗜好する話題を記憶するものである。本実施形態では、人物情報記憶手段35は、話題を人物別およびジャンル別に系統的に記憶している。人物情報記憶手段35に記憶された話題は、ロボットRの発話行動に用いられる。
The scenario storage unit 34 stores scenarios (scripts) corresponding to various behavior patterns. The scenario relates to an operation such as stopping a person or an obstacle (object) while walking, 1m before the object, and raising the arm R2 to a predetermined position 10 seconds after stopping. There is something about utterance.
The person information storage means 35 stores topics that a predetermined person likes. In the present embodiment, the person information storage unit 35 systematically stores topics by person and by genre. The topic stored in the person information storage means 35 is used for the speech behavior of the robot R.

行動パターン部43は、オブジェクトデータ記憶手段31、ローカル地図データ記憶手段32、シナリオ記憶手段34、および人物情報記憶手段35を適宜利用して様々な場面や状況に応じた行動パターンを実行するモジュールを備えている。モジュールの例としては、目的地移動モジュール、局所回避モジュール、デリバリモジュール、案内モジュール、人対応モジュール等がある。   The behavior pattern unit 43 is a module that executes behavior patterns according to various scenes and situations by appropriately using the object data storage unit 31, the local map data storage unit 32, the scenario storage unit 34, and the person information storage unit 35. I have. Examples of the module include a destination movement module, a local avoidance module, a delivery module, a guidance module, a human correspondence module, and the like.

目的地移動モジュールは、ロボットRの現在位置から、例えば、タスク実行エリア内のタスク実行位置等の目的地までの経路探索(例えばノード間の経路を探索)及び移動を行うものである。この目的地移動モジュールは、地図データと現在位置とを参照しつつ、目的地までの最短距離を求める。
局所回避モジュールは、歩行中に障害物が検知されたときに、静止障害物統合部41で統合された障害物情報に基づいて、障害物を回避する迂回経路を探索するものである。
The destination movement module performs route search (for example, search for a route between nodes) and movement from the current position of the robot R to a destination such as a task execution position in the task execution area. This destination movement module obtains the shortest distance to the destination while referring to the map data and the current position.
The local avoidance module searches for a detour route for avoiding an obstacle based on the obstacle information integrated by the stationary obstacle integration unit 41 when an obstacle is detected during walking.

デリバリモジュールは、物品の運搬を依頼する人物(依頼人)から物品を受け取る(把持する)動作や、受け取った物品を受取人に渡す(物品を手放す)動作を実行するものである。
案内モジュールは、例えば、タスク実行エリア内の案内開始地点に来訪した来訪客を案内領域301(図3参照)の受付305にいる受付スタッフのもとへ案内するタスクを実行するものである。
人対応モジュールは、例えば、物品運搬タスクや案内タスクの実行時に所定のシナリオに基づいて、発話、姿勢の変更、腕部R2の上下移動や把持等を行うものである。
The delivery module executes an operation of receiving (grabbing) an article from a person who requests transportation of the article (client) and an operation of delivering the received article to the recipient (releasing the article).
The guidance module executes, for example, a task for guiding a visitor who has visited a guidance start point in the task execution area to a reception staff in the reception 305 of the guidance area 301 (see FIG. 3).
The person handling module performs, for example, speech, posture change, vertical movement and gripping of the arm R2 based on a predetermined scenario when executing an article transport task or a guidance task.

身振り統合部44は、所定のシナリオに基づいて、発話に伴う身体動作である身振りを統合し、自律移動制御部50にコマンドを出力するものである。頭部R1の動作による身振りは、例えば、頭部R1を下方に傾けることで「お辞儀」、「礼」、「同意」、「謝罪」等を表示する動作や、頭部R1を左右に傾けることで「分からない」という意思表示を伝える動作が含まれる。また、腕部R2の動作による身振りは、例えば、腕部R2を上げることで「喜び」、「賞賛」等を表示する動作や、腕部R2を下方左右に広げることや握手を行うことで「歓迎」という意思表示を伝える動作が含まれる。また、脚部R3の動作による身振りは、例えば、その場で駆け足をすることで「喜び」、「元気」等の意思表示を伝える動作が含まれる。   The gesture integration unit 44 integrates gestures that are body movements associated with utterances based on a predetermined scenario, and outputs a command to the autonomous movement control unit 50. Gesture by the movement of the head R1, for example, tilting the head R1 downward to display “bowing”, “thanks”, “consent”, “apology”, etc., or tilting the head R1 left and right This includes an action that conveys the intention expression “I don't know”. The gesture by the movement of the arm part R2 is, for example, an action of displaying “joy”, “praise”, etc. by raising the arm part R2, expanding the arm part R2 to the left and right, or shaking hands. This includes an action to convey an expression of “welcome”. The gesture by the operation of the leg portion R3 includes, for example, an operation of transmitting intention indications such as “joy” and “goodness” by running on the spot.

内部状態検出部(内部状態検出手段)45は、ロボットRの内部状態を示す所定の信号値を検出し、検出結果をモチベーション管理部47に出力するものである。本実施形態では、内部状態検出部45は、所定の信号値としてバッテリ70の残量を検出する。検出されたバッテリ残量は、モチベーション管理部47に出力される。また、内部状態検出部45は、ロボットRの状態(現在位置、バッテリ残量、タスク実行状況など)に関するデータ(ステータス情報)を、所定時間間隔毎に生成し、生成したステータス情報を無線通信部60を介して管理用コンピュータ3に出力する。そして、管理用コンピュータ3は、入力されたステータス情報を記憶部3aに格納された図示しないロボット情報データベースにロボット毎に登録する。   The internal state detection unit (internal state detection means) 45 detects a predetermined signal value indicating the internal state of the robot R and outputs the detection result to the motivation management unit 47. In the present embodiment, the internal state detection unit 45 detects the remaining amount of the battery 70 as a predetermined signal value. The detected remaining battery level is output to the motivation management unit 47. The internal state detection unit 45 generates data (status information) about the state of the robot R (current position, remaining battery level, task execution status, etc.) at predetermined time intervals, and generates the generated status information as a wireless communication unit. The data is output to the management computer 3 via 60. The management computer 3 registers the input status information for each robot in a robot information database (not shown) stored in the storage unit 3a.

行動計画管理部(行動計画管理手段)46は、行動パターン部43が備える各種モジュールを所定のスケジュールで実行する行動計画を管理するものである。本実施形態では、行動計画管理部46は、管理用コンピュータ3から取得したタスク実行命令に基づいて予め定められたタスクを実行するための行動計画を管理し、現在実行すべき作業に必要なモジュールを適宜選択する。また、行動計画管理部46は、モチベーション管理部47の指示に基づいて識別対象に対する行動計画に必要なモジュールを適宜選択する。   The action plan management unit (behavior plan management means) 46 manages an action plan for executing various modules included in the action pattern unit 43 according to a predetermined schedule. In the present embodiment, the action plan management unit 46 manages an action plan for executing a predetermined task based on a task execution command acquired from the management computer 3, and is a module necessary for work to be currently executed. Is appropriately selected. The action plan management unit 46 appropriately selects a module necessary for the action plan for the identification target based on an instruction from the motivation management unit 47.

モチベーション管理部47は、モチベーション指数を管理し、現在実行すべきタスクを有していない場合に、モチベーション指数に基づいて、能動的に行動するための行動計画の追加を行動計画管理部46に指示するものである。ここで、モチベーション指数とは、予め設定された対象物に関する既存の情報または当該対象物に対して行った過去の行動を数値化し、当該対象物に対して行う次の行動の実行可能性の大きさを示すものである。本実施形態では、対象物は人間である。また、モチベーション指数は、人間に対するロボットRの直近の行動から経過した時間に関する経過時間指数と、人間に対するロボットRの過去の行動の回数および行動時間に関する行動指数とに基づいて決定される。   The motivation management unit 47 manages the motivation index, and instructs the action plan management unit 46 to add an action plan for active action based on the motivation index when there is no task to be currently executed. To do. Here, the motivation index is a measure of the possibility of executing the next action to be performed on the target object by quantifying the existing information on the target object set in advance or the past action performed on the target object. This is an indication. In the present embodiment, the object is a human. The motivation index is determined based on an elapsed time index related to the time elapsed from the most recent action of the robot R on the human and an action index related to the number of past actions of the robot R on the human and the action time.

具体的には、経過時間指数は、ロボットRの直近の行動から経過した時間の大きさに比例して設定され、行動指数は、ロボットRの過去の行動の回数および行動時間の大きさに比例して設定されている。つまり、ロボットRを擬人化した場合には、経過時間指数が大きいことは人物に対する懐古性が高いことを意味し、また、行動指数が大きいことは人物に対する親密性が高いことを意味する。このように設定することにより、既知の複数の人物の中から、懐古性が高い人物や親密性が高い人物を選ぶためにモチベーション指数を用いることができる。行動指数が親密性を表すため、以下では、行動指数のことをあらためて情動指数と呼ぶことにする。 Specifically, the elapsed time index is set in proportion to the magnitude of the time elapsed from the last action of the robot R, behavior index, the magnitude between the time the number and behavior of the past behavior of the robot R Set proportionally. That is, when the robot R is anthropomorphic, a large elapsed time index means that the person has a high degree of nostalgia, and a large action index means that the person has a high degree of intimacy. By setting in this way, the motivation index can be used to select a highly retrospective person or a highly intimate person from a plurality of known persons. Since the behavior index represents intimacy, hereinafter, the behavior index is referred to as an emotional index.

[モチベーション管理部の構成]
モチベーション管理部47は、図9に示すように、内部状態判別手段471と、保身行動制御手段472と、タスク判別手段473と、モチベーション指数判別手段474と、行動計画追加手段475と、モチベーション指数算出手段476とを備えている。
[Structure of motivation manager]
As shown in FIG. 9, the motivation management unit 47 includes an internal state determination unit 471, a preservation behavior control unit 472, a task determination unit 473, a motivation index determination unit 474, an action plan addition unit 475, and a motivation index calculation. Means 476.

内部状態判別手段471は、内部状態検出部45で検出された信号値が所定のしきい値より小さいか否かを判別することで、ロボットRの内部状態が行動に支障をきたす状態であるか否かを判別するものである。本実施形態では、内部状態判別手段471は、バッテリ残量を示す信号値が所定のしきい値よりも小さい場合に、バッテリの補給が必要であると判定する。所定のしきい値は、ロボットRが配置されるタスク実行エリアの状態、例えば、アップダウンが多い、環境が高温多湿であるといった、バッテリの消費に影響し得る要因を考慮の上、予め設定される値である。   The internal state determination unit 471 determines whether or not the internal state of the robot R is in a state that hinders the action by determining whether or not the signal value detected by the internal state detection unit 45 is smaller than a predetermined threshold value. This is to determine whether or not. In the present embodiment, the internal state determination unit 471 determines that the battery needs to be replenished when the signal value indicating the remaining battery level is smaller than a predetermined threshold value. The predetermined threshold value is set in advance in consideration of factors that may affect the battery consumption, such as the state of the task execution area where the robot R is arranged, for example, many ups and downs and the environment is hot and humid. Value.

保身行動制御手段472は、ロボットRにバッテリの補給が必要である場合に、バッテリ補給エリアB1〜B3(図1参照)のうち最も近い場所を選択し、選択したバッテリ補給エリアへ移動するための制御を行うものである。なお、移動の途中で障害物に遭遇した場合には、行動パターン部43の局所回避モジュールと協働して衝突を回避するための移動を行う。 When the robot R needs to be replenished with battery, the body-holding behavior control means 472 selects the nearest place from the battery replenishment areas B 1 to B 3 (see FIG. 1) and moves to the selected battery replenishment area. Control is performed. When an obstacle is encountered during the movement, the movement for avoiding a collision is performed in cooperation with the local avoidance module of the behavior pattern unit 43.

タスク判別手段473は、内部状態が次の行動に支障をきたす状態ではない場合に、現在実行すべきタスクを保有しているか否かを判別するものである。具体的には、タスク判別手段473は、ロボットRにバッテリの補給が必要ではない場合に、現在実行すべきタスクを保有しているか否かを判別する。本実施形態では、タスク判別手段473は、行動計画管理部46に問い合わせることで、タスクスケジュールを取得する。また、タスク判別手段473は、現在実行すべきタスクを保有していない場合に、次のタスクの開始時刻や開始位置等の情報を取得し、モチベーション指数判別手段474に出力する。   The task determination unit 473 determines whether or not the task to be executed is currently held when the internal state is not in a state that hinders the next action. Specifically, the task determination unit 473 determines whether or not the robot R has a task to be executed when it is not necessary to replenish the battery. In the present embodiment, the task determination unit 473 obtains a task schedule by making an inquiry to the action plan management unit 46. In addition, the task determination unit 473 acquires information such as the start time and start position of the next task and outputs the information to the motivation index determination unit 474 when the task to be executed is not currently held.

モチベーション指数判別手段474は、現在実行すべきタスクを保有していない場合に、モチベーション指数記憶手段33を参照して、モチベーション指数が所定値よりも高い人物を選択するものである。本実施形態では、モチベーション指数判別手段474は、モチベーション指数が所定値よりも高い人物のうちでモチベーション指数が最大値である人物だけを選択し、選択した人物の情報を行動計画追加手段475およびモチベーション指数算出手段476に出力する。   The motivation index discriminating means 474 selects a person whose motivation index is higher than a predetermined value with reference to the motivation index storage means 33 when the task to be executed is not currently held. In the present embodiment, the motivation index discriminating means 474 selects only the person whose motivation index is the maximum value among the persons whose motivation index is higher than a predetermined value, and selects the information of the selected person as the action plan adding means 475 and the motivation. It outputs to the index calculation means 476.

行動計画追加手段475は、現在実行すべきタスクを保有していない場合に、モチベーション指数算出手段476で算出されたモチベーション指数に基づいて、選択した人物に対して次に行う行動計画を追加するものである。この行動計画追加手段475が追加する行動計画のことを、タスク実行のための行動計画と区別するために、特に「能動的な行動計画」と呼ぶ場合もある。   The action plan addition means 475 adds the action plan to be performed next to the selected person based on the motivation index calculated by the motivation index calculation means 476 when the task to be executed is not currently held. It is. In order to distinguish the action plan added by the action plan adding means 475 from the action plan for task execution, it may be particularly referred to as an “active action plan”.

本実施形態では、行動計画追加手段475は、ローカル地図データ記憶手段32(図7参照)と記憶部30に記憶された人物の位置情報とに基づいて、ロボットRの現在位置から選択した人物の位置までの移動計画を行動計画(能動的な行動計画)として追加する。
この場合、行動計画追加手段475は、目的地(選択した人物の位置)の位置情報(位置座標または位置ID)を無線通信部60を介して管理用コンピュータ3に送る。これ応じて、管理用コンピュータ3は、例えば、日時曜日毎に予め登録された人物所在地を記憶する図示しない人物情報データベースを参照して、受信した目的地の位置情報と日時曜日とに基づいて目的地を抽出し、ロボットRに通知する。なお、管理用コンピュータ3から、人物情報データベースの情報を予め取得してロボットRの記憶部30に格納しておくようにしてもよい。
In the present embodiment, the action plan adding unit 475 selects the person selected from the current position of the robot R based on the local map data storage unit 32 (see FIG. 7) and the position information of the person stored in the storage unit 30. The movement plan to the position is added as an action plan (active action plan).
In this case, the action plan adding unit 475 sends the position information (position coordinates or position ID) of the destination (the position of the selected person) to the management computer 3 via the wireless communication unit 60. In response to this, the management computer 3 refers to a person information database (not shown) that stores a person location registered in advance for each day of the week, for example, and based on the received location information of the destination and the day of the week. The ground is extracted and notified to the robot R. Note that information in the person information database may be acquired in advance from the management computer 3 and stored in the storage unit 30 of the robot R.

モチベーション指数算出手段476は、モチベーション指数を、ロボットRの直近の行動から経過した時間が大きいほど大きくなるように設定された経過時間指数と、ロボットRの過去の行動の回数および行動時間が大きいほど大きくなるように設定された情動指数(行動指数)との和として算出するものである。ここで、モチベーション指数算出手段476は、モチベーション指数を、経過時間指数と情動指数との単純和として算出するだけではなく、経過時間指数と情動指数の少なくとも一方に重み付けをしてもよい。モチベーション指数算出手段476は、算出したモチベーション指数をモチベーション指数記憶手段33に格納する。   The motivation index calculating means 476 increases the motivation index as an elapsed time index that is set so as to increase as the time elapsed from the most recent action of the robot R increases, and the number of past actions and the action time of the robot R increase. It is calculated as the sum of the emotional index (behavioral index) set so as to increase. Here, the motivation index calculating means 476 may not only calculate the motivation index as a simple sum of the elapsed time index and the emotion index, but also may weight at least one of the elapsed time index and the emotion index. The motivation index calculating unit 476 stores the calculated motivation index in the motivation index storage unit 33.

本実施形態では、モチベーション指数算出手段476は、オブジェクトデータ記憶手段31を参照して、対象とする人物に最後に会ってから経過した時間と、対象とする人物に会った回数および対話時間とを取得する。ここで、ロボットRが人物と会うという行為(経験)は、オブジェクトデータ統合部42がオブジェクトデータを統合して人物を認識したときに発生したものとする。この場合、対話時間は、オブジェクトマップに記録されているカウント(時間情報)で求めた会見時間としてもよい。また、対話時間は、識別された人物からの声を音声認識できていたときにオブジェクトマップに記録されているカウント(時間情報)で求めた音声認識時間としてもよい。また、対象とする人物に会った回数の数え方は、会うたびにカウント値を増加させるようにしてもよいし、必要なときにオブジェクトマップを走査してカウントしてもよい。本実施形態では、人物と会った経験とは、追加された行動計画に伴って生じるものとする。   In the present embodiment, the motivation index calculation means 476 refers to the object data storage means 31 and calculates the time elapsed since the last meeting with the target person, the number of times the target person was met, and the conversation time. get. Here, it is assumed that the action (experience) in which the robot R meets a person occurs when the object data integration unit 42 recognizes the person by integrating the object data. In this case, the conversation time may be a meeting time obtained from a count (time information) recorded in the object map. In addition, the dialogue time may be a voice recognition time obtained by a count (time information) recorded in the object map when the voice from the identified person can be recognized by voice. In addition, as to how to count the number of times a person has been met, the count value may be increased each time the person is met, or the object map may be scanned and counted when necessary. In the present embodiment, it is assumed that the experience of meeting a person is accompanied by the added action plan.

ただし、ロボットRが人物と会った経験とは、このようなタスクのない空き時間にだけ蓄積されるものに限定されるものではなく、タスク遂行時にも順次蓄積するようにしてもよいことはもちろんである。このように構成した場合には、例えば、タスク遂行中にすれ違って出会ったり、会釈するなど軽微な挨拶等を行ったりした回数をカウントすることができる。このようにじっくりとした対話とは言えないコミュニケーションの場合には、1度のコミュニケーションを1回とカウントするのでなく、「1」以下の「0.5」等の数値にして重み付けを変える方式をとることもできる。   However, the experience that the robot R meets with the person is not limited to the experience that is accumulated only in the idle time when there is no such task, and of course, it may be accumulated sequentially when the task is performed. It is. In the case of such a configuration, for example, the number of times that a minor greeting or the like such as passing by or giving a talk while performing a task can be counted. In the case of communication that cannot be said to be such a detailed dialogue, instead of counting each communication as one time, a method of changing the weight by setting a numerical value such as “0.5” below “1”. It can also be taken.

また、モチベーション指数算出手段476は、モチベーション指数判別手段474で選択された人物のモチベーション指数を構成する情動指数や時間指数の値を減少させると共に、選択しなかった人物のモチベーション指数を構成する情動指数や時間指数の値を増加させてモチベーション指数記憶手段33に上書き保存する。また、モチベーション指数算出手段476は、人物の情動指数や時間指数の値を回復させる(増加させる)ときに、モチベーション指数判別手段474で選択された回数(頻度)が多い人物ほど早く回復するように、情動指数や時間指数の値を変動させる。ここで、指数の値を変動させるために、変動速度と変動型の少なくとも一方を段階的に変化させることができる。この場合、例えば、変動速度を、「速い」、「やや速い」、「普通」、「やや遅い」、「遅い」の5段階に区分したり、人物によらずに一定にしたりすることができる。また、例えば、変動型を、「平方根」、「線形」、「二次関数」の3段階に区分したり、人物によらずに「線形」にしたりすることができる。なお、「線形」とは、単位時間当たりの変動が一定であることを示し、「二次関数」とは、単位時間当たりの変動が二次関数で記述されることを示し、「平方根」とは、単位時間当たりの変動が無理関数で記述されることを示す。   Further, the motivation index calculating means 476 decreases the value of the emotional index and the time index constituting the motivation index of the person selected by the motivation index discriminating means 474, and the emotional index constituting the motivation index of the person not selected. Or the time index value is increased and overwritten in the motivation index storage means 33. Further, when the motivation index calculating means 476 recovers (increases) the value of the person's emotional index or time index, the person whose frequency (frequency) selected by the motivation index determining means 474 is recovered more quickly. , Fluctuate the value of emotion index and time index. Here, in order to change the value of the index, at least one of the changing speed and the changing type can be changed stepwise. In this case, for example, the fluctuation speed can be classified into five stages of “fast”, “somewhat fast”, “normal”, “somewhat slow”, and “slow”, or can be made constant regardless of the person. . Further, for example, the variation type can be divided into three stages of “square root”, “linear”, and “quadratic function”, or can be made “linear” regardless of the person. Note that “linear” indicates that the fluctuation per unit time is constant, and “quadratic function” indicates that the fluctuation per unit time is described by a quadratic function, and “square root” Indicates that the fluctuation per unit time is described by an irrational function.

モチベーション指数記憶手段33には、モチベーション指数テーブルが記憶されている。図10に示すように、モチベーション指数テーブル1000には、人物の名前、対象として選択された回数の指標である「頻度」、時間指数および情動指数の回復の指標である「回復」、モチベーション指数の内訳を示す「指数」、指数の値およびその最大値である「値/MAX」などが、情報項目として含まれている。このモチベーション指数テーブル1000では、モチベーション指数を省略して「モチ指数」と表記した。また、最大値が「50」である経過時間指数と、最大値が「50」である行動指数との和によって、最大値が「100」であるモチベーション指数を定義した。また、モチベーション指数テーブル1000には、モチベーション指数等の値を棒グラフで表示した。   The motivation index storage means 33 stores a motivation index table. As shown in FIG. 10, the motivation index table 1000 includes a name of a person, “frequency” that is an index of the number of times selected as a target, “recovery” that is an index of recovery of a time index and an emotion index, and a motivation index. “Index” indicating the breakdown, the value of the index, and “value / MAX” which is the maximum value are included as information items. In the motivation index table 1000, the motivation index is omitted and expressed as “mochi index”. Further, a motivation index having a maximum value of “100” was defined by a sum of an elapsed time index having a maximum value of “50” and an action index having a maximum value of “50”. In the motivation index table 1000, values such as the motivation index are displayed as a bar graph.

[ロボットの動作]
図6に示したロボットRの動作について主にモチベーション管理部47の動作を中心に図11を参照(適宜図1、図6、図7および図9参照)して説明する。図11は、図6に示したロボットの動作を示すフローチャートである。ロボットRは、主制御部40によって、無線通信部60を介して管理用コンピュータ3からローカル地図等の情報を予め取得しておく。
[Robot motion]
The operation of the robot R shown in FIG. 6 will be described with reference to FIG. 11 (refer to FIG. 1, FIG. 6, FIG. 7 and FIG. 9 as appropriate), mainly focusing on the operation of the motivation management unit 47. FIG. 11 is a flowchart showing the operation of the robot shown in FIG. The robot R previously acquires information such as a local map from the management computer 3 via the wireless communication unit 60 by the main control unit 40.

そして、主制御部40のモチベーション管理部47は、内部状態判別手段471によって、内部状態が良好か否かを判別する(ステップS1)。具体的には、内部状態判別手段471は、バッテリ残量が所定のしきい値よりも大きいか否かを判別する。内部状態が良好ではない場合(ステップS1:No)、すわわち、バッテリ残量が所定のしきい値よりも小さい場合に、モチベーション管理部47は、保身行動制御手段472によって、保身行動を実行する(ステップS2)。具体的には、保身行動制御手段472は、最も近くにあるバッテリ補給エリアへ移動するための制御を行う。   Then, the motivation management unit 47 of the main control unit 40 determines whether or not the internal state is good by the internal state determination unit 471 (step S1). Specifically, the internal state determination unit 471 determines whether or not the remaining battery level is greater than a predetermined threshold value. When the internal state is not good (step S1: No), that is, when the remaining battery level is smaller than a predetermined threshold value, the motivation management unit 47 executes the self-protection action by the self-protection action control means 472. (Step S2). Specifically, the preservation behavior control means 472 performs control for moving to the nearest battery replenishment area.

一方、内部状態が良好である場合(ステップS1:Yes)、モチベーション管理部47は、タスク判別手段473によって、タスクがあるか否かを判別する(ステップS3)。現在実行すべきタスクを保有している場合(ステップS3:Yes)、主制御部40は、行動パターン部43の各種モジュールによって、タスクを実行する(ステップS4)。一方、現在実行すべきタスクを保有していない場合(ステップS3:No)、モチベーション管理部47は、モチベーション指数判別手段474によって、モチベーション指数記憶手段33に記憶されたモチベーション指数が所定値よりも高いか否かを判別する(ステップS5)。モチベーション指数が所定値よりも高い場合(ステップS5:Yes)、モチベーション管理部47は、モチベーション指数判別手段474によって、モチベーション指数が最大値である人物を選択する。そして、行動計画追加手段475は、モチベーション指数判別手段474によって選択された人物に対する行動計画を追加する(ステップS6)。一方、モチベーション指数が所定値よりも低い場合(ステップS5:No)、モチベーション管理部47は、ステップS1に戻る。なお、主制御部40は、ステップS2,S4,S6に続いてステップS1に戻る。   On the other hand, when the internal state is good (step S1: Yes), the motivation management unit 47 uses the task determination unit 473 to determine whether there is a task (step S3). When the task to be executed is currently held (step S3: Yes), the main control unit 40 executes the task with the various modules of the behavior pattern unit 43 (step S4). On the other hand, when the task to be executed is not currently held (step S3: No), the motivation management unit 47 causes the motivation index determination unit 474 to have the motivation index stored in the motivation index storage unit 33 higher than a predetermined value. Whether or not (step S5). When the motivation index is higher than the predetermined value (step S5: Yes), the motivation management unit 47 uses the motivation index determination unit 474 to select the person whose motivation index is the maximum value. Then, the action plan adding means 475 adds an action plan for the person selected by the motivation index determining means 474 (step S6). On the other hand, when the motivation index is lower than the predetermined value (step S5: No), the motivation management unit 47 returns to step S1. The main control unit 40 returns to step S1 following steps S2, S4, and S6.

本実施形態によれば、ロボットRは、バッテリ残量が充分にあり、かつ、現在実行すべきタスクを保有していない場合に、モチベーション指数に基づいて人物に対して次に行う行動計画を追加することが可能である。したがって、ロボットRは、自らの維持管理とタスク実行とを優先させつつ現在実行すべきタスクを有していないときに能動的に行動することができる。その結果、ロボットが現在実行すべきタスクを有していないときに待機させておくのではなく、例えば、人とコミュニケーションをとらせることが可能となる。   According to this embodiment, the robot R adds an action plan to be performed next to a person based on the motivation index when the remaining battery level is sufficient and the task to be executed is not currently held. Is possible. Therefore, the robot R can act actively when it has no tasks to be executed while giving priority to its own maintenance and task execution. As a result, it is possible to communicate with a person, for example, instead of waiting when the robot does not have a task to be executed.

以上、本発明の好ましい実施形態について説明したが、本発明は前記した実施形態に限定されるものではない。例えば、本実施形態では、モチベーション指数算出手段476は、対象とする人物に最後に会ってから経過した時間と、対象とする人物に会った回数および対話時間とを、オブジェクトデータ記憶手段31から取得するものとして説明したが、これに限定されるものではない。例えば、ロボットRの主制御部40は、ロボットRと人物とが出会うイベントが発生するたびに、イベントの発生時刻の情報と、イベントの継続時間の情報と、イベント発生回数とを記憶部30の所定領域に記録しておくようにしてもよい。この場合、モチベーション指数算出手段476は、この記録された情報に基づいてモチベーション指数を算出することができる。   As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to above-described embodiment. For example, in the present embodiment, the motivation index calculating unit 476 acquires from the object data storage unit 31 the time elapsed since the last meeting with the target person, the number of times the target person was met, and the conversation time. However, the present invention is not limited to this. For example, the main control unit 40 of the robot R stores the event occurrence time information, the event duration information, and the event occurrence count in the storage unit 30 every time an event occurs where the robot R meets a person. It may be recorded in a predetermined area. In this case, the motivation index calculating means 476 can calculate the motivation index based on the recorded information.

また、本実施形態では、モチベーション指数判別手段474は、モチベーション指数が最大である人物を選択したときに、その人物に対する情報を行動計画追加手段475に出力したが、これに限定されるものではない。例えば、モチベーション指数判別手段474は、行動計画管理部46から、次のタスクの開始時刻や開始位置等の情報を取得し、能動的な行動計画を行う時間があるか否かを判別し、能動的な行動計画を行う時間がある場合に、選択された人物の情報を行動計画追加手段475に出力するようにしてもよい。   Further, in this embodiment, when the motivation index discriminating means 474 selects the person with the maximum motivation index, the information for the person is output to the action plan adding means 475, but the present invention is not limited to this. . For example, the motivation index determination means 474 acquires information such as the start time and start position of the next task from the action plan management unit 46, determines whether or not there is time for active action planning, When there is time to perform a typical action plan, the information of the selected person may be output to the action plan adding means 475.

また、本実施形態では、モチベーション指数判別手段474は、モチベーション指数が最大である人物だけを選択するものとしたが、これに限定されず、複数の人物を候補として選択しておくようにしてもよい。この場合には、選択した人物の所在等を考慮しつつ、モチベーション指数の大きい人物から順番に、追加すべき行動計画が実行可能か否かを検討し、行動計画を実行可能な人物を選択することができる。   In the present embodiment, the motivation index discriminating means 474 selects only the person with the maximum motivation index, but the present invention is not limited to this, and a plurality of persons may be selected as candidates. Good. In this case, considering the location of the selected person, etc., consider whether the action plan to be added can be executed in order from the person with the largest motivation index, and select the person who can execute the action plan. be able to.

また、ロボットRは、追加した行動計画によって、選択した人物と対話したとき、対話相手の話した内容の音声認識結果(テキスト)からテンプレート等を用いて例えば分類名等のキーワードを抽出し、抽出したキーワードを、人物情報記憶手段35の該当人物の記憶領域に保存するようにしてもよい。この場合には、ロボットRは、人物情報記憶手段35に同一のキーワードが保存された複数の人物をリンクさせてグループ化させることができる。そして、ロボットRが、このグループに属する人物と再び対話したときに、当該グループに属する他の人物に関する情報のうちキーワードに関連する情報を話題として提供することが可能となる。例えば、ロボットRが人物“甲”と人物“乙”との対話の結果、2人から別々のタイミングで「野球が好きだ」というキーワードを取得したとする。そして、ロボットが人物“甲”と再び対話したときに、「人物“乙”も野球が好きですよ」のように発話することによって、ロボットRが人物“甲”に人物“乙”の情報を提供することが可能となる。その結果、人物“甲”がロボットRに親しみを感じたり、人物“甲”が人物“乙”との人間関係を深めたりする効果がある。   Further, when the robot R interacts with the selected person according to the added action plan, it extracts a keyword such as a classification name from the speech recognition result (text) of the content spoken by the conversation partner using a template or the like, and extracts it. The keyword may be stored in the storage area of the person in the person information storage unit 35. In this case, the robot R can link and group a plurality of persons having the same keyword stored in the person information storage unit 35. When the robot R interacts with a person belonging to this group again, it is possible to provide, as a topic, information related to the keyword among information related to other persons belonging to the group. For example, it is assumed that the robot R acquires the keyword “I like baseball” from two people at different timings as a result of the dialogue between the person “Class A” and the person “B”. Then, when the robot interacts with the person “Class A” again, the robot R gives information about the person “B” to the person “Class A” by speaking like “Person“ B ”also likes baseball”. It becomes possible to provide. As a result, there is an effect that the person “A” feels close to the robot R, or the person “A” deepens the human relationship with the person “O”.

また、モチベーション指数を構成する情動指数は、ロボットRが選択した人物と対話するという能動的な行動の回数や行動時間のみで決定されるものに限定されるものではなく、突発的な要因を加味して決定されるようにしてもよい。例えば、ロボットRが、人物情報記憶手段35に同一のキーワードが保存された複数の人物をリンクさせてグループ化させるときに、同一のキーワードが新たに保存された人物に対する情動指数を増加させるようにしてもよい。また、ロボットRが、既知の人物の嗜好する情報を獲得したときに、当該人物に対する情動指数を増加させるようにしてもよい。これによれば、ロボットRが、何らかの方法である人物に対応する情報を獲得しその人物に紐付けて保存すると共に、その人物の情動指数、すなわち、モチベーション指数を増加させておき、タスクを保有していないときに、その人物と対話することで、予め保存しておいた情報を当該人物に提供することが可能となる。   In addition, the emotional index that constitutes the motivation index is not limited to the one that is determined only by the number of active actions and the action time that the robot R interacts with the selected person. It may be determined as follows. For example, when the robot R links and groups a plurality of persons having the same keyword stored in the person information storage means 35, the emotion index for the person having the same keyword newly stored is increased. May be. Further, when the robot R acquires information that a known person likes, the emotion index for the person may be increased. According to this, the robot R acquires information corresponding to the person in some way, stores it in association with the person, and increases the emotion index of the person, that is, the motivation index, and holds the task. When not doing so, it is possible to provide information stored in advance to the person by interacting with the person.

また、本実施形態では、内部状態検出45は、ロボットの内部状態を示す所定の信号値としてバッテリ残量を検出し、バッテリ残量を示す信号値が所定のしきい値より小さい場合にロボットRが行動に支障をきたす状態であると判定したが、これに限定されるものではない。内部状態検出45は、腕部R2や脚部R3を駆動するモータの駆動信号を示す電流値や電圧値、コンピュータ周辺の温度や湿度などの内部動作環境を示す物理量を示す信号値を検出するようにしてもよい。そして、これらの検出値が所定のしきい値より小さい場合にロボットRが行動に支障をきたす状態であると判定してもよい。具体的には、ロボットRが行動に支障をきたす状態とは、例えば、腕部R2が上がらなくなったり、脚部R3が動かなくなったりするような機械的な故障も含まれる。また、ロボットRが行動する環境の温度・湿度などの変化によってロボットRに搭載されたコンピュータの動作環境が劣悪になって処理動作ができなくなる場合も含まれる。つまり、行動に支障をきたす状態とは、人手によるメンテナンスを必要とする状態である。また、行動計画を追加すべき対象は、人間に限定されず、例えば、ロビーや休憩所など人間が集まる特定の場所等でもよい。この場合、場所に対してモチベーション指数を定義することが可能である。また、人物等に対して次に行う行動計画とは、選択した人物等の所在地に移動する行動のほか、例えば、ロビーや休憩所に移動する行動や、選択した人物に関する情報を有した情報源に近づく行動が含まれる。 In this embodiment, the internal state detection unit 45 detects the remaining battery level as a predetermined signal value indicating the internal state of the robot, and when the signal value indicating the remaining battery level is smaller than a predetermined threshold value, the robot Although it has been determined that R is in a state that hinders behavior, the present invention is not limited to this. The internal state detection unit 45 detects a signal value indicating a physical quantity indicating an internal operating environment such as a current value or a voltage value indicating a motor driving signal for driving the arm R2 or the leg R3, and a temperature or humidity around the computer. You may do it. Then, when these detected values are smaller than a predetermined threshold value, it may be determined that the robot R is in a state that hinders the behavior. Specifically, the state in which the robot R interferes with the action includes, for example, a mechanical failure in which the arm R2 cannot be raised or the leg R3 cannot move. In addition, a case where the processing operation cannot be performed because the operating environment of the computer mounted on the robot R is deteriorated due to a change in temperature, humidity, or the like of the environment in which the robot R acts is included. That is, the state that hinders the behavior is a state that requires manual maintenance. Further, the target to which the action plan is to be added is not limited to a person, but may be a specific place where people gather, such as a lobby or a resting place. In this case, it is possible to define a motivation index for the location. The action plan to be performed on a person or the like is an information source having information on the selected person in addition to the action of moving to the location of the selected person or the like, for example, the action of moving to a lobby or a resting place. The action which approaches is included.

また、本実施形態では、ロボットを、2足歩行可能な自律移動型ロボットとして説明したが、これに限定されず、車輪で移動する自律移動型ロボット、産業用ロボット、自動車などの種々の移動体への応用も可能である。   In the present embodiment, the robot has been described as an autonomous mobile robot capable of walking on two legs. However, the present invention is not limited to this, and various mobile objects such as an autonomous mobile robot that moves by wheels, an industrial robot, and an automobile. Application to is also possible.

本発明の実施形態に係るロボットを含むロボットシステムの構成を模式的に示す図である。It is a figure which shows typically the structure of the robot system containing the robot which concerns on embodiment of this invention. ロボットによる自己位置検出およびオブジェクト検出の一例を模式的に示す図である。It is a figure which shows typically an example of the self position detection and object detection by a robot. 図1に示したロボットシステムで用いられるローカル地図の一例を示す図である。It is a figure which shows an example of the local map used with the robot system shown in FIG. 図1に示した管理用コンピュータの記憶手段に記憶されたタスク情報データベースの一例を示す図である。It is a figure which shows an example of the task information database memorize | stored in the memory | storage means of the management computer shown in FIG. 図1に示した管理用コンピュータの記憶手段に記憶されたタスクスケジュールテーブルの一例を示す図である。It is a figure which shows an example of the task schedule table memorize | stored in the memory | storage means of the management computer shown in FIG. 本発明の実施形態に係るロボットの構成を示すブロック図である。It is a block diagram which shows the structure of the robot which concerns on embodiment of this invention. 図6に示したロボットの主制御部の構成を示すブロック図である。It is a block diagram which shows the structure of the main control part of the robot shown in FIG. オブジェクトデータの一例を示す図である。It is a figure which shows an example of object data. 図7に示したモチベーション管理部の構成を示すブロック図である。It is a block diagram which shows the structure of the motivation management part shown in FIG. モチベーション指数テーブルの一例を示す図である。It is a figure which shows an example of the motivation index table. 図6に示したロボットの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the robot shown in FIG.

符号の説明Explanation of symbols

A ロボットシステム
R ロボット
R1 頭部
R2 腕部
R3 脚部
R4 胴体部
R5 背面格納部
1 基地局
2 ロボット専用ネットワーク
3 管理用コンピュータ
3a 記憶部
4 ネットワーク
5 端末
10 画像処理部
20 音声処理部
21a 音声合成部
21b 音声認識部(音声認識手段)
21c 音源定位部
30 記憶部(記憶手段)
31 オブジェクトデータ記憶手段
32 ローカル地図データ記憶手段
33 モチベーション指数記憶手段
34 シナリオ記憶手段
35 人物情報記憶手段
40 主制御部
41 静止障害物統合部
42 オブジェクトデータ統合部
43 行動パターン部
44 身振り統合部
45 内部状態検出部(内部状態検出手段)
46 行動計画管理部(行動計画管理手段)
47 モチベーション管理部
471 内部状態判別手段
472 保身行動制御手段
473 タスク判別手段
474 モチベーション指数判別手段
475 行動計画追加手段
476 モチベーション指数算出手段
50 自律移動制御部
60 無線通信部
70 バッテリ
80 対象検知部(対象検知手段)
90 周辺状態検知部
C カメラ
MC マイク
S スピーカ(音声出力手段)
SR1 ジャイロセンサ
SR2 GPS受信器(自己位置検出手段)
A Robot system R Robot R1 Head R2 Arm R3 Leg R4 Torso R5 Back storage 1 Base station 2 Robot dedicated network 3 Management computer 3a Storage unit 4 Network 5 Terminal 10 Image processing unit 20 Audio processing unit 21a Audio synthesis Part 21b Voice recognition part (voice recognition means)
21c sound source localization unit 30 storage unit (storage means)
31 Object data storage means 32 Local map data storage means 33 Motivation index storage means 34 Scenario storage means 35 Person information storage means 40 Main controller 41 Stationary obstacle integration part 42 Object data integration part 43 Behavior pattern part 44 Gesture integration part 45 Inside Status detector (internal status detection means)
46 Action Plan Management Department (Action Plan Management Means)
47 Motivation management unit 471 Internal state determination unit 472 Self-protection behavior control unit 473 Task determination unit 474 Motivation index determination unit 475 Action plan addition unit 476 Motivation index calculation unit 50 Autonomous movement control unit 60 Wireless communication unit 70 Battery 80 Target detection unit (Target) Detection means)
90 Ambient state detection unit C Camera MC Microphone S Speaker (voice output means)
SR1 Gyro sensor SR2 GPS receiver (self-position detection means)

Claims (6)

対象物を検知する対象検知手段と、予め定められたタスクを実行するための行動計画を管理する行動計画管理手段とを備えたロボットであって、
予め設定された前記対象物に関する既存の情報または前記対象物に対して行った過去の行動を数値化し、当該対象物に対して行う次の行動の実行可能性の大きさを示すモチベーション指数として、前記対象物に対する当該ロボットの直近の行動から経過した時間に関する経過時間指数と、前記対象物に対する当該ロボットの過去の行動の回数および行動時間に関する行動指数との単純和、または前記経過時間指数および前記行動指数を重み付けて加算した線形和を算出するモチベーション指数算出手段と、
前記算出されたモチベーション指数を前記対象物毎に記憶するモチベーション指数記憶手段と、
当該ロボットの内部状態を示す所定の信号値を検出する内部状態検出手段と、
前記検出された信号値が所定のしきい値より小さいか否かを判別することで、当該ロボットの内部状態が次の行動に支障をきたす状態であるか否かを判別する内部状態判別手段と、
前記内部状態が次の行動に支障をきたす状態ではない場合に、現在実行すべきタスクを保有しているか否かを判別するタスク判別手段と、
現在実行すべきタスクを保有していない場合に、前記モチベーション指数記憶手段を参照して、前記モチベーション指数が所定値よりも高い対象物を選択するモチベーション指数判別手段と、
前記モチベーション指数判別手段で選択された対象物に対して次に行う行動計画を追加する行動計画追加手段と、
を備え
前記モチベーション指数算出手段は、前記モチベーション指数判別手段で対象物が選択された場合、当該選択された対象物のモチベーション指数を減少させると共に、そのときに選択されなかった他の対象物のモチベーション指数を増加させることで前記モチベーション指数記憶手段に記憶された各モチベーション指数を更新することを特徴とするロボット。
A robot provided with object detection means for detecting an object and an action plan management means for managing an action plan for executing a predetermined task,
As a motivation index indicating the magnitude of the feasibility of the next action to be performed on the target object, the existing information on the target object set in advance or the past action performed on the target object is quantified , A simple sum of an elapsed time index related to the time elapsed from the most recent action of the robot with respect to the object and an action index related to the number of times of the robot's past action with respect to the object and the action time, or the elapsed time index and the A motivation index calculating means for calculating a linear sum obtained by weighting and adding an action index ;
Motivation index storage means for storing the calculated motivation index for each object;
Internal state detection means for detecting a predetermined signal value indicating the internal state of the robot;
Internal state determination means for determining whether or not the internal state of the robot interferes with the next action by determining whether or not the detected signal value is smaller than a predetermined threshold value; ,
Task determination means for determining whether or not the current state has a task to be executed when the internal state is not in a state that hinders the next action;
A motivation index discriminating means for selecting an object having a motivation index higher than a predetermined value with reference to the motivation index storage means when not having a task to be executed at present;
An action plan adding means for adding an action plan to be performed next to the object selected by the motivation index determining means ;
Equipped with a,
When the object is selected by the motivation index determination means, the motivation index calculating means decreases the motivation index of the selected object, and calculates the motivation index of other objects not selected at that time. A robot characterized by updating each motivation index stored in the motivation index storage means .
前記内部状態は、バッテリ残量であり、
前記内部状態判別手段は、前記バッテリ残量を示す信号値が所定のしきい値より小さいか否かを判別することを特徴とする請求項1に記載のロボット。
The internal state is a remaining battery level,
The robot according to claim 1, wherein the internal state determination unit determines whether or not a signal value indicating the remaining battery level is smaller than a predetermined threshold value.
前記対象物は人間であり、
予め定められた人物の嗜好する話題を記憶する人物情報記憶手段と、
音声入力手段に入力された人物の音声を認識する音声認識手段と、
前記予め定められた人物の嗜好する話題と音声認識結果とに基づいた音声を出力する音声出力手段と、
をさらに備えることを特徴とする請求項1または請求項2に記載のロボット。
The object is a human;
Personal information storage means for storing topics preferred by a predetermined person;
Voice recognition means for recognizing the voice of a person input to the voice input means;
A voice output means for outputting a voice based on the predetermined preference of the person and a voice recognition result;
The robot according to claim 1, further comprising:
前記モチベーション指数算出手段は、前記モチベーション指数判別手段で対象物が選択された場合、選択されなかった他の対象物のモチベーション指数を増加させるときに、当該モチベーション指数を、前記モチベーション指数判別手段で選択された回数が多い対象物ほど早く増加させることを特徴とする請求項1に記載のロボット。When the object is selected by the motivation index determination means, the motivation index calculation means selects the motivation index by the motivation index determination means when increasing the motivation index of another object that has not been selected. The robot according to claim 1, wherein an object having a larger number of times is increased more quickly. 前記経過時間指数は、当該ロボットの直近の行動から経過した時間の大きさに比例して設定され、
前記行動指数は、当該ロボットの過去の行動の回数および行動時間の大きさに比例して設定され、
前記モチベーション指数は、前記経過時間指数と前記行動指数との和であり、
前記行動計画追加手段は、前記モチベーション指数の最も大きい対象物に対して次に行う行動計画を追加することを特徴とする請求項4に記載のロボット。
The elapsed time index is set in proportion to the amount of time that has elapsed since the last action of the robot,
The behavior index is set in proportion to the number of past behaviors and behavior time of the robot,
The motivation index is the sum of the elapsed time index and the behavior index,
The robot according to claim 4, wherein the action plan adding unit adds an action plan to be performed next to an object having the largest motivation index.
当該ロボットの移動手段と、
当該ロボットの現在位置を検出する自己位置検出手段と、
地図データを記憶した地図データ記憶手段と、
前記対象物の位置情報を記憶する記憶手段とをさらに備え、
前記行動計画追加手段は、前記地図データと前記対象物の位置情報とに基づいて、前記検出された当該ロボットの現在位置から前記対象物の位置までの移動計画を前記行動計画として追加することを特徴とする請求項1ないし請求項5のいずれか一項に記載のロボット。
Means for moving the robot;
Self-position detecting means for detecting the current position of the robot;
Map data storage means for storing map data;
Storage means for storing position information of the object,
The action plan adding means adds, as the action plan, a movement plan from the detected current position of the robot to the position of the object based on the map data and the position information of the object. The robot according to any one of claims 1 to 5, wherein the robot is characterized.
JP2007086584A 2007-03-29 2007-03-29 robot Expired - Fee Related JP4886572B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007086584A JP4886572B2 (en) 2007-03-29 2007-03-29 robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007086584A JP4886572B2 (en) 2007-03-29 2007-03-29 robot

Publications (2)

Publication Number Publication Date
JP2008238383A JP2008238383A (en) 2008-10-09
JP4886572B2 true JP4886572B2 (en) 2012-02-29

Family

ID=39910316

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007086584A Expired - Fee Related JP4886572B2 (en) 2007-03-29 2007-03-29 robot

Country Status (1)

Country Link
JP (1) JP4886572B2 (en)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101308013B1 (en) * 2009-12-08 2013-09-12 한국전자통신연구원 Apparatus and method for managing policy based plural robot
EP2933065A1 (en) 2014-04-17 2015-10-21 Aldebaran Robotics Humanoid robot with an autonomous life capability
US10195740B2 (en) * 2015-09-10 2019-02-05 X Development Llc Using object observations of mobile robots to generate a spatio-temporal object inventory, and using the inventory to determine monitoring parameters for the mobile robots
CN109526208B (en) * 2016-07-11 2021-02-02 Groove X 株式会社 Action-controlled autonomous robot
JP6817152B2 (en) * 2017-06-09 2021-01-20 本田技研工業株式会社 Service provision system and database
KR102463806B1 (en) * 2017-11-09 2022-11-07 삼성전자주식회사 Electronic device capable of moving and method for operating thereof
KR101966420B1 (en) * 2017-12-13 2019-04-05 엠텍씨앤케이주식회사 Multiple toy control system and method according to low power state
JP7281198B2 (en) * 2018-01-31 2023-05-25 Groove X株式会社 Autonomous behavioral robot that acts based on experience
JP2021165866A (en) * 2018-07-10 2021-10-14 ソニーグループ株式会社 Device and method for management, device and method for control, and system for management
CN111191931A (en) * 2019-12-30 2020-05-22 深圳优地科技有限公司 Method and device for distributing tasks of multiple robots and terminal equipment

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4024683B2 (en) * 2003-01-15 2007-12-19 株式会社国際電気通信基礎技術研究所 Communication robot
JPWO2005099971A1 (en) * 2004-04-16 2007-08-16 松下電器産業株式会社 Robot, hint output device, robot control system, robot control method, robot control program, and integrated circuit
JP4460411B2 (en) * 2004-10-01 2010-05-12 本田技研工業株式会社 Robot controller

Also Published As

Publication number Publication date
JP2008238383A (en) 2008-10-09

Similar Documents

Publication Publication Date Title
JP4886572B2 (en) robot
EP2068275B1 (en) Communication robot
JP4516592B2 (en) Mobile robot
US11673269B2 (en) Method of identifying dynamic obstacle and robot implementing same
JP2008254122A (en) Robot
JP4630146B2 (en) Position management system and position management program
KR102220564B1 (en) A method for estimating a location using multi-sensors and a robot implementing the same
JP2019121364A (en) Mobile cleaning robot artificial intelligence for situational awareness
US20230039466A1 (en) Method and a system for conveying a robot in an elevator
US11409295B1 (en) Dynamic positioning of an autonomous mobile device with respect to a user trajectory
JP5411789B2 (en) Communication robot
KR20200099611A (en) Systems and methods for robot autonomous motion planning and navigation
JP2011227236A (en) Voice interaction apparatus
US11347226B2 (en) Method of redefining position of robot using artificial intelligence and robot of implementing thereof
JP2009205652A (en) Mobile body control system and mobile body control method
Kitade et al. Understanding suitable locations for waiting
CN111103875A (en) Method, apparatus and storage medium for avoiding
JP4764377B2 (en) Mobile robot
KR20210026595A (en) Method of moving in administrator mode and robot of implementing thereof
KR20220118329A (en) Method for controlling elevator boarding of mobile robots
KR102246236B1 (en) How to update a map in Fusion Slam and a robot that implements it
JP7317436B2 (en) ROBOT, ROBOT CONTROL PROGRAM AND ROBOT CONTROL METHOD
JP7095220B2 (en) Robot control system
KR20210042537A (en) Method of estimating position in local area in large sapce and robot and cloud server implementing thereof
JP2019144612A (en) Travel device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110407

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110419

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110606

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111206

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111209

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141216

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4886572

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees