JP2009131914A - Robot control system - Google Patents

Robot control system Download PDF

Info

Publication number
JP2009131914A
JP2009131914A JP2007308144A JP2007308144A JP2009131914A JP 2009131914 A JP2009131914 A JP 2009131914A JP 2007308144 A JP2007308144 A JP 2007308144A JP 2007308144 A JP2007308144 A JP 2007308144A JP 2009131914 A JP2009131914 A JP 2009131914A
Authority
JP
Japan
Prior art keywords
robot
information
age
communication
variable
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007308144A
Other languages
Japanese (ja)
Inventor
Masahiro Shiomi
昌裕 塩見
Keiko Miyashita
敬宏 宮下
Kazuhiko Shinosawa
一彦 篠沢
Norihiro Hagita
紀博 萩田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2007308144A priority Critical patent/JP2009131914A/en
Publication of JP2009131914A publication Critical patent/JP2009131914A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a robot control system capable of reducing the number of remote operations by an operator as much as possible, because the system performs autonomous actions based on the operation history information of the remote operation. <P>SOLUTION: The robot control system 10 includes a robot 12 which transmits the operation history information of communication actions to a central controller 14. The central controller 14 builds an individual behavior transition DB, an age and sex dependence behavior transition DB and a place dependence behavior transition DB based on the information concerning the remote operation of the operation history information from the robot 12. Then the robot 12 selects a DB according to the name, the age and sex, and the place of a dialogue partner, and refers to the selected DB to decide a next communication action based on the operation history information corresponding to a command showing the present action of the robot 12 and to the behavior of the dialogue partner toward the action of the robot 12. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

この発明は、ロボット制御システムに関し、特にたとえば人間との間でコミュニケーション行動を実行するロボットを用いた、ロボット制御システムに関する。   The present invention relates to a robot control system, and more particularly to a robot control system using, for example, a robot that executes communication behavior with a human.

この種の従来のロボット制御システムの一例が、特許文献1に開示されている。この特許文献1のコミュニケーションロボットは、自律的に動作を行う第1のモードと、専門家によって指示された動作を実行する第2のモードと、専門家の動作を反映する行動を実行し、対象者と専門家とのコミュニケーションを媒介する第3のモードとを実行する。また、第2のモードおよび第3のモードでは、専門家の遠隔操作によってコミュニケーションロボットは動作する。通常、コミュニケーションロボットは、第1のモードで対象者とコミュニケーションを行うが、コミュニケーションの状況などに応じて、第2のモードまたは第3のモードに切り替わり遠隔操作される。   An example of this type of conventional robot control system is disclosed in Patent Document 1. The communication robot of Patent Document 1 executes a first mode in which an autonomous operation is performed, a second mode in which an operation instructed by an expert is executed, and an action reflecting the operation of the expert. A third mode for mediating communication between the person and the expert is executed. In the second mode and the third mode, the communication robot is operated by a remote operation by an expert. Normally, the communication robot communicates with the target person in the first mode, but is switched to the second mode or the third mode and remotely operated depending on the communication status or the like.

たとえば、このコミュニケーションロボットは、博物館などに設置され、博物館に来館した人に対してコミュニケーションを行う。専門家が操作側装置によってコミュニケーションロボットに指示を出せば、コミュニケーションロボットは、第1のモードから第2のモードに切り替わる。また、対象者(コミュニケーションロボットの周囲の人間)から話しかけられれば(質問されれば)、コミュニケーションロボットは、第1のモードから第3のモードに切り替わる。
特開2007−216363[B25J 13/08, B25J 5/00]
For example, this communication robot is installed in a museum or the like and communicates with people who visit the museum. When the expert gives an instruction to the communication robot by the operation side device, the communication robot is switched from the first mode to the second mode. In addition, when the subject person (person around the communication robot) speaks (when asked), the communication robot switches from the first mode to the third mode.
JP2007-216363 [B25J 13/08, B25J 5/00]

この特許文献1に示すコミュニケーションロボットは、たとえば、博物館などに設置されるため、博物館に来館した不特定多数の対象者とコミュニケーションを行うことになる。このような状況下では、コミュニケーションロボットは、対象者に話しかけられることが多いと推測される。このため、コミュニケーションロボットは、第3のモードで動作する頻度が高くなる。したがって、このコミュニケーションロボットを遠隔操作する専門家の負担が増加することになる。   Since the communication robot shown in Patent Document 1 is installed in a museum, for example, it communicates with an unspecified number of subjects who have come to the museum. Under such circumstances, it is presumed that the communication robot is often spoken to the target person. For this reason, the communication robot is frequently operated in the third mode. Therefore, the burden on the expert who remotely operates this communication robot increases.

それゆえに、この発明の主たる目的は、新規な、ロボット制御システムを提供することである。   Therefore, the main object of the present invention is to provide a novel robot control system.

この発明の他の目的は、オペレータによる遠隔操作の回数をできるだけ減らすことができる、ロボット制御システムを提供することである。   Another object of the present invention is to provide a robot control system capable of reducing the number of remote operations by an operator as much as possible.

この発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明等は、この発明の理解を助けるために記述する実施形態との対応関係を示したものであって、この発明を何ら限定するものではない。   The present invention employs the following configuration in order to solve the above problems. The reference numerals in parentheses, supplementary explanations, and the like indicate the corresponding relationship with the embodiments described in order to help understanding of the present invention, and do not limit the present invention.

第1の発明は、遠隔操作または自律制御により、人間との間で身体動作および音声の少なくとも一方によるコミュニケーション行動を行うロボットと、ネットワークを介してロボットの遠隔操作を行う操作端末と、ネットワークを介してロボットと操作端末とを仲介する中央制御装置とを備える、ロボット制御システムである。このロボット制御システムでは、ロボットは、操作端末からの遠隔操作に従ってコミュニケーション行動を実行する遠隔操作モードと、コミュニケーションの状況に応じたコミュニケーション行動についてのデータベースを参照して自律制御によるコミュニケーション行動を実行する自律制御モードとを切り替える切替手段、および切替手段によって切り替えられた遠隔操作モードまたは自律制御モードにおけるコミュニケーション行動についての動作履歴情報を中央制御装置に送信する送信手段を備え、中央制御装置は、送信手段によって送信された動作履歴情報を受信する受信手段、受信手段によって受信された動作履歴情報についてのコミュニケーション行動が遠隔操作によって実行されたかどうかを判断する判断手段、判断手段によって遠隔操作であることが判断された動作履歴情報を記憶装置に記憶する記憶手段、および記憶手段によって記憶された遠隔操作による動作履歴情報に基づいてデータベースを構築する構築手段を備えることを特徴とする。   According to a first aspect of the present invention, there is provided a robot that performs a communication action with a human by at least one of body movement and voice by remote operation or autonomous control, an operation terminal that performs remote operation of the robot via a network, and a network. And a central control device that mediates between the robot and the operation terminal. In this robot control system, the robot performs autonomous operation by referring to a remote operation mode in which communication behavior is executed in accordance with remote operation from an operation terminal and a database of communication behavior in accordance with the communication situation. A switching means for switching between the control modes, and a transmission means for transmitting operation history information about the communication behavior in the remote operation mode or the autonomous control mode switched by the switching means to the central control device. A receiving unit that receives the transmitted operation history information; a determination unit that determines whether a communication action for the operation history information received by the receiving unit has been executed by a remote operation; Storage means for storing operation history information determined to be remote operation in a storage device, and construction means for constructing a database based on remote operation operation history information stored by the storage means. To do.

第1の発明では、ロボット制御システム(10)は、遠隔操作または自律制御により、人間との間で身体動作および音声の少なくとも一方によるコミュニケーション行動を行うロボット(12)と、ネットワークを介してロボットの遠隔操作を行う操作端末(16)と、ネットワークを介してロボットと操作端末とを仲介する中央制御装置(14)とを備える。ロボットでは、切替手段(80,S313,S319,S321)は、操作端末からの遠隔操作に従ってコミュニケーション行動を実行する遠隔操作モードと、コミュニケーションの状況に応じたコミュニケーション行動についてのデータベースを参照して自律制御によるコミュニケーション行動を実行する自律制御モードとを切り替える。送信手段(80,102,104,S329)は、切替手段によって切り替えられた遠隔操作モードまたは自律制御モードにおけるコミュニケーション行動についての動作履歴情報を中央制御装置に送信する。中央制御装置では、受信手段(S3)は、送信手段によって送信された動作履歴情報を受信する。判断手段(S13)は、受信手段によって受信された動作履歴情報についてのコミュニケーション行動が遠隔操作によって実行されたかどうかを判断する。記憶手段(S7,S9,S15)は、判断手段によって遠隔操作であることが判断された動作履歴情報を記憶装置(14a)に記憶する。構築手段(S37,S41,S45)は、記憶手段によって記憶された遠隔操作による動作履歴情報に基づいてデータベースを構築する。たとえば、動作履歴情報は、遠隔操作履歴記録テーブルなどの名称で中央制御装置のメモリに記憶される。   In the first invention, the robot control system (10) includes a robot (12) that performs a communication action with a human by at least one of body motion and voice by remote control or autonomous control, and a robot via a network. An operation terminal (16) that performs remote operation and a central control device (14) that mediates between the robot and the operation terminal via a network are provided. In the robot, the switching means (80, S313, S319, S321) is autonomously controlled with reference to a remote operation mode in which communication behavior is executed according to remote operation from the operation terminal and a database of communication behavior according to the communication situation. Switch to autonomous control mode to execute communication action. The transmission means (80, 102, 104, S329) transmits the operation history information about the communication behavior in the remote operation mode or the autonomous control mode switched by the switching means to the central control device. In the central controller, the receiving means (S3) receives the operation history information transmitted by the transmitting means. The determining means (S13) determines whether or not the communication action for the operation history information received by the receiving means has been executed by remote operation. The storage means (S7, S9, S15) stores the operation history information determined to be remote operation by the determination means in the storage device (14a). The construction means (S37, S41, S45) constructs a database based on the operation history information by remote operation stored by the storage means. For example, the operation history information is stored in the memory of the central controller with a name such as a remote operation history recording table.

第1の発明によれば、遠隔操作によってロボットが過去に振舞った同じ動作を経験として記憶しておくので、自律行動を行う場合に、記憶しておいた経験に基づいて自律行動を行うことができる。これによって、オペレータによる遠隔操作の回数をできるだけ減らすことができる。   According to the first invention, since the same movement that the robot behaved in the past by remote operation is stored as an experience, when performing an autonomous action, the autonomous action can be performed based on the stored experience. it can. As a result, the number of remote operations by the operator can be reduced as much as possible.

第2の発明は、第1の発明に従属し、中央制御装置は、ロボットがコミュニケーション行動を実行する対象である人間の属性情報を取得する属性情報取得手段をさらに備え、構築手段は、属性情報に応じたデータベースを構築する。   A second invention is according to the first invention, wherein the central control device further includes attribute information acquisition means for acquiring attribute information of a human subject to which the robot performs communication behavior, and the construction means includes attribute information Build a database according to your needs.

第2の発明では、属性情報取得手段(S9)は、ロボットがコミュニケーション行動を実行する対象である人間の属性情報を取得する。そして、構築手段では、属性情報に応じたデータベースが構築される。つまり、コミュニケーション行動を行う対象の人間の属性情報が取得される場合に、構築手段は、属性情報が取得された人間に対して行われた遠隔操作の動作情報履歴からデータベースを構築する。   In the second invention, the attribute information acquisition means (S9) acquires the attribute information of the person who is the target for the robot to perform the communication action. In the construction means, a database corresponding to the attribute information is constructed. That is, when the attribute information of the person who is to perform the communication action is acquired, the construction unit constructs a database from the operation information history of the remote operation performed on the person from whom the attribute information has been acquired.

第2の発明によれば、ロボットは、属性情報が取得された人間に対して過去に行った行動、つまり経験に基づいて自律行動を行うことができる。   According to the second aspect of the invention, the robot can perform an autonomous action based on an action performed in the past, that is, an experience with respect to a person whose attribute information has been acquired.

第3の発明は、第2の発明に従属し、属性情報は、人間の名称の情報を含み、構築手段は、人間の名称の情報が示す名称毎にデータベースを構築する。   A third invention is dependent on the second invention, wherein the attribute information includes information on a human name, and the construction unit constructs a database for each name indicated by the information on the human name.

第3の発明では、属性情報には、人間の名称の情報が含まれる。そして、構築手段では、人間の名称の情報が示す名称毎にデータベースが構築される。たとえば、第3の発明で構築されるデータベースは、個人用ビヘービア遷移DBの名称で記憶される。また、個人名が山田一郎である場合に、個人用ビヘービア遷移DBは、山田一郎専用のデータベースとなる。つまり、属性情報に人間の名称の情報が含まれるため、構築手段は、名称の異なる人間に対して行った遠隔操作の動作情報履歴毎にデータベースを構築する。   In the third aspect of the invention, the attribute information includes human name information. In the construction means, a database is constructed for each name indicated by the human name information. For example, the database constructed in the third invention is stored under the name of the personal behavior transition DB. When the personal name is Ichiro Yamada, the personal behavior transition DB is a database dedicated to Ichiro Yamada. That is, since the attribute information includes human name information, the construction means constructs a database for each operation information history of remote operations performed on humans with different names.

第3の発明によれば、ロボットは、コミュニケーション行動を行う対象の人間の名称を取得することで、その人間に対して過去に行った行動、つまり経験にもとづいて自律行動を行うことができる。さらに、個人用のデータベースが中央制御装置に記憶されている人間は、ロボット制御システムが導入されている場所であれば、初めて訪れる場所であっても、ロボットと円滑にコミュニケーションを行うことができる。   According to the third aspect of the invention, the robot can perform the autonomous behavior based on the behavior that has been performed on the human in the past, that is, the experience, by acquiring the name of the human subject of the communication behavior. Furthermore, a person whose personal database is stored in the central controller can smoothly communicate with the robot even if it is a place where the robot control system is introduced even if it is the first place to visit.

第4の発明は、第2の発明または第3の発明に従属し、属性情報は、人間の年齢および性別の情報を含み、構築手段は、人間の年齢および性別の情報が示す年齢および性別毎にデータベースを構築する。   A fourth invention is dependent on the second invention or the third invention, wherein the attribute information includes information on a person's age and sex, and the construction means is provided for each age and sex indicated by the information on the person's age and sex. Build a database.

第4の発明では、属性情報には、人間の年齢(年代)および性別の情報が含まれる。そして、構築手段では、人間の年齢および性別の情報が示す年齢および性別毎にデータベースが構築される。たとえば、第4の発明で構築されるデータベースは、年齢・性別依存ビヘービア遷移DBの名称で記憶される。   In the fourth invention, the attribute information includes human age (age) and sex information. In the construction means, a database is constructed for each age and sex indicated by the information on the age and sex of the person. For example, the database constructed in the fourth invention is stored under the name of the age / sex dependent behavior transition DB.

第4の発明によれば、ロボットは、個人名が特定できない場合であっても、年齢・性別が取得された人間に対して過去に行った行動、つまり経験にもとづいて自律行動を行うことができる。さらに、年齢および性別のデータベースが中央制御装置に記憶されている人間は、ロボット制御システムの使用者は、デパートや百貨店などの様々な年代の人間が集まる場所で構築された年齢・性別データベースを、新たにデパートや百貨店などにロボット制御システムを導入する場合に、活用することができる。   According to the fourth invention, the robot can perform an autonomous action based on an action performed in the past, that is, an experience with respect to a person whose age and sex are acquired even when the personal name cannot be specified. it can. Furthermore, humans whose age and gender databases are stored in the central controller can be used by robot control system users who have an age and gender database built in places where people of various ages gather, such as department stores and department stores. This can be used when a robot control system is newly introduced in department stores or department stores.

第5の発明は、第1の発明ないし第4の発明のいずれかに従属し、中央制御装置は、ロボットがコミュニケーション行動を行ったときに当該人間が存在した場所の情報を取得する場所情報取得手段をさらに備え、構築手段は、場所の情報が示す場所毎にデータベースを構築する。   A fifth invention is dependent on any one of the first to fourth inventions, and the central control device acquires location information where the human is present when the robot performs a communication action. And a construction means for constructing a database for each location indicated by the location information.

第5の発明では、中央制御装置では、場所情報取得手段(S5)は、ロボットがコミュニケーション行動を行ったときに当該人間が存在した場所の情報を取得する。そして、構築手段では、場所の情報が示す場所毎にデータベースが構築される。たとえば、第5の発明で構築されるデータベースは、場所依存ビヘービア遷移DBの名称で記憶される。   In the fifth invention, in the central control device, the location information acquisition means (S5) acquires information on the location where the person exists when the robot performs the communication action. The construction means constructs a database for each location indicated by the location information. For example, the database constructed in the fifth invention is stored under the name of the location-dependent behavior transition DB.

第5の発明によれば、コミュニケーション行動を行う対象の人間の属性情報が取得できなくても、構築手段は、ロボットが遠隔操作の動作を行った場所の情報に基づいてデータベースを構築する。これによって、コミュニケーション行動を行う対象の人間の属性情報が取得できない場合であっても、ロボットは、コミュニケーション行動を行う場所で過去に行った行動、つまり経験に基づいて自律行動を行うことができる。さらに、ロボット制御システムの使用者は、様々な所で開催される、内容がほぼ同一のイベント会場でロボット制御システムを導入する場合に、過去に開催したイベントで構築した場所データベースを利用することができる。   According to the fifth invention, even if the attribute information of the human subject of the communication action cannot be acquired, the construction means constructs the database based on the information on the place where the robot has performed the remote operation. Thereby, even when the attribute information of the human subject of the communication action cannot be acquired, the robot can perform the autonomous action based on the action performed in the past at the place where the communication action is performed, that is, the experience. In addition, users of robot control systems may use the location database built at events held in the past when introducing the robot control system at various venues where the content is almost the same. it can.

第6の発明は、第5の発明に従属し、ロボットは、人間との間でコミュニケーション行動を行う状況を検出する検出手段、および検出手段によって検出された状況に応じたデータベースを選択する選択手段をさらに備える。   A sixth invention is according to the fifth invention, wherein the robot detects a situation in which a communication action is performed with a human, and a selection means that selects a database corresponding to the situation detected by the detection means Is further provided.

第6の発明では、ロボットの検出手段(80,S313)は、人間との間でコミュニケーション行動を行う状況を検出する。選択手段(80,S303,S307)は、検出手段によって検出された状況に応じたデータベースを選択する。たとえば、検索手段は、現在のロボットの動作に対応するデータを検索する。   In the sixth invention, the detection means (80, S313) of the robot detects a situation where a communication action is performed with a human. The selection means (80, S303, S307) selects a database corresponding to the situation detected by the detection means. For example, the search means searches for data corresponding to the current operation of the robot.

第6の発明によれば、ロボットは、現在の動作に応じて選択された過去に振舞った同じ動作のデータベースを検索することができる。これによって、ロボットは、オペレータを呼び出すことなく、自律行動によって人間とのコミュニケーション行動を行うことができる。   According to the sixth invention, the robot can search the database of the same action that has behaved in the past selected according to the current action. As a result, the robot can perform communication behavior with humans by autonomous behavior without calling an operator.

第7の発明は、第6の発明に従属し、コミュニケーション行動を行う状況は、人間の名称と、人間の年齢および性別と、人間の存在場所との少なくとも1つを含む。   A seventh invention is according to the sixth invention, and the situation in which the communication action is performed includes at least one of a human name, a human age and sex, and a human location.

第7の発明では、コミュニケーション行動を行う状況には、人間の名称と、人間の年齢および性別と、人間の存在場所との少なくとも1つが含まれる。つまり、ロボットは、人間の名称と、人間の年齢および性別と、人間の存在場所との少なくとも1つに基づいて、データベースを選択することができる。   In the seventh invention, the situation in which the communication action is performed includes at least one of a human name, a human age and sex, and a human location. That is, the robot can select the database based on at least one of the human name, the human age and sex, and the human location.

第7の発明によれば、ロボットは、人間の名称と、人間の年齢および性別と、人間の存在場所との少なくとも1つに基づいて、データベースを選択することができる。   According to the seventh aspect, the robot can select the database based on at least one of the human name, the human age and sex, and the human location.

この発明によれば、ロボットが過去に振舞った同じ動作を経験として記憶しておくので、自律行動を行う場合に、記憶しておいた経験に基づいて自律行動を行うことができる。これによって、オペレータによる遠隔操作の回数をできるだけ減らすことができる。   According to the present invention, since the same motion that the robot behaved in the past is stored as an experience, when performing an autonomous behavior, the autonomous behavior can be performed based on the stored experience. As a result, the number of remote operations by the operator can be reduced as much as possible.

この発明の上述の目的、その他の目的、特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。   The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

図1を参照して、この実施例のロボット制御システム10は、ロボット12を含む。このロボット12は、ネットワーク200を介して、中央制御装置14および操作端末16に接続される。ロボット12は、相互作用指向のロボット(コミュニケーションロボット)であり、主として人間Aのようなコミュニケーションの対象(コミュニケーション対象)との間で、身振り手振りのような身体動作および音声の少なくとも一方を含むコミュニケーション行動を実行する機能を備えている。ロボット12は、一例として、受付ロボット,子守ロボットおよび介護ロボットなどであり、たとえば会社の受付や一般家庭の居間などの様々な場所および状況に配置され、通常は自律制御によって接客,道案内,子守および介護などの役割を果たす(自律制御モード)。   Referring to FIG. 1, the robot control system 10 of this embodiment includes a robot 12. The robot 12 is connected to the central control device 14 and the operation terminal 16 via the network 200. The robot 12 is an interaction-oriented robot (communication robot), and mainly includes a communication action including at least one of body movement such as gesture gesture and voice with a communication target (communication target) such as the human A. It has a function to execute. The robot 12 is, for example, a reception robot, a babysitting robot, a nursing robot, and the like, and is arranged in various places and situations such as a company reception and a living room in a general home. Also plays a role such as nursing (autonomous control mode).

なお、図1では、簡単のため、1台のロボット12および1台の操作端末16を示してあるが、いずれも2台以上であってよい。また、人間は1人に限定される必要はなく、複数であってよい。   In FIG. 1, for simplicity, one robot 12 and one operation terminal 16 are shown, but any two or more may be used. Further, the number of humans is not limited to one, and may be plural.

ロボット12は、自律制御だけでは対応することが難しい事態や人間によってより細やかな対応(コミュニケーション等)が必要な事態になると、オペレータを呼び出す。具体的には、ロボット12は、オペレータの呼出要求(遠隔操作の依頼)を、ネットワーク200を介して中央制御装置14に送信する。中央制御装置14は、ロボット12からの呼出要求を受けて、対応(遠隔操作)可能なオペレータが操作する操作端末16を選択する。そして、中央制御装置14は、選択された操作端末16に、ロボット12の通信情報(IPアドレス)を通知する。すると、操作端末16のオペレータの操作により、ロボット12と操作端末16とがネットワーク200を介して通信可能に接続される。つまり、中央制御装置14は、ロボット12と操作端末16とを仲介する。その後、オペレータが操作端末16を用いてロボット12を遠隔操作する。たとえば、オペレータが操作端末16を用いて操作コマンドをロボット12に送信すると、ロボット12はその操作コマンドを受信し、受信した操作コマンドに従って動作(コミュニケーション行動)を実行する(遠隔操作モード)。   The robot 12 calls an operator in situations where it is difficult to respond by autonomous control alone or when a more detailed response (communication or the like) is required by a human. Specifically, the robot 12 transmits an operator call request (remote operation request) to the central control device 14 via the network 200. In response to the call request from the robot 12, the central control device 14 selects the operation terminal 16 operated by an operator who can respond (remote operation). The central control device 14 notifies the selected operation terminal 16 of the communication information (IP address) of the robot 12. Then, the robot 12 and the operation terminal 16 are communicably connected via the network 200 by an operation of the operator of the operation terminal 16. That is, the central controller 14 mediates between the robot 12 and the operation terminal 16. Thereafter, the operator remotely operates the robot 12 using the operation terminal 16. For example, when an operator transmits an operation command to the robot 12 using the operation terminal 16, the robot 12 receives the operation command and executes an operation (communication action) according to the received operation command (remote operation mode).

図2を参照して、ロボット12のハードウェアの構成について説明する。また、図2はこの実施例のロボット12の外観を示す正面図である。ロボット12は台車30を含み、台車30の下面にはロボット12を自律移動させる2つの車輪32および1つの従輪34が設けられる。2つの車輪32は車輪モータ36(図3参照)によってそれぞれ独立に駆動され、台車30すなわちロボット12を前後左右の任意方向に動かすことができる。また、従輪34は車輪32を補助する補助輪である。したがって、ロボット12は、配置された空間内を自律制御によって移動可能である。ただし、ロボット12は、或る場所に固定的に配置されても構わない。   The hardware configuration of the robot 12 will be described with reference to FIG. FIG. 2 is a front view showing the appearance of the robot 12 of this embodiment. The robot 12 includes a carriage 30, and two wheels 32 and one slave wheel 34 for autonomously moving the robot 12 are provided on the lower surface of the carriage 30. The two wheels 32 are independently driven by a wheel motor 36 (see FIG. 3), and the carriage 30, that is, the robot 12 can be moved in any direction, front, back, left, and right. The slave wheel 34 is an auxiliary wheel that assists the wheel 32. Therefore, the robot 12 can move in the arranged space by autonomous control. However, the robot 12 may be fixedly arranged at a certain place.

台車30の上には、円柱形のセンサ取り付けパネル38が設けられ、このセンサ取り付けパネル38には、多数の赤外線距離センサ40が取り付けられる。これらの赤外線距離センサ40は、センサ取り付けパネル38すなわちロボット12の周囲の物体(人間や障害物など)との距離を測定するものである。   A cylindrical sensor attachment panel 38 is provided on the carriage 30, and a large number of infrared distance sensors 40 are attached to the sensor attachment panel 38. These infrared distance sensors 40 measure the distance to the sensor mounting panel 38, that is, the object (human being, obstacle, etc.) around the robot 12.

なお、この実施例では、距離センサとして、赤外線距離センサを用いるようにしてあるが、赤外線距離センサに代えて、超音波距離センサやミリ波レーダなどを用いることもできる。   In this embodiment, an infrared distance sensor is used as the distance sensor, but an ultrasonic distance sensor, a millimeter wave radar, or the like can be used instead of the infrared distance sensor.

センサ取り付けパネル38の上には、胴体42が直立するように設けられる。また、胴体42の前方中央上部(人の胸に相当する位置)には、上述した赤外線距離センサ40がさらに設けられ、ロボット12の前方の主として人間との距離を計測する。また、胴体42には、その側面側上端部のほぼ中央から伸びる支柱44が設けられ、支柱44の上には、全方位カメラ46が設けられる。全方位カメラ46は、ロボット12の周囲を撮影するものであり、後述する眼カメラ70とは区別される。この全方位カメラ46としては、たとえばCCDやCMOSのような固体撮像素子を用いるカメラを採用することができる。なお、これら赤外線距離センサ40および全方位カメラ46の設置位置は、当該部位に限定されず適宜変更され得る。   A body 42 is provided on the sensor mounting panel 38 so as to stand upright. Further, the above-described infrared distance sensor 40 is further provided in the upper front upper portion of the body 42 (a position corresponding to a human chest), and measures the distance mainly to a human in front of the robot 12. Further, the body 42 is provided with a support column 44 extending from substantially the center of the upper end of the side surface, and an omnidirectional camera 46 is provided on the support column 44. The omnidirectional camera 46 photographs the surroundings of the robot 12 and is distinguished from an eye camera 70 described later. As this omnidirectional camera 46, for example, a camera using a solid-state imaging device such as a CCD or a CMOS can be adopted. In addition, the installation positions of the infrared distance sensor 40 and the omnidirectional camera 46 are not limited to the portions, and can be changed as appropriate.

胴体42の両側面上端部(人の肩に相当する位置)には、それぞれ、肩関節48Rおよび肩関節48Lによって、上腕50Rおよび上腕50Lが設けられる。図示は省略するが、肩関節48Rおよび肩関節48Lは、それぞれ、直交する3軸の自由度を有する。すなわち、肩関節48Rは、直交する3軸のそれぞれの軸廻りにおいて上腕50Rの角度を制御できる。肩関節48Rの或る軸(ヨー軸)は、上腕50Rの長手方向(または軸)に平行な軸であり、他の2軸(ピッチ軸およびロール軸)は、その軸にそれぞれ異なる方向から直交する軸である。同様にして、肩関節48Lは、直交する3軸のそれぞれの軸廻りにおいて上腕50Lの角度を制御できる。肩関節48Lの或る軸(ヨー軸)は、上腕50Lの長手方向(または軸)に平行な軸であり、他の2軸(ピッチ軸およびロール軸)は、その軸にそれぞれ異なる方向から直交する軸である。   An upper arm 50R and an upper arm 50L are provided at upper end portions on both sides of the torso 42 (position corresponding to a human shoulder) by a shoulder joint 48R and a shoulder joint 48L, respectively. Although illustration is omitted, each of the shoulder joint 48R and the shoulder joint 48L has three orthogonal degrees of freedom. That is, the shoulder joint 48R can control the angle of the upper arm 50R around each of three orthogonal axes. A certain axis (yaw axis) of the shoulder joint 48R is an axis parallel to the longitudinal direction (or axis) of the upper arm 50R, and the other two axes (pitch axis and roll axis) are orthogonal to the axes from different directions. It is an axis to do. Similarly, the shoulder joint 48L can control the angle of the upper arm 50L around each of three orthogonal axes. A certain axis (yaw axis) of the shoulder joint 48L is an axis parallel to the longitudinal direction (or axis) of the upper arm 50L, and the other two axes (pitch axis and roll axis) are orthogonal to the axes from different directions. It is an axis to do.

また、上腕50Rおよび上腕50Lのそれぞれの先端には、肘関節52Rおよび肘関節52Lが設けられる。図示は省略するが、肘関節52Rおよび肘関節52Lは、それぞれ1軸の自由度を有し、この軸(ピッチ軸)の軸回りにおいて前腕54Rおよび前腕54Lの角度を制御できる。   In addition, an elbow joint 52R and an elbow joint 52L are provided at the respective distal ends of the upper arm 50R and the upper arm 50L. Although illustration is omitted, each of the elbow joint 52R and the elbow joint 52L has one degree of freedom, and the angle of the forearm 54R and the forearm 54L can be controlled around the axis (pitch axis).

前腕54Rおよび前腕54Lのそれぞれの先端には、人の手に相当する球体56Rおよび球体56Lがそれぞれ固定的に設けられる。ただし、指や掌の機能が必要な場合には、人間の手の形をした「手」を用いることも可能である。また、図示は省略するが、台車30の前面,肩関節48Rと肩関節48Lとを含む肩に相当する部位,上腕50R,上腕50L,前腕54R,前腕54L,球体56Rおよび球体56Lには、それぞれ、接触センサ58(図3で包括的に示す)が設けられる。台車30の前面の接触センサ58は、台車30への人間や他の障害物の接触を検知する。したがって、ロボット12は、その自身の移動中に障害物との接触が有ると、それを検知し、直ちに車輪32の駆動を停止してロボット12の移動を急停止させることができる。また、その他の接触センサ58は、当該各部位に触れたかどうかを検知する。なお、接触センサ58の設置位置は、当該部位に限定されず、適宜な位置(人の胸,腹,脇,背中および腰に相当する位置)に設けられてもよい。   A sphere 56R and a sphere 56L corresponding to a human hand are fixedly provided at the tips of the forearm 54R and the forearm 54L, respectively. However, when a finger or palm function is required, a “hand” in the shape of a human hand can be used. Although not shown, the front surface of the carriage 30, the portion corresponding to the shoulder including the shoulder joint 48R and the shoulder joint 48L, the upper arm 50R, the upper arm 50L, the forearm 54R, the forearm 54L, the sphere 56R, and the sphere 56L, A contact sensor 58 (shown generically in FIG. 3) is provided. A contact sensor 58 on the front surface of the carriage 30 detects contact of a person or another obstacle with the carriage 30. Therefore, the robot 12 can detect the contact with the obstacle during its movement and immediately stop the driving of the wheel 32 to suddenly stop the movement of the robot 12. Further, the other contact sensors 58 detect whether or not the respective parts are touched. In addition, the installation position of the contact sensor 58 is not limited to the said site | part, and may be provided in an appropriate position (position corresponding to a person's chest, abdomen, side, back, and waist).

胴体42の中央上部(人の首に相当する位置)には首関節60が設けられ、さらにその上には頭部62が設けられる。図示は省略するが、首関節60は、3軸の自由度を有し、3軸の各軸廻りに角度制御可能である。或る軸(ヨー軸)はロボット12の真上(鉛直上向き)に向かう軸であり、他の2軸(ピッチ軸、ロール軸)は、それぞれ、それと異なる方向で直交する軸である。   A neck joint 60 is provided at the upper center of the body 42 (a position corresponding to a person's neck), and a head 62 is further provided thereon. Although illustration is omitted, the neck joint 60 has a degree of freedom of three axes, and the angle can be controlled around each of the three axes. A certain axis (yaw axis) is an axis directed directly above (vertically upward) of the robot 12, and the other two axes (pitch axis and roll axis) are axes orthogonal to each other in different directions.

頭部62には、人の口に相当する位置に、スピーカ64が設けられる。スピーカ64は、ロボット12が、それの周辺の人間に対して音声ないし音によってコミュニケーションを取るために用いられる。また、人の耳に相当する位置には、マイク66Rおよびマイク66Lが設けられる。以下、右のマイク66Rと左のマイク66Lとをまとめてマイク66ということがある。マイク66は、周囲の音、とりわけコミュニケーションを実行する対象である人間の音声を取り込む。さらに、人の目に相当する位置には、眼球部68Rおよび眼球部68Lが設けられる。眼球部68Rおよび眼球部68Lは、それぞれ眼カメラ70Rおよび眼カメラ70Lを含む。以下、右の眼球部68Rと左の眼球部68Lとをまとめて眼球部68ということがある。また、右の眼カメラ70Rと左の眼カメラ70Lとをまとめて眼カメラ70ということがある。   The head 62 is provided with a speaker 64 at a position corresponding to a human mouth. The speaker 64 is used for the robot 12 to communicate with humans around it by voice or sound. A microphone 66R and a microphone 66L are provided at a position corresponding to a human ear. Hereinafter, the right microphone 66R and the left microphone 66L may be collectively referred to as a microphone 66. The microphone 66 captures ambient sounds, in particular, the voices of humans who are subjects of communication. Furthermore, an eyeball part 68R and an eyeball part 68L are provided at positions corresponding to human eyes. The eyeball portion 68R and the eyeball portion 68L include an eye camera 70R and an eye camera 70L, respectively. Hereinafter, the right eyeball part 68R and the left eyeball part 68L may be collectively referred to as the eyeball part 68. The right eye camera 70R and the left eye camera 70L may be collectively referred to as an eye camera 70.

眼カメラ70は、ロボット12に接近した人間の顔や他の部分ないし物体などを撮影して、それに対応する映像信号を取り込む。また、眼カメラ70は、上述した全方位カメラ46と同様のカメラを用いることができる。たとえば、眼カメラ70は、眼球部68内に固定され、眼球部68は、眼球支持部(図示せず)を介して頭部62内の所定位置に取り付けられる。図示は省略するが、眼球支持部は、2軸の自由度を有し、それらの各軸廻りに角度制御可能である。たとえば、この2軸の一方は、頭部62の上に向かう方向の軸(ヨー軸)であり、他方は、一方の軸に直交しかつ頭部62の正面側(顔)が向く方向に直行する方向の軸(ピッチ軸)である。眼球支持部がこの2軸の各軸廻りに回転されることによって、眼球部68ないし眼カメラ70の先端(正面)側が変位され、カメラ軸すなわち視線方向が移動される。なお、上述のスピーカ64,マイク66および眼カメラ70の設置位置は、当該部位に限定されず、適宜な位置に設けられてよい。   The eye camera 70 captures a human face approaching the robot 12, other parts or objects, and captures a corresponding video signal. The eye camera 70 can be the same camera as the omnidirectional camera 46 described above. For example, the eye camera 70 is fixed in the eyeball unit 68, and the eyeball unit 68 is attached to a predetermined position in the head 62 via an eyeball support unit (not shown). Although illustration is omitted, the eyeball support portion has two degrees of freedom, and the angle can be controlled around each of these axes. For example, one of the two axes is an axis (yaw axis) in a direction toward the top of the head 62, and the other is orthogonal to the one axis and goes straight in a direction in which the front side (face) of the head 62 faces. It is an axis (pitch axis) in the direction to be performed. By rotating the eyeball support portion around each of these two axes, the tip (front) side of the eyeball portion 68 or the eye camera 70 is displaced, and the camera axis, that is, the line-of-sight direction is moved. Note that the installation positions of the speaker 64, the microphone 66, and the eye camera 70 described above are not limited to those portions, and may be provided at appropriate positions.

このように、この実施例のロボット12は、車輪32の独立2軸駆動,肩関節48の3自由度(左右で6自由度),肘関節52の1自由度(左右で2自由度),首関節60の3自由度および眼球支持部の2自由度(左右で4自由度)の合計17自由度を有する。   As described above, the robot 12 of this embodiment includes independent two-axis driving of the wheels 32, three degrees of freedom of the shoulder joint 48 (6 degrees of freedom on the left and right), one degree of freedom of the elbow joint 52 (2 degrees of freedom on the left and right), It has a total of 17 degrees of freedom, 3 degrees of freedom for the neck joint 60 and 2 degrees of freedom for the eyeball support (4 degrees of freedom on the left and right).

図3はロボット12の電気的な構成を示すブロック図である。この図3を参照して、ロボット12は、CPU80を含む。CPU80は、マイクロコンピュータ或いはプロセッサとも呼ばれ、バス82を介して、メモリ84,モータ制御ボード86,センサ入力/出力ボード88および音声入力/出力ボード90に接続される。   FIG. 3 is a block diagram showing the electrical configuration of the robot 12. With reference to FIG. 3, the robot 12 includes a CPU 80. The CPU 80 is also called a microcomputer or a processor, and is connected to the memory 84, the motor control board 86, the sensor input / output board 88 and the audio input / output board 90 via the bus 82.

メモリ84は、図示は省略をするが、ROM,HDDおよびRAMを含む。ROMおよびHDDには、ロボット12の動作を制御するための制御プログラムが予め記憶される。たとえば、各センサの出力(センサ情報)を検知するための検知プログラムや、外部コンピュータ(中央制御装置14および操作端末16など)との間で必要なデータやコマンドを送受信するための通信プログラムなどが記録される。また、RAMは、ワークメモリやバッファメモリとして用いられる。   The memory 84 includes a ROM, an HDD, and a RAM (not shown). In the ROM and the HDD, a control program for controlling the operation of the robot 12 is stored in advance. For example, a detection program for detecting the output (sensor information) of each sensor, a communication program for transmitting / receiving necessary data and commands to / from external computers (such as the central control device 14 and the operation terminal 16), etc. To be recorded. The RAM is used as a work memory or a buffer memory.

モータ制御ボード86は、たとえばDSPで構成され、各腕や首関節および眼球部などの各軸モータの駆動を制御する。すなわち、モータ制御ボード86は、CPU80からの制御データを受け、右眼球部68Rの2軸のそれぞれの角度を制御する2つのモータ(図3では、まとめて「右眼球モータ92」と示す)の回転角度を制御する。同様にして、モータ制御ボード86は、CPU80からの制御データを受け、左眼球部68Lの2軸のそれぞれの角度を制御する2つのモータ(図3では、まとめて「左眼球モータ94」と示す)の回転角度を制御する。   The motor control board 86 is constituted by, for example, a DSP, and controls driving of each axis motor such as each arm, neck joint, and eyeball unit. That is, the motor control board 86 receives control data from the CPU 80, and controls two motors (collectively indicated as “right eyeball motor 92” in FIG. 3) that control the angles of the two axes of the right eyeball portion 68R. Control the rotation angle. Similarly, the motor control board 86 receives control data from the CPU 80, and controls two angles of the two axes of the left eyeball portion 68L (in FIG. 3, collectively referred to as “left eyeball motor 94”). ) To control the rotation angle.

また、モータ制御ボード86は、CPU80からの制御データを受け、肩関節48Rの直交する3軸のそれぞれの角度を制御する3つのモータと肘関節52Rの角度を制御する1つのモータとの計4つのモータ(図3では、まとめて「右腕モータ96」と示す)の回転角度を制御する。同様にして、モータ制御ボード86は、CPU80からの制御データを受け、肩関節48Lの直交する3軸のそれぞれの角度を制御する3つのモータと肘関節52Lの角度を制御する1つのモータとの計4つのモータ(図3では、まとめて「左腕モータ98」と示す)の回転角度を制御する。   The motor control board 86 receives control data from the CPU 80, and includes a total of four motors including three motors for controlling the angles of the three orthogonal axes of the shoulder joint 48R and one motor for controlling the angle of the elbow joint 52R. The rotation angle of two motors (collectively indicated as “right arm motor 96” in FIG. 3) is controlled. Similarly, the motor control board 86 receives control data from the CPU 80, and includes three motors for controlling the angles of the three orthogonal axes of the shoulder joint 48L and one motor for controlling the angle of the elbow joint 52L. The rotation angles of a total of four motors (collectively indicated as “left arm motor 98” in FIG. 3) are controlled.

さらに、モータ制御ボード86は、CPU80からの制御データを受け、首関節60の直交する3軸のそれぞれの角度を制御する3つのモータ(図3では、まとめて「頭部モータ100」と示す)の回転角度を制御する。そして、モータ制御ボード86は、CPU80からの制御データを受け、車輪32を駆動する2つのモータ(図3では、まとめて「車輪モータ36」と示す)の回転角度を制御する。なお、この実施例では、車輪モータ36を除くモータは、制御を簡素化するためにステッピングモータ(すなわち、パルスモータ)を用いる。ただし、車輪モータ36と同様に直流モータを用いるようにしてもよい。また、ロボット12の身体部位を駆動するアクチュエータは、電流を動力源とするモータに限らず適宜変更された、たとえば、他の実施例では、エアアクチュエータが適用されてもよい。   Further, the motor control board 86 receives control data from the CPU 80, and controls three motors that control the angles of the three orthogonal axes of the neck joint 60 (in FIG. 3, collectively indicated as “head motor 100”). Control the rotation angle. The motor control board 86 receives control data from the CPU 80 and controls the rotation angles of the two motors (collectively indicated as “wheel motor 36” in FIG. 3) that drive the wheels 32. In this embodiment, a motor other than the wheel motor 36 uses a stepping motor (that is, a pulse motor) in order to simplify the control. However, a DC motor may be used similarly to the wheel motor 36. The actuator that drives the body part of the robot 12 is not limited to a motor that uses a current as a power source, and may be changed as appropriate. For example, in another embodiment, an air actuator may be applied.

センサ入力/出力ボード88は、モータ制御ボード86と同様に、DSPで構成され、各センサからの信号を取り込んでCPU80に与える。すなわち、赤外線距離センサ40のそれぞれからの反射時間に関するデータがこのセンサ入力/出力ボード88を通じてCPU80に入力される。また、全方位カメラ46からの映像信号が、必要に応じてセンサ入力/出力ボード88で所定の処理を施してからCPU80に入力される。眼カメラ70からの映像信号も、同様にして、CPU80に入力される。また、上述した複数の接触センサ58(図3では、まとめて「接触センサ58」と示す)からの信号がセンサ入力/出力ボード88を介してCPU80に与えられる。音声入力/出力ボード90もまた、同様に、DSPで構成され、CPU80から与えられる音声合成データに従った音声または声がスピーカ64から出力される。また、マイク66からの音声入力が、音声入力/出力ボード90を介してCPU80に与えられる。   Similar to the motor control board 86, the sensor input / output board 88 is configured by a DSP and takes in signals from each sensor and gives them to the CPU 80. That is, data relating to the reflection time from each of the infrared distance sensors 40 is input to the CPU 80 through the sensor input / output board 88. The video signal from the omnidirectional camera 46 is input to the CPU 80 after being subjected to predetermined processing by the sensor input / output board 88 as necessary. Similarly, the video signal from the eye camera 70 is also input to the CPU 80. Further, signals from the plurality of contact sensors 58 described above (collectively indicated as “contact sensors 58” in FIG. 3) are provided to the CPU 80 via the sensor input / output board 88. Similarly, the voice input / output board 90 is also configured by a DSP, and voice or voice in accordance with voice synthesis data provided from the CPU 80 is output from the speaker 64. In addition, voice input from the microphone 66 is given to the CPU 80 via the voice input / output board 90.

また、CPU80は、バス82を介して通信LANボード102に接続される。通信LANボード102は、たとえばDSPで構成され、CPU80から与えられた送信データを無線通信装置104に与え、無線通信装置104は送信データを、ネットワーク200を介して外部コンピュータ(中央制御装置14および操作端末16)に送信する。また、通信LANボード102は、無線通信装置104を介してデータを受信し、受信したデータをCPU80に与える。たとえば、送信データとしては、ロボット12から中央制御装置14へのオペレータ呼出要求の信号(コマンド)であったり、ロボット12が行ったコミュニケーション行動についての動作履歴情報(履歴データ)などであったりする。このように、コマンドのみならず履歴データを送信するのは、メモリ84の容量を少なくするためと、消費電力を抑えるためである。この実施例では、履歴データはコミュニケーション行動が実行される度に、中央制御装置14に送信されたが、一定時間または一定量の単位で中央制御装置14に送信されるようにしてもよい。   The CPU 80 is connected to the communication LAN board 102 via the bus 82. The communication LAN board 102 is configured by, for example, a DSP, and sends transmission data given from the CPU 80 to the wireless communication device 104. The wireless communication device 104 sends the transmission data to an external computer (the central controller 14 and the operation via the network 200). To the terminal 16). In addition, the communication LAN board 102 receives data via the wireless communication device 104 and provides the received data to the CPU 80. For example, the transmission data may be an operator call request signal (command) from the robot 12 to the central control device 14, or operation history information (history data) regarding communication behavior performed by the robot 12. The reason why the history data is transmitted as well as the command is to reduce the capacity of the memory 84 and to reduce power consumption. In this embodiment, the history data is transmitted to the central control device 14 every time a communication action is executed. However, the history data may be transmitted to the central control device 14 in units of a fixed time or a fixed amount.

さらに、CPU80は、バス82を介して無線タグ読取装置106が接続される。無線タグ読取装置106は、アンテナ(図示せず)を介して、無線タグ18(RFIDタグ)から送信される識別情報の重畳された電波を受信する。そして、無線タグ読取装置106は、受信した電波信号を増幅し、当該電波信号から識別信号を分離し、当該識別情報を復調(デコード)してCPU80に与える。図1によれば無線タグ18は、ロボット12が配置された会社の受付や一般家庭の居間などに居る人間(人間A)に装着され、無線タグ読取装置106は、通信可能範囲内の無線タグ18を検出する。なお、無線タグ18は、アクティブ型であってもよいし、無線タグ読取装置106から送信される電波に応じて駆動されるパッシブ型であってもよい。   Further, the wireless tag reader 106 is connected to the CPU 80 via the bus 82. The wireless tag reader 106 receives a radio wave superimposed with identification information transmitted from the wireless tag 18 (RFID tag) via an antenna (not shown). Then, the RFID tag reader 106 amplifies the received radio wave signal, separates the identification signal from the radio wave signal, demodulates (decodes) the identification information, and supplies the identification information to the CPU 80. According to FIG. 1, the wireless tag 18 is attached to a person (person A) in the reception of the company where the robot 12 is disposed or in the living room of a general household, and the wireless tag reader 106 is connected to the wireless tag within the communicable range. 18 is detected. Note that the wireless tag 18 may be an active type or a passive type that is driven according to a radio wave transmitted from the wireless tag reader 106.

図1に戻って、中央制御装置14は、当該ロボット遠隔操作システム10におけるオペレータの呼び出しを制御するコンピュータであり、ロボット12および操作端末16の状態を示す情報を管理する。中央制御装置14は、図示は省略するがCPUを含み、CPUにはメモリ14a,表示装置,入力装置および通信装置などが接続されている。中央制御装置14は、通信装置を介してネットワーク200に有線または無線で接続されている。メモリ14aには、当該中央制御装置14の動作を制御するための制御プログラムおよび必要なデータが記憶される。制御プログラムは、たとえば、ロボット12および操作端末16のそれぞれとの間で必要なデータやコマンドを送受信するための通信プログラムおよびロボット12からオペレータの呼出要求があったときに、オペレータ(操作端末16)を呼び出すための呼出プログラムなどを含む。   Returning to FIG. 1, the central control device 14 is a computer that controls the call of the operator in the robot remote operation system 10, and manages information indicating the states of the robot 12 and the operation terminal 16. Although not shown, the central control device 14 includes a CPU, to which a memory 14a, a display device, an input device, a communication device, and the like are connected. The central control device 14 is connected to the network 200 via a communication device in a wired or wireless manner. The memory 14a stores a control program and necessary data for controlling the operation of the central control device 14. The control program is, for example, an operator (operation terminal 16) when a communication program for transmitting / receiving necessary data and commands between the robot 12 and the operation terminal 16 and an operator call request from the robot 12 are received. Including a calling program for calling.

また、操作端末16は、コンピュータであり、図示は省略するがCPUを含み、CPUにはメモリ,表示装置,入力装置,スピーカ,マイクおよび通信装置などが接続される。操作端末16は、通信装置を介してネットワーク200に有線または無線で接続されている。メモリには、当該操作端末16の動作を制御するための制御プログラムおよび必要なデータが記録される。制御プログラムは、たとえば、ロボット12および中央制御装置14との間で必要なデータやコマンドを送受信するための通信プログラム、入力装置から入力された操作コマンドを検出する検出プログラムおよび表示装置に画像などを表示するための表示プログラムなどを含む。   The operation terminal 16 is a computer and includes a CPU (not shown). A memory, a display device, an input device, a speaker, a microphone, a communication device, and the like are connected to the CPU. The operation terminal 16 is connected to the network 200 via a communication device in a wired or wireless manner. In the memory, a control program and necessary data for controlling the operation of the operation terminal 16 are recorded. The control program includes, for example, a communication program for transmitting and receiving necessary data and commands between the robot 12 and the central control device 14, a detection program for detecting an operation command input from the input device, and an image on the display device. Includes a display program for display.

ここで、中央制御装置14のメモリ14aには、ロボット12から送信されるコミュニケーション行動の履歴データなどが記録される。この実施例では、コミュニケーション行動の履歴データとしては、ビヘービア(行動)履歴記録テーブルデータおよび遠隔操作履歴記録テーブルデータの2種類がメモリ14aに記録される。ビヘービア履歴記録テーブルは、自律制御およびオペレータの遠隔操作によるロボット12のコミュニケーション行動についての履歴を記録し、遠隔操作履歴記録テーブルは、オペレータの遠隔操作によるロボット12のコミュニケーション行動についての履歴を記録する。   Here, history data of communication behavior transmitted from the robot 12 is recorded in the memory 14 a of the central control device 14. In this embodiment, two types of communication behavior history data are recorded in the memory 14a: behavior history record table data and remote operation history record table data. The behavior history record table records a history of communication behavior of the robot 12 by autonomous control and remote operation of the operator, and the remote operation history record table records a history of communication behavior of the robot 12 by remote operation of the operator.

図4はビヘービア履歴記録テーブルの一例を示す図解図である。この図4を参照して、ビヘービア履歴記録テーブルには、BEFORE,VALUE,AFTER,場所,名前,年代および性別などの情報が記録される。BEFORE(変化前のビヘービア名)の欄には、後述するVALUEの値が変化される前においてロボット12が対話相手に対して行ったコミュニケーション行動(ビヘービア)のコマンド名が記録される。たとえば、「GREET」,「HEAR」および「AKUSHU」などのコマンド名が記録される。   FIG. 4 is an illustrative view showing one example of a behavior history record table. Referring to FIG. 4, information such as BEFORE, VALUE, AFTER, location, name, age, and sex is recorded in the behavior history record table. In the column of BEFORE (behavior name before change), a command name of a communication action (behavior) performed by the robot 12 with respect to the conversation partner before the value of VALUE described later is changed is recorded. For example, command names such as “GREET”, “HEAR”, and “AKUSHU” are recorded.

ここで、GREETのコマンドが実行されると、ロボット12は挨拶についてのコミュニケーション行動を実行する。たとえば、ロボット12は、「おはよう」,「こんにちは」または「こんばんは」と発話しながら、お辞儀する。HEARのコマンドが実行されると、ロボット12は質問についてのコミュニケーション行動を実行する。たとえば、ロボット12は、「何をして遊ぼうか」または「どうかしましたか」と発話して、その後、対話相手の返答を待つ。AKUSHUのコマンドが実行されると、ロボット12は握手についてのコミュニケーション行動を実行する。たとえば、ロボット12は、手を差し出す。   Here, when a GREET command is executed, the robot 12 executes a communication action for greeting. For example, the robot 12 is, "Good morning", while speaking with "Hello" or "Good evening", to bow. When the HEAR command is executed, the robot 12 executes a communication action regarding the question. For example, the robot 12 speaks “What do you want to play?” Or “What did you do?”, And then waits for a reply from the conversation partner. When the AKUSHU command is executed, the robot 12 executes a communication action for shaking hands. For example, the robot 12 presents a hand.

また、図4では示されていないが、他にも「GOCHISOUSAMA」,「ZYAN」および「HUG」などのコマンドがある。GOCHISOUSAMAのコマンドが実行されると、ロボット12は食事の終了を意味する挨拶についてのコミュニケーション行動を実行する。たとえば、ロボット12は、「ごちそうさま」と発話しながら、手を合わせる。ZYANのコマンドが実行されると、ロボット12はジャンケンについてのコミュニケーション行動を実行する。たとえば、ロボット12は、「じゃんけん ぽん」と発話しながら、手を前に出す。HUGのコマンドが実行されると、ロボット12は抱擁についてのコミュニケーション行動を実行する。たとえば、ロボット12は、両手を前に出す。   Although not shown in FIG. 4, there are other commands such as “GOCHISOUSAMAMA”, “ZYAN”, and “HUG”. When the GOCHISOUSAMA command is executed, the robot 12 executes a communication action for a greeting that means the end of the meal. For example, the robot 12 speaks “Feast” and joins hands. When the ZYAN command is executed, the robot 12 executes a communication action for janken. For example, the robot 12 puts its hand forward while speaking “Janken Pon”. When the HUG command is executed, the robot 12 executes a communication action regarding a hug. For example, the robot 12 puts both hands forward.

図4に戻って、VALUE(戻り値)の欄には、BEFOREの欄に記録されたコマンドに従ったコミュニケーション行動に対する対話相手の行動や反応などが対応する数値で記録される。VALUEの数値は、それぞれ異なる意味や内容であり、各コマンド(コミュニケーション行動)に対応して予め決められている。この実施例では、変化前のビヘービア(コミュニケーション行動)に対する対話相手の反応(反応の有無も含む)について、予め実験等により得られた意味や内容を数値で識別可能にメモリ14a等に記録してある。   Returning to FIG. 4, in the VALUE (return value) column, the actions and reactions of the conversation partner with respect to the communication behavior according to the command recorded in the BEFORE column are recorded with corresponding numerical values. The value of VALUE has a different meaning and content, and is determined in advance corresponding to each command (communication action). In this embodiment, the interaction partner's response to the behavior (communication behavior) before the change (including the presence or absence of the response) is recorded in the memory 14a or the like so that the meaning and content obtained in advance through experiments can be identified numerically. is there.

たとえば、GREETのコマンドが実行された場合には、対話相手の反応(反応なしを含む)に関らず、VALUEには「1(常に)」が記録される。   For example, when a GREET command is executed, “1 (always)” is recorded in VALUE regardless of the response (including no response) of the conversation partner.

また、HEARのコマンドが実行された場合に、対話相手が「遊ぼう」などと言うと、VALUEには「1(遊ぼうといわれた)」が記録される。同様の場合に、対話相手が「○○に行きたいのですが」などと言うと、VALUEには「2(道案内を頼まれた)」が記録される。詳細な説明は省略するが、ロボット12は音声認識機能を備えており、たとえば、マイク66を通して入力された対話相手の音声に対応する音声信号をDPマッチング法やHMM(隠れマルコフモデル)法を用いて音声認識することにより、その対話相手の発話内容を認識することができる。   Further, when the HEAR command is executed and the conversation partner says “Let's play”, “1 (said to play)” is recorded in VALUE. In the same case, when the conversation partner says “I want to go to XX”, “2 (requested route guidance)” is recorded in VALUE. Although a detailed description is omitted, the robot 12 has a voice recognition function. For example, a voice signal corresponding to the voice of the conversation partner inputted through the microphone 66 is used by a DP matching method or an HMM (Hidden Markov Model) method. By recognizing the voice, it is possible to recognize the utterance content of the conversation partner.

さらに、AKUSHUのコマンドが実行された場合に、対話相手がロボット12の球体56に触れると、VALUEには「1(握手された)」が記録される。同様の場合に、対話相手がロボット12の手に触れなければ、VALUEには「2(触れられなかった)」が記録される。ただし、ロボット12は、手つまり球体56Rまたは球体56Lに設けられた接触センサ58からの入力に基づいて握手された(触られた)かどうかを判断する。   Further, when the AKUSHU command is executed, when the conversation partner touches the sphere 56 of the robot 12, “1 (shake)” is recorded in VALUE. In the same case, if the conversation partner does not touch the hand of the robot 12, “2 (not touched)” is recorded in VALUE. However, the robot 12 determines whether or not the hand is shaken (touched) based on an input from the hand, that is, the contact sensor 58 provided on the sphere 56R or the sphere 56L.

また、図4では示されていない、「GOCHISOUSAMA」,「ZAYN」および「HUG」についても同様である。GOCHISOUSAMAのコマンドが実行された場合には、対話相手の反応(反応なしを含む)に関らず、VALUEには「1(常に)」が記録される。また、ZYANのコマンドが実行された場合には、対話相手の反応(反応なしを含む)に関らず、VALUEには「1(常に)」が記録される。さらに、HUGのコマンドが実行された場合には、対話相手の反応(反応なしを含む)に関らず、VALUEには「1(常に)」が記録される。   The same applies to “GOCHISOUSAMAMA”, “ZAYN” and “HUG” which are not shown in FIG. When the GOCHISOUSAMA command is executed, “1 (always)” is recorded in VALUE regardless of the reaction (including no response) of the conversation partner. When a ZYAN command is executed, “1 (always)” is recorded in VALUE regardless of the reaction (including no response) of the conversation partner. Further, when a HUG command is executed, “1 (always)” is recorded in VALUE regardless of the reaction (including no response) of the conversation partner.

図4に戻って、AFTER(変化後のビヘービア名)の欄には、VALUEの欄に記録した対話相手の行動(反応なしを含む)の後に、ロボット12が行ったコミュニケーション行動のコマンド名が記録される。たとえば、「AKUSHU」,「GUIDE」,「NAME」,「BYE」および「HUG」などが記録される。   Returning to FIG. 4, the command name of the communication action performed by the robot 12 is recorded in the AFTER (behavior name after change) field after the action (including no response) of the conversation partner recorded in the VALUE field. Is done. For example, “AKUSHU”, “GUIDE”, “NAME”, “BYE”, “HUG”, and the like are recorded.

ここで、GUIDEのコマンドが実行されると、ロボット12は道案内についてのコミュニケーション行動を実行する。たとえば、ロボット12は、HEARのコマンドを実行することで得た(質問された)目的地まで対話相手を案内する。ただし、ロボット12は、予め決められている目的地まで対話相手を案内するようにしてもよい。また、NAMEのコマンドが実行されると、そのロボット12自身の名前を発話するコミュニケーション行動を実行する。たとえば、ロボット12は、或る対話相手に自身の名前(ロボビーR1など)を伝える。また、BYEのコマンドが実行されると、コミュニケーション終了についてのコミュニケーション行動を実行する。たとえば、ロボット12は、「さよなら」,「またね」または「ありがとうございました」と発話する。   Here, when the GUIDE command is executed, the robot 12 executes a communication action regarding the route guidance. For example, the robot 12 guides the conversation partner to the destination (inquired) obtained by executing the HEAR command. However, the robot 12 may guide the conversation partner to a predetermined destination. When the NAME command is executed, a communication action for speaking the name of the robot 12 itself is executed. For example, the robot 12 transmits its own name (Robobie R1 or the like) to a certain conversation partner. When a BYE command is executed, a communication action for the end of communication is executed. For example, the robot 12 speaks “goodbye”, “see you again”, or “thank you”.

なお、「AKUSHU」および「HUG」のコマンドは、上述したとおりであるため、重複した説明は省略する。   Note that the commands “AKUSHU” and “HUG” are as described above, and thus redundant description is omitted.

また、図4では示されていないが、他にも「SONG」,「DRAG」,「FROM」,「PATROL」および「KISS」などのコマンドがある。SONGのコマンドが実行されると、ロボット12は歌唱についてのコミュニケーション行動を実行する。たとえば、ロボット12は、メモリ84に記録された音楽データ(たとえば、mp3ファイル形式などのデータ)に再生処理を施し、スピーカ64から音声として出力する。また、DRAGのコマンドが実行されると、ロボット12は薬の服用についてのコミュニケーション行動を実行する。たとえば、ロボット12は、或る対話相手に対して「薬を飲んでね」と発話することにより、薬を服用するように促す。また、FROMのコマンドが実行されると、ロボット12は出身地の質問についてのコミュニケーション行動を実行する。たとえば、ロボット12は、「どこからいらっしゃいましたか」と発話して、その後、対話相手の返答を待つ。また、PATROLのコマンドが実行されると、ロボット12は巡回についてのコミュニケーション行動を実行する。たとえば、ロボット12は、自身が置かれている空間(環境)を、予め決められたコースで移動する。さらに、KISSのコマンドが実行されると、ロボット12はスキンシップについてのコミュニケーション行動を実行する。たとえば、ロボット12は、対話相手とだっこなどの遊びを行い、「キスしてね」と発話する。   Although not shown in FIG. 4, there are other commands such as “SONG”, “DRAG”, “FROM”, “PATROL”, and “KISS”. When the SONG command is executed, the robot 12 executes a communication action for singing. For example, the robot 12 performs a reproduction process on music data (for example, data in the mp3 file format, etc.) recorded in the memory 84 and outputs it as sound from the speaker 64. Further, when a DRAG command is executed, the robot 12 executes a communication action for taking medicine. For example, the robot 12 urges a certain conversation partner to take a medicine by saying “Please take medicine”. Further, when the FROM command is executed, the robot 12 executes a communication action regarding the question of the birth place. For example, the robot 12 speaks “Where did you come from?” And then waits for the reply of the conversation partner. When the PATROL command is executed, the robot 12 executes a communication action for patrol. For example, the robot 12 moves in a predetermined course in a space (environment) in which the robot 12 is placed. Further, when a KISS command is executed, the robot 12 executes a communication action regarding skinship. For example, the robot 12 performs a game such as playing with a conversation partner and utters “Kiss me”.

図4に戻って、場所の欄には、ロボット12が配置されている場所(対応するビヘービアを行った場所)が記録される。たとえば、「外」および「家庭内」などが記録される。「外」は、ロボット12が配置されている場所が、屋外で行われる或るイベント会場や家以外の建物などであることを意味する。「家庭内」は、ロボット12が配置されている場所が、或る家の中であることを意味する。名前の欄には、ロボット12がビヘービア(コミュニケーション行動)を行った対話相手の名前が記録される。たとえば、「佐藤三郎」,「大村四郎」,「山田一郎」および「鈴木二郎」などが記述される。年代の欄には、対話相手の年代が記録される。たとえば、年代は、対話相手の年齢に基づいて、「大人」または「子ども」に分けて記録される。ただし、年代は、「10代」,「20代」,…,「60代以上」などのように細かく分けるようにしてもよい。性別の欄には、対話相手の性別が記録される。具体的には、「男性」,「女性」に分けて記憶される。   Returning to FIG. 4, the place where the robot 12 is arranged (the place where the corresponding behavior was performed) is recorded in the place column. For example, “outside” and “home” are recorded. “Outside” means that the place where the robot 12 is arranged is a certain event venue or a building other than a house that is held outdoors. “In-home” means that the place where the robot 12 is located is in a certain house. In the name column, the name of the conversation partner with whom the robot 12 has performed the behavior (communication behavior) is recorded. For example, “Saburo Sato”, “Shiro Omura”, “Ichiro Yamada”, “Jiro Suzuki” and the like are described. The age of the dialogue partner is recorded in the age column. For example, the age is recorded separately for “adult” or “child” based on the age of the conversation partner. However, the ages may be divided into small parts such as “10's”, “20's”,... In the sex column, the gender of the conversation partner is recorded. Specifically, “male” and “female” are stored separately.

ここで、ビヘービア履歴記録テーブル(後述する遠隔操作履歴テーブルの場合も同様)に記録される名前,年代および性別の情報は、対話相手が所持する無線タグ18から送信される識別情報(タグID)に基づいて取得される。たとえば、中央制御装置14のメモリ14aなどにタグIDに対応して名前,年代(年齢)および性別の情報が記憶される。これは、中央制御装置14(ロボット制御装置システム10)の管理者がロボット12の対話相手となり得る者(ロボット12のサービスの提供を受ける者)からそのような情報を取得して、中央制御装置14に登録する。ただし、対話相手となり得る者の名前,年代および性別の情報は、中央制御装置14がアクセス可能なデータベース(図示せず)に登録されるようにしてもよい。   Here, the name, age and gender information recorded in the behavior history record table (the same applies to the remote operation history table described later) is the identification information (tag ID) transmitted from the wireless tag 18 possessed by the conversation partner. Get based on. For example, name, age (age), and sex information are stored in the memory 14a of the central control unit 14 in correspondence with the tag ID. This is because an administrator of the central control device 14 (robot control device system 10) acquires such information from a person who can interact with the robot 12 (a person who receives provision of the service of the robot 12), and the central control device 14 14 is registered. However, the name, age and gender information of a person who can be a conversation partner may be registered in a database (not shown) accessible by the central control device 14.

後述するように、ロボット12は対話相手が所持する無線タグ18のタグIDを検出して、中央制御装置14に送信する。中央制御装置14は、タグIDを受信すると、これに対応する名前,年代および性別の情報をメモリ14a等から取得し、ビヘービア履歴記録テーブルに記録する。   As will be described later, the robot 12 detects the tag ID of the wireless tag 18 possessed by the conversation partner and transmits it to the central controller 14. When the central controller 14 receives the tag ID, the central controller 14 acquires information on the name, age, and sex corresponding to the tag ID from the memory 14a and the like, and records them in the behavior history recording table.

ただし、場所、名前、年代および性別のような対話相手に関する情報(属性情報)のうち、名前、年代および性別の情報については、取得できない情報もある。したがって、情報を取得できない場合には、対応する箇所を空欄にしてある。   However, among the information (attribute information) related to the conversation partner such as the place, name, age, and sex, there is information that cannot be acquired for the name, age, and sex information. Therefore, when information cannot be acquired, the corresponding part is left blank.

なお、個人を同定(特定)する手段としては、顔画像認識,静脈認識,虹彩認識および指紋認識などのバイオメトリクス認識を用いてもよい。   As a means for identifying (specifying) an individual, biometric recognition such as face image recognition, vein recognition, iris recognition, and fingerprint recognition may be used.

このようなロボット制御システム10では、上述したように、自律制御やオペレータの遠隔操作により、ロボット12はコミュニケーション行動を実行する。しかし、オペレータが遠隔操作する場合であっても、同じ状況では、ロボット12に実行させるコミュニケーション行動が繰り返される(同じである)ことがある。したがって、この実施例では、遠隔操作の場合の履歴情報から異なる状況の各々についてのデータベースを生成し、生成したデータベースを選択的に参照して、自律制御することにより、オペレータによる遠隔操作の回数(頻度)をできるだけ減らすようにしてある。   In such a robot control system 10, as described above, the robot 12 executes a communication action by autonomous control or an operator's remote operation. However, even when the operator performs remote control, in the same situation, the communication action to be executed by the robot 12 may be repeated (same). Therefore, in this embodiment, a database for each different situation is generated from the history information in the case of remote operation, and the number of remote operations by the operator (by selectively referring to the generated database and performing autonomous control) Frequency) is reduced as much as possible.

ただし、この実施例では、状況とは、特定の個人とコミュニケーション行動する場合、特定の年代および性別の対話相手とコミュニケーション行動する場合、および特定の場所でコミュニケーション行動する場合を意味する。   However, in this embodiment, the situation means a case where a communication action is carried out with a specific individual, a case where a communication action is carried out with a specific age and sex partner, and a case where a communication action is carried out at a specific place.

図5は、遠隔操作履歴記録テーブルを示す図解図である。この図5を参照して、遠隔操作履歴記録テーブルには、BEFORE,VALUE,AFTER,場所,名前,年代および性別などの情報が記録される。また、上述したとおり、遠隔操作履歴記録テーブルは、オペレータの遠隔操作によるロボット12のコミュニケーション行動の動作履歴情報を記録する。この実施例では、ビヘービア履歴記録テーブルに記録された動作履歴情報のうち、オペレータによってロボット12の遠隔操作が行われた場合の動作履歴情報のみが遠隔操作履歴記録テーブルに記録される。なお、各欄に記録される情報は、図4に示したビヘービア履歴記録テーブルと同様のため重複した説明は省略する。   FIG. 5 is an illustrative view showing a remote operation history record table. Referring to FIG. 5, information such as BEFORE, VALUE, AFTER, location, name, age, and sex is recorded in the remote operation history recording table. Further, as described above, the remote operation history record table records the operation history information of the communication behavior of the robot 12 by the operator's remote operation. In this embodiment, of the operation history information recorded in the behavior history record table, only the operation history information when the operator remotely operates the robot 12 is recorded in the remote operation history record table. The information recorded in each column is the same as the behavior history recording table shown in FIG.

この遠隔操作履歴記録テーブルから、3種類のデータセットが抽出される。具体的には、個人名が記録されているデータを抽出したデータセットDp,年齢・性別が記録されているデータを抽出したデータセットDas,他の情報(場所など)が記録されているデータを抽出したデータセットDnである。図6に示すように、データセットDpは、図5に示した遠隔操作履歴記録テーブルにおいて名前が記録されている動作履歴情報を抽出して生成される。また、図7に示すように、データセットDasは、図5に示した遠隔操作履歴記録テーブルにおいて、年代および性別が記録されている動作履歴情報を抽出して生成される。さらに、図8に示すように、データセットDnは、図5に示した遠隔操作履歴テーブルにおいて、場所が記録されている動作履歴情報を抽出して生成される。   Three types of data sets are extracted from this remote operation history recording table. Specifically, a data set Dp obtained by extracting data in which an individual name is recorded, a data set Das obtained by extracting data in which age and sex are recorded, and data in which other information (location, etc.) is recorded The extracted data set Dn. As shown in FIG. 6, the data set Dp is generated by extracting the operation history information whose name is recorded in the remote operation history recording table shown in FIG. Further, as shown in FIG. 7, the data set Das is generated by extracting operation history information in which the age and gender are recorded in the remote operation history recording table shown in FIG. Further, as shown in FIG. 8, the data set Dn is generated by extracting the operation history information in which the location is recorded in the remote operation history table shown in FIG.

次に、上述したように、この実施例では、中央制御装置14は、データセットDp,DasおよびDnのそれぞれから、各状況についてのデータベース(DB)を生成(構築)する。この実施例では、中央制御装置14は、データセットDpに基づいて個人用ビヘービア遷移DBを構築し、データセットDasに基づいて年代・性別依存ビヘービア遷移DBを構築し、そして、データセットDnに基づいて場所依存ビヘービア遷移DBを構築する。   Next, as described above, in this embodiment, the central controller 14 generates (constructs) a database (DB) for each situation from each of the data sets Dp, Das, and Dn. In this embodiment, the central control unit 14 constructs a personal behavior transition DB based on the data set Dp, constructs a age / gender dependent behavior transition DB based on the data set Das, and based on the data set Dn. To build a location-dependent behavior transition DB.

図9は、個人用ビヘービア遷移DBの一例を示す図解図である。この個人用ビヘービア遷移DBは、上述したデータセットDpにおいて、特定の個人(ここでは、山田一郎)についてフィルタリングしたデータに基づいて生成される。図9からも分かるように、個人用ビヘービア遷移DBには、場所,BEFORE,VALUE,AFTERの情報が記録されるとともに、COUNT(回数)の情報が記録される。場所,BEFORE,VALUEおよびAFTERの情報については上述したとおりであるため、重複した説明は省略する。COUNTの情報は、データセットDpを特定の個人についてフィルタリングしたデータにおいて、場所,BEFORE,VALUEおよびAFTERの情報が示す内容が同じものについての回数を示す。   FIG. 9 is an illustrative view showing one example of a personal behavior transition DB. This personal behavior transition DB is generated based on data filtered for a specific individual (here, Ichiro Yamada) in the above-described data set Dp. As can be seen from FIG. 9, in the personal behavior transition DB, information on location, BEFORE, VALUE, and AFTER is recorded, and information on COUNT (number of times) is recorded. Since the information on the location, BEFORE, VALUE, and AFTER is as described above, a duplicate description is omitted. The COUNT information indicates the number of times that the contents indicated by the location, BEFORE, VALUE, and AFTER information are the same in the data obtained by filtering the data set Dp for a specific individual.

図9に示す例では、場所の情報が「外」である場合に、BEFOREの情報が「AKUSHU」で、「VALUE」の情報が「1(握手された)」で,AFTERの情報が「NAME」であるビヘービアの遷移が20回であることが分かる。また、場所の情報が「家庭内」である場合に、BEFOREの情報が「GOCHISOUSAMA」で、VALUEの情報が「1(常に)」で、AFTERの情報が「DRUG」であるビヘービアが30回であることが分かる。   In the example illustrated in FIG. 9, when the location information is “outside”, the BEFORE information is “AKUSHU”, the “VALUE” information is “1 (shake)”, and the AFTER information is “NAME”. It can be seen that there are 20 behavioral transitions. In addition, when the location information is “in-home”, the number of times that the BEFORE information is “GOCHISOUSAMA”, the VALUE information is “1 (always)”, and the AFTER information is “DRUG” is 30 times. I understand that there is.

なお、説明は省略するが、他の場合についても同様である。また、図示は省略するが、他の特定の個人(たとえば、鈴木二郎や佐藤三郎)についても同様の個人用ビヘービア遷移DBを生成することができる。   Although explanation is omitted, the same applies to other cases. Moreover, although illustration is abbreviate | omitted, the same personal behavior transition DB can be produced | generated also about other specific individuals (for example, Jiro Suzuki and Saburo Sato).

図10は、年代・性別依存ビヘービア遷移DBである。この年代・性別依存ビヘービア遷移DBは、上述したデータセットDasにおいて、或る年代と性別と(ここでは、大人・男性)についてフィルタリングしたデータに基づいて生成される。図10からも分かるように、年代・性別依存ビヘービア遷移DBには、場所,BEFORE,VALUE,AFTERの情報が記録されるとともに、COUNTの情報が記録される。これらの情報は上述したとおりであるため、重複した説明は省略する。   FIG. 10 shows the age / sex dependent behavior transition DB. This age / sex-dependent behavior transition DB is generated based on data filtered for a certain age and sex (here, adult / male) in the above-described data set Das. As can be seen from FIG. 10, in the age / gender-dependent behavior transition DB, information on location, BEFORE, VALUE, AFTER is recorded, and information on COUNT is recorded. Since these pieces of information are as described above, a duplicate description is omitted.

図10に示す例では、場所の情報が「外」である場合に、BEFOREの情報が「AKUSHU」で、VALUEの情報が「2(触れられなかった)」であり、AFTERの情報が「BYE」であるビヘービアの遷移が5回であることが分かる。また、場所の情報が「家庭内」である場合に、BEFOREの情報が「ZYAN」で、VALUEの情報が「1(常に)」で、AFTERの情報が「PATROL」であるビヘービアの遷移が3回であることが分かる。   In the example shown in FIG. 10, when the location information is “outside”, the BEFORE information is “AKUSHU”, the VALUE information is “2 (not touched)”, and the AFTER information is “BYE”. It can be seen that there are five behavior transitions. Further, when the location information is “in-home”, the transition of the behavior in which the BEFORE information is “ZYAN”, the VALUE information is “1 (always)”, and the AFTER information is “PATROL” is 3 It turns out that it is times.

なお、説明は省略するが、他の場合についても同様である。また、図示は省略するが、他の年代・性別(大人・女性,子ども・男性,子ども・女性)についても同様の年代・性別依存ビヘービア遷移DBを生成することができる。   Although explanation is omitted, the same applies to other cases. Although not shown, the same age / sex-dependent behavior transition DB can be generated for other age / sex (adult / female, child / male, child / woman).

図11は、場所依存ビヘービアDBである。この場所依存ビへービア遷移DBは、上述したデータセットDnにおいて、或る場所(ここでは、外)についてフィルタリングしたデータに基づいて生成される。図11からも分かるように,場所依存ビヘービア遷移DBには、BEFORE,VALUE,AFTERの情報が記録されるとともに、COUNTの情報が記録される。これらの情報は上述したとおりであるため、重複した説明は省略する。   FIG. 11 shows a location-dependent behavior DB. This place-dependent behavior transition DB is generated based on data filtered for a certain place (here, outside) in the above-described data set Dn. As can be seen from FIG. 11, in the location-dependent behavior transition DB, information on BEFORE, VALUE, and AFTER is recorded, and information on COUNT is recorded. Since these pieces of information are as described above, a duplicate description is omitted.

図11に示す例では、場所の情報が「外」である場合に、BEFOREの情報が「AKUSHU」で、VALUEの情報が「1(握手された)」であり、AFTERの情報が「FROM」であるビヘービア遷移が5回であることが分かる。また、場所の情報が「外」である場合に、BEFOREの情報が「HUG」で、VALUEの情報が「1(常に)」で、AFTERの情報が「KISS」であるビヘービアの遷移が10回であることが分かる。   In the example illustrated in FIG. 11, when the location information is “outside”, the BEFORE information is “AKUSHU”, the VALUE information is “1 (shake)”, and the AFTER information is “FROM”. It can be seen that there are five behavior transitions. In addition, when the location information is “outside”, the behavior transition in which the BEFORE information is “HUG”, the VALUE information is “1 (always)”, and the AFTER information is “KISS” is 10 times. It turns out that it is.

なお、説明は省略するが、他の場合についても同様である。また、図示は省略するが、他の場所(家庭内など)についても同様の場所依存ビヘービア遷移DBを生成することができる。   Although explanation is omitted, the same applies to other cases. Moreover, although illustration is abbreviate | omitted, the same place dependence behavior transition DB can be produced | generated also about other places (home etc.).

具体的には、中央制御装置14のCPUは、図12−図16に示す処理を含む、複数の処理を並行的に実行することで、複数のデータベースを構築する。また、ロボット12のCPU80は、図17に示す自律行動処理を含む、複数の処理を並列的に実行する。   Specifically, the CPU of the central controller 14 constructs a plurality of databases by executing a plurality of processes in parallel including the processes shown in FIGS. Further, the CPU 80 of the robot 12 executes a plurality of processes in parallel including the autonomous action process shown in FIG.

図12は、履歴記憶処理を示すフロー図である。図12に示すように、中央制御装置14のCPUは、履歴記憶処理を開始すると、ステップS1で、停止命令が有るか否かを判断する。たとえば、中央制御装置14の管理者によって、停止命令の指示が与えられたか否かを判断する。ステップS1でYESであれば、つまり停止命令が有れば、そのまま履歴記憶処理を終了する。一方、ステップS1でNOであれば、つまり停止命令が無ければ、ステップS3で、ロボット12のビヘービアが変化したか否かを判断する。つまり、ロボット12からコミュニケーション行動の動作履歴情報が送信されたか否かを判断する。ステップS3でNOであれば、つまりロボット12のビヘービアが変化していなければ、ステップS1に戻る。一方、ステップS3でYESであれば、つまりロボット12のビヘービアが変化すれば、ステップS5で、BEFORE,VALUE,AFTERおよび場所の値をメモリ14aのバッファ領域に一時的に記録させる。   FIG. 12 is a flowchart showing the history storage process. As shown in FIG. 12, when starting the history storage process, the CPU of the central controller 14 determines whether or not there is a stop command in step S1. For example, it is determined whether or not an instruction of a stop command is given by an administrator of the central control device 14. If “YES” in the step S1, that is, if there is a stop command, the history storing process is ended as it is. On the other hand, if “NO” in the step S1, that is, if there is no stop command, it is determined whether or not the behavior of the robot 12 has changed in a step S3. That is, it is determined whether or not the operation history information of the communication action is transmitted from the robot 12. If “NO” in the step S3, that is, if the behavior of the robot 12 is not changed, the process returns to the step S1. On the other hand, if “YES” in the step S3, that is, if the behavior of the robot 12 changes, the BEFORE, VALUE, AFTER, and the place value are temporarily recorded in the buffer area of the memory 14a in a step S5.

次のステップS7では、個人同定が行われているか否かを判断する。ここでは、ステップS3においてビヘービアが変化したと判断されたロボット12がコミュニケーションを行う対話相手の名前,年代および性別などの情報が分かるか否かを判断する。上述したように、ロボット12は、対話相手が所持する無線タグ18から送信されるタグIDを受信し、これを中央制御装置14に送信する。中央制御装置14は、メモリ14aを参照して、タグIDに対応する、対話相手の名前,年代および性別などの情報を取得する。ただし、上述したように、名前、年代および性別などの情報は全部または一部について取得できない場合もある。ステップS7でYESであれば、つまり、個人同定が行われていれば、ステップS9で、名前,年代および性別などをメモリ14aのバッファ領域に一時的に記録して、ステップS13に進む。一方、ステップS7でNOであれば、つまり個人同定が行われていなければ、そのままステップS11に進む。   In the next step S7, it is determined whether or not personal identification has been performed. Here, it is determined whether or not information such as the name, age, and sex of the conversation partner with whom the robot 12 that has been determined that the behavior has changed in step S3 communicates is known. As described above, the robot 12 receives the tag ID transmitted from the wireless tag 18 possessed by the conversation partner and transmits it to the central controller 14. The central control device 14 refers to the memory 14a and acquires information such as the name, age, and sex of the conversation partner corresponding to the tag ID. However, as described above, information such as name, age, and sex may not be acquired for all or part of the information. If “YES” in the step S7, that is, if personal identification is performed, in a step S9, the name, age, sex, and the like are temporarily recorded in the buffer area of the memory 14a, and the process proceeds to the step S13. On the other hand, if “NO” in the step S7, that is, if personal identification is not performed, the process proceeds to a step S11 as it is.

ステップS11では、メモリ14aのバッファ領域に一時的に記録されたデータをビヘービア履歴記録テーブル(図4参照)に記録する。つまり、ステップS7でNOの場合には、BEFORE,VALUE,AFTERおよび場所の情報がビヘービア履歴記録テーブルに記録される。一方、ステップS7でYESの場合には、BEFORE,VALUE,AFTERおよび場所の情報に加えて、対話相手の名前、年代および性別などがビヘービア履歴記録テーブルに記録される。   In step S11, the data temporarily recorded in the buffer area of the memory 14a is recorded in the behavior history recording table (see FIG. 4). That is, in the case of NO at step S7, BEFORE, VALUE, AFTER and location information are recorded in the behavior history record table. On the other hand, if YES in step S7, the name, age, and sex of the conversation partner are recorded in the behavior history record table in addition to the BEFORE, VALUE, AFTER, and location information.

次のステップS13では、ビヘービア(行動)が遠隔操作によって変化したか否かを判断する。詳細な説明は省略するが、上述したように、中央制御装置14は、ロボット12と操作端末16(オペレータ)とを仲介するため、中央制御装置14では、操作端末16が遠隔操作中であるかどうかの情報やどの操作端末16がどのロボット12を遠隔操作しているかについての情報を管理している。したがって、今回行動履歴情報を送信してきたロボット14が遠隔操作中(遠隔操作モード)であるか否かを知ることができる。これにより、ビヘービアが遠隔操作によって変化したか否かを判断するのである。   In the next step S13, it is determined whether or not the behavior (action) has been changed by remote control. Although a detailed description is omitted, as described above, the central control device 14 mediates between the robot 12 and the operation terminal 16 (operator). Therefore, in the central control device 14, is the operation terminal 16 being operated remotely? Information about whether or not and which operation terminal 16 is remotely controlling which robot 12 is managed. Therefore, it is possible to know whether or not the robot 14 that has transmitted the action history information this time is in remote operation (remote operation mode). Thereby, it is determined whether or not the behavior has been changed by remote control.

ステップS13でNOであれば、つまりビヘービアが遠隔操作によって変化していなければ、ロボット12がオペレータによって遠隔操作されていない(自律制御モード)と判断して、そのままステップS1に戻る。一方、ステップS13でYESであれば、つまりビヘービアが遠隔操作によって変化していれば、ロボット12がオペレータによって遠隔操作されていると判断して、ステップS15で、メモリ14aのバッファ領域に一時的に記録されたデータを遠隔操作履歴記憶テーブルに記録して、ステップS1に戻る。つまり、ステップS15では、ステップS11でビヘービア履歴記憶テーブルに記録したデータを遠隔操作履歴記憶テーブルにも記録しているのである。   If “NO” in the step S13, that is, if the behavior is not changed by the remote operation, it is determined that the robot 12 is not remotely operated by the operator (autonomous control mode), and the process returns to the step S1 as it is. On the other hand, if “YES” in the step S13, that is, if the behavior is changed by the remote operation, it is determined that the robot 12 is remotely operated by the operator, and the buffer area of the memory 14a is temporarily stored in the step S15. The recorded data is recorded in the remote operation history storage table, and the process returns to step S1. That is, in step S15, the data recorded in the behavior history storage table in step S11 is also recorded in the remote operation history storage table.

図13は、データベース構築処理を示すフロー図である。図13に示すように、中央制御装置14のCPUは、データベース構築処理を実行すると、ステップS31で、中止命令が有るか否か判断する。ここでは、たとえば、中央制御装置14の管理者によって、データベース構築の中止命令の指示が入力されたか否かを判断する。ステップS31でYESであれば、つまり中止命令が有れば、データベース構築処理を終了する。一方、ステップS31でNOであれば、つまり終了指示が無ければ、ステップS33で、遠隔操作履歴記録テーブルに個人名つきの新しい履歴データが記録されたか否かを判断する。つまり、遠隔操作履歴記録テーブルに対話相手の名前を含む動作履歴情報が記録されたか否かを判断する。   FIG. 13 is a flowchart showing the database construction process. As shown in FIG. 13, when the CPU of the central control device 14 executes the database construction process, it determines whether or not there is a stop instruction in step S31. Here, for example, it is determined whether or not the administrator of the central control device 14 has input an instruction to stop the database construction. If “YES” in the step S31, that is, if there is a cancel instruction, the database construction process is ended. On the other hand, if “NO” in the step S31, that is, if there is no end instruction, it is determined whether or not new history data with a personal name is recorded in the remote operation history recording table in a step S33. That is, it is determined whether or not operation history information including the name of the conversation partner is recorded in the remote operation history recording table.

ステップS33でYESであれば、つまり遠隔操作履歴記録テーブルに個人名つきの新しい履歴データが記録されれば、ステップS37で、後述するデータセットDpから個人用ビヘービア遷移DBの構築処理(図14参照)を実行して、ステップS39に進む。一方、ステップS33でNOであれば、つまり遠隔操作履歴テーブルに個人名つきの新しい履歴データが記録されていなければ、ステップS35で、遠隔操作履歴記録テーブルに個人名なしの新しい履歴データが記録されたか否かを判断する。つまり、遠隔操作履歴記録テーブルに対話相手の名前の情報を含まない動作履歴情報が記録されたか否かを判断する。ステップS35でNOであれば、つまり遠隔操作履歴記録テーブルに個人名なしの新しい履歴データが記録されていなければ、ステップS31に戻る。一方、ステップS35でYESであれば、つまり遠隔操作履歴記録テーブルに個人名なしの履歴データが記録されれば、ステップS39に進む。   If YES in step S33, that is, if new history data with an individual name is recorded in the remote operation history recording table, in step S37, a personal behavior transition DB is constructed from a data set Dp described later (see FIG. 14). To proceed to step S39. On the other hand, if NO in step S33, that is, if new history data with an individual name is not recorded in the remote operation history table, whether new history data without an individual name is recorded in the remote operation history recording table in step S35. Judge whether or not. That is, it is determined whether or not operation history information not including information on the name of the conversation partner is recorded in the remote operation history recording table. If “NO” in the step S35, that is, if new history data without an individual name is not recorded in the remote operation history recording table, the process returns to the step S31. On the other hand, if “YES” in the step S35, that is, if history data without an individual name is recorded in the remote operation history recording table, the process proceeds to a step S39.

ステップS39では、新しい履歴データに年代および性別の情報が記録さているか否かを判断する。ステップS39でNOであれば、つまり新しい履歴データに年代および性別の情報が記録されていなければ、そのままステップS43に進む。一方、ステップS39でYESであれば、つまり新しい履歴データに年代および性別の情報が記録されていれば、ステップS41で、後述するデータセットDasから年代・性別依存ビヘービアDBの構築処理(図15参照)を実行して、ステップS43に進む。   In step S39, it is determined whether or not age and gender information is recorded in the new history data. If “NO” in the step S39, that is, if age and gender information is not recorded in the new history data, the process proceeds to a step S43 as it is. On the other hand, if YES in step S39, that is, if age and gender information is recorded in the new history data, in step S41, the construction processing of the age / gender-dependent behavior DB is performed from the data set Das described later (see FIG. 15). ) And the process proceeds to step S43.

ステップS43では、年代および性別が記録されていない履歴データが存在するか否かを判断する。ステップS43でNOであれば、つまり年代および性別が記録されていない履歴データが存在しなければ、ステップS31に戻る。一方、ステップS43でYESであれば、つまり年代および性別が記録されていない履歴データが存在すれば、ステップS45で、後述するデータセットDnから場所依存ビヘービア遷移DBの構築処理(図16参照)を実行して、ステップS31に戻る。   In step S43, it is determined whether or not there is history data in which age and gender are not recorded. If “NO” in the step S43, that is, if there is no history data in which age and gender are not recorded, the process returns to the step S31. On the other hand, if “YES” in the step S43, that is, if there is history data in which the age and the sex are not recorded, in a step S45, the process of constructing the location-dependent behavior transition DB from the data set Dn described later (see FIG. 16) is performed. Execute and return to step S31.

なお、この実施例では、新しい動作履歴情報が記録される度にデータベース構築処理(S37,S41,S45)を行うようにしてあるが、中央制御装置14のCPUの処理負荷を軽減するために、一定の時間(たとえば、3時間)が経過するか、または一定の数(たとえば、100個)の新しい動作履歴情報が記録される毎に、データベース構築処理が行われるようにしてもよい。   In this embodiment, the database construction process (S37, S41, S45) is performed every time new operation history information is recorded. However, in order to reduce the processing load on the CPU of the central controller 14, The database construction process may be performed every time a certain time (for example, 3 hours) elapses or a certain number (for example, 100) of new operation history information is recorded.

図14は、図13に示したステップS37の個人用ビヘービア遷移DBの構築処理のフロー図である。図14に示すように、中央制御装置14のCPUは、個人用ビヘービア遷移DBの構築処理を開始すると、ステップS61で、変数nを初期化する(n=1)。この、変数nは、データセットDpに含まれる個人(個人名)NNa(n=1,2,…,Na)を識別するための変数である。ただし、変数iの最大値Naは、データセットDpに含まれる人間の総人数に相当する。 FIG. 14 is a flowchart of the process of constructing the personal behavior transition DB in step S37 shown in FIG. As shown in FIG. 14, when the CPU of the central controller 14 starts the construction process of the personal behavior transition DB, the CPU initializes a variable n in step S61 (n = 1). The variable n is a variable for identifying an individual (person name) NNa n (n = 1, 2,..., Na) included in the data set Dp. However, the maximum value Na of the variable i corresponds to the total number of people included in the data set Dp.

次のステップS63では、変数nが最大値Naより大きいか否かを判断する。つまり、データセットDpに含まれるすべての個人名についての個人用ビヘービア遷移DBを構築したかどうかを判断する。ステップS63でYESであれば、すなわち、変数nが最大値Naより大きければ、図13に示したデータベース構築処理にリターンする。一方、ステップS63でNOであれば、つまり変数nが最大値Na以下であれば、ステップS65で他の変数i,j,k,pを初期化する(i=1,j=1,k=1,p=1)。ここで、変数iは、場所NL(i=1,2,…,L)を識別するための変数である。ただし、変数iの最大値Lは、データセットDpに含まれる場所の種類の総数に相当する。また、変数jは、BEFOREのコマンド名NB(j=1,2,…,B)を識別するための変数である。ただし、変数jの最大値Bは、データセットDpに含まれるBEFOREのコマンド名の種類の総数に相当する。さらに、変数kは、VALUEの戻り値NV(k=1,2,…,V)を識別するための変数である。ただし、変数kの最大値Vは、データセットDpに含まれるVALUEの戻りの最大値に相当する。さらにまた、変数pは、AFTERのコマンド名NAfp(p=1,2,…,Af)を識別するための変数である。ただし、変数pの最大値Afは、データセットDpに含まれるAFTERのコマンド名の総数に相当する。 In the next step S63, it is determined whether or not the variable n is larger than the maximum value Na. That is, it is determined whether or not personal behavior transition DBs for all personal names included in the data set Dp have been constructed. If “YES” in the step S63, that is, if the variable n is larger than the maximum value Na, the process returns to the database construction process shown in FIG. On the other hand, if NO in step S63, that is, if the variable n is equal to or less than the maximum value Na, other variables i, j, k, and p are initialized in step S65 (i = 1, j = 1, k = 1, p = 1). Here, the variable i is a variable for identifying the place NL i (i = 1, 2,..., L). However, the maximum value L of the variable i corresponds to the total number of types of places included in the data set Dp. The variable j is a variable for identifying the BEFORE command name NB j (j = 1, 2,..., B). However, the maximum value B of the variable j corresponds to the total number of types of BEFORE command names included in the data set Dp. Furthermore, the variable k is a variable for identifying the return value NV k (k = 1, 2,..., V) of VALUE. However, the maximum value V of the variable k corresponds to the maximum value of VALUE returned in the data set Dp. Furthermore, the variable p is a variable for identifying the command name NAfp (p = 1, 2,..., Af) of AFTER. However, the maximum value Af of the variable p corresponds to the total number of AFTER command names included in the data set Dp.

次のステップS67では、配列Transition[1,2,…,m][1,2,…,m][1,2,…,m][1,2,…,m]を初期化する。つまり、配列Transition[1,2,…,m][1,2,…,m][1,2,…,m][1,2,…,m]のそれぞれの配列に0を設定する。   In the next step S67, the array Transition [1, 2,..., M] [1, 2,..., M] [1, 2,. That is, 0 is set to each array of the array Transition [1, 2,..., M] [1, 2,..., M] [1, 2,.

続いて、ステップS69では、変数iが最大値Lよりも大きいか否かを判断する。つまり、すべての場所NLについて検索したかどうかを判断する。ステップS69でNOであれば、つまり変数iが最大値L以下であれば、ステップS71で、変数jが最大値Bよりも大きいか否かを判断する。つまり、すべてのBEFOREのコマンド名NBについて検索したかどうかを判断する。ステップS71でYESであれば、つまり変数jが最大値Bよりも大きければ、ステップS81で、変数iをインクリメントするとともに、変数j,変数kおよび変数pのそれぞれを初期化(i=1,k=1,p=1)して、ステップ69に戻る。一方、ステップS71でNOであれば、つまり変数jが最大値B以下であれば、ステップS73で変数kが最大値Vよりも大きいか否かを判断する。つまり、VALUEの戻り値NVが最大値を超えたかどうかを判断する。 Subsequently, in step S69, it is determined whether or not the variable i is larger than the maximum value L. That is, it is determined whether or not all the locations NL i have been searched. If “NO” in the step S69, that is, if the variable i is equal to or less than the maximum value L, it is determined whether or not the variable j is larger than the maximum value B in a step S71. That is, it is determined whether or not all BEFORE command names NB j have been searched. If “YES” in the step S71, that is, if the variable j is larger than the maximum value B, in the step S81, the variable i is incremented and the variables j, k, and p are initialized (i = 1, k). = 1, p = 1) and return to step 69. On the other hand, if “NO” in the step S71, that is, if the variable j is equal to or less than the maximum value B, it is determined whether or not the variable k is larger than the maximum value V in a step S73. That is, it is determined whether or not the return value NV k of VALUE exceeds the maximum value.

ステップS73でYESであれば、つまり変数kが最大値Vよりも大きければ、ステップS83で、変数jをインクリメントするとともに、変数kおよび変数pのそれぞれを初期化(k=1,p=1)して、ステップS71に戻る。一方、ステップS73でNOであれば、つまり変数kが最大値V以下であれば、ステップS75で、変数pが最大値Afよりも大きいか否かを判断する。つまり、すべてのAFTERのコマンド名NAfを検索したかどうかを判断する。 If “YES” in the step S73, that is, if the variable k is larger than the maximum value V, the variable j is incremented and the variables k and p are initialized in the step S83 (k = 1, p = 1). Then, the process returns to step S71. On the other hand, if “NO” in the step S73, that is, if the variable k is equal to or less than the maximum value V, it is determined whether or not the variable p is larger than the maximum value Af in a step S75. In other words, it is determined whether or not to search the name of the command NAf p of all of the AFTER.

ステップS75でYESであれば、つまり変数pが最大値Afより大きければ、ステップS85で、変数kをインクリメントするとともに、変数pを初期化(p=1)して、ステップS73に戻る。一方、ステップS75でNOであれば、つまり変数pが最大値Af以下であれば、ステップS77で、データセットDpに含まれるデータのうち、変数i,j,k,pで指定されるデータの数(個数)を配列Transition[NL][NB][NV][NAf]に対して設定し、ステップS79で、変数pをインクリメントして、ステップS75に戻る。 If “YES” in the step S75, that is, if the variable p is larger than the maximum value Af, the variable k is incremented and the variable p is initialized (p = 1) in a step S85, and the process returns to the step S73. On the other hand, if NO in step S75, that is, if the variable p is equal to or less than the maximum value Af, in step S77, of the data specified by the variables i, j, k, and p among the data included in the data set Dp. The number (number) is set for the array Transition [NL i ] [NB j ] [NV k ] [NAf p ], and in step S 79, the variable p is incremented, and the process returns to step S 75.

たとえば、変数(i,j,k,p)=(1,1,1,1)であり、この変数i,j,k,pに対応する、場所NL=外,BEFOREのコマンド名NB=AKUSHU,VALUEの戻り値NV=1(握手された),AFTERのコマンド名NAfp=NAMEであり、データセットDpをサーチした結果、このようなビヘービアの遷移についてのデータの個数が20個見つかった場合には、ステップS77では、配列Transition[NL][NB][NV][NAf]に「20」が設定される。 For example, the variable (i, j, k, p) = ( 1, 1, 1, 1 ), and the location NL 1 corresponding to the variable i, j, k, p = outside, the command name NB 1 of BEFORE = AKUSHU, VALUE return value NV 1 = 1 (shake hand), AFTER command name NAfp 1 = NAME, and as a result of searching the data set Dp, the number of data regarding such behavior transition is 20 If found, in step S77, “20” is set in the array Transition [NL 1 ] [NB 1 ] [NV 1 ] [NAf 1 ].

つまり、ステップS77では、中央制御装置14のCPUは、データセットDpを先頭から末尾までサーチし、変数i,j,k,pで決定されるビヘービアの遷移すなわち配列Transition[NL][NB][NV][NAf]と一致するビヘービアの遷移についてのデータを検出するたびに、当該配列Transition[NL][NB][NV][NAf]に対応する回数(Count)を1加算する。 That is, in step S77, the CPU of the central controller 14 searches the data set Dp from the head to the tail, and changes the behavior determined by the variables i, j, k, and p, that is, the array Transition [NL i ] [NB j. ] [NV k ] [NAf p ], the number of times corresponding to the sequence Transition [NL i ] [NB j ] [NV k ] [NAf p ] each time (Count) is detected. 1 is added.

なお、すべての配列Transition[NL][NB][NV][NAf]についてサーチするため、データセットDpに存在しない配列Transition[NL][NB][NV][NAf]も存在する。かかる場合の回数は「0」である。回数が「0」であるデータに関しては、その後のロボット12の自律制御に利用されることがないため、図9に示したように、個人用ビヘービア遷移DB(年代・性別依存ビヘービア遷移DBと場所依存ビヘービア遷移DBも同様。)では、回数が「0」のビヘービアの遷移についてのデータは削除してある。 Incidentally, all of the sequences Transition [NL i] [NB j ] [NV k] for searching for [NAf p], sequences not present in the data set Dp Transition [NL i] [NB j] [NV k] [NAf p ] Is also present. The number of times in this case is “0”. Since the data whose number is “0” is not used for the subsequent autonomous control of the robot 12, as shown in FIG. 9, the personal behavior transition DB (the age / gender-dependent behavior transition DB and the location) are used. The same applies to the dependent behavior transition DB), in which the data regarding the behavior transition with the number of times “0” is deleted.

図14に戻って、ステップS69でYESであれば、つまり変数iが最大値Lよりも大きければ、ステップS87で、配列Transition[1,2,…,m][1,2,…,m][1,2,…,m][1,2,…,m]の値をテーブルNNaに書き込む。ここで、テーブルNNaとは、変数nで指定される個人名(個人)のテーブルを意味する。たとえば、n=1で指定される個人名が山田一郎である場合に、テーブルNNa1は、山田一郎の個人用ビヘービア遷移DBである。そして、次のステップS89では、変数nをインクリメントして、ステップS63に戻る。つまり、次の(山田一郎とは別の)個人名についての個人用ビヘービア遷移DBの構築処理に移る。 Returning to FIG. 14, if YES in step S69, that is, if the variable i is larger than the maximum value L, in step S87, the array Transition [1, 2,..., M] [1, 2,. [1,2, ..., m] [ 1,2, ..., m] writes the value of the table NNa n. Here, the table NNa n means a table of personal names (individuals) specified by the variable n. For example, when the personal name designated by n = 1 is Ichiro Yamada, the table NNa 1 is the personal behavior transition DB for Ichiro Yamada. In the next step S89, the variable n is incremented and the process returns to step S63. That is, the process proceeds to the construction process of the personal behavior transition DB for the next personal name (different from Ichiro Yamada).

図15は、図13に示したステップS41の年代・性別依存ビヘービア遷移DBの構築処理を示すフロー図である。なお、この年代・性別依存ビヘービア遷移DBの構築処理は、上述した個人用ビヘービア遷移DBの構築処理とほぼ同じであるため、同様の処理については簡単に説明することにする。   FIG. 15 is a flowchart showing the construction processing of the age / sex dependent behavior transition DB in step S41 shown in FIG. Since the construction process of the age / gender-dependent behavior transition DB is almost the same as the construction process of the personal behavior transition DB described above, the same process will be briefly described.

図15に示すように、中央制御装置14のCPUは、年代・性別依存ビヘービア遷移DBの構築処理を開始すると、ステップS101で、変数age,sexを初期化する(age=1,sex=1)。この変数ageは、データセットDasに含まれる年代NAgage(age=1,2)を識別するための変数である。この実施例では、年代を子どもと大人と分類してあるため、変数ageは1(子ども)または2(大人)である。また、変数sexは、データセットDasに含まれる性別NSsex(sex=1,2)を識別するための変数である。この実施例では、性別を男性と女性とに分類してあるため、変数sexは1(男性)または2(女性)である。 As shown in FIG. 15, when the CPU of the central control device 14 starts the construction process of the age / gender-dependent behavior transition DB, the variables age and sex are initialized (age = 1, sex = 1) in step S101. . This variable age is a variable for identifying the chronological NAg age (age = 1,2) included in the data set Das. In this embodiment, since the age is classified as a child and an adult, the variable age is 1 (child) or 2 (adult). The variable sex is a variable for identifying the gender NSsex (sex = 1, 2) included in the data set Das. In this embodiment, since the sex is classified into male and female, the variable sex is 1 (male) or 2 (female).

次のステップS103では、変数sexが最大値2より大きいか否かを判断する。つまり、データセットDasに含まれる男性と女性との両方について検索したかどうかを判断する。ステップS103でNOであれば、つまり変数sexが最大値2以下であれば、ステップS109に進む。一方、ステップS103でYESであれば、つまり変数sexが最大値2よりも大きければ、ステップS105で、変数ageをインクリメントするとともに、変数sexを初期化して(sex=1)、ステップS107で、変数ageが最大値2よりも大きいか否かを判断する。つまり、データセットDasに含まれる子どもと大人との両方について検索したかどうかを判断する。ステップS107でYESであれば、つまり変数ageが最大値2よりも大きければ、図13に示したデータベース構築処理にリターンする。一方、ステップS107でNOであれば、つまり変数ageが最大値2以下であれば、ステップS109に進む。   In the next step S103, it is determined whether or not the variable sex is larger than the maximum value 2. That is, it is determined whether or not both men and women included in the data set Das have been searched. If “NO” in the step S103, that is, if the variable “sex” is equal to or less than the maximum value 2, the process proceeds to a step S109. On the other hand, if YES in step S103, that is, if the variable sex is larger than the maximum value 2, in step S105, the variable age is incremented and the variable sex is initialized (sex = 1), and in step S107, the variable It is determined whether or not age is larger than the maximum value 2. That is, it is determined whether or not both the child and the adult included in the data set Das have been searched. If “YES” in the step S107, that is, if the variable “age” is larger than the maximum value 2, the process returns to the database construction process shown in FIG. On the other hand, if NO in step S107, that is, if the variable age is the maximum value 2 or less, the process proceeds to step S109.

また、ステップS109では、変数i,j,k,pを初期化する(i=1,j=1,k=1,p=1)。なお、変数i,j,k,pは、いずれも上述の個人用ビヘービア遷移DB構築処理(図14参照)で説明したため、重複した説明は省略する。次のステップS111では、配列Transtion[1,2,…,m][1,2,…,m][1,2,…,m][1,2,…,m]を初期化する。次のステップS113では、変数iが最大値Lよりも大きいか否かを判断する。ステップS113でNOであれば、つまり変数iが最大値L以下であれば、ステップS115で変数jが最大値Bよりも大きいか否かを判断する。ステップS115でYESであれば、つまり変数jが最大値Bよりも大きければ、ステップS125で、変数iをインクリメントするとともに、変数j,変数kおよび変数pのそれぞれを初期化して、ステップ113に戻る。一方、ステップS115でNOであれば、つまり変数jが最大値B以下であれば、ステップS117で、変数kが最大値Vよりも大きいか否かを判断する。   In step S109, variables i, j, k, and p are initialized (i = 1, j = 1, k = 1, p = 1). Since the variables i, j, k, and p are all described in the above-described personal behavior transition DB construction process (see FIG. 14), redundant description is omitted. In the next step S111, the array Transition [1,2, ..., m] [1,2, ..., m] [1,2, ..., m] [1,2, ..., m] is initialized. In the next step S113, it is determined whether or not the variable i is larger than the maximum value L. If “NO” in the step S113, that is, if the variable i is equal to or less than the maximum value L, it is determined whether or not the variable j is larger than the maximum value B in a step S115. If “YES” in the step S115, that is, if the variable j is larger than the maximum value B, the variable i is incremented in the step S125, and each of the variable j, the variable k, and the variable p is initialized, and the process returns to the step 113. . On the other hand, if “NO” in the step S115, that is, if the variable j is equal to or less than the maximum value B, it is determined whether or not the variable k is larger than the maximum value V in a step S117.

ステップS117でYESであれば、つまり変数kが最大値Vよりも大きければ、ステップS127で、変数jをインクリメントするとともに、変数kおよび変数pのそれぞれを初期化して、ステップS115に戻る。一方、ステップS117でNOであれば、つまり変数kが最大値以下であれば、ステップS119で、変数pが最大値Afよりも大きいか否かを判断する。ステップS119でYESであれば、つまり変数pが最大値Afよりも大きければ、ステップS129で、変数kをインクリメントするとともに、変数pを初期化して、ステップS117に戻る。一方、ステップS119でNOであれば、つまり変数pが最大値Af以下であれば、ステップS121で、データセットDasに含まれるデータのうち、変数i,j,k,pで指定されるデータの数を、配列Transition[NL][NB][NV][NAf]に設定する。そして、ステップS123で、変数pをインクリメントして、ステップS119に戻る。 If “YES” in the step S117, that is, if the variable k is larger than the maximum value V, the variable j is incremented in the step S127, and each of the variable k and the variable p is initialized, and the process returns to the step S115. On the other hand, if “NO” in the step S117, that is, if the variable k is equal to or less than the maximum value, it is determined whether or not the variable p is larger than the maximum value Af in a step S119. If “YES” in the step S119, that is, if the variable p is larger than the maximum value Af, the variable k is incremented and the variable p is initialized in a step S129, and the process returns to the step S117. On the other hand, if NO in step S119, that is, if the variable p is equal to or less than the maximum value Af, in step S121, of the data specified by the variables i, j, k, and p among the data included in the data set Das. The number is set in the array Transition [NL i ] [NB j ] [ N k k ] [NAf p ]. In step S123, the variable p is incremented, and the process returns to step S119.

また、ステップS113でYESであれば、つまり変数iが最大値Lよりも大きければ、ステップS131で、配列Transition[1,2,…,m][1,2,…,m][1,2,…,m][1,2,…,m]の値をテーブルNAgageNSsexに書き込む。ここで、テーブルNAgageNSsexは変数ageおよび変数sexで指定する年代および性別のテーブルを意味する。たとえば、変数(age,sex)=(1,1)であれば、テーブルNAgNSは、子どもの男性についての年代・性別依存ビヘービア遷移DBを意味する。次のステップS133では、変数sexをインクリメントし、ステップS103に戻る。つまり、次の性別(女性)についての年代・性別依存ビヘービア遷移DBの構築処理に移行する。 If YES in step S113, that is, if the variable i is greater than the maximum value L, in step S131, the array Transition [1, 2,..., M] [1, 2,. , ..., m] [1,2, ..., writes the value of m] in table NAg age NS sex. Here, table NAg age NS sex refers to the age and sex of the table is specified by the variable age and variable sex. For example, if the variable (age, sex) = (1, 1), the table NAg 1 NS 1 means the age / gender-dependent behavior transition DB for the male child. In the next step S133, the variable sex is incremented, and the process returns to step S103. That is, the process proceeds to the construction process of the age / gender-dependent behavior transition DB for the next gender (female).

図16は、図13に示したステップS45の場所依存ビヘービア遷移DBの構築処理を示すフロー図である。なお、この図16に示す場所依存ビヘービア遷移DBの構築処理も、上述した個人用ビヘービア遷移DBの構築処理とほぼ同じであるため、同様の処理については簡単に説明することにする。   FIG. 16 is a flowchart showing the construction processing of the location-dependent behavior transition DB in step S45 shown in FIG. The location-dependent behavior transition DB construction process shown in FIG. 16 is substantially the same as the above-described personal behavior transition DB construction process, and therefore the same process will be briefly described.

図16に示すように、中央制御装置14のCPUは、場所依存ビヘービア遷移DBの構築処理を開始すると、ステップS201で、変数iを初期化する(i=1)。なお、変数iについては、上述してあるため、重複した説明は省略する。次のステップS203では、変数iが最大値Lより大きいか否かを判断する。   As shown in FIG. 16, when the CPU of the central control device 14 starts the location-dependent behavior transition DB construction process, in step S201, the CPU initializes a variable i (i = 1). Since the variable i has been described above, a duplicate description is omitted. In the next step S203, it is determined whether or not the variable i is larger than the maximum value L.

ステップS203でYESであれば、つまり変数iが最大値Lよりも大きければ、すべての場所についての場所依存ビヘービア遷移DBを構築したと判断して、図13に示したデータベース構築処理にリターンする。一方、ステップS203でNOであれば、つまり変数iが最大値L以下であれば、ステップS205で、他の変数j,k,pを初期化する(j=1,k=1,p=1)。この変数j,k,pについても上述してあるため、重複した説明は省略する。次のステップS207では、配列TranstionL[1,2,…,m][1,2,…,m][1,2,…,m]を初期化する。つまり、配列TranstionL[1,2,…,m][1,2,…,m][1,2,…,m]のそれぞれの配列に0を設定する。   If “YES” in the step S203, that is, if the variable i is larger than the maximum value L, it is determined that the place-dependent behavior transition DBs for all the places are constructed, and the process returns to the database construction process shown in FIG. On the other hand, if NO in step S203, that is, if the variable i is equal to or less than the maximum value L, in step S205, other variables j, k, and p are initialized (j = 1, k = 1, p = 1). ). Since the variables j, k, and p are also described above, a duplicate description is omitted. In the next step S207, the array TransitionL [1,2, ..., m] [1,2, ..., m] [1,2, ..., m] is initialized. That is, 0 is set to each array of the array TransitionL [1,2, ..., m] [1,2, ..., m] [1,2, ..., m].

続いて、ステップS209では、変数jが最大値Bよりも大きいか否かを判断する。ステップS209でNOであれば、つまり変数jが最大値B以下であれば、ステップS211で、変数kが最大値Vよりも大きいか否かを判断する。ステップS211でYESであれば、つまり変数kが最大値Vより大きければ、ステップS219で、変数jをインクリメントするとともに、変数kおよび変数pを初期化して、ステップS209に戻る。一方、ステップS211でNOであれば、つまり変数kが変数Vより大きくなければ、ステップS213で変数pが最大値Afよりも大きいか否かを判断する。   Subsequently, in step S209, it is determined whether or not the variable j is larger than the maximum value B. If “NO” in the step S209, that is, if the variable j is equal to or less than the maximum value B, it is determined whether or not the variable k is larger than the maximum value V in a step S211. If “YES” in the step S211, that is, if the variable k is larger than the maximum value V, the variable j is incremented and the variables k and p are initialized in a step S219, and the process returns to the step S209. On the other hand, if “NO” in the step S211, that is, if the variable k is not larger than the variable V, it is determined whether or not the variable p is larger than the maximum value Af in a step S213.

ステップS213でYESであれば、つまり変数pが最大値Afよりも大きければ、ステップS221で、変数kをインクリメントするとともに、変数pを初期化して、ステップS211に戻る。一方、ステップS213でNOであれば、つまり変数pが最大値Af以下であれば、ステップS215で、データセットDnに含まれるデータのうち、変数j,k,pで指定されるデータの数(個数)を、配列TransitionL[NB][NV][NAf]に設定する。次のステップS217では、変数pをインクリメントして、ステップS213に戻る。 If “YES” in the step S213, that is, if the variable p is larger than the maximum value Af, the variable k is incremented and the variable p is initialized in a step S221, and the process returns to the step S211. On the other hand, if NO in step S213, that is, if the variable p is equal to or less than the maximum value Af, in step S215, the number of data specified by the variables j, k, and p among the data included in the data set Dn ( Number) is set in the array TransitionL [NB j ] [NV k ] [NAf p ]. In the next step S217, the variable p is incremented and the process returns to step S213.

また、ステップS209でYESであれば、つまり変数jが最大値Bよりも大きければ、ステップS223で、配列TranstionL[1,2,…,m][1,2,…,m][1,2,…,m]の値をテーブルNLに書き込み、ステップS225で、変数iをインクリメントして、ステップS203に戻る。ただし、ステップS223におけるテーブルNLは、変数iで指定する場所についてのテーブルを意味する。たとえば、i=1で指定する場所が「外」である場合に、テーブルNLは、場所が「外」である場合についてのテーブルを意味する。つまり、場所依存ビヘービア遷移DBには、変数iの最大値Lで示される個数分の(場所毎の)テーブルが記憶される。 If YES in step S209, that is, if the variable j is larger than the maximum value B, in step S223, the array TransitionL [1,2,..., M] [1,2,. ,..., M] are written to the table NL i , the variable i is incremented in step S225, and the process returns to step S203. However, the table NL i in step S223 means a table for the location specified by the variable i. For example, when the place designated by i = 1 is “outside”, the table NL 1 means a table for the case where the place is “outside”. That is, the place-dependent behavior transition DB stores as many tables (for each place) as the maximum value L of the variable i.

図17は、図1に示したロボット12のCPU80の全体処理を示すフロー図である。図17に示すように、ロボット12のCPU80は、全体処理を実行すると、ステップS301で、停止命令が有るか否かを判断する。ここでは、オペレータからの停止命令が入力されたか否かを判断する。ステップS301でYESであれば、つまり停止命令が有れば、ロボット12の全体処理を終了する。一方、ステップS301でNOであれば、つまり停止命令が無ければ、ステップS303で、個人を特定できたか否かを判断する。   FIG. 17 is a flowchart showing the overall processing of the CPU 80 of the robot 12 shown in FIG. As shown in FIG. 17, when executing the entire process, the CPU 80 of the robot 12 determines whether or not there is a stop command in step S301. Here, it is determined whether or not a stop command is input from the operator. If “YES” in the step S301, that is, if there is a stop command, the entire processing of the robot 12 is ended. On the other hand, if “NO” in the step S301, that is, if there is no stop command, it is determined whether or not an individual can be specified in a step S303.

ここでは、たとえば、ロボット12は、対話相手が所持する無線タグ18のタグIDを検出し、検出したタグIDを中央制御装置14に送信する。中央制御装置14は、タグIDを受信すると、メモリ14aに記憶された個人名,年代(年齢)および性別に関するデータベース(図示せず)を参照して、タグIDに対応する個人名,年代,性別の情報を検出する。そして、中央制御装置14は、検索した結果を、ロボット12に送信する。このとき、ロボット12は、中央制御装置14から送信された情報に個人名が含まれている場合に、個人を特定できたと判断する。ただし、メモリ14aに、タグIDに対応して個人名,年代,性別のいずれの情報も登録されていない場合には、中央制御装置14は、情報が無い旨のメッセージをロボット12に送信する。   Here, for example, the robot 12 detects the tag ID of the wireless tag 18 possessed by the conversation partner, and transmits the detected tag ID to the central control device 14. When the central control unit 14 receives the tag ID, the central control unit 14 refers to a database (not shown) relating to the personal name, age (age), and gender stored in the memory 14a, and identifies the personal name, age, gender corresponding to the tag ID. Detect information. Then, the central controller 14 transmits the search result to the robot 12. At this time, the robot 12 determines that the individual has been identified when the personal name is included in the information transmitted from the central control device 14. However, if any information of personal name, age, and gender is not registered in the memory 14a corresponding to the tag ID, the central control device 14 transmits a message to the robot 12 that there is no information.

ステップS303でYESであれば、つまり個人を特定できれば、ステップS305で、利用するDBを個人用ビヘービア遷移DBに設定して、図18に示すステップS313に進む。ただし、ここで利用する個人用ビヘービア遷移DBは、特定された個人についてのDBである。一方、ステップS303でNOであれば、つまり個人を特定できなければ、ステップS307で、年代および性別の情報を取得できたか否かを判断する。つまり、中央制御装置14から送信された情報に、個人名は含まれていないが、年代および性別が含まれているか否かを判断する。   If “YES” in the step S303, that is, if an individual can be specified, the DB to be used is set in the personal behavior transition DB in a step S305, and the process proceeds to a step S313 shown in FIG. However, the personal behavior transition DB used here is a DB for the identified individual. On the other hand, if “NO” in the step S303, that is, if an individual cannot be specified, it is determined whether or not age and gender information can be acquired in a step S307. That is, it is determined whether the information transmitted from the central control device 14 does not include an individual name, but includes age and gender.

ステップS307でYESであれば、つまり年代および性別の情報を取得できれば、ステップS309で、利用するDBを年代・性別依存ビヘービアDBに設定して、ステップS313に進む。ただし、ここで利用する年代・性別依存ビヘービアDBは、取得された年代および性別についてのDBである。一方、ステップS307でNOあれば、つまり年代および性別の情報を取得できなければ、ステップS311で、利用するDBを場所依存ビヘービア遷移DBに設定して、ステップS313に進む。ただし、ここで利用する場所依存ビヘービア遷移DBは、対話相手(ロボット12)が現在存在する場所についてのDBである。詳細な説明は省略するが、このロボット12が現在存在する場所は、ロボット制御システム10の使用者等によって予め設定され、ロボット12内部のメモリ(図示せず)に記憶される。そして、中制御装置14には、ロボット12内部のメモリに記憶された場所の情報が、履歴データとともに送信される。   If “YES” in the step S307, that is, if age and gender information can be acquired, the DB to be used is set as the age / gender dependent behavior DB in a step S309, and the process proceeds to the step S313. However, the age / gender-dependent behavior DB used here is a DB for the acquired age and sex. On the other hand, if NO in step S307, that is, if age and gender information cannot be acquired, the DB to be used is set as the location-dependent behavior transition DB in step S311, and the process proceeds to step S313. However, the location-dependent behavior transition DB used here is a DB for a location where the conversation partner (robot 12) currently exists. Although a detailed description is omitted, the location where the robot 12 currently exists is preset by a user of the robot control system 10 and stored in a memory (not shown) inside the robot 12. Then, the location information stored in the memory inside the robot 12 is transmitted to the middle control device 14 together with the history data.

図18に示すステップS313では、現在のビヘービアとVALUEとに対応するデータがDBに存在するか否かを判断する。つまり、ロボット12が対話相手に行うコミュニケーション行動についてのコマンド名がBEFOREの欄に記述されるとともに、そのコミュニケーション行動に対する対話相手の行動が示す戻り値がVALUEの欄に記述されているデータが設定したDB内に存在するか否かを判断する。ステップS313でNOであれば、つまり現在のビヘービアとVALUEとに対応するデータがDBに存在しなければ、ステップS315で、オペレータを呼び出し、ステップS317で、遠隔操作処理を実行する。つまり、遠隔操作モードに切り替えられる。たとえば、ロボット12は、オペレータの呼出信号を中央制御装置14に送信し、中央制御装置14によって選択されたオペレータが操作端末16を操作することにより、遠隔操作される。なお、遠隔操作処理を終了すると、ステップS329で、履歴データを中央制御装置14に送信して、ステップS301に戻る。   In step S313 shown in FIG. 18, it is determined whether or not data corresponding to the current behavior and VALUE exists in the DB. That is, the command name for the communication action performed by the robot 12 for the conversation partner is described in the BEFORE field, and the return value indicated by the conversation partner action for the communication action is set in the data described in the VALUE field. It is determined whether or not it exists in the DB. If “NO” in the step S313, that is, if the data corresponding to the current behavior and VALUE does not exist in the DB, the operator is called in a step S315, and the remote operation process is executed in a step S317. That is, it can be switched to the remote operation mode. For example, the robot 12 is remotely operated by transmitting an operator call signal to the central control device 14 and operating the operation terminal 16 by the operator selected by the central control device 14. When the remote operation process is finished, the history data is transmitted to the central controller 14 in step S329, and the process returns to step S301.

また、ステップS313でYESであれば、つまり現在のビヘービアとVALUEとに対応するデータがDBに存在すれば、ステップS319で、そのデータに対応するCOUNTが一定数X(たとえば、30)より大きいか否かを判断する。ステップS319でYESであれば、つまりCOUNTの値が一定数Xよりも大きければ、そのままステップS323に進む。一方、ステップS319でNOであれば、つまりCOUNTの値が一定数X以下であれば、ステップS321で、COUNTの値の割合がY(たとえば、30)%より大きいか否かを判断する。ただし、COUNTの値の割合は、設定されたDBに記述されたCOUNTの総数に対する当該データに記述されたCOUNTが示す数の割合である。   If YES in step S313, that is, if data corresponding to the current behavior and VALUE exists in the DB, is COUNT corresponding to the data larger than a certain number X (for example, 30) in step S319? Judge whether or not. If “YES” in the step S319, that is, if the value of the COUNT is larger than the predetermined number X, the process proceeds to a step S323 as it is. On the other hand, if NO in step S319, that is, if the value of COUNT is equal to or smaller than a certain number X, it is determined in step S321 whether the ratio of the value of COUNT is greater than Y (for example, 30)%. However, the ratio of the value of COUNT is the ratio of the number indicated by COUNT described in the data to the total number of COUNT described in the set DB.

ステップS321でNOであれば、つまりCOUNTの値の割合がY%以下であれば、ステップS315に進む。一方、ステップS321でYESであれば、つまりCOUNTの値の割合がY%よりも大きければ、自律制御モードに切り替えられ、ステップS323で、対応する遷移情報をDBから取得する。具体的には、ステップS319またはS321でYESと判断されたデータのAFTERに記述されたコマンド名を取得する。そして、ステップS325では、ステップS323で取得した遷移情報(ここでは、AFTERのコマンド名)に従い動作を決定する。図示は省略するが、ここでは、決定されたコマンド名に従うコミュニケーション行動(ビヘービア)が実行される。   If “NO” in the step S321, that is, if the ratio of the value of the COUNT is equal to or less than Y%, the process proceeds to a step S315. On the other hand, if “YES” in the step S321, that is, if the ratio of the value of the COUNT is larger than Y%, the mode is switched to the autonomous control mode, and corresponding transition information is acquired from the DB in a step S323. Specifically, the command name described in the AFTER of the data determined as YES in step S319 or S321 is acquired. In step S325, the operation is determined in accordance with the transition information (here, the command name of AFTER) acquired in step S323. Although illustration is omitted, here, a communication action (behavior) according to the determined command name is executed.

次のステップS327では、動作が終了したか否かを判断する。つまり、ロボット12が、ステップS325で決定された動作(コミュニケーション行動)を終了したか否かを判断する。ステップS327でNOであれば、つまり動作が終了していなければ、ステップS327に戻って、動作が終了するのを待機する。一方、ステップS327でYESであれば、つまり動作が終了すれば、ステップS329に進む。   In the next step S327, it is determined whether or not the operation is finished. That is, it is determined whether or not the robot 12 has finished the operation (communication behavior) determined in step S325. If “NO” in the step S327, that is, if the operation is not finished, the process returns to the step S327 and waits for the operation to be finished. On the other hand, if “YES” in the step S327, that is, if the operation is finished, the process proceeds to a step S329.

この実施例によれば、遠隔操作による動作履歴情報に基づいて個人名、年代および性別、場所のような環境に応じたデータベースを作成し、いずれかのデータベースを参照して、コミュニケーション行動を決定するので、オペレータの操作なしに自律行動する機会を増加させることができる。このため、オペレータが遠隔操作する回数や頻度を出切るだけ低減することができる。   According to this embodiment, a database corresponding to an environment such as an individual name, age and gender, and location is created based on operation history information by remote operation, and communication behavior is determined by referring to any database. Therefore, the opportunity to autonomously operate without the operator's operation can be increased. For this reason, it is possible to reduce the number and frequency of remote operations by the operator as much as possible.

なお、この実施例では、個人用ビヘービア遷移DB,年代・性別依存ビヘービア遷移DBおよび場所依存ビヘービア遷移DBを作成し、これらを選択的に利用するため、たとえば、異なる場所にこのロボット制御システム(ロボット)が配置される場合であっても、ロボットは、特定に個人や特定の年代・個人に応じたサービスを提供することができ、また、個人や年代・性別を知ることができなくても、場所毎に適切なサービスを提供することができる。   In this embodiment, the personal behavior transition DB, the age / gender-dependent behavior transition DB, and the location-dependent behavior transition DB are created and used selectively. For example, the robot control system (robot) ), The robot can provide a service specific to an individual or a specific age / individual, and even if the person / age / gender cannot be known, An appropriate service can be provided for each place.

また、この実施例では、ロボットは、対話相手の個人名等の情報を中央制御装置に問い合わせるようにしてあるが、中央制御装置のメモリに記憶された個人名,年代(年齢)および性別に関するデータベースと同様のデータベースをロボットのメモリに記憶しておいて、ロボット自身で、個人名,年代,性別の情報を取得できるようにしてもよい。   In this embodiment, the robot inquires the central control unit about information such as the personal name of the conversation partner, but a database relating to the personal name, age (age) and gender stored in the memory of the central control unit. A database similar to the above may be stored in the memory of the robot so that the robot itself can acquire information on the personal name, age, and sex.

図1はこの発明の一実施例のロボット制御システムの概要を示す図解図である。FIG. 1 is an illustrative view showing an outline of a robot control system according to an embodiment of the present invention. 図2は図1に示すロボットの外観を正面から見た図解図である。FIG. 2 is an illustrative view showing the appearance of the robot shown in FIG. 1 from the front. 図3は図1に示すロボットの電気的な構成を示すブロック図である。FIG. 3 is a block diagram showing an electrical configuration of the robot shown in FIG. 図4は図1に示す中央制御装置のメモリに記憶されるビヘービア履歴記録テーブルの一例を示す図解図である。FIG. 4 is an illustrative view showing one example of a behavior history record table stored in the memory of the central controller shown in FIG. 図5は図1に示す中央制御装置のメモリに記憶される遠隔操作履歴記録テーブルの一例を示す図解図である。FIG. 5 is an illustrative view showing one example of a remote operation history record table stored in the memory of the central control unit shown in FIG. 図6は、図1に示す中央制御装置のメモリに記憶される遠隔操作履歴記録テーブルから個人の名前が記録された動作履歴情報を抽出したデータセットの一例を示す図解図である。FIG. 6 is an illustrative view showing one example of a data set obtained by extracting operation history information in which an individual's name is recorded from a remote operation history recording table stored in a memory of the central controller shown in FIG. 図7は、図1に示す中央制御装置のメモリに記憶される遠隔操作履歴記録テーブルから年齢および性別が記録された動作履歴情報を抽出したデータセットの一例を示す図解図である。FIG. 7 is an illustrative view showing one example of a data set obtained by extracting operation history information in which age and sex are recorded from the remote operation history recording table stored in the memory of the central control unit shown in FIG. 図8は、図1に示す中央制御装置のメモリに記憶される遠隔操作履歴記録テーブルから場所が記録された動作履歴情報を抽出したデータセットの一例を示す図解図である。FIG. 8 is an illustrative view showing one example of a data set obtained by extracting operation history information in which a place is recorded from a remote operation history recording table stored in the memory of the central control unit shown in FIG. 図9は図1に示す中央制御装置のメモリに記憶される個人用ビヘービア遷移DBの一例を示す図解図である。FIG. 9 is an illustrative view showing one example of a personal behavior transition DB stored in the memory of the central controller shown in FIG. 図10は図1に示す中央制御装置のメモリに記憶される年代・性別依存ビヘービア遷移DBの一例を示す図解図である。FIG. 10 is an illustrative view showing one example of an age / gender dependent behavior transition DB stored in the memory of the central controller shown in FIG. 図11は図1に示す中央制御措置のメモリに記憶される場所依存ビヘービア遷移DBの一例を示す図解図である。FIG. 11 is an illustrative view showing one example of a location-dependent behavior transition DB stored in the memory of the central control measure shown in FIG. 図12は図1に示す中央制御措置のCPUの履歴記憶処理を示すフロー図である。FIG. 12 is a flowchart showing the history storage processing of the CPU of the central control measure shown in FIG. 図13は図1に示す中央制御措置のCPUのデータベース構築処理を示すフロー図である。FIG. 13 is a flowchart showing database construction processing of the CPU of the central control measure shown in FIG. 図14は図1に示す中央制御措置のCPUの個人用ビヘービア遷移DBの構築処理を示すフロー図である。FIG. 14 is a flowchart showing the construction process of the personal behavior transition DB of the CPU of the central control measure shown in FIG. 図15は図1に示す中央制御措置のCPUの年代・性別依存ビヘービア遷移DBの構築処理を示すフロー図である。FIG. 15 is a flowchart showing the construction process of the age / gender-dependent behavior transition DB of the CPU of the central control measure shown in FIG. 図16は図1に示す中央制御措置のCPUの場所依存ビヘービア遷移DBの構築処理を示すフロー図である。FIG. 16 is a flowchart showing the construction process of the location-dependent behavior transition DB of the CPU of the central control measure shown in FIG. 図17は図1に示すロボットのCPUの自律制御処理を示すフロー図である。FIG. 17 is a flowchart showing the autonomous control processing of the CPU of the robot shown in FIG. 図18は図1に示すロボットのCPUの自律制御処理の他の一部であって、図17に後続するフロー図である。18 is another part of the autonomous control processing of the CPU of the robot shown in FIG. 1, and is a flowchart subsequent to FIG.

符号の説明Explanation of symbols

10 …ロボット制御システム
12 …ロボット
14 …中央制御装置
14a …メモリ
16 …操作端末
18 …無線タグ
64 …スピーカ
66 …マイク
80 …CPU
82 …バス
84 …メモリ
88 …センサ入力/出力ボード
90 …音声入力/出力ボード
102 …通信LANボード
104 …無線通信装置
106 …無線タグ読取装置
200 …ネットワーク
DESCRIPTION OF SYMBOLS 10 ... Robot control system 12 ... Robot 14 ... Central controller 14a ... Memory 16 ... Operation terminal 18 ... Wireless tag 64 ... Speaker 66 ... Microphone 80 ... CPU
82 ... Bus 84 ... Memory 88 ... Sensor input / output board 90 ... Voice input / output board 102 ... Communication LAN board 104 ... Wireless communication device 106 ... Wireless tag reader 200 ... Network

Claims (7)

遠隔操作または自律制御により、人間との間で身体動作および音声の少なくとも一方によるコミュニケーション行動を行うロボットと、ネットワークを介して前記ロボットの遠隔操作を行う操作端末と、前記ネットワークを介して前記ロボットと前記操作端末とを仲介する中央制御装置とを備える、ロボット制御システムにおいて、
前記ロボットは、
前記操作端末からの遠隔操作に従ってコミュニケーション行動を実行する遠隔操作モードと、コミュニケーションの状況に応じたコミュニケーション行動についてのデータベースを参照して自律制御によるコミュニケーション行動を実行する自律制御モードとを切り替える切替手段、および
前記切替手段によって切り替えられた前記遠隔操作モードまたは前記自律制御モードにおけるコミュニケーション行動についての動作履歴情報を中央制御装置に送信する送信手段を備え、
前記中央制御装置は、
前記送信手段によって送信された動作履歴情報を受信する受信手段、
前記受信手段によって受信された動作履歴情報についてのコミュニケーション行動が遠隔操作によって実行されたかどうかを判断する判断手段、
前記判断手段によって前記遠隔操作であることが判断された前記動作履歴情報を記憶装置に記憶する記憶手段、および
前記記憶手段によって記憶された遠隔操作による前記動作履歴情報に基づいて前記データベースを構築する構築手段を備えることを特徴とする、ロボット制御システム。
A robot that performs communication with humans through at least one of body movement and voice by remote control or autonomous control, an operation terminal that performs remote control of the robot via a network, and the robot via the network In a robot control system comprising a central controller that mediates the operation terminal,
The robot is
Switching means for switching between a remote operation mode for executing a communication action in accordance with a remote operation from the operation terminal and an autonomous control mode for executing a communication action by autonomous control with reference to a database of communication actions according to the communication situation; And transmission means for transmitting operation history information about communication behavior in the remote operation mode or the autonomous control mode switched by the switching means to a central control device,
The central controller is
Receiving means for receiving the operation history information transmitted by the transmitting means;
A judging means for judging whether or not a communication action about the operation history information received by the receiving means has been executed by remote operation;
Storage means for storing the operation history information determined to be the remote operation by the determination means in a storage device, and constructing the database based on the operation history information by the remote operation stored by the storage means A robot control system comprising a construction means.
前記中央制御装置は、前記ロボットがコミュニケーション行動を実行する対象である人間の属性情報を取得する属性情報取得手段をさらに備え、
前記構築手段は、前記属性情報に応じた前記データベースを構築する、請求項1のロボット制御システム。
The central control device further includes attribute information acquisition means for acquiring attribute information of a human who is a target on which the robot performs a communication action,
The robot control system according to claim 1, wherein the construction unit constructs the database according to the attribute information.
前記属性情報は、前記人間の名称の情報を含み、
前記構築手段は、前記人間の名称の情報が示す名称毎に前記データベースを構築する、請求項2記載のロボット制御システム。
The attribute information includes information on the human name,
The robot control system according to claim 2, wherein the construction unit constructs the database for each name indicated by the human name information.
前記属性情報は、前記人間の年齢および性別の情報を含み、
前記構築手段は、前記人間の年齢および性別の情報が示す年齢および性別毎に前記データベースを構築する、請求項2または3記載のロボット制御システム。
The attribute information includes information on the age and sex of the human,
The robot control system according to claim 2 or 3, wherein the construction unit constructs the database for each age and sex indicated by the age and sex information of the human.
前記中央制御装置は、前記ロボットがコミュニケーション行動を行ったときに当該人間が存在した場所の情報を取得する場所情報取得手段をさらに備え、
前記構築手段は、前記場所の情報が示す場所毎に前記データベースを構築する、請求項1ないし4のいずれかに記載のロボット制御システム。
The central control device further includes a location information acquisition unit that acquires information on a location where the person exists when the robot performs a communication action,
The robot control system according to claim 1, wherein the construction unit constructs the database for each location indicated by the location information.
前記ロボットは、前記人間との間でコミュニケーション行動を行う状況を検出する検出手段、および前記検出手段によって検出された状況に応じたデータベースを選択する選択手段をさらに備える、請求項5記載のロボット制御システム。   The robot control according to claim 5, further comprising: a detecting unit that detects a situation of performing a communication action with the human, and a selecting unit that selects a database corresponding to the situation detected by the detecting unit. system. 前記コミュニケーション行動を行う状況は、前記人間の名称と、前記人間の年齢および性別と、前記人間の存在場所との少なくとも1つを含む、請求項6記載のロボット制御システム。   The robot control system according to claim 6, wherein the situation in which the communication action is performed includes at least one of the name of the person, the age and sex of the person, and the location of the person.
JP2007308144A 2007-11-29 2007-11-29 Robot control system Pending JP2009131914A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007308144A JP2009131914A (en) 2007-11-29 2007-11-29 Robot control system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007308144A JP2009131914A (en) 2007-11-29 2007-11-29 Robot control system

Publications (1)

Publication Number Publication Date
JP2009131914A true JP2009131914A (en) 2009-06-18

Family

ID=40864347

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007308144A Pending JP2009131914A (en) 2007-11-29 2007-11-29 Robot control system

Country Status (1)

Country Link
JP (1) JP2009131914A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011067943A (en) * 2009-09-22 2011-04-07 Gm Global Technology Operations Inc Interactive robot control system and method of use
WO2012147394A1 (en) * 2011-04-25 2012-11-01 ソニー株式会社 Evaluation device and evaluation method, service provision system, and computer program
JP2018001387A (en) * 2016-07-08 2018-01-11 ロボットスタート株式会社 Robot, program, robot system, and server
JP2019045928A (en) * 2017-08-30 2019-03-22 株式会社国際電気通信基礎技術研究所 Sensory stimulation presentation system, program, and method
CN109709947A (en) * 2017-10-26 2019-05-03 株式会社日立大厦系统 Robot management system
US10809715B2 (en) 2018-02-28 2020-10-20 Panasonic Intellectual Property Management Co., Ltd. Apparatus, robot, method, and recording medium
US11474499B2 (en) 2018-10-24 2022-10-18 Toyota Jidosha Kabushiki Kaisha Communication robot and control program of communication robot
US11491661B2 (en) 2018-10-24 2022-11-08 Toyota Jidosha Kabushiki Kaisha Communication robot and control program of communication robot

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04216107A (en) * 1990-12-17 1992-08-06 Nippon Telegr & Teleph Corp <Ntt> Remote control system for intelligent parameter remote adjustment type semi-self-control robot
JP2004227276A (en) * 2003-01-23 2004-08-12 Advanced Telecommunication Research Institute International Human communication behavior recording system and method
JP2005131748A (en) * 2003-10-31 2005-05-26 Advanced Telecommunication Research Institute International Relationship detecting system
JP2005324278A (en) * 2004-05-13 2005-11-24 Honda Motor Co Ltd Robot control device
JP2006075948A (en) * 2004-09-10 2006-03-23 Honda Motor Co Ltd Controller for robot
JP2007190641A (en) * 2006-01-19 2007-08-02 Advanced Telecommunication Research Institute International Communication robot
JP2007216363A (en) * 2006-02-20 2007-08-30 Saitama Univ Communication robot

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04216107A (en) * 1990-12-17 1992-08-06 Nippon Telegr & Teleph Corp <Ntt> Remote control system for intelligent parameter remote adjustment type semi-self-control robot
JP2004227276A (en) * 2003-01-23 2004-08-12 Advanced Telecommunication Research Institute International Human communication behavior recording system and method
JP2005131748A (en) * 2003-10-31 2005-05-26 Advanced Telecommunication Research Institute International Relationship detecting system
JP2005324278A (en) * 2004-05-13 2005-11-24 Honda Motor Co Ltd Robot control device
JP2006075948A (en) * 2004-09-10 2006-03-23 Honda Motor Co Ltd Controller for robot
JP2007190641A (en) * 2006-01-19 2007-08-02 Advanced Telecommunication Research Institute International Communication robot
JP2007216363A (en) * 2006-02-20 2007-08-30 Saitama Univ Communication robot

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011067943A (en) * 2009-09-22 2011-04-07 Gm Global Technology Operations Inc Interactive robot control system and method of use
WO2012147394A1 (en) * 2011-04-25 2012-11-01 ソニー株式会社 Evaluation device and evaluation method, service provision system, and computer program
JP2012230506A (en) * 2011-04-25 2012-11-22 Sony Corp Evaluation device, evaluation method, service provision system, and computer program
JP2018001387A (en) * 2016-07-08 2018-01-11 ロボットスタート株式会社 Robot, program, robot system, and server
JP2019045928A (en) * 2017-08-30 2019-03-22 株式会社国際電気通信基礎技術研究所 Sensory stimulation presentation system, program, and method
JP7012953B2 (en) 2017-08-30 2022-01-31 株式会社国際電気通信基礎技術研究所 Sensory stimulation presentation system, program and method
CN109709947A (en) * 2017-10-26 2019-05-03 株式会社日立大厦系统 Robot management system
JP2019079419A (en) * 2017-10-26 2019-05-23 株式会社日立ビルシステム Robot management system
CN109709947B (en) * 2017-10-26 2021-11-16 株式会社日立大厦系统 Robot management system
US10809715B2 (en) 2018-02-28 2020-10-20 Panasonic Intellectual Property Management Co., Ltd. Apparatus, robot, method, and recording medium
US11474499B2 (en) 2018-10-24 2022-10-18 Toyota Jidosha Kabushiki Kaisha Communication robot and control program of communication robot
US11491661B2 (en) 2018-10-24 2022-11-08 Toyota Jidosha Kabushiki Kaisha Communication robot and control program of communication robot

Similar Documents

Publication Publication Date Title
JP5429462B2 (en) Communication robot
JP2009131914A (en) Robot control system
JP5033994B2 (en) Communication robot
JP5070441B2 (en) Robot remote control system
JP5366048B2 (en) Information provision system
JP7400923B2 (en) Information processing device and information processing method
JP4639343B2 (en) Robot remote control system
JP4599522B2 (en) Communication robot
JP2009241166A (en) Robot remote operation system
JP4386367B2 (en) Communication robot improvement system
JP4024683B2 (en) Communication robot
WO2002045916A1 (en) Robot device, method for controlling motion of robot device, and system for controlling motion of robot device
CN110405789A (en) Make the rounds of the wards accompany and attend to robot, robot of one kind makes the rounds of the wards system and method for accompanying and attending to
JP7120254B2 (en) Information processing device, information processing method, and program
JP2024023193A (en) Information processing device and information processing method
JP2007160427A (en) Robot control system
JP7416295B2 (en) Robots, dialogue systems, information processing methods and programs
JP4677593B2 (en) Communication robot
JP2007152445A (en) Self-propelled robot
JP5842245B2 (en) Communication robot
JP5324956B2 (en) Road guidance robot
US11938625B2 (en) Information processing apparatus, information processing method, and program
JP4779114B2 (en) Communication robot
JP5866646B2 (en) Communication system, utterance content generation device, utterance content generation program, and utterance content generation method
JP5194314B2 (en) Communication system

Legal Events

Date Code Title Description
A621 Written request for application examination

Effective date: 20100909

Free format text: JAPANESE INTERMEDIATE CODE: A621

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120405

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120410

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120731