JP2009131928A - Robot control system, robot, program and information recording medium - Google Patents

Robot control system, robot, program and information recording medium Download PDF

Info

Publication number
JP2009131928A
JP2009131928A JP2007309625A JP2007309625A JP2009131928A JP 2009131928 A JP2009131928 A JP 2009131928A JP 2007309625 A JP2007309625 A JP 2007309625A JP 2007309625 A JP2007309625 A JP 2007309625A JP 2009131928 A JP2009131928 A JP 2009131928A
Authority
JP
Japan
Prior art keywords
user
information
robot
presentation
user information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2007309625A
Other languages
Japanese (ja)
Inventor
Ryohei Sugihara
良平 杉原
Seiji Tatsuta
成示 龍田
Yoichi Iba
陽一 井場
Nobuhito Fukushima
信人 福島
Tsuneharu Kasai
恒春 河西
Hideki Shimizu
清水  秀樹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Citizen Holdings Co Ltd
Olympus Corp
Original Assignee
Citizen Holdings Co Ltd
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Citizen Holdings Co Ltd, Olympus Corp filed Critical Citizen Holdings Co Ltd
Priority to JP2007309625A priority Critical patent/JP2009131928A/en
Priority to CN200880105801A priority patent/CN101795830A/en
Priority to US12/676,729 priority patent/US20110118870A1/en
Priority to PCT/JP2008/065642 priority patent/WO2009031486A1/en
Publication of JP2009131928A publication Critical patent/JP2009131928A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a robot control system, a robot, a program and an information recording medium capable of facilitating indirect communication between users via the robot. <P>SOLUTION: The robot control system comprises: a user information acquiring part that acquires user information obtained from sensor information from at least one of a behavior sensor for measuring behavior of a user, a status sensor for measuring status of the user and an environment sensor for measuring environment of the user; a presented information deciding part that decides, based on the acquired user information, information to be presented to the user by the robot; and a robot control part that controls the robot to present the information to the users. The user information acquiring part acquires second user information that is user information of a second user, and the presented information deciding part decides, based on the acquired second user information, information to be presented to the first user. The robot control part controls the robot to present the information, which has been decided based on the second user information, to the first user. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、ロボット制御システム、ロボット、プログラム及び情報記憶媒体に関係する。   The present invention relates to a robot control system, a robot, a program, and an information storage medium.

従来より、ユーザ(人間)の音声を認識し、音声の認識結果に基づいて、ユーザとの会話を行うロボットの制御システムが知られている(例えば、特許文献1。)。   2. Description of the Related Art Conventionally, a robot control system that recognizes a user (human) voice and performs a conversation with the user based on the voice recognition result is known (for example, Patent Document 1).

しかしながら、これまでのロボット制御システムでは、ロボットは、その所有者のユーザの会話等を音声認識して動作することが想定されており、他のユーザの行動等を反映したロボット制御は行われていなかった。   However, in conventional robot control systems, it is assumed that the robot operates by recognizing the conversation of the owner's user by voice, and robot control reflecting the actions of other users is performed. There wasn't.

また、これまでのロボット制御システムでは、ユーザの行動履歴や状態履歴等を反映したロボット制御は行われておらず、ロボットが、ユーザの心境や状況に反した動作を行ってしまうという問題があった。   In addition, the conventional robot control systems do not perform robot control that reflects the user's behavior history or state history, and the robot may perform operations that are contrary to the user's feelings and circumstances. It was.

更に、これまでのロボット制御システムでは、1人のユーザに対して1台のロボットが対峙して会話することが想定されていた。このため、音声の認識処理や会話処理のために複雑なアルゴリズムが必要になってしまい、ユーザとの間のスムーズな会話を実現することが、現実的には難しいという問題もあった。   Further, in the conventional robot control system, it is assumed that one robot converses and talks to one user. For this reason, a complicated algorithm is required for voice recognition processing and conversation processing, and there is a problem that it is difficult in practice to realize a smooth conversation with the user.

特開2003−66986号公報JP 2003-66986 A

本発明は、以上のような課題等に鑑みてなされたものであり、本発明の幾つかの態様によれば、ロボットを介したユーザ間の間接的なコミュニケーションを実現できるロボット制御システム、ロボット、プログラム及び情報記憶媒体を提供する。   The present invention has been made in view of the above problems and the like, and according to some aspects of the present invention, a robot control system, a robot, and a robot that can realize indirect communication between users via a robot, A program and an information storage medium are provided.

本発明は、ロボットを制御するためのロボット制御システムであって、ユーザの行動を計測する行動センサ、ユーザの状態を計測する状態センサ及びユーザの環境を計測する環境センサの少なくとも1つからのセンサ情報により得られるユーザ情報を取得するユーザ情報取得部と、取得された前記ユーザ情報に基づいて、ロボットがユーザに対して提示する提示情報の決定処理を行う提示情報決定部と、前記提示情報をユーザに対してロボットに提示させるための制御を行うロボット制御部とを含み、前記ユーザ情報取得部は、第2のユーザの前記ユーザ情報である第2のユーザ情報を取得し、前記提示情報決定部は、取得された前記第2のユーザ情報に基づいて、第1のユーザへの提示情報の決定処理を行い、前記ロボット制御部は、前記第2のユーザ情報に基づき決定された提示情報を、前記第1のユーザに提示するためのロボット制御を行うロボット制御システムに関係する。また本発明は、上記各部としてコンピュータを機能させるプログラム、又は該プログラムを記憶したコンピュータ読み取り可能な情報記憶媒体に関係する。   The present invention is a robot control system for controlling a robot, and includes at least one of a behavior sensor that measures a user's behavior, a state sensor that measures a user's state, and an environment sensor that measures a user's environment. A user information acquisition unit that acquires user information obtained from the information, a presentation information determination unit that performs a process of determining presentation information that the robot presents to the user based on the acquired user information, and the presentation information A robot control unit that performs control for the user to present to the robot, wherein the user information acquisition unit acquires second user information that is the user information of the second user, and determines the presentation information The unit performs a process of determining information to be presented to the first user based on the acquired second user information, and the robot control unit The presentation information determined based on the second user information, related to the robot control system for a robotic control for presentation to the first user. The present invention also relates to a program that causes a computer to function as each of the above-described units, or a computer-readable information storage medium that stores the program.

本発明によれば、行動センサ、状態センサ及び環境センサの少なくとも1つからのセンサ情報により得られるユーザ情報が取得される。そして取得されたユーザ情報に基づいて、ロボットがユーザに提示する提示情報の決定処理が行われ、提示情報をロボットに提示させるための制御が行われる。そして本発明によれば、取得された第2のユーザの第2のユーザ情報に基づいて、第1のユーザへの提示情報の決定処理が行われ、決定された提示情報を第1のユーザに提示するロボット制御が行われる。このように本発明によれば、第1のユーザとは異なる第2のユーザの第2のユーザ情報に基づいて、ロボットが第1のユーザに対して提示する提示情報が決定される。従って、第1のユーザは、ロボットの提示情報により、第2のユーザの行動、状況等の情報を知ることが可能になり、ロボットを介したユーザ間の間接的なコミュニケーションを実現できる。
また本発明では、前記ユーザ情報取得部は、前記第1のユーザの前記ユーザ情報である第1のユーザ情報と、前記第2のユーザの前記ユーザ情報である前記第2のユーザ情報を取得し、前記提示情報決定部は、取得された前記第1のユーザ情報と前記第2のユーザ情報とに基づいて、前記第1のユーザへの提示情報の決定処理を行ってもよい。
According to the present invention, user information obtained from sensor information from at least one of a behavior sensor, a state sensor, and an environment sensor is acquired. And based on the acquired user information, the determination process of the presentation information which a robot presents to a user is performed, and control for making a robot present presentation information is performed. And according to this invention, based on the 2nd user information of the acquired 2nd user, the determination process of the presentation information to a 1st user is performed, and the determined presentation information is sent to a 1st user. The robot to be presented is controlled. As described above, according to the present invention, the presentation information that the robot presents to the first user is determined based on the second user information of the second user different from the first user. Therefore, the first user can know information such as the behavior and situation of the second user from the presentation information of the robot, and can realize indirect communication between the users via the robot.
In the present invention, the user information acquisition unit acquires the first user information that is the user information of the first user and the second user information that is the user information of the second user. The presentation information determination unit may perform a process for determining the presentation information to the first user based on the acquired first user information and the second user information.

このようにすれば、第1のユーザの第1のユーザ情報も加味した、第1のユーザへの第2のユーザ情報に基づく提示情報の提示が可能になる。   If it does in this way, presentation information based on the 2nd user information to the 1st user which also considered the 1st user information of the 1st user will be attained.

また本発明では、前記提示情報決定部は、前記第1のユーザ情報に基づいて提示情報の提示タイミングを決定し、前記第2のユーザ情報に基づいて提示情報の内容を決定し、前記ロボット制御部は、決定された前記提示タイミングで、決定された内容の提示情報を、前記第1のユーザに提示するためのロボット制御を行ってもよい。   In the present invention, the presentation information determination unit determines the presentation information presentation timing based on the first user information, determines the content of the presentation information based on the second user information, and performs the robot control. The unit may perform robot control for presenting the determined information to the first user at the determined presentation timing.

このようにすれば、第1のユーザにとって適切なタイミングで、第2のユーザの情報を知らせることが可能になり、より自然でスムーズな情報提示が可能になる。   If it does in this way, it will become possible to notify the information of the 2nd user at the timing suitable for the 1st user, and it will become possible to present information more naturally and smoothly.

また本発明では、前記提示情報決定部は、前記第1のユーザへの提示情報の決定処理における前記第1のユーザ情報の重み付けと前記第2のユーザ情報の重み付けとを、時間経過に伴い変化させてもよい。   In the present invention, the presentation information determination unit changes the weighting of the first user information and the weighting of the second user information in the determination process of the presentation information to the first user with time. You may let them.

このようにすれば、第1のユーザへの情報提示の際に、第2のユーザ情報のみならず第1のユーザ情報をも加味した情報提示が可能になると共に、その加味の度合いを決める重み付けが時間経過に伴い変化するため、より多様で自然な情報提示が可能になる。   In this way, when presenting information to the first user, it is possible to present information that takes into account not only the second user information but also the first user information, and weighting that determines the degree of the addition. Changes over time, making it possible to present more diverse and natural information.

また本発明では、前記第1のユーザによるロボットの利用が可能な状態になったことを示す利用可能イベントの発生を判定するイベント判定部を含み、前記提示情報決定部は、前記利用可能イベント発生時には、前記決定処理における前記第1のユーザ情報の重み付けを大きくし、前記第2のユーザ情報の重み付けを小さくし、その後、前記第1のユーザ情報の重み付けを小さくし、前記第2のユーザ情報の重み付けを大きくしてもよい。   The present invention further includes an event determination unit that determines the occurrence of an available event indicating that the robot can be used by the first user, and the presentation information determination unit includes the available event occurrence. Sometimes, the weighting of the first user information in the determination process is increased, the weighting of the second user information is decreased, and then the weighting of the first user information is decreased, and the second user information May be increased.

このようにすれば、ロボットの利用可能イベントの発生時からの時間経過に応じて、提示情報の決定処理の際における第2のユーザ情報の重み付けが大きくなるため、より自然な情報提示が可能になる。   In this way, since the weight of the second user information in the presentation information determination process increases as the time elapses from the occurrence of the robot available event, more natural information presentation is possible. Become.

また本発明では、前記提示情報決定部は、ロボットによる提示情報の提示に対する前記第1のユーザの反応に基づいて、ロボットが前記第1のユーザに対して次に提示する提示情報の決定処理を行ってもよい。   In the present invention, the presentation information determination unit performs a process of determining presentation information to be next presented to the first user by the robot based on the reaction of the first user to the presentation of presentation information by the robot. You may go.

このようにすれば、提示情報に対する第1のユーザの反応に基づいて、次の提示情報が変化するようになり、ロボットによる提示情報の提示が単調になってしまう事態を防止できる。   If it does in this way, based on the 1st user's reaction to presentation information, the next presentation information will come to change and the situation where presentation of presentation information by a robot will become monotonous can be prevented.

また本発明では、ロボットのセンシング面における接触状態を判定する接触状態判定部を含み、前記提示情報決定部は、ロボットによる提示情報の提示に対する前記第1のユーザの反応として、前記第1のユーザがロボットを撫でる動作を行ったか叩く動作を行ったかを、前記接触状態判定部での判定結果に基づき判断して、前記第1のユーザに対して次に提示する提示情報の決定処理を行ってもよい。   The present invention further includes a contact state determination unit that determines a contact state on the sensing surface of the robot, wherein the presentation information determination unit is configured to respond to the first user's response to the presentation information presented by the robot as the first user. Determining whether or not the robot has stroked or hit the robot based on the determination result in the contact state determination unit, and performed a process for determining the next presentation information to be presented to the first user. Also good.

このようにすれば、ロボットを撫でる動作や叩く動作などの第1のユーザの反応を、簡素な判定処理で判断できるようになる。   In this way, it is possible to determine the first user's reaction, such as stroking or hitting the robot, with a simple determination process.

また本発明では、前記接触状態判定部は、前記センシング面よりも内側に設けられたマイクからの出力信号に対して演算処理を行うことで得られた出力データに基づいて、前記センシング面における接触状態を判定してもよい。   In the present invention, the contact state determination unit is configured to contact the sensing surface based on output data obtained by performing arithmetic processing on an output signal from a microphone provided inside the sensing surface. The state may be determined.

このようにすれば、マイクを利用するだけで、ロボットを撫でる動作や叩く動作などの第1のユーザの反応を検出できるようになる。   In this way, it is possible to detect the first user's reaction, such as stroking or striking the robot, just by using the microphone.

また本発明では、前記出力データは、信号強度であり、前記接触状態判定部は、前記信号強度と、所定のしきい値との比較処理を行うことで、前記第1のユーザがロボットを撫でる動作を行ったか叩く動作を行ったかを判定してもよい。   In the present invention, the output data is signal intensity, and the contact state determination unit performs comparison processing between the signal intensity and a predetermined threshold value, so that the first user strokes the robot. It may be determined whether an action has been performed or a hit action has been performed.

このようにすれば、信号強度としきい値を比較するという簡素な処理で、第1のユーザがロボットを撫でる動作を行ったか叩く動作を行ったかを判定できる。   In this way, it is possible to determine whether the first user has performed an operation of stroking or striking the robot by a simple process of comparing the signal intensity and the threshold value.

また本発明では、前記提示情報決定部は、取得された同じ前記第2のユーザ情報に対して、第1、第2のロボットが異なる提示情報を提示するように、前記第1のユーザに対して提示する提示情報の決定処理を行ってもよい。   In the present invention, the presentation information determination unit may provide the first user such that the first and second robots present different presentation information for the acquired second user information. The presentation information to be presented may be determined.

このようにすれば、第1、第2のロボットが提示する提示情報を介して、第1のユーザは、第2のユーザの情報を間接的に知ることが可能になる。   In this way, the first user can indirectly know the information of the second user through the presentation information presented by the first and second robots.

また本発明では、前記第1のロボットはマスタ側に設定され、前記第2のロボットはスレーブ側に設定され、マスタ側の前記第1のロボットに設けられた前記提示情報決定部が、スレーブ側の前記第2のロボットに対して、前記第1のユーザへの提示情報の提示を指示してもよい。   In the present invention, the first robot is set on the master side, the second robot is set on the slave side, and the presentation information determination unit provided in the first robot on the master side is connected to the slave side. The second robot may be instructed to present the presentation information to the first user.

このようにすれば、複雑な提示情報の解析処理を行わなくても、第1、第2のロボットによる提示情報の提示を、誤動作の少ない安定した制御の下で実現できる。   In this way, presentation of presentation information by the first and second robots can be realized under stable control with few malfunctions without performing complicated presentation information analysis processing.

また本発明では、提示情報の提示を指示する指示情報を、マスタ側の前記第1のロボットからスレーブ側の前記第2のロボットに対して通信する通信部を含んでもよい。   Further, the present invention may include a communication unit that communicates instruction information for instructing presentation of presentation information from the first robot on the master side to the second robot on the slave side.

このようにすれば、提示情報そのものではなくて、その指示情報を通信するだけで済むため、通信データ量の低減や、処理の簡素化を図れる。   In this way, it is only necessary to communicate the instruction information, not the presentation information itself, so that the amount of communication data can be reduced and the processing can be simplified.

また本発明では、前記ユーザ情報取得部は、前記第2のユーザの前記第2のユーザ情報を、ネットワークを介して取得し、前記提示情報決定部は、ネットワークを介して取得された前記第2のユーザ情報に基づいて、前記第1のユーザに提示する提示情報の決定処理を行ってもよい。   In the present invention, the user information acquisition unit acquires the second user information of the second user via a network, and the presentation information determination unit acquires the second user information acquired via the network. The presentation information to be presented to the first user may be determined based on the user information.

このようにすれば、例えば第2のユーザが離れた場所にいる場合にも、第2のユーザの情報を反映したロボット制御を実現できる。   In this way, for example, even when the second user is away, robot control reflecting the information of the second user can be realized.

また本発明では、前記ユーザ情報取得部は、前記第2のユーザ情報として、前記第2のユーザの行動履歴、前記第2のユーザの状態履歴及び前記第2のユーザの環境履歴の少なくとも1つである第2のユーザ履歴情報を取得し、前記提示情報決定部は、取得された前記第2のユーザ履歴情報に基づいて、ロボットが前記第1のユーザに対して提示する提示情報の決定処理を行ってもよい。   In the present invention, the user information acquisition unit may include at least one of the second user behavior history, the second user status history, and the second user environment history as the second user information. Second presentation history information is acquired, and the presentation information determination unit determines presentation information that the robot presents to the first user based on the acquired second user history information. May be performed.

このようにすれば、第2のユーザの行動履歴、状態履歴又は環境履歴等が反映された提示情報を、ロボットにより提示できるようになる。   In this way, it is possible to present the presentation information reflecting the second user's action history, state history, environment history, or the like by the robot.

また本発明では、前記第2のユーザ履歴情報は、前記第2のユーザのウェアラブルセンサからのセンサ情報により更新することで得られる情報であってもよい。   In the present invention, the second user history information may be information obtained by updating with sensor information from the wearable sensor of the second user.

このようにすれば、ウァアラブルセンサからのセンサ情報により第2のユーザの行動履歴、状態履歴又は環境履歴を更新し、更新されたこれらの履歴が反映された提示情報を、ロボットにより提示できるようになる。   If it does in this way, the 2nd user's action history, state history, or environmental history can be updated with sensor information from a wearable sensor, and presentation information reflecting these updated history can be presented by a robot. It becomes like this.

また本発明では、ロボットに対してユーザが接近した場合に、接近したユーザを識別するユーザ識別部を含み、前記ロボット制御部は、前記第1のユーザが接近したと前記ユーザ識別部により識別された場合に、前記第1のユーザに提示情報を提示するためのロボット制御を行ってもよい。   The present invention also includes a user identification unit that identifies an approaching user when the user approaches the robot, and the robot control unit is identified by the user identification unit as the first user approaches. In such a case, robot control for presenting presentation information to the first user may be performed.

このようにすれば、第1のユーザがロボットに接近して第1のユーザとして識別されたときに、第2のユーザ情報に基づく提示情報を、第1のユーザに提示できるようになる。   In this way, when the first user approaches the robot and is identified as the first user, the presentation information based on the second user information can be presented to the first user.

また本発明では、ユーザ間での情報提示の許可・不許可を判断するための提示許可判断情報を記憶する提示許可判断情報記憶部を含み、前記提示情報決定部は、前記提示許可判断情報に基づいて、前記第1、第2のユーザ間での情報提示が許可されていると判断した場合に、前記第2のユーザ情報に基づく前記第1のユーザへの提示情報の決定処理を行ってもよい。   The present invention further includes a presentation permission determination information storage unit that stores presentation permission determination information for determining permission / non-permission of information presentation between users, and the presentation information determination unit includes the presentation permission determination information. Based on this, when it is determined that information presentation between the first and second users is permitted, a process for determining presentation information to the first user based on the second user information is performed. Also good.

このようにすれば、特定のユーザ間でのみ、ロボットを介した間接的なコミュニケーションを許可することが可能になる。   In this way, it is possible to permit indirect communication via a robot only between specific users.

また本発明では、複数の会話フレーズにより構成されるシナリオデータを、前記提示情報として記憶するシナリオデータ記憶部を含み、前記提示情報決定部は、前記シナリオデータに基づいて、ロボットが前記第1のユーザに対して発話する会話フレーズを決定し、前記ロボット制御部は、決定された会話フレーズをロボットに発話させるための制御を行ってもよい。   The present invention further includes a scenario data storage unit that stores scenario data composed of a plurality of conversation phrases as the presentation information, and the presentation information determination unit is configured such that the robot performs the first processing based on the scenario data. The conversation phrase to be uttered to the user may be determined, and the robot control unit may perform control for causing the robot to utter the determined conversation phrase.

このようにすれば、ロボットの会話フレーズの発話を、シナリオデータを利用して簡素な制御処理で実現できる。   In this way, the utterance of the conversation phrase of the robot can be realized by simple control processing using the scenario data.

また本発明では、前記シナリオデータ記憶部は、複数の会話フレーズが分岐構造でリンクされたシナリオデータを記憶し、前記提示情報決定部は、ロボットが発話した会話フレーズに対する前記第1のユーザの反応に基づいて、次にロボットに発話させる会話フレーズを決定してもよい。   In the present invention, the scenario data storage unit stores scenario data in which a plurality of conversation phrases are linked in a branch structure, and the presentation information determination unit is a response of the first user to a conversation phrase uttered by a robot. Based on the above, a conversation phrase to be subsequently spoken by the robot may be determined.

このようにすれば、ロボットが発話した会話フレーズに対する第1のユーザの反応に基づいて、次の会話フレーズが変化するようになり、ロボットによる会話が単調になってしまう事態を防止できる。   In this way, the next conversation phrase changes based on the reaction of the first user to the conversation phrase spoken by the robot, and the situation where the conversation by the robot becomes monotonous can be prevented.

また本発明では、ロボットが発話した会話フレーズに対する前記第2のユーザの反応に基づき作成されるシナリオデータを取得するシナリオデータ取得部を含み、前記提示情報決定部は、前記第2のユーザの反応により取得されたシナリオデータに基づいて、ロボットが前記第1のユーザに対して発話する会話フレーズを決定してもよい。   The present invention further includes a scenario data acquisition unit that acquires scenario data created based on the reaction of the second user with respect to the conversation phrase spoken by the robot, and the presentation information determination unit includes the response of the second user Based on the scenario data acquired by the above, a conversation phrase that the robot speaks to the first user may be determined.

このようにすれば、ロボットの会話フレーズに対する第2のユーザの反応を反映したシナリオデータに基づいて、ロボットが第1のユーザに発話する会話フレーズを決定できるようになる。   If it does in this way, based on the scenario data reflecting the reaction of the 2nd user with respect to the conversation phrase of a robot, it will become possible to determine the conversation phrase which a robot speaks to the 1st user.

また本発明では、前記提示情報決定部は、取得された同じ前記第2のユーザ情報に対して、第1、第2のロボットが異なる会話フレーズを発話するように、前記第1のユーザに対して発話する会話フレーズの決定処理を行い、ロボットが発話した会話フレーズに対する前記第1のユーザの反応に基づいて、前記第1、第2のロボットのいずれに対して次の会話フレーズの発話権を付与するかを制御する発話権制御部を含んでもよい。   Further, in the present invention, the presentation information determination unit provides the first user with the same second user information acquired so that the first and second robots speak different conversation phrases. The conversation phrase to be uttered is determined, and the utterance right of the next conversation phrase is given to either the first or second robot based on the reaction of the first user to the conversation phrase uttered by the robot. An utterance right control unit for controlling whether or not to grant may be included.

このようにすれば、第1のユーザの反応に応じて発話権の付与が切り替わるようになるため、会話が単調になってしまう事態を防止できる。   In this way, since the granting of the right to speak is switched according to the reaction of the first user, it is possible to prevent a situation where the conversation becomes monotonous.

また本発明では、前記発話権制御部は、前記第1、第2のロボットのいずれか一方のロボットが発話した会話フレーズに対して前記第1のユーザが肯定的な反応をしたか否定的な反応をしたかに応じて、次の会話フレーズの発話権を付与するロボットを決定してもよい。   Further, in the present invention, the utterance right control unit may determine whether the first user has made a positive reaction to a conversation phrase uttered by one of the first and second robots. A robot to which the right to speak the next conversation phrase is granted may be determined depending on whether the reaction has been made.

このようにすれば、例えば第1のユーザが肯定的な反応をしたロボットに対して、優先的に発話権を付与するなどの制御が可能になる。   In this way, for example, it is possible to perform control such as preferentially granting an utterance right to a robot that has been positively reacted by the first user.

また本発明は、上記のいずれかに記載のロボット制御システムと、前記ロボット制御システムの制御対象であるロボット動作機構とを含むロボットに関係する。   The present invention also relates to a robot including any one of the robot control systems described above and a robot operation mechanism that is a control target of the robot control system.

以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。   Hereinafter, this embodiment will be described. In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.

1.ユーザ情報
いわゆるユビキタスサービスにおいて、現在目指している1つ方向として、何時でもどこでも必要な情報をユーザに提供するという利便性提供型のサービスが提案されている。これは、外部からユーザに対して一方的に情報を提供するサービスである。
1. User Information In the so-called ubiquitous service, as one direction that is currently aimed at, there has been proposed a convenience providing service that provides users with necessary information anytime and anywhere. This is a service that unilaterally provides information to the user from the outside.

しかしながら、人が生き生きと充実した生活を送るためには、このように外部からユーザに一方的に情報を提供する利便性提供型サービスだけでは不十分であり、ユーザの内面に働きかけることによりユーザに気付き(インスパイヤ)を与え、その結果、自己の成長を促すインスパイヤ型ユビキタスサービスが望まれる。   However, in order for a person to live a lively and fulfilling life, a convenience-providing service that provides information to the user unilaterally from the outside is not sufficient. Inspire-type ubiquitous services that give awareness (inspire) and, as a result, encourage self-growth are desired.

本実施形態では、このようなインスパイヤ型ユビキタスサービスを、ロボットがユーザに提示する情報を利用して実現するために、ユーザ(第1、第2のユーザ)の行動、状態、環境を計測する行動センサ、状態センサ、環境センサからのセンサ情報によりユーザ情報(第1、第2のユーザ情報)を取得する。そして取得されたユーザ情報に基づいて、ロボットがユーザに対して提示する提示情報(例えば会話)を決定し、決定された提示情報をロボットに提供させるロボット制御を行う。そこで、まず、このユーザ情報(ユーザの行動、状態及び環境の少なくとも1つについての情報)の取得手法について説明する。   In this embodiment, in order to realize such an inspire ubiquitous service using information presented by the robot to the user, an action for measuring the action, state, and environment of the user (first and second users). User information (first and second user information) is acquired from sensor information from the sensor, state sensor, and environment sensor. Then, based on the acquired user information, presentation information (for example, conversation) that the robot presents to the user is determined, and robot control is performed to provide the determined presentation information to the robot. First, a method for acquiring this user information (information on at least one of the user's behavior, state, and environment) will be described.

図1においてユーザ(使用者)は、携帯型電子機器100(モバイルゲートウェイ)を所持している。またモバイル制御対象機器としてウェアラブルディスプレイ140(モバイルディスプレイ)を頭部の一方の眼の近傍に装着している。更にウェアラブルセンサ(モバイルセンサ)として種々のセンサを身体に身につけている。具体的には、屋内外センサ510、周囲温度センサ511、周辺湿度センサ512、周辺光度センサ513、腕装着型の運動計測センサ520、脈拍(心拍数)センサ521、体温センサ522、抹消皮膚温度センサ523、発汗センサ524、足圧力センサ530、発話・咀嚼センサ540、携帯型電子機器100に設けられるGPS(Global Position System)センサ550、ウェアラブルディスプレイ140に設けられる顔色センサ560や瞳孔の大きさセンサ561などを装着している。これらの携帯型電子機器100、ウェアラブルディスプレイ140などのモバイル制御対象機器、ウェアラブルセンサによりモバイルサブシステムが構成される。   In FIG. 1, a user (user) has a portable electronic device 100 (mobile gateway). In addition, a wearable display 140 (mobile display) is mounted as a mobile control target device in the vicinity of one eye of the head. Furthermore, various sensors are worn on the body as wearable sensors (mobile sensors). Specifically, indoor / outdoor sensor 510, ambient temperature sensor 511, ambient humidity sensor 512, ambient light intensity sensor 513, arm-mounted motion measurement sensor 520, pulse (heart rate) sensor 521, body temperature sensor 522, peripheral skin temperature sensor 523, sweat sensor 524, foot pressure sensor 530, speech / mastication sensor 540, GPS (Global Position System) sensor 550 provided in portable electronic device 100, facial color sensor 560 provided in wearable display 140, pupil size sensor 561 Etc. are attached. These portable electronic device 100, mobile control target devices such as wearable display 140, and wearable sensors constitute a mobile subsystem.

図1では、このようなユーザのモバイルサブシステムのセンサからのセンサ情報により更新されるユーザ情報(狭義にはユーザ履歴情報)を取得し、取得されたユーザ情報に基づいてロボット1の制御を行う。   In FIG. 1, user information (user history information in a narrow sense) updated by sensor information from the sensor of the user's mobile subsystem is acquired, and the robot 1 is controlled based on the acquired user information. .

携帯型電子機器100(モバイルゲートウェイ)は、PDA(Personal Digital Assistant)、ノート型PCなどの携帯情報端末であり、例えばプロセッサ(CPU)、メモリ、操作パネル、通信装置、或いはディスプレイ(サブディスプレイ)などを備える。この携帯型電子機器100は、例えばセンサからのセンサ情報を収集する機能、収集したセンサ情報に基づいて演算処理を行う機能、演算結果に基づいて制御対象機器(ウェアラブルディスプレイ等)の制御(表示制御等)を行ったり外部のデータベースから情報を取り込む機能、外部と通信を行う機能などを有することができる。なお携帯型電子機器100は、携帯電話、腕時計、或いはポータブルオーディオなどとして兼用される機器であってもよい。   The portable electronic device 100 (mobile gateway) is a portable information terminal such as a PDA (Personal Digital Assistant) or a notebook PC. For example, a processor (CPU), a memory, an operation panel, a communication device, a display (sub-display), or the like. Is provided. The portable electronic device 100 has, for example, a function of collecting sensor information from sensors, a function of performing arithmetic processing based on the collected sensor information, and control (display control) of a control target device (such as a wearable display) based on a calculation result. Etc.), a function of retrieving information from an external database, a function of communicating with the outside, and the like. The portable electronic device 100 may be a device that is also used as a mobile phone, a wristwatch, a portable audio, or the like.

ウェアラブルディスプレイ140は、ユーザの一方の眼の近傍に装着されると共にディスプレイ部の大きさが瞳孔の大きさよりも小さくなるように設定され、いわゆるシースルービューアの情報表示部として機能する。なおユーザへの情報提示は、ヘッドフォン、バイブレータなどを用いて行ってもよい。またモバイル制御対象機器としては、ウェアラブルディスプレイ140以外にも、例えば腕時計、携帯電話、或いはポータブルオーディオなどの種々の機器を想定できる。   Wearable display 140 is mounted in the vicinity of one of the user's eyes and the size of the display unit is set to be smaller than the size of the pupil, and functions as an information display unit of a so-called see-through viewer. Information presentation to the user may be performed using headphones, a vibrator, or the like. In addition to the wearable display 140, various devices such as a wristwatch, a mobile phone, or a portable audio can be assumed as the mobile control target device.

屋内外センサ510は、ユーザが屋内にいるのか屋外にいるのかを検知するセンサであり、例えば超音波を照射し、天井等により超音波が反射して戻ってくるまでの時間を計測する。但し屋内外センサ510は、超音波方式に限らず、アクティブ光方式、パッシブ紫外線方式、パッシブ赤外線方式、パッシブ騒音方式のセンサであってもよい。   The indoor / outdoor sensor 510 is a sensor that detects whether the user is indoors or outdoors. For example, the user irradiates ultrasonic waves and measures the time until the ultrasonic waves are reflected back from the ceiling or the like. However, the indoor / outdoor sensor 510 is not limited to the ultrasonic method, and may be an active light method, passive ultraviolet method, passive infrared method, or passive noise method sensor.

周囲温度センサ511は、例えばサーミスタ、放射温度計、熱電対などを用いて外界温度を計測する。周辺湿度センサ512は、例えば湿度によって電気抵抗が変化することを利用して周囲の湿度を計測する。周辺光度センサ513は、例えば光電素子を用いて周囲の光度を計測する。   The ambient temperature sensor 511 measures the ambient temperature using, for example, a thermistor, a radiation thermometer, a thermocouple, or the like. The ambient humidity sensor 512 measures the ambient humidity using, for example, the change in electrical resistance due to humidity. The ambient light intensity sensor 513 measures the ambient light intensity using, for example, a photoelectric element.

腕装着型の運動計測センサ520は、加速度センサや角加速度センサでユーザの腕の動きを計測する。この運動計測センサ520と足圧力センサ530を用いることでユーザの日常動作、歩行状態を更に正確に計測できる。脈拍(心拍数)センサ521は、手首或いは指又は耳に装着し、例えば拍動に伴う血流の変化を赤外光の透過率や反射率の変化で計測する。体温センサ522、抹消皮膚温度センサ523は、サーミスタ、放射温度計、熱電対などを用いてユーザの体温、抹消皮膚温度を計測する。発汗センサ524は、例えば皮膚の表面抵抗の変化により皮膚の発汗を計測する。足圧力センサ530は、靴にかかる足裏の圧力分布を検出して、ユーザの立ち状態、座り状態、歩行状態などを計測、判定する。   The arm-mounted motion measurement sensor 520 measures the movement of the user's arm with an acceleration sensor or an angular acceleration sensor. By using the motion measurement sensor 520 and the foot pressure sensor 530, it is possible to more accurately measure the user's daily motion and walking state. A pulse (heart rate) sensor 521 is attached to the wrist, finger, or ear, and measures changes in blood flow associated with pulsation, for example, by changes in infrared light transmittance and reflectance. The body temperature sensor 522 and the peripheral skin temperature sensor 523 measure the user's body temperature and peripheral skin temperature using a thermistor, a radiation thermometer, a thermocouple, and the like. The perspiration sensor 524 measures the perspiration of the skin based on, for example, a change in the surface resistance of the skin. The foot pressure sensor 530 detects the pressure distribution of the sole on the shoe, and measures and determines the user's standing state, sitting state, walking state, and the like.

発話・咀嚼センサ540は、ユーザが発話中(会話中)であるか、咀嚼中(食事中)であるかの可能性を計測するためのイヤホン型のセンサであり、その筺体内に骨伝導マイク、外界音マイクが内蔵されている。骨伝導マイクは、発話・咀嚼時に体内から生じ、体内を伝搬する振動である体内音を検出する。外界音マイクは、発話に応じて体外に伝導する振動である音声や、環境の雑音を含む外界音を検出する。そして骨伝導マイク、外界音マイクにより捕らえられた音の単位時間におけるパワーの比較処理等を行うことで、発話可能性や咀嚼可能性を計測する。   The utterance / mastication sensor 540 is an earphone-type sensor for measuring the possibility that the user is speaking (conversation) or mastication (meal), and a bone conduction microphone is included in the body. Built-in external sound microphone. The bone conduction microphone detects a body sound which is a vibration generated from the body during speech and mastication and propagating through the body. The external sound microphone detects sound that is vibration that is conducted outside the body in response to an utterance and external sound including environmental noise. Then, by comparing the power of the sound captured by the bone conduction microphone and the external sound microphone in unit time, etc., the utterance possibility and mastication possibility are measured.

GPSセンサ550はユーザの位置を検知するセンサである。なおGPSセンサ550の代わりに携帯電話の位置情報サービスや周辺にある無線LANの位置情報を利用してもよい。顔色センサ560は、例えば顔面近くに光センサを配置し、複数の光学的バンドパスフィルタを通過した後の光度を比較して顔色を計測する。瞳孔の大きさセンサ561は、例えば瞳孔の近くにカメラを配置し、カメラの信号を解析して瞳孔の大きさを計測する。   The GPS sensor 550 is a sensor that detects the position of the user. Instead of the GPS sensor 550, a location information service of a mobile phone or location information of a wireless LAN in the vicinity may be used. The face color sensor 560, for example, arranges an optical sensor near the face, and measures the face color by comparing the light intensity after passing through a plurality of optical bandpass filters. The pupil size sensor 561, for example, places a camera near the pupil and analyzes the camera signal to measure the size of the pupil.

なお、図1では携帯型電子機器100、ウェアラブルセンサ等により構成されるモバイルサブシステムにより、ユーザ情報を取得しているが、複数のサブシステムにより構成される統合システムにより、ユーザ情報を更新し、更新されたユーザ情報に基づいてロボット1の制御を行ってもよい。ここで統合システムは、例えばモバイルサブシステム、ホームサブシステム、車内サブシステム、会社内サブシステム、或いは店内サブシステムなどのサブシステムを含むことができる。   In FIG. 1, user information is acquired by a mobile subsystem including a portable electronic device 100 and a wearable sensor. However, user information is updated by an integrated system including a plurality of subsystems. The robot 1 may be controlled based on the updated user information. Here, the integrated system may include a subsystem such as a mobile subsystem, a home subsystem, an in-vehicle subsystem, an in-company subsystem, or an in-store subsystem.

この統合システムでは、ユーザが屋外等にいる場合(モバイル環境の場合)には、モバイルサブシステムのウェアラブルセンサ(モバイルセンサ)からのセンサ情報(センサ2次情報を含む)が取得(収集)され、取得されたセンサ情報に基づいてユーザ情報(ユーザ履歴情報)が更新される。またユーザ情報等に基づいてモバイル制御対象機器の制御が行われる。   In this integrated system, when the user is outdoors (in a mobile environment), sensor information (including sensor secondary information) is acquired (collected) from the wearable sensor (mobile sensor) of the mobile subsystem, User information (user history information) is updated based on the acquired sensor information. The mobile control target device is controlled based on the user information and the like.

一方、ユーザが家にいる場合(ホーム環境の場合)には、ホームサブシステムのホームセンサからのセンサ情報が取得され、取得されたセンサ情報に基づいてユーザ情報が更新される。即ちモバイル環境で更新されたユーザ情報が、ホーム環境に移行した場合にもシームレスに更新される。またユーザ情報等に基づいてホーム制御対象機器(テレビ、オーディオ機器、エアコン等)の制御が行われる。なおホームセンサは、例えば、ホーム内の気温、湿度、光度、騒音、ユーザの会話、食事などを計測する環境センサや、ロボットに内蔵されるロボット搭載センサや、ホームの各室内、ドアなどに設置される人検知センサや、トイレに設置される尿検査用センサなどである。   On the other hand, when the user is at home (in a home environment), sensor information from the home sensor of the home subsystem is acquired, and the user information is updated based on the acquired sensor information. That is, the user information updated in the mobile environment is seamlessly updated even when the home information is transferred to the home environment. Control of home control target devices (TV, audio device, air conditioner, etc.) is performed based on user information and the like. The home sensor is installed in, for example, an environmental sensor that measures the temperature, humidity, light intensity, noise, user conversation, meals, etc. in the home, a robot built-in sensor built into the robot, or in each room or door of the home. A human detection sensor or a urine test sensor installed in a toilet.

また、ユーザが車内にいる場合(車内環境の場合)には、車内サブシステムの車内センサからのセンサ情報が取得され、取得されたセンサ情報に基づいてユーザ情報が更新される。即ちモバイル環境やホーム環境で更新されたユーザ情報が、車内環境に移行した場合にもシームレスに更新される。またユーザ情報等に基づいて車内制御対象機器(ナビゲーション装置、カーAV機器、エアコン等)の制御が行われる。なお車内センサは、車の速度、移動距離などを計測する走行状態センサや、ユーザの運転操作、機器操作を計測する操作状態センサや、車内の気温、湿度、光度、ユーザの会話などを計測する環境センサなどである。   Further, when the user is in the vehicle (in the case of an in-vehicle environment), sensor information from the in-vehicle sensor of the in-vehicle subsystem is acquired, and the user information is updated based on the acquired sensor information. That is, the user information updated in the mobile environment or the home environment is seamlessly updated even when the user information is transferred to the in-vehicle environment. In addition, control of in-vehicle controlled devices (navigation device, car AV device, air conditioner, etc.) is performed based on user information and the like. The in-vehicle sensor measures the driving state sensor that measures the vehicle speed, distance traveled, etc., the operation state sensor that measures the user's driving operation and device operation, and the temperature, humidity, light intensity, and user conversation in the vehicle. For example, environmental sensors.

2.ロボット
次に図1のロボット1(ロボット2)の構成について説明する。このロボット1は犬を模したペット型のロボットになっており、胴体モジュール600、頭部モジュール610、脚部モジュール620、622、624、626、尻尾モジュール630などの複数のパーツモジュール(ロボット動作機構)により構成される。
2. Next, the configuration of the robot 1 (robot 2) in FIG. 1 will be described. This robot 1 is a pet type robot imitating a dog, and includes a plurality of part modules (robot operation mechanism) such as a torso module 600, a head module 610, leg modules 620, 622, 624, 626, and a tail module 630. ).

頭部モジュール610には、ユーザの撫でる動作や叩く動作を検知するための接触センサや、ユーザの発話を検知するための発話センサ(マイクロホン)や、画像認識のための撮像センサ(カメラ)や、音声や鳴き声を発声するための音出力部(スピーカ)が設けられる。   The head module 610 includes a contact sensor for detecting a user's stroking and tapping operations, a speech sensor (microphone) for detecting a user's speech, an image sensor (camera) for image recognition, A sound output unit (speaker) for uttering voice or cry is provided.

胴体モジュール600と頭部モジュール610との間や、胴体モジュール600と尻尾モジュール630との間や、脚部モジュール620の関節部分等には、関節機構が設けられている。そしてこれらの関節機構は、モータ等のアクチュエータを有しており、これによりロボット1の関節運動や自立走行が実現される。   Joint mechanisms are provided between the body module 600 and the head module 610, between the body module 600 and the tail module 630, joint portions of the leg module 620, and the like. And these joint mechanisms have actuators, such as a motor, and, thereby, the joint movement of the robot 1 and independent running are implement | achieved.

またロボット1の例えば胴体モジュール600には1又は複数の回路基板が設けられている。そしてこの回路基板には、各種処理を行うCPU(プロセッサ)や、各種データ、プログラムを記憶するROM、RAMなどのメモリや、ロボット制御のための制御ICや、音声信号を生成する音声生成モジュールや、外部との無線通信のための無線モジュールなどが実装される。ロボットに搭載される各種センサからの信号は、この回路基板に集約され、CPU等により処理される。また音声生成モジュールにより生成された音声信号は、この回路基板から音出力部(スピーカ)に対して出力される。また回路基板の制御ICからの制御信号は、関節機構に設けられたモータ等のアクチュエータに出力され、これによりロボット1の関節運動や自立走行が制御される。   Further, for example, the body module 600 of the robot 1 is provided with one or a plurality of circuit boards. The circuit board includes a CPU (processor) for performing various processes, a memory such as a ROM and a RAM for storing various data and programs, a control IC for robot control, a sound generation module for generating sound signals, A wireless module for wireless communication with the outside is mounted. Signals from various sensors mounted on the robot are collected on this circuit board and processed by a CPU or the like. The audio signal generated by the audio generation module is output from the circuit board to the sound output unit (speaker). Further, a control signal from the control IC of the circuit board is output to an actuator such as a motor provided in the joint mechanism, thereby controlling the joint motion and the autonomous running of the robot 1.

3.ロボット制御システム
図2に本実施形態のシステム構成例を示す。このシステムは、第1のユーザが所持する携帯型電子機器100-1や、第2のユーザが所持する携帯型電子機器100-2や、本実施形態のロボット制御システムにより制御されるロボット1を有する。そして本実施形態のロボット制御システムは、例えばロボット1が有する処理部10により実現される。
3. Robot Control System FIG. 2 shows a system configuration example of this embodiment. This system includes a portable electronic device 100-1 possessed by a first user, a portable electronic device 100-2 possessed by a second user, and the robot 1 controlled by the robot control system of the present embodiment. Have. And the robot control system of this embodiment is implement | achieved by the process part 10 which the robot 1 has, for example.

なお、第1のユーザとしては、例えばロボット1の所有者を想定でき、第2のユーザとしては、所有者の家族、友人、親戚又は恋人等を想定できる。或いは第1、第2のユーザは、ロボット1を共有する所有者であってもよい。   Note that, for example, the owner of the robot 1 can be assumed as the first user, and the family, friends, relatives, or lovers of the owner can be assumed as the second user. Alternatively, the first and second users may be owners who share the robot 1.

第1のユーザが所持する携帯型電子機器100-1は、処理部110-1、記憶部120-1、制御部130-1、通信部138-1を含む。また第2のユーザが所持する携帯型電子機器100- 2は、処理部110-2、記憶部120-2、制御部130-2、通信部138-2を含む。   The portable electronic device 100-1 possessed by the first user includes a processing unit 110-1, a storage unit 120-1, a control unit 130-1, and a communication unit 138-1. The portable electronic device 100-2 possessed by the second user includes a processing unit 110-2, a storage unit 120-2, a control unit 130-2, and a communication unit 138-2.

なお、以下では、説明を簡素化するために、これらの携帯型電子機器100-1、100-2、処理部110-1、110-2、記憶部120-1、120-2、制御部130-1、130-2、通信部138-1、138-2等を、各々、適宜、携帯型電子機器100、処理部110、記憶部120、制御部130、通信部138と総称する。また第1、第2のユーザ、第1、第2のユーザ情報、第1、第2のユーザ履歴情報も、各々、適宜、ユーザ、ユーザ情報、ユーザ履歴情報と総称する。   Hereinafter, in order to simplify the description, the portable electronic devices 100-1 and 100-2, the processing units 110-1 and 110-2, the storage units 120-1 and 120-2, and the control unit 130 are described. -1, 130-2, communication units 138-1, 138-2, and the like are collectively referred to as portable electronic device 100, processing unit 110, storage unit 120, control unit 130, and communication unit 138, respectively, as appropriate. The first and second users, the first and second user information, and the first and second user history information are also collectively referred to as user, user information, and user history information, respectively, as appropriate.

携帯型電子機器100(100-1、100-2)は、ウェアラブルセンサ150(150-1、150-2)からのセンサ情報を取得する。具体的には、ウェアラブルセンサ150は、ユーザ(第1、第2のユーザ)の行動(歩行、会話、食事、手足の動き、感情表現又は睡眠等)を計測する行動センサ、ユーザの状態(疲労、緊張、空腹、精神状態、身体状態又はユーザに発生したイベント等)を計測する状態センサ、及びユーザの環境(場所、明るさ、気温又は湿度等)を計測する環境センサの少なくとも1つのセンサを含んでおり、携帯型電子機器100は、これらのセンサからのセンサ情報を取得する。   The portable electronic device 100 (100-1, 100-2) acquires sensor information from the wearable sensor 150 (150-1, 150-2). Specifically, the wearable sensor 150 is a behavior sensor that measures a user's (first and second users) behavior (walking, conversation, meal, limb movement, emotional expression, sleep, etc.), and the user's state (fatigue). At least one of a state sensor that measures a user's environment (location, brightness, temperature, humidity, etc.) In addition, the portable electronic device 100 acquires sensor information from these sensors.

なおセンサは、センサデバイス自体であってもよいし、センサデバイスの他に、制御部や通信部等を含むセンサ機器であってもよい。またセンサ情報は、センサから直接得られるセンサ1次情報であってもよいし、センサ1次情報を加工処理(情報処理)することで得られるセンサ2次情報であってもよい。   The sensor may be the sensor device itself, or may be a sensor device including a control unit, a communication unit, and the like in addition to the sensor device. The sensor information may be sensor primary information obtained directly from the sensor, or sensor secondary information obtained by processing (information processing) the sensor primary information.

処理部110(110-1、110-2)は、図示しない操作部からの操作情報や、ウェアラブルセンサ150から取得されたセンサ情報などに基づいて、携帯型電子機器100の動作等に必要な種々の処理を行う。この処理部110の機能は、各種プロセッサ(CPU等)、ASIC(ゲートアレイ等)などのハードウェアや、図示しない情報記憶媒体(光ディスク、ICカード、HDD等)に記憶されたプログラムなどにより実現できる。   The processing units 110 (110-1 and 110-2) perform various operations necessary for the operation of the portable electronic device 100 based on operation information from an operation unit (not shown), sensor information acquired from the wearable sensor 150, and the like. Perform the process. The function of the processing unit 110 can be realized by hardware such as various processors (CPU, etc.), ASIC (gate array, etc.), a program stored in an information storage medium (optical disc, IC card, HDD, etc.) not shown. .

処理部110は、演算部112(112-1、112-2)、ユーザ情報更新部114(114-1、114-2)を含む。ここで演算部112は、ウェアラブルセンサ150から取得されたセンサ情報のフィルタリング処理(選択処理)や解析処理のための種々の演算処理を行う。具体的には演算部112は、センサ情報の乗算処理や加算処理を行う。例えば下式(1)に示すように、複数のセンサからの複数のセンサ情報のデジタル化された計測値Xjと、各係数が係数記憶部(図示せず)に記憶され、2次元行列(マトリックス)で表される係数Aijとの積和演算を行う。そうして下式(2)に示すように、積和演算の結果を多次元座標としてn次元のベクトルYiとして演算する。なお、iはn次元空間のi座標であり、jは各センサに割り当てられる番号である。   The processing unit 110 includes a calculation unit 112 (112-1, 112-2) and a user information update unit 114 (114-1, 114-2). Here, the calculation unit 112 performs various calculation processes for filtering processing (selection processing) and analysis processing of sensor information acquired from the wearable sensor 150. Specifically, the calculation unit 112 performs a multiplication process or an addition process of sensor information. For example, as shown in the following equation (1), digitized measurement values Xj of a plurality of sensor information from a plurality of sensors and respective coefficients are stored in a coefficient storage unit (not shown), and a two-dimensional matrix (matrix) The product-sum operation with the coefficient Aij represented by Then, as shown in the following equation (2), the result of the product-sum operation is calculated as an n-dimensional vector Yi using multidimensional coordinates. Note that i is the i coordinate in the n-dimensional space, and j is a number assigned to each sensor.

Figure 2009131928
Figure 2009131928

Figure 2009131928
Figure 2009131928

上式(1)(2)のような演算処理を行うことで、取得されたセンサ情報の中から不要なセンサ情報を除去するフィルタリング処理や、ユーザの行動、状態、環境(TPO情報)をセンサ情報に基づき同定するための解析処理などを実現できる。例えば脈拍(心拍数)、発汗量、体温の計測値Xに対して乗算される係数Aを、その他のセンサ情報の計測値に対する係数よりも大きな値に設定すれば、上式(1)(2)で演算された数値Yは、ユーザの状態である「興奮度」を表すものになる。また発話量の計測値Xに対して乗算される係数と、足圧力の計測値Xに対して乗算される係数を適当な値に設定することで、ユーザの行動が、着座して会話しているのか、歩きながら会話しているのか、静かに思考しているのか、睡眠状態なのか等を同定できる。   Filtering processing that removes unnecessary sensor information from the acquired sensor information, and user behavior, state, and environment (TPO information) by performing arithmetic processing such as the above formulas (1) and (2) Analysis processing for identifying based on information can be realized. For example, if the coefficient A multiplied by the measured value X of the pulse (heart rate), the amount of sweat, and the body temperature is set to a value larger than the coefficient for the measured value of other sensor information, the above formulas (1) and (2 The numerical value Y calculated in () represents the “excitability” that is the user's state. In addition, by setting the coefficient multiplied by the measured value X of the utterance amount and the coefficient multiplied by the measured value X of the foot pressure to appropriate values, the user's behavior can sit and talk. You can identify whether you are talking, walking, talking quietly, or sleeping.

ユーザ情報更新部114(114-1、114-2)はユーザ情報(ユーザ履歴情報)の更新処理を行う。具体的には、ウェアラブルセンサ150(150-1、150-2)から取得されたセンサ情報に基づいてユーザ情報(第1、第2のユーザ情報)を更新する。そして更新されたユーザ情報(ユーザ履歴情報)を記憶部120のユーザ情報記憶部122(ユーザ履歴情報記憶部)に記憶する。この場合に、ユーザ情報記憶部122(122-1、122-2)のメモリ容量を節約するために、新しいユーザ情報を記憶する場合には、古いユーザ情報を削除し、削除により空いた記憶領域に対して新しいユーザ情報を記憶してもよい。或いは、各ユーザ情報に優先度(重み付け係数)を付与し、新しいユーザ情報を記憶する場合には、優先度の低いユーザ情報を削除してもよい。また既に記憶されているユーザ情報と新しいユーザ情報を演算することでユーザ情報を更新(上書き)してもよい。   The user information update unit 114 (114-1, 114-2) performs update processing of user information (user history information). Specifically, the user information (first and second user information) is updated based on the sensor information acquired from the wearable sensor 150 (150-1, 150-2). The updated user information (user history information) is stored in the user information storage unit 122 (user history information storage unit) of the storage unit 120. In this case, when storing new user information in order to save the memory capacity of the user information storage unit 122 (122-1, 122-2), the old user information is deleted, and the storage area freed by the deletion May store new user information. Or when giving priority (weighting coefficient) to each user information and memorizing new user information, user information with a low priority may be deleted. Also, the user information may be updated (overwritten) by calculating the user information already stored and the new user information.

記憶部120(120-1、120-2)は、処理部110、通信部138などのワーク領域となるもので、その機能はRAMなどのメモリやHDD(ハードディスクドライブ)などにより実現できる。記憶部120が含むユーザ情報記憶部122は、ユーザ(第1、第2のユーザ)の行動、状態又は環境等の情報(履歴情報)であって、取得されたセンサ情報に基づき更新されるユーザ情報(第1、第2のユーザ情報)を記憶する。   The storage units 120 (120-1 and 120-2) serve as work areas for the processing unit 110, the communication unit 138, and the like, and their functions can be realized by a memory such as a RAM or an HDD (hard disk drive). The user information storage unit 122 included in the storage unit 120 is information (history information) such as the behavior, state, or environment of the user (first and second users), and is updated based on the acquired sensor information. Information (first and second user information) is stored.

制御部130(130-1、130-2)はウェアラブルディスプレイ140(140-1、140-2)の表示制御等を行う。通信部138(138-1、138-2)は、無線や有線の通信により、ロボット1の通信部40との間で、ユーザ情報などの情報の転送処理を行う。無線の通信としては、ブルートゥース(Bluetoothは登録商標)や赤外線のような近距離無線や無線LANなどが考えられる。有線の通信としてはUSBやIEEE1394などを利用したものが考えられる。   The control unit 130 (130-1, 130-2) performs display control of the wearable display 140 (140-1, 140-2). The communication unit 138 (138-1, 138-2) performs transfer processing of information such as user information to and from the communication unit 40 of the robot 1 by wireless or wired communication. As wireless communication, Bluetooth (Bluetooth is a registered trademark), short-range wireless such as infrared rays, wireless LAN, and the like can be considered. As the wired communication, one using USB, IEEE1394, or the like can be considered.

ロボット1は、処理部10、記憶部20、ロボット制御部30、ロボット動作機構32、ロボット搭載センサ34、通信部40を含む。なおこれらの一部の構成要素を省略した構成にしてもよい。   The robot 1 includes a processing unit 10, a storage unit 20, a robot control unit 30, a robot operation mechanism 32, a robot mounting sensor 34, and a communication unit 40. Note that some of these components may be omitted.

処理部10は、ロボット搭載センサ34からセンサ情報や、取得されたユーザ情報などに基づいて、ロボット1の動作等に必要な種々の処理を行う。この処理部10の機能は、各種プロセッサ(CPU等)、ASIC(ゲートアレイ等)などのハードウェアや、図示しない情報記憶媒体(光ディスク、ICカード、HDD等)に記憶されたプログラムなどにより実現できる。即ち、この情報記憶媒体には、本実施形態の各部としてコンピュータ(操作部、処理部、記憶部、出力部を備える装置)を機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)が記憶され、処理部10は、この情報記憶媒体に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。   The processing unit 10 performs various processes necessary for the operation of the robot 1 based on sensor information from the robot-mounted sensor 34, acquired user information, and the like. The function of the processing unit 10 can be realized by hardware such as various processors (CPU, etc.), ASIC (gate array, etc.), a program stored in an information storage medium (optical disc, IC card, HDD, etc.) not shown. . That is, in this information storage medium, a program for causing a computer (an apparatus including an operation unit, a processing unit, a storage unit, and an output unit) to function as each unit of the present embodiment (a program for causing a computer to execute processing of each unit) ) Is stored, and the processing unit 10 performs various processes of the present embodiment based on a program (data) stored in the information storage medium.

記憶部20は、処理部10、通信部40などのワーク領域となるもので、その機能はRAMなどのメモリやHDD(ハードディスクドライブ)などにより実現できる。この記憶部20はユーザ情報記憶部22と提示情報記憶部26を含む。またユーザ情報記憶部22はユーザ履歴情報記憶部23を含む。   The storage unit 20 serves as a work area for the processing unit 10 and the communication unit 40, and the functions thereof can be realized by a memory such as a RAM, an HDD (hard disk drive), or the like. The storage unit 20 includes a user information storage unit 22 and a presentation information storage unit 26. The user information storage unit 22 includes a user history information storage unit 23.

ロボット制御部30は、制御対象であるロボット動作機構32(アクチュエータ、音出力部、LED等)の制御を行うものであり、その機能は、ロボット制御用のASICや各種プロセッサなどのハードウェアや、プログラムなどにより実現できる。   The robot control unit 30 controls a robot operation mechanism 32 (actuator, sound output unit, LED, etc.) to be controlled, and its functions include hardware such as an ASIC for robot control and various processors, It can be realized by a program.

具体的にはロボット制御部30は、提示情報をユーザに対してロボット1に提示させるための制御を行う。提示情報がロボット1の会話(シナリオデータ)である場合には、会話フレーズをロボット1に発話させるための制御を行う。例えば会話フレーズを表すデジタルのテキストデータを、公知のTTS(Text-To-Speech)処理によりアナログの音声信号に変換し、ロボット動作機構32の音出力部(スピーカ)を介して出力する。また提示情報が、ロボット1の感情状態を表す情報である場合には、その感情を表すように、ロボット動作機構32の各関節機構のアクチュエータを制御したり、LEDを点灯させるなどの制御を行う。   Specifically, the robot control unit 30 performs control for causing the robot 1 to present presentation information to the user. When the presented information is a conversation (scenario data) of the robot 1, control is performed to cause the robot 1 to speak a conversation phrase. For example, digital text data representing a conversation phrase is converted into an analog voice signal by a known TTS (Text-To-Speech) process, and is output via a sound output unit (speaker) of the robot operation mechanism 32. When the presentation information is information representing the emotional state of the robot 1, control is performed such as controlling the actuators of each joint mechanism of the robot operation mechanism 32 or lighting the LED so as to represent the emotion. .

ロボット搭載センサ34は、例えば接触センサ、発話センサ(マイクロホン)、或いは撮像センサ(カメラ)などの各種センサである。ロボット1は、このロボット搭載センサ34からのセンサ情報に基づいて、ユーザに提示した提示情報に対するユーザの反応をモニタできる。   The robot-mounted sensor 34 is various sensors such as a contact sensor, a speech sensor (microphone), or an image sensor (camera). Based on the sensor information from the robot-mounted sensor 34, the robot 1 can monitor the user's response to the presentation information presented to the user.

通信部40は、無線や有線の通信により、携帯型電子機器100-1の通信部138-1や携帯型電子機器100-2の通信部138-2との間で、ユーザ情報などの情報の転送処理を行う。   The communication unit 40 communicates information such as user information between the communication unit 138-1 of the portable electronic device 100-1 and the communication unit 138-2 of the portable electronic device 100-2 by wireless or wired communication. Perform the transfer process.

処理部10は、ユーザ情報取得部12、演算部13、提示情報決定部14を含む。なおこれらの構成要素の一部を省略する構成としてもよい。   The processing unit 10 includes a user information acquisition unit 12, a calculation unit 13, and a presentation information determination unit 14. Note that some of these components may be omitted.

ユーザ情報取得部12は、ユーザの行動を計測する行動センサ、ユーザの状態を計測する状態センサ及びユーザの環境を計測する環境センサの少なくとも1つからのセンサ情報により得られるユーザ情報を取得する。   The user information acquisition unit 12 acquires user information obtained from sensor information from at least one of a behavior sensor that measures the user's behavior, a state sensor that measures the user's state, and an environment sensor that measures the user's environment.

例えば、携帯型電子機器100-2のユーザ情報更新部114-2は、ウァアラブルセンサ150-2からのセンサ情報に基づき、第2のユーザ(第1のユーザの子供、妻、恋人等)のユーザ情報である第2のユーザ情報(第2のユーザ履歴情報)の更新処理を行う。更新された第2のユーザ情報はユーザ情報記憶部122-2に記憶される。   For example, the user information update unit 114-2 of the portable electronic device 100-2 is based on the sensor information from the wearable sensor 150-2, and the second user (child of the first user, wife, lover, etc.) The second user information (second user history information) that is the user information is updated. The updated second user information is stored in the user information storage unit 122-2.

そしてユーザ情報記憶部122-2に記憶された第2のユーザ情報(第2のユーザ履歴情報)は、通信部138-2、40を介して、ロボット1のユーザ情報記憶部22に転送される。具体的には、第2のユーザが家に帰宅してロボット1に近づいたり、携帯型電子機器100-2をクレードルに接続して、携帯型電子機器100-2とロボット1との間での通信経路が確立されると、第2のユーザ情報がユーザ情報記憶部122-2からユーザ情報記憶部22に転送される。ユーザ情報取得部12は、このようにして転送された第2のユーザ情報をユーザ情報記憶部22から読み出すことで、第2のユーザ情報を取得する。なおユーザ情報取得部12が、ユーザ情報記憶部22を介さずに直接に携帯型電子機器100-2から第2のユーザ情報を取得してもよい。   Then, the second user information (second user history information) stored in the user information storage unit 122-2 is transferred to the user information storage unit 22 of the robot 1 via the communication units 138-2 and 40. . Specifically, the second user returns home and approaches the robot 1, or connects the portable electronic device 100-2 to the cradle, and connects the portable electronic device 100-2 and the robot 1. When the communication path is established, the second user information is transferred from the user information storage unit 122-2 to the user information storage unit 22. The user information acquisition unit 12 acquires the second user information by reading the second user information transferred in this way from the user information storage unit 22. The user information acquisition unit 12 may acquire the second user information directly from the portable electronic device 100-2 without using the user information storage unit 22.

また、携帯型電子機器100-1のユーザ情報更新部114-1は、ウァアラブルセンサ150-1からのセンサ情報に基づき、第1のユーザのユーザ情報である第1のユーザ情報(第1のユーザ履歴情報)の更新処理を行う。更新された第1のユーザ情報はユーザ情報記憶部122-1に記憶される。   In addition, the user information update unit 114-1 of the portable electronic device 100-1 is based on the sensor information from the wearable sensor 150-1 and includes first user information (first user information) that is user information of the first user. User history information) is updated. The updated first user information is stored in the user information storage unit 122-1.

そしてユーザ情報記憶部122-1に記憶された第1のユーザ情報(第1のユーザ履歴情報)は、通信部138-1、40を介して、ロボット1のユーザ情報記憶部22(ユーザ情報記憶部72)に転送される。具体的には、第1のユーザが家に帰宅してロボット1に近づいたり、携帯型電子機器100-1をクレードルに接続して、携帯型電子機器100-1とロボット1との間での通信経路が確立されると、第1のユーザ情報がユーザ情報記憶部122-1からユーザ情報記憶部22に転送される。ユーザ情報取得部12は、このようにして転送された第1のユーザ情報をユーザ情報記憶部22から読み出すことで、第1のユーザ情報を取得する。なおユーザ情報取得部12が、ユーザ情報記憶部22を介さずに直接に携帯型電子機器100-1から第1のユーザ情報を取得してもよい。   The first user information (first user history information) stored in the user information storage unit 122-1 is transmitted to the user information storage unit 22 (user information storage unit 22) of the robot 1 via the communication units 138-1 and 40-1. Part 72). Specifically, the first user returns home and approaches the robot 1, or connects the portable electronic device 100-1 to the cradle so that the portable electronic device 100-1 is connected to the robot 1. When the communication path is established, the first user information is transferred from the user information storage unit 122-1 to the user information storage unit 22. The user information acquisition unit 12 acquires the first user information by reading the first user information thus transferred from the user information storage unit 22. Note that the user information acquisition unit 12 may acquire the first user information directly from the portable electronic device 100-1 without using the user information storage unit 22.

演算部13は、取得されたユーザ情報に対する演算処理を行う。具体的には、必要な場合には、ユーザ情報に対する解析処理やフィルタリング処理を行う。例えばユーザ情報が1次センサ情報等である場合には、上式(1)(2)で説明した演算処理を行って、取得されたセンサ情報の中から不要なセンサ情報を除去するフィルタリング処理や、ユーザの行動、状態、環境(TPO情報)をセンサ情報に基づき同定するための解析処理などを行う。   The calculation unit 13 performs calculation processing on the acquired user information. Specifically, when necessary, an analysis process and a filtering process for user information are performed. For example, when the user information is primary sensor information or the like, filtering processing for removing unnecessary sensor information from the acquired sensor information by performing the arithmetic processing described in the above formulas (1) and (2) Analyzing processing for identifying the user's behavior, state, and environment (TPO information) based on the sensor information is performed.

提示情報決定部14は、取得されたユーザ情報(演算処理後のユーザ情報)に基づいて、ロボット1がユーザに対して提示(提供)する提示情報(会話、感情表現、行動表現)の決定処理を行う。   The presentation information determination unit 14 determines the presentation information (conversation, emotional expression, behavioral expression) that the robot 1 presents (provides) to the user based on the acquired user information (user information after the calculation process). I do.

具体的には、提示情報決定部14は、取得された第2のユーザの第2のユーザ情報に基づいて、第1のユーザへの提示情報(会話フレーズ、感情表現、行動表現)の決定処理を行う。そしてロボット制御部30は、第2のユーザ情報に基づき決定された提示情報を、第1のユーザに提示するためのロボット制御を行う。例えばロボット1に第1のユーザが近づいた場合に、ロボット1から離れた場所等にいる第2のユーザの第2のユーザ情報に基づき提示情報を決定し、決定された提示情報を第1のユーザに提示する。   Specifically, the presentation information determination unit 14 determines the presentation information (conversation phrase, emotion expression, action expression) to the first user based on the acquired second user information of the second user. I do. The robot control unit 30 performs robot control for presenting the presentation information determined based on the second user information to the first user. For example, when the first user approaches the robot 1, the presentation information is determined based on the second user information of the second user who is away from the robot 1, and the determined presentation information is changed to the first user information. Present to the user.

また第1のユーザの第1のユーザ情報をユーザ情報取得部12により取得した場合には、提示情報決定部14は、取得された第1のユーザ情報と第2のユーザ情報との両方に基づいて、第1のユーザへの提示情報の決定処理を行ってもよい。   When the first user information of the first user is acquired by the user information acquisition unit 12, the presentation information determination unit 14 is based on both the acquired first user information and second user information. Then, the process for determining the information presented to the first user may be performed.

具体的には、第1のユーザ情報に基づいて、第1のユーザのTPO(Time Place Occasion)を推定し、TPO情報を取得する。即ち、時間情報や、第1のユーザの場所情報、状況情報を取得する。そして、取得された第1のユーザのTPO情報と、第2のユーザの第2のユーザ情報とに基づいて、提示情報の決定処理を行う。   Specifically, the TPO (Time Place Occasion) of the first user is estimated based on the first user information, and the TPO information is acquired. That is, time information, location information of the first user, and situation information are acquired. Then, based on the acquired TPO information of the first user and the second user information of the second user, presentation information determination processing is performed.

更に具体的には、提示情報決定部14は、第1のユーザ情報(TPO情報)に基づいて提示情報の提示タイミング(会話の開始タイミング、発話タイミング)を決定し、第2のユーザ情報に基づいて提示情報の内容(会話の内容、シナリオデータ)を決定する。そしてロボット制御部30は、決定された提示タイミングで、決定された内容の提示情報を、第1のユーザに提示するためのロボット制御を行う。   More specifically, the presentation information determination unit 14 determines the presentation information presentation timing (conversation start timing, utterance timing) based on the first user information (TPO information), and based on the second user information. To determine the content of the presentation information (conversation content, scenario data). Then, the robot control unit 30 performs robot control for presenting the presentation information of the decided content to the first user at the decided presentation timing.

即ち、第1のユーザが忙しかったり、精神的に余裕が無く、提示情報を提示するタイミングではないと、第1のユーザ情報(第1のユーザのTPO)に基づき判断した場合には、ロボット1による提示情報の提示を行わないようにする。一方、第1のユーザが時間的に余裕があったり、暇を持て余しており、提示情報を提示するタイミングであると、第1のユーザ情報に基づき判断した場合には、第2のユーザ情報に基づいて提示情報の内容を決定し、第2のユーザの状況、行動等を知らせるための情報を、ロボット1を用いて第1のユーザに提示する。   That is, if it is determined based on the first user information (the first user's TPO) that the first user is busy, has no mental margin, and is not at the timing to present the presentation information, the robot 1 Do not present the presentation information by. On the other hand, if it is determined that the first user has sufficient time or spare time and is presenting the presentation information based on the first user information, the second user information The content of the presentation information is determined based on the information, and information for notifying the situation, action, etc. of the second user is presented to the first user using the robot 1.

このようにすれば、第1のユーザにとって適切でタイムリーなタイミングで、第2のユーザの状況等を知らせることができ、より自然でスムーズな情報提示が可能になる。   In this way, the situation of the second user can be notified at a timing that is appropriate and timely for the first user, and more natural and smooth information presentation is possible.

なおユーザ情報取得部12が、第2のユーザ情報として、第2のユーザの行動履歴、状態履歴及び環境履歴の少なくとも1つである第2のユーザ履歴情報を取得した場合には、提示情報決定部14は、取得された第2のユーザ履歴情報に基づいて、ロボット1が第1のユーザに対して提示する提示情報の決定処理を行う。この場合の第2のユーザ履歴情報は、例えば第2のユーザのウェアラブルセンサ150-2からのセンサ情報により携帯型電子機器100-2等が更新処理を行うことで得られる情報であり、携帯型電子機器100-2のユーザ情報記憶部122-2からロボット1のユーザ履歴情報記憶部23に転送される。またユーザの行動履歴、状態履歴、環境履歴としては、ユーザの行動(歩行、発話、食事等)、状態(疲労、緊張、空腹、精神状態、肉体状態等)、環境(場所、明るさ、気温等)を日時等に関連づけて記憶した情報(ログ情報)が考えられる。   When the user information acquisition unit 12 acquires second user history information, which is at least one of the second user's action history, state history, and environment history, as second user information, presentation information determination is performed. The unit 14 performs a process of determining presentation information that the robot 1 presents to the first user based on the acquired second user history information. The second user history information in this case is information obtained by the portable electronic device 100-2 or the like performing update processing based on sensor information from the wearable sensor 150-2 of the second user, for example. The data is transferred from the user information storage unit 122-2 of the electronic device 100-2 to the user history information storage unit 23 of the robot 1. The user behavior history, state history, and environment history include user behavior (walking, speech, meal, etc.), state (fatigue, tension, hunger, mental state, physical state, etc.), environment (location, brightness, temperature). And the like (log information) stored in association with the date and time.

また提示情報決定部14は、ロボット1による提示情報の提示に対する第1のユーザの反応に基づいて、ロボット1が第1のユーザに対して次に提示する提示情報の決定処理を行う。具体的には、例えばロボット1が第1のユーザに対して提示情報を提示し、それに対して第1のユーザが反応すると、その反応はロボット搭載センサ34により検知される。そして提示情報決定部14は、ロボット搭載センサ34からのセンサ情報等に基づいて、第1のユーザの反応を判断(推定)し、その反応に基づいて、次に提示する提示情報を決定する。   In addition, the presentation information determination unit 14 performs a process of determining the presentation information that the robot 1 presents to the first user next based on the first user's response to the presentation of presentation information by the robot 1. Specifically, for example, when the robot 1 presents presentation information to the first user and the first user reacts to the presentation information, the reaction is detected by the robot-mounted sensor 34. Then, the presentation information determination unit 14 determines (estimates) the response of the first user based on the sensor information from the robot-mounted sensor 34, and determines the next presentation information to be presented based on the response.

4.動作
次に本実施形態の動作について説明する。一般的に、ユーザとロボットとの会話(対話)は、1人のユーザと1台のロボットというように、1対1の対峙関係で実現される。しかしながら、このような1対1の関係では、ロボットの会話が単調なものになってしまい、ユーザに直ぐに飽きられてしまうという課題がある。
4). Operation Next, the operation of the present embodiment will be described. In general, a conversation between a user and a robot (conversation) is realized in a one-to-one confrontation relationship, such as one user and one robot. However, in such a one-to-one relationship, there is a problem that the conversation of the robot becomes monotonous and the user gets bored immediately.

この点、本実施形態では、第1のユーザと会話するロボットは、第1のユーザとは異なる第2のユーザの第2のユーザ情報に基づいて会話を行う。従って、第1のユーザは、ロボットとのコミュニケーションを介して、自身の家族、友人或いは恋人などの第2のユーザの情報を知ることができる。従って、ロボットの会話が単調になるのが防止され、ユーザに飽きられにくいロボットを実現できる。   In this regard, in this embodiment, the robot that has a conversation with the first user has a conversation based on the second user information of the second user different from the first user. Therefore, the first user can know the information of the second user such as his / her family, friend, or lover through communication with the robot. Therefore, the robot conversation is prevented from becoming monotonous, and a robot that does not get bored by the user can be realized.

この場合に、ロボットの会話によりユーザに提供される情報は、ウェアラブルセンサなどが有する行動センサ、状態センサ、環境センサからのセンサ情報により取得された第2のユーザ情報に基づくものになっている。このため、第1のユーザは、ロボットの会話を介して、自身が親しい第2のユーザの行動や、第2のユーザの状態や、第2のユーザを取り巻く環境について間接的に知ることが可能になる。従って、例えば父親の帰宅がいつも遅く、子供とのコミュニケーションを取れないような家庭において、父親は、ロボットの会話を介して、間接的に子供の様子を知ることが可能になる。また、離れた場所に住んでいる友人や恋人の様子を、ロボットとの会話を介して知ることも可能になり、これまでにないタイプのコミュニケーション手段としてのロボットを提供できる。   In this case, the information provided to the user by the conversation of the robot is based on the second user information acquired by the sensor information from the behavior sensor, the state sensor, and the environment sensor that the wearable sensor has. For this reason, the first user can indirectly know the behavior of the second user with whom he / she is close, the state of the second user, and the environment surrounding the second user through the conversation of the robot. become. Therefore, for example, in a home where the father's return home is always late and communication with the child cannot be made, the father can know the state of the child indirectly through robot conversation. In addition, it becomes possible to know the state of friends and lovers living in remote places through conversations with robots, and a robot as an unprecedented type of communication means can be provided.

例えば図3(A)において、家に帰宅した父親である第1のユーザは、携帯型電子機器100(100-1)をクレードル101に接続して、充電等を行っている。図3(A)では、このようなクレードル101への携帯型電子機器100の接続により、ロボット1の利用可能イベントが発生したと判定し、ロボット1を起動し、その利用を可能にする。なおクレードル101への接続ではなく、第1のユーザとロボット1との接近を判定して、ロボット1を起動してもよい。例えば携帯型電子機器100とロボット1の間の情報転送が無線により行われる場合には、その無線強度を検出することでロボット1の利用可能イベントの発生を判定できる。   For example, in FIG. 3A, a first user who is a father who has returned home connects the portable electronic device 100 (100-1) to the cradle 101 and performs charging or the like. In FIG. 3A, it is determined that an event that can be used by the robot 1 has occurred due to the connection of the portable electronic device 100 to the cradle 101, and the robot 1 is activated and can be used. Instead of connecting to the cradle 101, the robot 1 may be activated by determining the approach between the first user and the robot 1. For example, when information transfer between the portable electronic device 100 and the robot 1 is performed wirelessly, the occurrence of an available event of the robot 1 can be determined by detecting the wireless strength.

このような利用可能イベントが発生すると、ロボット1が起動し、その利用が可能になる。この場合に、子供である第2のユーザの第2のユーザ情報は、ロボット1のユーザ情報記憶部22に記憶されている。具体的には学校等での第2のユーザの行動、状態、環境等の情報が、第2のユーザ情報として転送されて記憶されている。これにより、第2のユーザ情報に基づくロボット1の会話等の制御が可能になる。なお、後述するように、子供である第2のユーザとロボット1との会話を介して第2のユーザ情報を収集して、取得してもよい。   When such an available event occurs, the robot 1 is activated and can be used. In this case, the second user information of the second user who is a child is stored in the user information storage unit 22 of the robot 1. Specifically, information such as the behavior, state, and environment of the second user at school or the like is transferred and stored as the second user information. Thereby, it is possible to control the conversation of the robot 1 based on the second user information. As will be described later, the second user information may be collected and acquired through a conversation between the robot 2 and the second user who is a child.

例えば図3(A)では、父親(第1のユーザ)が会社から帰宅してロボット1に近づくと、ロボット1が、子供(第2のユーザ)を話題とする会話を開始する。具体的には例えば後述するシナリオデータ等に基づいて「坊ちゃん、最近部活が忙しいみたいだね」という会話フレーズを発話し、子供の今日の様子を父親に知らせる。   For example, in FIG. 3A, when the father (first user) returns home from the company and approaches the robot 1, the robot 1 starts a conversation about the child (second user). Specifically, for example, based on scenario data to be described later, the utterance phrase “Bo-chan seems to be busy with club activities recently” is spoken to inform the father of the child's today.

更に図3(B)では、「夏休みには旅行にも行きたいってさ〜」とロボット1が発話し、例えばロボット1が子供との会話を通じて取得した子供の要望について、父親に知らせている。そして図3(B)では、この子供の要望に関する話題に興味を持った父親が、ロボット1を撫でている。即ち父親は、子供の要望について更に詳しく知りたいため、ロボット1を撫でて、更に詳しい情報を教えるようにロボット1に要求している。すると図3(C)に示すように、ロボット1は、子供から収集した情報に基づいて、「やっぱり夏は海かな〜だってさ」と発話する。これにより父親は、子供が夏休み行きたい場所は海であることを知ることができる。即ち図3(B)では、ロボット1が発話した会話フレーズ(ロボットによる提示情報の提示)に対する父親(第1のユーザ)の反応(撫でる動作)に基づいて、次にロボット1に発話させる会話フレーズ(次に提示する提示情報)を決定している。   Further, in FIG. 3B, the robot 1 speaks “I want to go on a trip during the summer vacation”, and for example, the father informs the father of the child's request acquired through the conversation with the child. . In FIG. 3B, a father who is interested in a topic related to this child's request strokes the robot 1. That is, the father requests the robot 1 to stroke the robot 1 and teach more detailed information in order to know more about the child's request. Then, as shown in FIG. 3 (C), the robot 1 utters “I wonder if summer is the sea?” Based on the information collected from the children. This allows the father to know that the place where the child wants to go summer vacation is the sea. That is, in FIG. 3 (B), the conversation phrase to be uttered next by the robot 1 based on the father's (first user) reaction (browsing motion) to the conversation phrase (presentation of presentation information by the robot) uttered by the robot 1. (Presentation information to be presented next) is determined.

例えば毎日の帰宅時間が遅い父親は、子供と接する時間が少ないため、子供の様子や要望についてなかなか知ることができない。また子供と接する時間があったとしても、子供が自身の要望を父親に対して直接に伝えない場合もある。   For example, fathers who are slow to go home every day have little time to interact with their children, so it is difficult to know their children's condition and demands. Even if there is time to interact with the child, the child may not communicate his wishes directly to the father.

このような場合にも本実施形態では、ロボット1を媒介として父親と子供との間接的なコミュニケーションが実現される。例えば子供が、父親に対しては直接に自身の要望を伝ない場合にも、本実施形態によれば、ロボット1を媒介として子供の要望を父親にスムーズに伝えることが可能になる。また、子供が無意識に自身の要望をロボット1に話した場合にも、その要望を父親に伝えることが可能になる。   Even in such a case, in the present embodiment, indirect communication between the father and the child is realized using the robot 1 as a medium. For example, even when the child does not directly transmit his / her request to the father, according to the present embodiment, the child's request can be smoothly transmitted to the father via the robot 1. Further, even when a child unconsciously speaks his / her request to the robot 1, the request can be transmitted to the father.

また、子供と接する時間が少ないため、子供への関心が薄れてしまっている父親に対して、自身の子供についての気付きを与えることも可能になる。従って、いわゆる利便性提供型サービスではなく、ロボット1との会話を通じてユーザに気付きを与えるというインスパイヤ型ユビキタスサービスの実現も可能になる。   In addition, since there is little time for contact with children, it becomes possible to give fathers who are less interested in children their awareness of their children. Therefore, it is possible to realize an inspire type ubiquitous service in which a user is aware through a conversation with the robot 1 instead of a so-called convenience providing type service.

なお、図3(A)のようにロボット1の利用可能イベントが発生して、ロボット1が起動した場合に、父親のユーザ情報である第1のユーザ情報を、ロボット1のユーザ情報記憶部22に転送して記憶してもよい。即ち会社や外出先等での父親の行動、状態、環境等の情報を転送して記憶する。このようにすれば、父親の第1のユーザ情報と、子供の第2のユーザ情報の両方を用いて、ロボット1の会話等を制御することが可能になる。   As shown in FIG. 3A, when a robot 1 usable event occurs and the robot 1 is activated, the first user information that is father's user information is stored in the user information storage unit 22 of the robot 1. You may transfer and memorize | store. In other words, information such as father's behavior, state, environment, etc. at the company or on the go is transferred and stored. In this way, it is possible to control the conversation or the like of the robot 1 using both the first user information of the father and the second user information of the child.

例えば、父親の帰宅時間がいつもよりも遅かったことが、第1のユーザ情報に基づき判断されたとする。具体的には、ウェアラブルセンサのGPSセンサからの場所情報やタイマからの時間情報に基づいて、父親の毎日の帰宅時間が計測される。そして過去における父親の帰宅時間の平均と、今回の帰宅時間とを比較すること、父親の帰宅時間が遅いか否かを判定する。   For example, it is assumed that it is determined based on the first user information that the father's return time is later than usual. Specifically, the father's daily return home time is measured based on the location information from the GPS sensor of the wearable sensor and the time information from the timer. Then, the average of the father's return time in the past and the current return time are compared, and it is determined whether or not the father's return time is late.

そして、父親の帰宅時間が普段よりもかなり遅い場合には、父親のTPOは仕事等で非常に疲れている状態であると推定できる。従ってこの場合には、ロボット1は、直ぐには子供を話題とする会話を行わずに、例えば「今日は、仕事で遅くなって、大変でしたね」というような労いの会話を行う。或いは父親が好きな野球チームの試合結果などを話題とする会話を行う。   When the father's return time is much later than usual, the father's TPO can be estimated to be very tired due to work or the like. Therefore, in this case, the robot 1 does not immediately conduct a conversation on the topic of the child, but performs a laborious conversation such as “Today, it was late because of work and it was difficult”. Or the conversation which talks about the result of the game of the baseball team which the father likes.

そして、時間が経過して、仕事で疲れた状態が軽減された後に、ロボット1は、第2のユーザ情報に基づいて子供を話題とする会話を開始する。即ち提示情報(会話)の決定処理における第1のユーザ情報(第1のユーザ履歴情報)の重み付けと、第2のユーザ情報(第2のユーザ履歴情報)の重み付けとを、時間経過に伴い変化させる。具体的には、ロボット1の利用可能イベントの発生時には、父親のユーザ情報である第1のユーザ情報の重み付けを大きくし、子供のユーザ情報である第2のユーザ情報の重み付けを小さくして提示情報の決定処理を行う。そして、その後、第1のユーザ情報の重み付けを小さくし、第2のユーザ情報の重み付けを大きくして提示情報の決定処理を行う。このようにすれば、父親のTPOに応じたタイムリーな情報提示が可能になる。   Then, after the time has passed and the state of being tired from work is reduced, the robot 1 starts a conversation about the child based on the second user information. That is, the weighting of the first user information (first user history information) and the weighting of the second user information (second user history information) in the presentation information (conversation) determination process change over time. Let Specifically, when an available event of the robot 1 occurs, the weighting of the first user information that is the father's user information is increased, and the weighting of the second user information that is the child's user information is decreased and presented. Information determination processing is performed. Then, after that, the weighting of the first user information is decreased and the weighting of the second user information is increased, and the presentation information determination process is performed. This makes it possible to present information in a timely manner according to the father's TPO.

図4に本実施形態の動作を説明するためのフローチャートを示す。   FIG. 4 shows a flowchart for explaining the operation of the present embodiment.

まずユーザ情報取得部12が、第2のユーザ(子供)のユーザ情報である第2のユーザ情報を取得する(ステップS1)。具体的には、第2のユーザの携帯型電子機器100-2からの第2のユーザ情報がユーザ情報記憶部22に転送され、この転送されたユーザ情報を読み出す。そしてロボット1が第1のユーザ(父親)に提示する提示情報(会話等)の内容を、取得された第2のユーザ情報(子供のユーザ情報)に基づいて決定する(ステップS2)。   First, the user information acquisition unit 12 acquires second user information that is user information of a second user (child) (step S1). Specifically, the second user information from the portable electronic device 100-2 of the second user is transferred to the user information storage unit 22, and the transferred user information is read. And the content of the presentation information (conversation etc.) which the robot 1 presents to the first user (father) is determined based on the acquired second user information (child user information) (step S2).

次にユーザ情報取得部12が、第1のユーザ(父親)のユーザ情報である第1のユーザ情報を取得する(ステップS3)。具体的には、第1のユーザの携帯型電子機器100-1からの第1のユーザ情報がユーザ情報記憶部22に転送され、この転送されたユーザ情報を読み出す。次に、必要であれば、第1のユーザ情報に基づいて第1のユーザのTPOを推定する(ステップS4)。ここで、TPO(Time Place Occasion)の情報は、時間情報(年、月、週、日、時間等)、ユーザの場所情報(居場所、位置、距離等)及びユーザの状況情報(精神・肉体状況、ユーザに対して発生したイベント等)の少なくとも1つの情報である。例えばGPSセンサにより得られる緯度・経度情報の意味合いは、ユーザに応じて異なり、その緯度・経度の場所がユーザの自宅であれば、ユーザの居場所は自宅であると推定される。   Next, the user information acquisition part 12 acquires the 1st user information which is the user information of a 1st user (father) (step S3). Specifically, the first user information from the portable electronic device 100-1 of the first user is transferred to the user information storage unit 22, and the transferred user information is read. Next, if necessary, the TPO of the first user is estimated based on the first user information (step S4). Here, TPO (Time Place Occasion) information includes time information (year, month, week, day, time, etc.), user location information (location, location, distance, etc.) and user status information (mental / physical status). At least one piece of information). For example, the meaning of latitude / longitude information obtained by a GPS sensor differs depending on the user. If the location of the latitude / longitude is the user's home, the user's location is estimated to be the home.

次に、第1のユーザ情報(第1のユーザのTPO)に基づいて、第1のユーザに提示情報を提示するタイミングであるか否かを判断する(ステップS5)。例えば第1のユーザ情報に基づいて、第1のユーザが忙しかったり、疲れていると判断した場合には、提示タイミングではないと判断して、ステップS3に戻る。   Next, based on the first user information (first user's TPO), it is determined whether it is time to present the presentation information to the first user (step S5). For example, if it is determined that the first user is busy or tired based on the first user information, it is determined that it is not the presentation timing, and the process returns to step S3.

一方、第1のユーザに提示するタイミングであると判断した場合には、ロボット1に提示情報を提示させるロボット制御を行う(ステップS6)。具体的には、図3(A)〜図3(C)のように、ロボット1に会話フレーズを発話させるロボット制御を行う。   On the other hand, if it is determined that it is time to present to the first user, robot control is performed to present the presentation information to the robot 1 (step S6). Specifically, as shown in FIGS. 3A to 3C, robot control is performed to cause the robot 1 to speak a conversation phrase.

次に、ステップS6での提示情報の提示に対する第1のユーザの反応をモニタする(ステップS7)。例えば第1のユーザがロボット1を撫でる動作をしたのか、叩く動作をしたのか、或いは何もしなかったのかを判断する。そして、モニタされた第1のユーザの反応に基づいて、次にロボット1が提示する提示情報を決定する(ステップS8)。即ち次にロボット1が発話する会話フレーズを決定する。   Next, the first user's reaction to the presentation information presented in step S6 is monitored (step S7). For example, it is determined whether the first user strokes the robot 1, strikes the robot 1, or does nothing. Then, based on the monitored reaction of the first user, presentation information to be presented next by the robot 1 is determined (step S8). That is, the conversation phrase that the robot 1 speaks next is determined.

5.複数台のロボット
以上では、ユーザが複数であり、ロボットが1台である場合について説明したが、本実施形態はこれに限定されず、ユーザが複数であり、ロボットが複数台である場合にも適用できる。図5に、ロボットが複数台である場合の本実施形態の第2のシステム構成例を示す。
5). Multiple Robots In the above, a case where there are a plurality of users and a single robot has been described. However, the present embodiment is not limited to this, and a case where there are a plurality of users and there are a plurality of robots is also possible. Applicable. FIG. 5 shows a second system configuration example of the present embodiment when there are a plurality of robots.

このシステムは、第1、第2のユーザが所持する携帯型電子機器100-1、100-2や、本実施形態のロボット制御システムにより制御されるロボット1、2(第1、第2のロボット)を有する。そして、ロボット制御システムは、例えばロボット1、2が有する処理部10、60により実現される。なお、ロボット2の構成はロボット1と同様であるため、ここでは詳細な説明を省略する。   This system includes portable electronic devices 100-1 and 100-2 possessed by first and second users, and robots 1 and 2 (first and second robots) controlled by the robot control system of the present embodiment. ). The robot control system is realized by the processing units 10 and 60 included in the robots 1 and 2, for example. Since the configuration of the robot 2 is the same as that of the robot 1, detailed description thereof is omitted here.

図5では、提示情報決定部14(64)は、取得された同じ第2のユーザ情報に対してロボット1、2が異なる提示情報(異なる会話フレーズ、異なる感情表現、異なる行動表現)を提示(発話)するように、第1のユーザに対して提示する提示情報(会話フレーズ)の決定処理を行う。例えば、取得された第2のユーザ情報に対して、ロボット1が、第1の提示情報(第1の会話フレーズ)を提示し、ロボット2が、第1の提示情報とは異なる第2の提示情報(第2の会話フレーズ)を提示するように、提示情報の決定処理を行う。   In FIG. 5, the presentation information determination unit 14 (64) presents different presentation information (different conversation phrases, different emotion expressions, different behavior expressions) for the robots 1 and 2 for the same second user information acquired ( The presentation information (conversation phrase) to be presented to the first user is determined so as to speak. For example, with respect to the acquired second user information, the robot 1 presents first presentation information (first conversation phrase), and the robot 2 presents a second presentation different from the first presentation information. The presentation information is determined so as to present the information (second conversation phrase).

次に図5の動作について説明する。一般的に、ユーザとロボットとの会話(対話)は、1人のユーザと1台のロボットというように、1対1の対峙関係で実現される。   Next, the operation of FIG. 5 will be described. In general, a conversation between a user and a robot (conversation) is realized in a one-to-one confrontation relationship, such as one user and one robot.

これに対して図5では、2台のロボット1、2(広義には複数台のロボット)が用意される。そしてユーザは、ロボット1、2と直接会話するのではなく、ロボット1、2の間で行われる会話を傍観しならが聞くという形態をとる。   On the other hand, in FIG. 5, two robots 1 and 2 (a plurality of robots in a broad sense) are prepared. The user does not directly talk to the robots 1 and 2 but takes a form of listening to the conversation between the robots 1 and 2 as long as they look.

このようにすれば、外部からユーザに一方的に情報を提供する利便性提供型サービスではなく、ロボット1、2の間で行われる会話を通して、ユーザの内面に働きかけ、ユーザの行動、状態、環境についての気付き(インスパイヤ)をユーザに与えることで、自己の成長を促すというインスパイヤ型ユビキタスサービスの実現が可能になる。   In this way, it is not a convenience-providing service that unilaterally provides information to the user from the outside, but works on the inside of the user through a conversation between the robots 1 and 2, and the user's behavior, state, environment By giving the user an awareness of (inspire), it is possible to realize an inspire ubiquitous service that encourages self-growth.

図6(A)〜図6(C)は、子供である第2のユーザの第2のユーザ情報を取得する場面の例である。図6(A)において、家に帰宅した子供は、携帯型電子機器100(100-2)をクレードル101に接続して、充電等を行っている。図6(A)では、このクレードル101への携帯型電子機器100の接続により、ロボット1、2の利用可能イベントが発生したと判定し、ロボット1、2を起動し、その利用を可能にする。なお、無線強度の検出により、子供との接近を判定して、ロボット1、2を起動してもよい。   FIGS. 6A to 6C are examples of scenes in which second user information of a second user who is a child is acquired. In FIG. 6A, the child who returns home connects the portable electronic device 100 (100-2) to the cradle 101 and performs charging or the like. In FIG. 6A, it is determined that an event that can be used by the robots 1 and 2 has occurred due to the connection of the portable electronic device 100 to the cradle 101, the robots 1 and 2 are activated, and the use is enabled. . Note that the robots 1 and 2 may be activated by determining the approach to the child by detecting the wireless intensity.

このようにロボット1、2が起動すると、子供が所持する携帯型電子機器100に記憶された第2のユーザ情報が、ロボット1、2のユーザ情報記憶部22、72に転送される。そして、モバイル環境において更新された子供の第2のユーザ情報に基づいて、ロボット1、2の会話等が制御される。また、モバイル環境で更新された第2のユーザ情報が、ロボット1、2との会話等に基づいて、ホーム環境において更に更新される。   When the robots 1 and 2 are thus activated, the second user information stored in the portable electronic device 100 possessed by the child is transferred to the user information storage units 22 and 72 of the robots 1 and 2. And the conversation of the robots 1 and 2 is controlled based on the second user information of the child updated in the mobile environment. The second user information updated in the mobile environment is further updated in the home environment based on conversations with the robots 1 and 2.

例えば図6(A)では、子供の帰宅時間がいつもよりも遅かったことが、第2のユーザ情報に基づき判断される。このように、帰宅時間が遅いと判断された場合には、子供の帰宅時間に関連した提示情報がロボット1、2により提示される。具体的には、子供の帰宅時間の話題に関するシナリオデータが選択され、選択されたシナリオデータにしたがってロボット1、2が会話を開始する。例えば図6(A)では、ロボット1が「今日は学校の帰りが遅かったね」という会話フレーズを発話し、それに対してロボット2が「最近、遅い日が多いよね〜」という会話フレーズを発話する。   For example, in FIG. 6A, it is determined based on the second user information that the child's return time is later than usual. As described above, when it is determined that the return time is late, presentation information related to the return time of the child is presented by the robots 1 and 2. Specifically, scenario data related to the topic of the child's return time is selected, and the robots 1 and 2 start a conversation according to the selected scenario data. For example, in FIG. 6A, the robot 1 utters a conversation phrase “It was late for school today,” and the robot 2 utters a conversation phrase “There are many late days recently.” .

そして図6(B)ではロボット1が「部活が忙しいのかな」と発話し、ロボット2が「どうせフラフラ遊び歩いているんじゃない?」と発話する。このように図6(B)では、「帰宅時間がいつもより遅い」という同じ第2のユーザ情報に対して、ロボット1、2が異なる提示情報を提示する。すると、子供は、実際には部活で忙しくて帰宅が遅くなったため、「部活が忙しいのかな」と発話したロボット1の方を撫でる。これにより図6(C)に示すように、撫でられた方のロボット1が、「そういえばもうすぐ地区大会だったね」と発話する。   In FIG. 6B, the robot 1 speaks “Is your club activity busy?” And the robot 2 speaks “Why are you walking around?” In this way, in FIG. 6B, the robots 1 and 2 present different presentation information for the same second user information that “the return time is later than usual”. Then, since the child was actually busy with club activities and returned home late, the child strokes the robot 1 saying “Is the club club busy?” As a result, as shown in FIG. 6C, the stroked robot 1 speaks, “That's right, it was a district tournament soon.”

この場合に、図6(B)のようなロボット1、2の対照的な会話フレーズに対する子供の反応(撫でる操作)に基づき、第2のユーザ情報が更新される。即ち、子供の帰宅が遅くなったのは、部活が原因であったことが推定され、部活で帰宅が遅くなったことが、第2のユーザ情報として記録されて、父親に提示するシナリオデータが作成される。即ち、ロボット1、2が発話した会話フレーズに対する子供(第2のユーザ)の反応に基づき、父親(第1のユーザ)に提示するシナリオデータが作成される。   In this case, the second user information is updated based on the child's reaction (stroking operation) to the contrasting conversation phrases of the robots 1 and 2 as shown in FIG. That is, it is estimated that the reason why the child's return home was delayed was due to the club activities, and that the home return was delayed due to the club activities was recorded as the second user information, and the scenario data presented to the father was Created. That is, scenario data to be presented to the father (first user) is created based on the reaction of the child (second user) to the conversation phrase spoken by the robots 1 and 2.

図7(A)〜図7(C)は、子供の帰宅後、第1のユーザである父親が帰宅した場面の例である。   FIG. 7A to FIG. 7C are examples of scenes in which the father who is the first user returns home after the child returns home.

父親が帰宅して、クレードル101への携帯型電子機器100(100-1)の接続等が検出されると、ロボット1、2が起動する。この場合に、図6(A)〜図6(C)で説明した子供との会話により更新された第2のユーザ情報が、ロボット1、2のユーザ情報記憶部22、72に記憶されている。そしてロボット1、2は、この第2のユーザ情報に基づいて、その会話等が制御される。具体的には、子供の遅い帰宅時間の話題に関するシナリオデータが選択されて、選択されたシナリオデータにしたがってロボット1、2が会話を開始する。例えば図7(A)では、ロボット1が「坊ちゃん学校の帰りが遅かったんだよ」と発話し、それに対してロボット2が「最近、遅い日が多いみたいだね〜」と発話する。   When the father returns home and the connection of the portable electronic device 100 (100-1) to the cradle 101 is detected, the robots 1 and 2 are activated. In this case, the second user information updated by the conversation with the child described with reference to FIGS. 6A to 6C is stored in the user information storage units 22 and 72 of the robots 1 and 2. . The conversations of the robots 1 and 2 are controlled based on the second user information. Specifically, scenario data related to the topic of the child's late home return time is selected, and the robots 1 and 2 start a conversation according to the selected scenario data. For example, in FIG. 7A, the robot 1 speaks “It was late for chan-chan school”, and the robot 2 speaks “It seems that there are many late days now.”

この場合に、「子供の帰宅時間がいつもより遅い」という同じ第2のユーザ情報に対して、ロボット1、2が異なる提示情報を提示するように、父親(第1のユーザ)に対してロボット1、2が提示する提示情報の決定処理が行われる。具体的には図7(B)では、子供の遅い帰宅時間について、ロボット1は「部活が忙しいらしいよ」と発話し、ロボット2は「でも、なんか機嫌が悪いんだ」と発話する。   In this case, for the same second user information “the child's return time is later than usual”, the robots 1 and 2 present different presentation information to the father (first user). Processing for determining the presentation information presented by 1 and 2 is performed. Specifically, in FIG. 7B, regarding the child's late home return time, the robot 1 speaks “It seems that the club activities are busy”, and the robot 2 speaks “But I ’m in a bad mood”.

例えば、ロボットとユーザが1対1で対峙し、ロボットが常に同じような傾向の会話を行うと、ユーザはロボットとの会話に閉塞感や行き詰まり感を感じるおそれがある。   For example, if the robot and the user face each other on a one-on-one basis and the robot always conducts a conversation having the same tendency, the user may feel a sense of blockage or a deadlock in the conversation with the robot.

これに対して図7(B)では、ロボット1、2が、互いに異なる対照的な会話フレーズを発話する。しかも、ユーザに対して直接会話するのではなく、ロボット1、2同士で会話を行い、ユーザがそれを見守るという形態をとる。従って、いわゆる利便性提供型サービスではなく、ロボット1、2の間で行われる会話を通してユーザに気付きを与えるというインスパイヤ型ユビキタスサービスの提供が可能になる。   In contrast, in FIG. 7B, the robots 1 and 2 utter different contrasting conversation phrases. Moreover, instead of having a direct conversation with the user, the robots 1 and 2 have a conversation, and the user watches it. Therefore, it is possible to provide an inspire type ubiquitous service that is not a so-called convenience-providing service but that gives the user awareness through conversations between the robots 1 and 2.

また図7(B)では、父親は、子供の今日の機嫌に関する話題よりも、子供の部活に関する話題の方に興味があるため、ロボット1の方を撫でている。そして、ロボット1の接触センサ410等により、ロボット1、2による会話フレーズの発話に対するユーザの反応である「撫でる動作」が検知される。   In FIG. 7B, since the father is more interested in topics related to children's club activities than topics related to today's moods of children, the father is stroking the robot 1. Then, the “browsing motion” that is the user's reaction to the utterance of the conversation phrase by the robot 1 or 2 is detected by the contact sensor 410 or the like of the robot 1.

すると、このような「撫でる動作」というユーザの反応に基づいて、ロボット1、2が父親に対して次に会話する会話フレーズ(次に提示する提示情報)の決定処理を行う。具体的には図7(C)に示すように、撫でられた側のロボット1は、「もうすぐ地区大会だからね」と発話する。そして、その後は、子供の部活に関する話題のシナリオにより、ロボット1、2の間の会話が続けられる。   Then, based on the user's reaction of such “blowing motion”, a determination process of a conversation phrase (presentation information to be presented next) in which the robots 1 and 2 talk to the father next is performed. Specifically, as shown in FIG. 7 (C), the stroked robot 1 utters “Because it is a district tournament soon”. Thereafter, the conversation between the robots 1 and 2 is continued according to a topical scenario related to the club activities of the child.

このように図6(A)〜図6(C)では、ロボット1、2の会話を通じて、子供のユーザ情報である第2のユーザ情報が更新されて、父親に提示するシナリオデータが作成される。従って、子供が特に意識することなく、自然に第2のユーザ情報が収集されて、取得される。そして取得された第2のユーザ情報に基づいて、子供を話題とするシナリオデータが作成され、図7(A)〜図7(C)に示すように、ロボット1、2の会話を通じて、子供の話題が父親に提供される。従って、父親や子供が特に意識しなくても、ロボット1、2を媒介として父親と子供との間接的なコミュニケーションを実現できる。これにより、ロボットとの会話を通じてユーザに気付きを与えるというインスパイヤ型ユビキタスサービスの実現が可能になる。   As described above, in FIGS. 6A to 6C, the second user information, which is the child user information, is updated through the conversation between the robots 1 and 2, and scenario data to be presented to the father is created. . Therefore, the second user information is naturally collected and acquired without the child being particularly conscious. Then, based on the acquired second user information, scenario data on the topic of the child is created, and as shown in FIGS. 7A to 7C, the child 1 Topics are provided to the father. Therefore, even if the father and the child are not particularly conscious, the indirect communication between the father and the child can be realized through the robots 1 and 2. This makes it possible to implement an inspire ubiquitous service that gives the user awareness through conversations with the robot.

図8に、図5のシステムの動作を説明するためのフローチャートを示す。図8が図4のフローチャートと主に異なるのは、ステップS56の処理である。即ちステップS55で、第1のユーザ(父親)に提示するタイミングであると判断された場合には、ステップS56では、ロボット1、2に異なる提示情報を提示させるロボット制御が行われる。具体的には、図7(A)〜図7(C)で説明したように、同じ第2のユーザ情報(子供の帰宅時間)に対して、ロボット1、2が異なる会話を行うようにロボット1、2の会話フレーズを決定し、ロボット1、2に発話させる。これにより、ユーザとロボットとの会話が単調になってしまう事態が防止される。   FIG. 8 shows a flowchart for explaining the operation of the system of FIG. FIG. 8 differs from the flowchart of FIG. 4 mainly in the process of step S56. That is, if it is determined in step S55 that it is the timing to present to the first user (father), in step S56, robot control for causing the robots 1 and 2 to present different presentation information is performed. Specifically, as described in FIGS. 7A to 7C, the robots 1 and 2 perform different conversations on the same second user information (children's return time). Determine conversation phrases 1 and 2, and let robots 1 and 2 speak. This prevents a situation where the conversation between the user and the robot becomes monotonous.

図9に、図5の変形例である第3のシステム構成例を示す。図9では、ロボット1がマスタ側に設定され、ロボット2がスレーブ側に設定される。そしてロボット制御システムは、主にマスタ側のロボット1が有する処理部10により実現される。   FIG. 9 shows a third system configuration example which is a modification of FIG. In FIG. 9, the robot 1 is set on the master side, and the robot 2 is set on the slave side. The robot control system is realized mainly by the processing unit 10 included in the robot 1 on the master side.

具体的にはマスタ側のロボット1に設けられたユーザ情報取得部12がユーザ情報(第2のユーザ情報)を取得し、マスタ側の提示情報決定部14が、取得されたユーザ情報に基づいて、ロボット1、2がユーザに対して提示する提示情報の決定処理を行う。例えばマスタ側、スレーブ側のロボット1、2が、各々、第1、第2の提示情報を提示することが決定された場合には、マスタ側のロボット制御部30は、決定された第1の提示情報をロボット1に提示させるための制御を行う。このようにしてマスタ側のロボット1が制御される。またマスタ側の提示情報決定部14は、スレーブ側のロボット2に対して、ユーザへの提示情報の提示を指示する。例えばマスタ側、スレーブ側が、各々、第1、第2の提示情報を提示することが決定された場合には、スレーブ側のロボット2に対して、第2の提示情報を提示することを指示する。するとスレーブ側のロボット制御部80は、決定された第2の提示情報をロボット2に提示させるためのロボット制御を行う。このようにしてスレーブ側のロボット2が制御される。   Specifically, the user information acquisition unit 12 provided in the master-side robot 1 acquires user information (second user information), and the master-side presentation information determination unit 14 is based on the acquired user information. The presentation information to be presented to the user by the robots 1 and 2 is determined. For example, when it is determined that the robots 1 and 2 on the master side and the slave side respectively present the first and second presentation information, the robot control unit 30 on the master side determines the determined first Control for causing the robot 1 to present the presentation information is performed. In this way, the master-side robot 1 is controlled. In addition, the master-side presentation information determination unit 14 instructs the slave-side robot 2 to present the presentation information to the user. For example, when it is determined that the master side and the slave side respectively present the first and second presentation information, the slave side robot 2 is instructed to present the second presentation information. . Then, the robot controller 80 on the slave side performs robot control for causing the robot 2 to present the determined second presentation information. In this way, the slave robot 2 is controlled.

この場合に、通信部40は、提示情報の提示を指示する指示情報を、マスタ側のロボット1からスレーブ側のロボット2に対して、例えば無線等により通信する。そしてスレーブ側の通信部90がこの指示情報を受信すると、スレーブ側のロボット制御部80は、この指示情報で指示された提示情報をロボット2に提示させるためのロボット制御を行う。   In this case, the communication unit 40 communicates instruction information for instructing presentation of presentation information from the master robot 1 to the slave robot 2 by, for example, wireless communication. When the communication unit 90 on the slave side receives this instruction information, the robot control unit 80 on the slave side performs robot control for causing the robot 2 to present the presentation information instructed by this instruction information.

ここで提示情報の指示情報は、例えば提示情報の識別コードなどである。提示情報がシナリオの会話フレーズである場合には、この指示情報は、シナリオにおける会話フレーズのデータコードになる。   Here, the instruction information of the presentation information is, for example, an identification code of the presentation information. When the presented information is a scenario conversation phrase, the instruction information becomes a conversation phrase data code in the scenario.

例えばロボット1、2が掛け合いの会話を行う場合に、ロボット1の発話した会話フレーズをロボット2が音声認識し、その音声認識の結果に基づいてロボット2に会話フレーズを発話させる手法が考えられる。   For example, when the robots 1 and 2 are engaged in conversation, the robot 2 can recognize the speech phrase spoken by the robot 1, and the robot 2 can speak the speech phrase based on the result of the speech recognition.

しかしながら、この手法によると複雑は音声認識処理や解析処理が必要になり、ロボットの高コスト化、処理の複雑化、誤動作の発生などを招く。   However, according to this method, complicated speech recognition processing and analysis processing are required, leading to high robot costs, complicated processing, and malfunctions.

この点、図9では、マスタ側のロボット1の制御の下で、ロボット1、2の掛け合いの会話が実現される。即ち、ユーザの目からは、ロボット1、2がお互いの言葉を認識し合いながら会話しているように見えるが、実際には、全ての会話がマスタ側のロボット1の制御の下で行われる。またスレーブ側のロボット2は、マスタ側のロボット1から通信される指示情報に基づいて、自身が提示する情報を決定するため、音声認識処理を不要にできる。従って、複雑な音声認識処理等を行わなくても、ロボット1、2の間での掛け合いの会話を、誤動作の少ない安定した制御の下で実現できる。   In this regard, in FIG. 9, conversations between the robots 1 and 2 are realized under the control of the robot 1 on the master side. That is, from the user's eyes, it seems that the robots 1 and 2 are talking while recognizing each other's words, but in reality, all conversations are performed under the control of the robot 1 on the master side. . Further, since the slave robot 2 determines information to be presented based on the instruction information communicated from the master robot 1, the voice recognition process can be omitted. Therefore, conversations between the robots 1 and 2 can be realized under stable control with few malfunctions without performing complicated speech recognition processing or the like.

6.ネットワークを介した第2のユーザ情報の取得
以上では、家族間のコミュニケーションに本実施形態の手法を適用した場合について主に説明したが、本実施形態はこれに限定されない。例えば友人、恋人、親戚などの場所的に離れたユーザ間でのコミュニケーションにも本実施形態の手法は適用できる。
6). Acquisition of Second User Information Through Network Although the description has been mainly given of the case where the method of the present embodiment is applied to communication between family members, the present embodiment is not limited to this. For example, the method of this embodiment can be applied to communication between users such as friends, lovers, and relatives who are separated from each other.

例えば図10では、第1のユーザの恋人である第2のユーザの第2のユーザ情報が取得される。具体的には第2のユーザのモバイル環境やホーム環境において、図1等で説明した手法により第2のユーザ情報(第2のユーザ履歴情報)が更新される。そして、更新された第2のユーザ情報は、インターネットなどのネットワークを介して通信される。即ち、ロボット1(ロボット制御システム)のユーザ情報取得部12が、第2のユーザ情報をネットワークを介して取得する。そして提示情報決定部14が、ネットワークを介して取得された第2のユーザ情報に基づいて、第1のユーザに提示する提示情報の決定処理を行う。   For example, in FIG. 10, the second user information of the second user who is the lover of the first user is acquired. Specifically, in the second user's mobile environment or home environment, the second user information (second user history information) is updated by the method described in FIG. The updated second user information is communicated via a network such as the Internet. That is, the user information acquisition unit 12 of the robot 1 (robot control system) acquires the second user information via the network. And the presentation information determination part 14 performs the determination process of the presentation information shown to a 1st user based on the 2nd user information acquired via the network.

このようにすれば、第1のユーザは、遠く離れた場所にいる第2のユーザの行動、状態又は環境(行動履歴、状態履歴、環境履歴)等を、ロボット1を媒介として知ることができる。即ちロボット1(或いはロボット1、2)は、ネットワークを介して取得した第2のユーザ情報によるシナリオデータに基づいて、図3(A)〜図3(C)で説明したような会話を行う。従って、第1のユーザは、恋人である第2のユーザの様子を、ロボット1の会話を通じて間接的に知ることができる。これにより、遠く離れた場所にいる第1、第2のユーザ間での間接的なコミュニケーションを実現でき、これまでにないコミュニケーション手段を提供できる。なお図10のシステムにおいて第2のユーザ情報を携帯型電子機器を媒介せずに取得するようにしてもよい。   In this way, the first user can know the behavior, state, or environment (behavior history, state history, environment history) of the second user who is far away from the robot 1 as a medium. . That is, the robot 1 (or the robots 1 and 2) performs the conversation as described in FIGS. 3A to 3C based on the scenario data based on the second user information acquired through the network. Therefore, the first user can indirectly know the state of the second user who is a lover through the conversation of the robot 1. Thereby, the indirect communication between the 1st and 2nd users in a distant place can be implement | achieved, and an unprecedented communication means can be provided. Note that the second user information may be acquired without using a portable electronic device in the system of FIG.

7.システム構成例
次に本実施形態の別のシステム構成例について説明する。図11は本実施形態の第4のシステム構成例である。なお図11は、1台のロボットが設けられる場合の例であるが、図5のように複数台のロボットを設けてもよい。
7). System Configuration Example Next, another system configuration example of the present embodiment will be described. FIG. 11 shows a fourth system configuration example of this embodiment. FIG. 11 shows an example in which one robot is provided, but a plurality of robots may be provided as shown in FIG.

図11では、ローカルサーバであるホームサーバ200が設けられている。このホームサーバ200は、ホームサブシステムの制御対象機器の制御のための処理を行ったり、外部との通信処理などを行う。ロボット1(或いはロボット1、2)はこのホームサーバ200の制御の下で動作する。   In FIG. 11, a home server 200 which is a local server is provided. The home server 200 performs processing for controlling a control target device of the home subsystem, communication processing with the outside, and the like. The robot 1 (or robots 1 and 2) operates under the control of the home server 200.

そして図11のシステムでは、携帯型電子機器100-1、100-2とホームサーバ200は例えば無線LANやクレードル等で通信接続され、ホームサーバ200とロボット1は例えば無線LAN等で通信接続される。そして本実施形態のロボット制御システムは、主にホームサーバ200の処理部210により実現される。なおロボット制御システムの処理を、ホームサーバ200とロボット1の分散処理により実現してもよい。   In the system of FIG. 11, the portable electronic devices 100-1 and 100-2 and the home server 200 are communicatively connected by, for example, a wireless LAN or a cradle, and the home server 200 and the robot 1 are communicatively connected by, for example, a wireless LAN. . The robot control system according to this embodiment is mainly realized by the processing unit 210 of the home server 200. Note that the processing of the robot control system may be realized by distributed processing of the home server 200 and the robot 1.

携帯型電子機器100-1又は100-2を所持したユーザ(第1、第2のユーザ)が家に近づくと、無線LAN等により携帯型電子機器100-1、100-2とホームサーバ200の間の通信が可能になる。或いは携帯型電子機器100-1、100-2をクレードルに置くことで、通信が可能になる。   When a user (first or second user) possessing portable electronic device 100-1 or 100-2 approaches the home, portable electronic devices 100-1, 100-2 and home server 200 are connected by wireless LAN or the like. Communication between them becomes possible. Alternatively, communication can be performed by placing the portable electronic devices 100-1 and 100-2 in a cradle.

そして通信経路が確立されると、携帯型電子機器100-1、100-2からホームサーバ200のユーザ情報記憶部222にユーザ情報(第1、第2のユーザ情報)が転送される。これにより、ホームサーバ200のユーザ情報取得部212がユーザ情報を取得する。そして演算部213が必要な演算処理を行い、提示情報決定部214が、ロボット1がユーザに対して提示する提示情報を決定する。そして、決定された提示情報又は提示情報の指示情報(例えば会話フレーズの発話指示情報)が、ホームサーバ200の通信部238からロボット1の通信部40に送信される。そしてロボット1のロボット制御部30は、受信した提示情報又は受信した指示情報により指示される提示情報を、ユーザに提示するためのロボット制御を行う。   When the communication path is established, user information (first and second user information) is transferred from the portable electronic devices 100-1 and 100-2 to the user information storage unit 222 of the home server 200. Thereby, the user information acquisition unit 212 of the home server 200 acquires user information. Then, the calculation unit 213 performs necessary calculation processing, and the presentation information determination unit 214 determines the presentation information that the robot 1 presents to the user. Then, the determined presentation information or instruction information of the presentation information (for example, speech phrase utterance instruction information) is transmitted from the communication unit 238 of the home server 200 to the communication unit 40 of the robot 1. The robot control unit 30 of the robot 1 performs robot control for presenting the received presentation information or the presentation information indicated by the received instruction information to the user.

図11の構成によれば、例えばユーザ情報や提示情報(シナリオデータ)のデータサイズが大きい場合に、ロボット1にユーザ情報や提示情報の記憶部を設けなくても済むため、ロボット1の低コスト化やコンパクト化を図れる。またユーザ情報や提示情報の転送や演算処理を、ホームサーバ200に一元化して処理、管理できるため、よりインテリジェントなロボット制御が可能になる。   According to the configuration of FIG. 11, for example, when the data size of user information or presentation information (scenario data) is large, it is not necessary to provide a storage unit for user information or presentation information in the robot 1. And downsizing. Further, since transfer and calculation processing of user information and presentation information can be centralized and processed and managed by the home server 200, more intelligent robot control is possible.

また図11のシステムによれば、ロボット1の利用可能イベントが発生する前に、携帯型電子機器100-1、100-2からのユーザ情報を、ホームサーバ200のユーザ情報記憶部222に予め転送しておくことができる。例えばユーザが家に帰ってロボット1に近づく前に(具体的には、ユーザが身につけたウェアラブルセンサの1つであるGPSセンサからの情報が、ユーザが最寄り駅に着いたことを示したり、ホームセンサの1つであるドアの開閉センサからの情報が、ユーザが玄関のドアを開けたことを示したりしたタイミングなど)、モバイル環境で更新されたユーザ情報をホームサーバ200のユーザ情報記憶部222に予め転送して書き込んでおく。そしてユーザがロボット1に近づき、ロボット1の利用可能イベントが発生すると、ユーザ情報記憶部222に予め転送されたユーザ情報を用いた、ロボット1の制御動作を開始させる。即ちロボット1を起動し、例えば図3(A)〜図3(C)に示すような会話を行うようにロボット1を制御する。このようにすれば、ロボット1が起動した後に、ユーザ情報に基づく会話を直ぐに開始できるようになり、制御を効率化できる。   Further, according to the system of FIG. 11, the user information from the portable electronic devices 100-1 and 100-2 is transferred in advance to the user information storage unit 222 of the home server 200 before the event that the robot 1 can be used occurs. Can be kept. For example, before the user returns home and approaches the robot 1 (specifically, information from a GPS sensor that is one of wearable sensors worn by the user indicates that the user has arrived at the nearest station, The user information storage unit of the home server 200 stores the user information updated in the mobile environment, for example, when the information from the door opening / closing sensor, which is one of the home sensors, indicates that the user opened the front door. 222 is transferred and written in advance. When the user approaches the robot 1 and an available event of the robot 1 occurs, the control operation of the robot 1 using the user information previously transferred to the user information storage unit 222 is started. That is, the robot 1 is activated, and the robot 1 is controlled to perform a conversation as shown in FIGS. 3A to 3C, for example. In this way, the conversation based on the user information can be started immediately after the robot 1 is activated, and the control can be made efficient.

図12に本実施形態の第5のシステム構成例を示す。図12では、メインサーバである外部サーバ300が設けられている。この外部サーバ300は、携帯型電子機器100-1、100-2との間やホームサーバ200との間での通信処理を行ったり、各種の管理制御を行う。なお図12は、1台のロボットが設けられる場合の例であるが、図5のように複数台のロボットを設けてもよい。   FIG. 12 shows a fifth system configuration example of the present embodiment. In FIG. 12, an external server 300 as a main server is provided. The external server 300 performs communication processing with the portable electronic devices 100-1 and 100-2 and with the home server 200, and performs various management controls. FIG. 12 shows an example in which one robot is provided, but a plurality of robots may be provided as shown in FIG.

図12のシステムでは、携帯型電子機器100-1、100-2と外部サーバ300はPHS等の無線WANで通信接続され、外部サーバ300とホームサーバ200はADSL等の有線WANで通信接続され、ホームサーバ200とロボット1(ロボット1、2)は無線LAN等で通信接続される。そして本実施形態のロボット制御システムは、主に、ホームサーバ200の処理部210や外部サーバ300の図示しない処理部により実現される。なおロボット制御システムの処理を、ホームサーバ200、外部サーバ300、ロボット1の分散処理により実現してもよい。   In the system of FIG. 12, the portable electronic devices 100-1 and 100-2 and the external server 300 are communicatively connected by a wireless WAN such as PHS, and the external server 300 and the home server 200 are communicatively connected by a wired WAN such as ADSL. The home server 200 and the robot 1 (robots 1 and 2) are communicatively connected via a wireless LAN or the like. The robot control system of the present embodiment is mainly realized by the processing unit 210 of the home server 200 and the processing unit (not shown) of the external server 300. The processing of the robot control system may be realized by distributed processing of the home server 200, the external server 300, and the robot 1.

携帯型電子機器100-1、100-2、ホームサーバ200等の各ユニットは、適宜、外部サーバ300と通信して、ユーザ情報(第1、第2のユーザ情報)の転送処理を行う。また、PHSの位置登録情報、GPSセンサ、マイク等を利用して、ユーザ(第1、第2のユーザ)が家に近づいたか否かを判断し、近づいた場合には、外部サーバ300の図示しないユーザ情報記憶部に記憶されたユーザ情報を、ホームサーバ200のユーザ情報記憶部222にダウンロードして、ロボット1による提示情報の提示制御を開始させる。なお、後述するシナリオデータ等の提示情報も、外部サーバ300からホームサーバ200の提示情報記憶部226にダウンロードできる。   Each unit such as the portable electronic devices 100-1 and 100-2 and the home server 200 appropriately communicates with the external server 300 to perform transfer processing of user information (first and second user information). In addition, it is determined whether or not the user (first and second users) has approached the house using PHS location registration information, a GPS sensor, a microphone, and the like. The user information stored in the user information storage unit that is not to be downloaded is downloaded to the user information storage unit 222 of the home server 200, and the presentation information presentation control by the robot 1 is started. In addition, presentation information such as scenario data described later can also be downloaded from the external server 300 to the presentation information storage unit 226 of the home server 200.

図12のシステムによれば、ユーザ情報や提示情報を、外部サーバ300において一元的に管理できるようになる。   According to the system of FIG. 12, user information and presentation information can be managed centrally in the external server 300.

8.ユーザ履歴情報
次に、ユーザ情報の1つであるユーザ履歴情報の更新処理やユーザ履歴情報の具体例について説明する。なおユーザ情報は、センサ情報によりリアルタイムに得られるユーザ情報と、このリアルタイムに得られるユーザ情報の履歴であるユーザ履歴情報などを含むことができる。
8). User History Information Next, a process for updating user history information, which is one of user information, and a specific example of user history information will be described. The user information can include user information obtained in real time from sensor information, user history information that is a history of user information obtained in real time, and the like.

図13は、ユーザ履歴情報の更新処理の一例を示すフローチャートである。   FIG. 13 is a flowchart illustrating an example of update processing of user history information.

まず、ウェアラブルセンサ150等からのセンサ情報を取得する(ステップS21)。次に、取得されたセンサ情報のフィルタリングや解析等の演算処理を行う(ステップS22)。そして演算結果に基づきユーザの行動、状態、環境等(TPO、情感)を推定する(ステップS23)。そして推定されたユーザの行動、状態等のユーザ履歴を日時(年、月、週、日、時間)等に関連づけてユーザ履歴情報記憶部23(223)に記憶して、ユーザ履歴情報を更新する(ステップS24)。   First, sensor information from the wearable sensor 150 or the like is acquired (step S21). Next, arithmetic processing such as filtering and analysis of the acquired sensor information is performed (step S22). Based on the calculation result, the user's behavior, state, environment, etc. (TPO, feeling) are estimated (step S23). Then, the user history such as the estimated user behavior and state is stored in the user history information storage unit 23 (223) in association with the date and time (year, month, week, day, time), etc., and the user history information is updated. (Step S24).

図14にユーザ履歴情報の具体例が模式的に示される。図14のユーザ履歴情報は、ユーザの行動等の履歴が時間帯、時刻等に関連づけられたデータ構造になっている。例えば8時にユーザは自宅を出発し、8時〜8時20分の時間帯では自宅から駅まで歩行し、8時20分に自宅の最寄りのA駅に到着している。そして8時20分〜8時45分の時間帯では電車に乗車し、8時45分に会社の最寄りのB駅で下車し、9時に会社に到着し、業務を開始している。10時〜11時の時間帯では社内のメンバとミーティングを行い、12時〜13時の時間帯では昼食をとっている。   FIG. 14 schematically shows a specific example of user history information. The user history information in FIG. 14 has a data structure in which a history of user actions and the like is associated with a time zone, a time, and the like. For example, the user departs from home at 8 o'clock, walks from his home to the station in the time zone from 8 o'clock to 8:20, and arrives at the nearest station A at 8:20. And, from 8:20 to 8:45, I got on the train, got off at the nearest B station of the company at 8:45, arrived at the company at 9:00, and started work. During the time zone from 10:00 to 11:00, meetings are held with members in the company, and lunch is served from 12:00 to 13:00.

このように図14では、センサからの情報等により推定されるユーザの行動等の履歴を、時間帯や時刻等に関連づけることで、ユーザ履歴情報が構築されている。   As described above, in FIG. 14, the user history information is constructed by associating the history of the user's behavior or the like estimated by the information from the sensor or the like with the time zone or the time.

また図14では、時間帯や時刻に対して、センサ等により計測されるユーザの発話量、食事量、脈拍、発汗量等の計測値も関連づけられている。例えば8時〜8時20分の時間帯では、ユーザは自宅からA駅に歩いているが、この時の歩行量等がセンサにより計測されて、8時〜8時20分の時間帯に関連づけられる。この場合に、例えば歩行速度、発汗量等の歩行量以外のセンサ情報の計測値を更に関連づけてもよい。こうすることで、この時間帯でのユーザの運動量等を把握することが可能になる。   In FIG. 14, measurement values such as a user's utterance amount, a meal amount, a pulse rate, and a sweat amount measured by a sensor or the like are associated with the time zone and the time. For example, in the time zone from 8:00 to 8:20, the user is walking from the home to the station A, but the walking amount at this time is measured by the sensor and is associated with the time zone from 8:00 to 8:20. It is done. In this case, for example, measurement values of sensor information other than the walking amount such as walking speed and sweating amount may be further associated. By doing so, it becomes possible to grasp the user's momentum and the like in this time zone.

10時〜11時の時間帯では、ユーザは同僚とのミーティングを行っているが、この時の発話量等がセンサにより計測されて、10時〜11時の時間帯に関連づけられる。この場合に、例えば音声状態、脈拍等のセンサ情報の計測値を更に関連づけてもよい。こうすることで、この時間帯でのユーザの会話量や緊張度等を把握することが可能になる。   In the time zone from 10 o'clock to 11 o'clock, the user is having a meeting with a colleague, and the amount of speech, etc. at this time is measured by a sensor and correlated with the time zone from 10 o'clock to 11 o'clock. In this case, for example, measurement values of sensor information such as a voice state and a pulse may be further associated. By doing so, it becomes possible to grasp the user's conversation volume, degree of tension, and the like during this time period.

20時45分〜21時45分や22時〜23時の時間帯では、ユーザはゲームをプレイしたり、テレビを鑑賞しているが、この時の脈拍、発汗量等がこれらの時間帯に関連づけられる。こうすることで、これらの時間帯でのユーザの興奮度等を把握することが可能になる。   In the time zone from 20:45 to 21:45 or from 22:00 to 23:00, the user is playing a game or watching TV, but the pulse, sweating amount, etc. at this time are in these time zones. Associated. By doing so, it becomes possible to grasp the degree of excitement of the user in these time zones.

23時30分〜の時間帯では、ユーザは睡眠をしているが、この時のユーザの体温の変化がこの時間帯に関連づけられる。こうすることで、睡眠時におけるユーザの健康状態を把握することが可能になる。   In the time zone from 23:30, the user is sleeping, but a change in the user's body temperature at this time is associated with this time zone. By doing so, it becomes possible to grasp the health condition of the user during sleep.

なお、ユーザ履歴情報は図14のような形態に限定されず、例えばユーザの行動等の履歴を日時等に関連づけないでユーザ履歴情報を構築する変形実施も可能である。   Note that the user history information is not limited to the form as shown in FIG. 14. For example, the user history information can be modified without associating the history of the user's behavior with the date and time.

例えば図15(A)では、センサ情報の計測値である発話量、音声状態、脈拍、発汗量等に基づいて、所定の演算式にしたがってユーザの精神状態パラメータが演算される。例えば発話量が多ければ、精神状態パラメータも高くなり、ユーザの精神状態が良好であることが示される。またセンサ情報の計測値である歩行量、歩行速度、体温等に基づいて、所定の演算式にしたがってユーザの身体状態(健康状態)のパラメータ(運動量パラメータ)が演算される。例えば歩行量が多ければ、身体状態パラメータも高くなり、ユーザの身体状態が良好であることが示される。   For example, in FIG. 15A, the mental state parameter of the user is calculated according to a predetermined calculation formula based on the utterance amount, the voice state, the pulse rate, the sweating amount, and the like, which are measured values of sensor information. For example, if the utterance amount is large, the mental state parameter also becomes high, indicating that the user's mental state is good. In addition, based on a walking amount, walking speed, body temperature, and the like, which are measurement values of sensor information, a user body condition (health state) parameter (exercise amount parameter) is calculated according to a predetermined calculation formula. For example, if the amount of walking is large, the body condition parameter also increases, indicating that the user's body condition is good.

また図15(B)に示すように、ユーザの精神状態、身体状態のパラメータ(広義には状態パラメータ)は、棒グラフ等を利用して可視化することで、ウェアラブルディスプレイやホームディスプレイに表示できる。またモバイル環境で更新された精神状態、身体状態のパラメータなどに基づいて、ホーム環境のロボットを制御して、ユーザを労ったり、励ましたり、あるいはユーザに助言する動作をロボットに行わせることが可能になる。   As shown in FIG. 15B, the mental state and body state parameters (state parameters in a broad sense) of the user can be displayed on a wearable display or a home display by using a bar graph or the like. It is also possible to control the robot in the home environment based on the mental state and body state parameters updated in the mobile environment, and to cause the robot to perform operations that encourage, encourage, or advise the user. become.

以上のように本実施形態では、ユーザ情報として、ユーザの行動履歴、状態履歴、及び環境履歴の少なくとも1つであるユーザ履歴情報が取得される。そして取得されたユーザ履歴情報に基づいて、ロボットがユーザに対して提示する提示情報の決定処理が行われるようになる。   As described above, in the present embodiment, user history information that is at least one of a user action history, a state history, and an environment history is acquired as user information. Then, based on the acquired user history information, a process for determining the presentation information that the robot presents to the user is performed.

9.シナリオに基づくロボットの会話
次に、ユーザへの提示情報がシナリオに基づくロボットの会話である場合を例にとり、その具体例について詳細に説明する。
9. Robot Conversation Based on Scenario Next, a specific example will be described in detail, taking as an example the case where the information presented to the user is a robot conversation based on the scenario.

9.1 構成
図16に本実施形態の更に詳細なシステム構成例を示す。図16は図2、図5等に比べて、処理部10が更にイベント判定部11、ユーザ識別部15、接触状態判定部16、発話権制御部17、シナリオデータ取得部18、ユーザ情報更新部19を含んでいる。また記憶部20がシナリオデータ記憶部27、提示許可判断情報記憶部28を含んでいる。
9.1 Configuration FIG. 16 shows a more detailed system configuration example of the present embodiment. In FIG. 16, the processing unit 10 further includes an event determination unit 11, a user identification unit 15, a contact state determination unit 16, an utterance right control unit 17, a scenario data acquisition unit 18, and a user information update unit as compared to FIGS. 2 and 5. 19 is included. The storage unit 20 includes a scenario data storage unit 27 and a presentation permission determination information storage unit 28.

イベント判定部11は各種のイベントの判定処理を行う。具体的には、モバイルサブシステムや車内サブシステムでユーザ情報を更新していたユーザが、新たにホームサブシステムのロボットの利用が可能になったことを示すロボットの利用可能イベントの発生を判定する。例えばイベント判定手段11は、ユーザがロボットの場所(家)に接近(移動)した場合に、ロボットの利用可能イベントが発生したと判定する。或いは情報転送が無線により行われる場合には、その無線強度を検出することで利用可能イベントの発生を判定してもよい。或いはクレードルに携帯型電子機器が接続された場合に、利用可能イベントが発生したと判定してもよい。そして、このようなロボットの利用可能イベントが発生した場合には、ロボット1、2を起動し、ユーザ情報記憶部22等にユーザ情報がダウンロードされる。   The event determination unit 11 performs determination processing for various events. Specifically, a user who has updated user information in the mobile subsystem or in-vehicle subsystem determines the occurrence of a robot available event indicating that the robot in the home subsystem is newly available. . For example, the event determination unit 11 determines that a robot usable event has occurred when the user approaches (moves) the robot location (house). Alternatively, when information transfer is performed wirelessly, the occurrence of an available event may be determined by detecting the wireless strength. Alternatively, it may be determined that an available event has occurred when a portable electronic device is connected to the cradle. When such a robot usable event occurs, the robots 1 and 2 are activated, and the user information is downloaded to the user information storage unit 22 and the like.

シナリオデータ記憶部27は、複数の会話フレーズにより構成されるシナリオデータを、提示情報として記憶する。そして提示情報決定部14は、このシナリオデータに基づいて、ロボットがユーザに対して発話する会話フレーズを決定する。するとロボット制御部30は、決定された会話フレーズをロボットに発話させるための制御を行う。   The scenario data storage unit 27 stores scenario data composed of a plurality of conversation phrases as presentation information. And the presentation information determination part 14 determines the conversation phrase which a robot utters with respect to a user based on this scenario data. Then, the robot control unit 30 performs control for causing the robot to utter the determined conversation phrase.

具体的にはシナリオデータ記憶部27は、複数の会話フレーズが分岐構造でリンクされたシナリオデータを記憶する。そして提示情報決定部14は、ロボットが発話した会話フレーズに対するユーザ(第1のユーザ)の反応に基づいて、次にロボットに発話させる会話フレーズを決定する。   Specifically, the scenario data storage unit 27 stores scenario data in which a plurality of conversation phrases are linked in a branch structure. And the presentation information determination part 14 determines the conversation phrase which a robot speaks next based on the reaction of the user (1st user) with respect to the conversation phrase which the robot spoke.

ユーザ識別部15はユーザの識別処理を行う。具体的には、ロボットに対してユーザが接近した場合に、接近したユーザを識別する。そしてロボット制御部30は、第1のユーザが接近したとユーザ識別部15により識別された場合に、第1のユーザに提示情報を提示するためのロボット制御を行う。   The user identification unit 15 performs user identification processing. Specifically, when the user approaches the robot, the approaching user is identified. The robot control unit 30 performs robot control for presenting the presentation information to the first user when the user identification unit 15 identifies that the first user has approached.

このユーザ識別は、例えばロボットによるユーザの顔の画像認識やユーザの声の音声認識などにより実現できる。例えば第1のユーザの顔画像や音声のデータを予め登録しておく。そして、CCD等の撮像デバイスやマイク等の音センサにより、ロボットに接近したユーザの顔画像や音声を認識し、登録されている顔画像や音声と一致するか否かを判断する。そして、認識された顔画像や音声が第1のユーザの顔画像や音声と一致した場合に、第1のユーザへの提示情報の提示を開始する。或いはユーザが所持する携帯型電子機器からのID情報をロボットが受信し、予め登録されているID情報と一致するか否かを判断することで、接近したユーザが第1のユーザか否かを識別してもよい。   This user identification can be realized by, for example, image recognition of the user's face by the robot, voice recognition of the user's voice, or the like. For example, the face image and voice data of the first user are registered in advance. Then, the face image and voice of the user approaching the robot are recognized by an imaging device such as a CCD and a sound sensor such as a microphone, and it is determined whether or not the face image and voice registered are the same. Then, when the recognized face image or sound matches the face image or sound of the first user, presentation of the presentation information to the first user is started. Alternatively, the robot receives the ID information from the portable electronic device possessed by the user, and determines whether or not the approaching user is the first user by determining whether or not it matches the ID information registered in advance. You may identify.

接触状態判定部16は、後述するように、ロボットのセンシング面における接触状態を判定する。そして提示情報決定部14は、ロボットによる会話フレーズの発話(提示情報の提示)に対するユーザの反応として、ユーザがロボットを撫でる動作を行ったか叩く動作を行ったかを、接触状態判定部16での判定結果に基づき判断する。そして、ユーザに対して次に発話する会話フレーズ(次に提示する提示情報)を決定する。   The contact state determination unit 16 determines the contact state on the sensing surface of the robot, as will be described later. Then, the presentation information determination unit 14 determines whether or not the user has performed an operation of stroking or striking the robot as a response to the utterance of the conversation phrase (presentation of presentation information) by the robot. Judge based on the results. Then, a conversation phrase (presentation information to be presented next) to be uttered next to the user is determined.

この場合に接触状態判定部16は、センシング面よりも内側(ロボットの内側)に設けられたマイク(音センサ)からの出力信号(センサ信号)に対して演算処理を行うことで得られた出力データに基づいて、センシング面における接触状態を判定する。この場合の出力データは、例えば信号強度(信号強度データ)であり、接触状態判定部16は、出力データで信号強度と、所定のしきい値との比較処理を行うことで、ユーザがロボットを撫でる動作を行ったか叩く動作を行ったかを判定できる。   In this case, the contact state determination unit 16 outputs an output obtained by performing arithmetic processing on an output signal (sensor signal) from a microphone (sound sensor) provided inside the sensing surface (inside the robot). The contact state on the sensing surface is determined based on the data. The output data in this case is, for example, signal strength (signal strength data), and the contact state determination unit 16 compares the signal strength with the predetermined threshold value using the output data, so that the user can move the robot. It is possible to determine whether a stroking action or a hitting action has been performed.

発話権制御部17は、ロボットが発話した会話フレーズに対するユーザ(第1のユーザ)の反応(例えば撫でる、叩く、無言)に基づいて、ロボット1、2のいずれに対して次の会話フレーズの発話権(発話の主導権)を付与するかを制御する。具体的には、ロボット1、2のいずれか一方のロボットが発話した会話フレーズに対してユーザが肯定的な反応をしたか否定的な反応をしたかに応じて、次の会話フレーズの発話権を付与するロボットを決定する。例えばユーザが肯定的な反応をした方のロボットに発話権を付与したり、ユーザが否定的な反応をしなかった方のロボットに発話権を付与する。この発話権の制御処理は、ロボット1、2のいずれに発話権を付与するかを示す発話権フラグ等を利用して実現できる。   The utterance right control unit 17 utters the next conversation phrase to any of the robots 1 and 2 based on the reaction (for example, stroking, striking, silent) of the user (first user) to the conversation phrase spoken by the robot. Control whether to grant the right (speaking initiative). Specifically, the right to speak the next conversation phrase depends on whether the user has made a positive reaction or a negative reaction to the conversation phrase spoken by one of the robots 1 and 2. Determine the robot to be given. For example, an utterance right is given to a robot to which the user has made a positive reaction, or an utterance right is given to a robot to which the user has not made a negative reaction. This utterance right control process can be realized by using an utterance right flag indicating which of the robots 1 and 2 is to be given the utterance right.

例えば図17(A)では、ロボット1の「部活が忙しいらしいよ」という会話フレーズに対して、父親は頭を撫でるという肯定的な反応をしている。従って、この場合には図17(B)に示すように、頭を撫でられた方(肯定的な反応をされた方)のロボット1に対して次の発話権を付与する。これにより発話権を付与されたロボット1は「もうすぐ地区大会だからね」という会話フレーズを発話する。即ちロボット1、2は例えば交互に発話するのが原則であり、この原則に従えば図17(B)ではロボット2の方に次の発話権が付与されるはずであるが、図17(B)では、父親により頭が撫でられたロボット1の方に次の発話権を付与している。なお図17(A)において、ロボット2が発話し、父親がロボット2の方の頭を叩くという否定的な反応をした場合に、ロボット1に発話権を付与するようにしてもよい。   For example, in FIG. 17A, the father responds positively to the conversation phrase “It seems that the club activities are busy” of the robot 1 by stroking his head. Therefore, in this case, as shown in FIG. 17B, the next utterance right is given to the robot 1 whose head has been stroked (the person who has made a positive reaction). As a result, the robot 1 to which the utterance right is given utters the conversation phrase “Because it is a district tournament soon”. That is, for example, the robots 1 and 2 speak in principle alternately. According to this principle, the next utterance right should be given to the robot 2 in FIG. 17B, but FIG. ), The next utterance right is given to the robot 1 whose head is stroked by the father. In FIG. 17A, when the robot 2 speaks and the father makes a negative reaction that the head of the robot 2 is hit, the right to speak may be granted to the robot 1.

図18(A)では、ロボット2の「でも、なんだか機嫌が悪いんだ」という会話フレーズに対して、父親は頭を撫でるという肯定的な反応をしている。従って、この場合には図18(B)に示すように、頭を撫でられた方のロボット2に対して、原則通り次の発話権を付与する。これにより発話権を付与されたロボット2は「今日は3回も叩かれたんだ!まったく!」という会話フレーズを発話する。なお図18(A)において、ロボット1が発話し、父親がロボット1の方の頭を叩くという否定的な反応をした場合に、ロボット2に発話権を付与するようにしてもよい。   In FIG. 18A, the father responds positively to the robot 2 in response to the conversation phrase “But somehow bad mood”. Therefore, in this case, as shown in FIG. 18B, the next utterance right is granted to the robot 2 whose head has been stroked as a rule. As a result, the robot 2 to which the right to speak is given speaks the conversation phrase “It was hit three times today! In FIG. 18A, when the robot 1 speaks and the father makes a negative reaction that the head of the robot 1 is struck, the right to speak may be granted to the robot 2.

例えばロボット1、2が常に交互に順番に会話するだけでは、ロボット1、2の掛け合いの会話がユーザにとって単調なものになってしまい、ユーザに直ぐに飽きられてしまう。   For example, if the robots 1 and 2 always talk alternately one after another, the conversation between the robots 1 and 2 becomes monotonous for the user, and the user is quickly bored.

これに対して図17(A)〜図18(B)の発話権制御手法を用いれば、ユーザの反応に応じて発話権の付与が様々に切り替わるため、会話が単調になるのを防止でき、ユーザが飽きにくいロボット間の会話を実現できる。   On the other hand, if the utterance right control method of FIG. 17 (A) to FIG. 18 (B) is used, since the grant of the utterance right is switched depending on the reaction of the user, it is possible to prevent the conversation from becoming monotonous, It is possible to realize conversations between robots that make it difficult for users to get bored.

シナリオデータ取得部18はシナリオデータの取得処理を行う。具体的には、シナリオデータ記憶部27からユーザ情報に対応したシナリオデータを読み出すことで、ロボットの会話に使用するシナリオデータを取得する。なお、ユーザ情報に基づき選択されたシナリオデータを、ネットワークを介してシナリオデータ記憶部27にダウンロードし、ダウンロードされたシナリオデータの中から、ロボットの会話に使用するシナリオデータを選択して読み出すようにしてもよい。   The scenario data acquisition unit 18 performs scenario data acquisition processing. Specifically, the scenario data used for the conversation of the robot is acquired by reading the scenario data corresponding to the user information from the scenario data storage unit 27. The scenario data selected based on the user information is downloaded to the scenario data storage unit 27 via the network, and the scenario data used for the robot conversation is selected and read from the downloaded scenario data. May be.

そして本実施形態では、例えば図6(A)〜図6(C)で説明したように、ロボットが発話した会話フレーズに対する第2のユーザ(子供)の反応に基づいて、シナリオデータを作成し、シナリオデータ取得部18は、作成されたシナリオデータを取得する。そして提示情報決定部14は、取得されたシナリオデータに基づいて、ロボットが第1のユーザに対して発話する会話フレーズを決定する。   In this embodiment, for example, as described in FIGS. 6A to 6C, scenario data is created based on the reaction of the second user (child) to the conversation phrase spoken by the robot, The scenario data acquisition unit 18 acquires the created scenario data. And the presentation information determination part 14 determines the conversation phrase which a robot speaks with respect to a 1st user based on the acquired scenario data.

このようにすれば、ロボットの会話フレーズに対する第2のユーザの反応に応じて、第1のユーザに提示するシナリオの内容が変化するようになり、多様で変化に富んだロボットの会話を実現できる。例えば図6(B)では、ロボット1の「部活が忙しいのかな」という発話に対して、子供がロボット1の頭を撫でるという肯定的な反応をしている。このため、図7(B)、図7(C)では、子供の部活の話題に関するシナリオ(会話フレーズ)が選択されて、父親に提示されるようになる。   In this way, the contents of the scenario presented to the first user change according to the reaction of the second user to the conversation phrase of the robot, and various and varied robot conversations can be realized. . For example, in FIG. 6B, a positive reaction that the child strokes the head of the robot 1 is made in response to the utterance of “the club activities are busy” of the robot 1. For this reason, in FIG. 7B and FIG. 7C, a scenario (conversation phrase) related to the topic of a child's club activities is selected and presented to the father.

ユーザ情報更新部19は、ホーム環境でのユーザ情報の更新処理を行う。具体的には、ロボットとの会話等を介して、ユーザの行動、状態等をセンシングして、ユーザ情報をホーム環境において更に更新する。   The user information update unit 19 performs user information update processing in the home environment. More specifically, the user information is further updated in the home environment by sensing the user's behavior, state, and the like via a conversation with the robot.

提示許可判断情報記憶部28は、ユーザ間での情報提示の許可・不許可を判断するための提示許可判断情報(提示許可判断フラグ)を記憶する。そして提示情報決定部14は、提示許可判断情報に基づいて、第1、第2のユーザ間での情報提示が許可されていると判断した場合に、第2のユーザ情報に基づく第1のユーザへの提示情報の決定処理を行う。   The presentation permission judgment information storage unit 28 stores presentation permission judgment information (presentation permission judgment flag) for judging permission / non-permission of information presentation between users. When the presentation information determination unit 14 determines that information presentation between the first and second users is permitted based on the presentation permission determination information, the first user based on the second user information The process of determining the information presented to

図19に提示許可判断情報の一例を示す。例えば図19では、ユーザAとユーザBとの間では、情報提示は許可されているが、ユーザAとユーザC、Dとの間では、情報提示は不許可になっている。またユーザBとユーザEとの間では、情報提示は許可されているが、ユーザBとユーザC、Dとの間では、情報提示は不許可になっている。   FIG. 19 shows an example of the presentation permission determination information. For example, in FIG. 19, information presentation is permitted between the user A and the user B, but information presentation is not permitted between the user A and the users C and D. Information presentation is permitted between user B and user E, but information presentation is not permitted between user B and users C and D.

従って、例えばユーザAがロボットに接近した場合に、ユーザBのユーザ情報に基づく提示情報をユーザAに提示することは許可されるが、ユーザCのユーザ情報に基づく提示情報については、ユーザAに提示することは禁止される。   Therefore, for example, when the user A approaches the robot, the presentation information based on the user information of the user B is permitted to be presented to the user A, but the presentation information based on the user information of the user C is allowed to the user A. Presentation is prohibited.

例えば、家族の全てのメンバに対して、子供の情報の提示を許可してしまうことは、望ましくない場合がある。そこで、提示許可判断情報を用いて、子供の情報を父親に提示することについては許可する一方で、子供の情報を母親に提示することについては不許可にする。   For example, it may not be desirable to allow all members of the family to present child information. Therefore, the presentation permission determination information is used to permit the presentation of child information to the father, while the child information is not permitted to be presented to the mother.

このようにすれば、ロボットは、父親がロボットに近づいた場合には、提示許可判断情報に基づいて、子供の情報の提示が許可されていると判断して、子供のユーザ情報に基づく情報提示を行うようになる。一方、ロボットは、母親がロボットに近づいた場合には、提示許可判断情報に基づいて、子供の情報の提示が禁止されていると判断して、子供のユーザ情報に基づく情報提示を行わないようにする。このようにすれば、必要なユーザに対してのみ、他のユーザの情報が提示されるようになり、プライバシーの侵害等の問題が発生するのを防止できる。   In this way, when the father approaches the robot, the robot determines that presentation of child information is permitted based on the presentation permission determination information, and presents information based on the child user information. To do. On the other hand, when the mother approaches the robot, the robot determines that the presentation of the child information is prohibited based on the presentation permission determination information, and does not present the information based on the child user information. To. In this way, information on other users can be presented only to the necessary users, and it is possible to prevent problems such as privacy infringement.

次に本実施形態の詳細な動作について図20のフローチャートを用いて説明する。   Next, the detailed operation of this embodiment will be described with reference to the flowchart of FIG.

まず、図6(A)〜図6(C)で説明したように、ロボットが発話した会話フレーズに対する第2のユーザ(子供)の反応に基づき作成されるシナリオデータを取得する(ステップS31)。   First, as described with reference to FIGS. 6A to 6C, scenario data created based on the reaction of the second user (child) to the conversation phrase spoken by the robot is acquired (step S31).

次に、ロボットにユーザが接近したか否かを判断する(ステップS32)。即ち、携帯型電子機器のクレードルへの接続の検出や、無線強度の検出等により、ロボットの利用可能イベントが発生したか否かを判断する。   Next, it is determined whether or not the user has approached the robot (step S32). That is, it is determined whether or not a robot usable event has occurred by detecting the connection of the portable electronic device to the cradle, detecting the wireless strength, or the like.

次に、ロボットに接近したユーザを識別する(ステップS33)。即ち画像認識や音声認識などに基づいてユーザを識別する。そして、識別されたユーザに対応付けられた提示許可判断情報を、提示許可判断情報記憶部28から読み出す(ステップS34)。   Next, a user approaching the robot is identified (step S33). That is, the user is identified based on image recognition, voice recognition, or the like. Then, presentation permission determination information associated with the identified user is read from the presentation permission determination information storage unit 28 (step S34).

次に、識別されたユーザは、提示許可判断情報により情報の提示が許可されている第1のユーザか否かを判断する(ステップS35)。例えば、子供である第2のユーザの情報の提示が、父親である第1のユーザに対してのみ許可されている場合には、ロボットに接近したユーザが、父親であるか否かを判断する。   Next, it is determined whether or not the identified user is the first user permitted to present information based on the presentation permission determination information (step S35). For example, when presentation of information of a second user who is a child is permitted only to the first user who is a father, it is determined whether or not the user who has approached the robot is a father. .

そして、第1のユーザであると判断した場合には、図7(A)〜図7(C)で説明したように、ステップS31で取得されたシナリオデータに基づいて、ロボット1、2に発話させる会話フレーズを決定する(ステップS36)。そしてロボット1、2に異なる会話フレーズを発話させるロボット制御を行う(ステップS37)。   If it is determined that the user is the first user, as described in FIGS. 7A to 7C, the robot 1 or 2 is uttered based on the scenario data acquired in step S31. The conversation phrase to be performed is determined (step S36). Then, robot control for causing the robots 1 and 2 to speak different conversation phrases is performed (step S37).

次に、ロボット1、2の発話に対する第1のユーザの反応をモニタする(ステップS38)。そして図17(A)〜図18(B)に示す手法により次の会話フレーズの発話権を決定する(ステップS39)。また第1のユーザの反応に基づいて、次にロボット1,2が発話する会話フレーズを決定する(ステップS40)。   Next, the first user's reaction to the utterances of the robots 1 and 2 is monitored (step S38). Then, the utterance right of the next conversation phrase is determined by the method shown in FIGS. 17A to 18B (step S39). Further, based on the reaction of the first user, a conversation phrase to be spoken next by the robots 1 and 2 is determined (step S40).

9.2 シナリオの具体例
次に、本実施形態で使用されるシナリオデータやその選択手法の具体例について説明する。
9.2 Specific Example of Scenario Next, specific examples of scenario data and its selection method used in the present embodiment will be described.

図21に示すようにシナリオデータベース(シナリオDB)の各シナリオデータにはシナリオ番号(シナリオNo.)が付与されている。そしてシナリオ番号により特定されるシナリオデータは、複数のシナリオデータコードにより構成され、各シナリオデータコードにより各会話フレーズ(テキストデータ)が指定される。そして図21では、第2のユーザ情報により、シナリオ番号=0579のシナリオデータが選択されている。そしてシナリオ番号=0579のシナリオデータは、A01〜A06のシナリオデータコードにより構成される。ここでA01〜A06は、ロボットが順次発話する会話フレーズのコードである。そしてこのシナリオデータを使用することで、図3(A)〜図3(C)等で説明した、第2のユーザ情報に応じたロボットの会話が実現される。   As shown in FIG. 21, a scenario number (scenario No.) is assigned to each scenario data in the scenario database (scenario DB). The scenario data specified by the scenario number is composed of a plurality of scenario data codes, and each conversation phrase (text data) is designated by each scenario data code. In FIG. 21, scenario data of scenario number = 0579 is selected by the second user information. The scenario data of scenario number = 0579 is composed of scenario data codes A01 to A06. Here, A01 to A06 are codes of conversation phrases that are sequentially spoken by the robot. By using this scenario data, the robot conversation according to the second user information described in FIGS. 3A to 3C and the like is realized.

図22は、子供の話題を父親に提供するシナリオの例である。   FIG. 22 is an example of a scenario in which the topic of a child is provided to a father.

例えば、まずロボットが「坊ちゃん最近部活が忙しいみたいだね」と発話し、続いて「夏休みには旅行にも行きたいってさ〜」と発話する。この発話に対して父親がロボットを撫でた場合には、夏休みの旅行についての子供の要望に対して、父親は興味を持っていると、推定する。従って、この場合にはロボットは、やっぱり「夏は海かな〜だってさ」と発話して、子供との会話により得られた子供の要望を父親に伝える。そして、夏休みの旅行の話題に関する会話を続ける。   For example, the robot first says, “Bo-chan seems to be busy with club activities recently,” and then says, “I want to go on a trip during the summer vacation.” If the father strokes the robot for this utterance, it is assumed that the father is interested in the child's request for a summer vacation trip. Therefore, in this case, the robot utters “It's the sea in the summer” and tells the father of the child's request obtained by the conversation with the child. And continue the conversation on the topic of summer vacation.

一方、「夏休みには旅行にも行きたいってさ〜」という発話に対して父親が無反応であった場合には、その話題には父親は興味がないと推定し、ロボットは、話題を変えて例えば「勉強はボチボチかな〜」と発話する。この発話に対して父親がロボットを撫でた場合には、子供の勉強の様子について父親は興味を持っていると、推定する。従って、この場合にはロボットは、「今は部活が忙しいみたいだし・・・」と発話し、子供の勉強の話題に関する会話を続ける。   On the other hand, if the father is unresponsive to the utterance “I want to go on a trip during the summer vacation,” it is assumed that the father is not interested in the topic, and the robot Change it and say, for example, "Is studying a mess?" If the father strokes the robot in response to this utterance, it is assumed that the father is interested in studying the child. Therefore, in this case, the robot speaks “It seems that club activities are busy now…” and continues the conversation on the topic of studying the child.

このように図22では、ロボットが発話した会話フレーズに対する父親の反応に基づいて、次にロボットに発話させる会話フレーズを決定している。また父親の撫でる、叩くなどの反応を検知することで、どのような子供の話題に父親が興味を持っているかを、推定している。   In this way, in FIG. 22, the conversation phrase to be uttered next by the robot is determined based on the father's reaction to the conversation phrase uttered by the robot. In addition, by detecting reactions such as stroking and hitting the father, it is estimated what kind of child the father is interested in.

図23は、ロボット1、2の会話を通じて子供のユーザ情報を収集するシナリオの例である。   FIG. 23 is an example of a scenario in which child user information is collected through conversations between the robots 1 and 2.

また、ロボット1が子供に対して「今日は学校の帰りが遅かったね」と発話し、ロボット2が「最近遅い日が多いよね〜」と発話する。続いてロボット1が「部活が忙しいのかな?」と発話し、ロボット2が「どうせフラフラ遊び歩いているんじゃない?」と発話する。   In addition, the robot 1 speaks to the child, “Today is the school return late,” and the robot 2 speaks, “There are many late days recently.” Subsequently, the robot 1 speaks “Is your club activity busy?”, And the robot 2 speaks “Why are you walking around?”

そして子供がロボット1の方を撫でた場合には、子供が部活で帰りが遅くなったと推定する。そしてこの場合には、発話権はロボット1に付与されて、ロボット1は、「そういえばもうすぐ地区大会だね」と発話する。そして部活の話題についての会話が続けられる。   If the child strokes the robot 1, it is estimated that the child has returned late due to club activities. In this case, the utterance right is given to the robot 1, and the robot 1 utters “Speaking of that, it is a district tournament soon”. And conversation about the topic of club activities continues.

一方、子供がロボット2の方を叩いた場合には、ロボット2の方に発話権が付与されて、ロボット2は「いてっ!叩くことないじゃないか!!」と発話する。   On the other hand, when the child hits the robot 2, the robot 2 is given the right to speak, and the robot 2 speaks “Well!

このように図23では、ロボット1、2の会話を通じて子供の第2のユーザ情報が収集されて、更新される。従って、子供が特に意識しなくても、子供の第2のユーザ情報を自然に取得できるようになる。   In this way, in FIG. 23, the second user information of the child is collected and updated through the conversation between the robots 1 and 2. Therefore, even if the child is not particularly conscious, the second user information of the child can be acquired naturally.

図24は、図23で収集された第2のユーザ情報に基づいて、父親に提示されるシナリオの例である。   FIG. 24 is an example of a scenario presented to the father based on the second user information collected in FIG.

まず、図23で収集された第2のユーザ情報に基づくシナリオにより、ロボット1が「坊ちゃん学校の帰りが遅かったんだよ」と発話し、ロボット2が「最近遅い日が多いみたいだね〜」と発話する。続いてロボット1が「部活が忙しいらしいよ」と発話し、ロボット2が「でも、なんだか機嫌が悪いんだ」と発話する。即ち、同じ第2のユーザ情報に対してロボット1、2が異なる会話フレーズを発話する。   First, according to the scenario based on the second user information collected in FIG. 23, the robot 1 speaks “It was late for Botchan school”, and the robot 2 “Looks like there are many late days ~” Say. Subsequently, the robot 1 speaks "It seems that the club activities are busy", and the robot 2 speaks "But somehow bad mood". That is, the robots 1 and 2 utter different conversation phrases for the same second user information.

そして父親がロボット1の方を撫でると、父親が子供の部活の話題に興味があると推定し、ロボット1の方に発話権が付与されて、ロボット1が「もうすぐ地区大会だからね〜」と発話する。そして子供の部活の話題についての会話が続く。   And when the father strokes the robot 1, it is estimated that the father is interested in the topic of children's club activities. The robot 1 is given the right to speak, and the robot 1 is "a district tournament soon ~" Speak. And conversation about the topic of children's club activities continues.

一方、父親がロボット2の方を撫でると、ロボット2の方に発話権が付与されて、ロボット2は「今日は3回も叩かれたんだよ!まったく!」と発話する。   On the other hand, when the father strokes the robot 2, the robot 2 is given the right to speak, and the robot 2 speaks, "Today, I was hit three times!

このように図24では、ロボット1、2の会話を通じて収集された子供の話題が、ロボット1、2の会話を通じて父親に提示される。従って、ロボット1、2を媒介とした間接的なコミュニケーション手段を提供できる。   In this way, in FIG. 24, the topics of children collected through the conversation between the robots 1 and 2 are presented to the father through the conversation between the robots 1 and 2. Therefore, an indirect communication means through the robots 1 and 2 can be provided.

10.接触状態判定
次に、ロボットを叩く、撫でる等の動作の具体的な判定手法の一例について説明する。
10. Contact State Determination Next, an example of a specific determination method for operations such as hitting and stroking the robot will be described.

図25(A)はぬいぐるみ型のロボット500の例である。ロボット500の表面は、センシング面501として機能する。センシング面501よりも内側には、マイク502-1、502-2、502-3が設けられている。また、各マイク502-1、502-2、502-3からの出力信号を演算処理し、出力データを出力する信号処理部503が設けられている。   FIG. 25A shows an example of a stuffed robot 500. The surface of the robot 500 functions as the sensing surface 501. Microphones 502-1, 502-2, and 502-3 are provided inside the sensing surface 501. In addition, a signal processing unit 503 is provided that performs arithmetic processing on output signals from the microphones 502-1, 502-2, and 502-3 and outputs output data.

図25(B)の機能ブロック図に示すように、マイク502-1、502-2…502-nからの出力信号は信号処理部503に入力される。信号処理部503は、ノイズ除去や信号増幅等を行って、アナログの出力信号を加工・変換する。そして信号強度等を計算して、デジタルの出力データとして出力する。接触状態判定部16は、例えばしきい値の比較処理、接触状態の分類等の処理を行う。   As shown in the functional block diagram of FIG. 25B, output signals from the microphones 502-1 502-2... 502-n are input to the signal processing unit 503. The signal processing unit 503 performs noise removal, signal amplification, and the like to process and convert an analog output signal. Then, the signal intensity and the like are calculated and output as digital output data. The contact state determination unit 16 performs processing such as threshold value comparison processing and contact state classification, for example.

例えば図26(A)、図26(B)、図26(C)は、センシング面501を叩いた時、センシング面501を撫でた時、マイクに向かって話かけた時の3パターンの音声波形例である。グラフの横軸は時間であり、縦軸は信号強度である。   For example, FIG. 26 (A), FIG. 26 (B), and FIG. 26 (C) show three patterns of sound waveforms when the sensing surface 501 is hit, when the sensing surface 501 is stroked, and when speaking to the microphone. It is an example. The horizontal axis of the graph is time, and the vertical axis is signal intensity.

信号強度に着目すると、図26(A)の叩いた時と、図26(B)の撫でた時では信号強度が大きいことがわかる。また、叩いた時はその状態が一時的なものになるが、撫でた時はその状態が継続していることがわかる。また図26(C)に示すように例えば「あー」とかなり強めに発話した時の波形は、図26(A)の叩いた時、図26(B)の撫でた時に比べて信号強度が小さいことがわかる。   Paying attention to the signal intensity, it can be seen that the signal intensity is large when tapping in FIG. 26A and when stroking in FIG. In addition, the state becomes temporary when it is struck, but it can be seen that the state continues when it is stroked. Further, as shown in FIG. 26C, for example, the waveform when the speech is “strongly” “a” has a smaller signal intensity when hitting in FIG. 26A than when stroking in FIG. 26B. I understand that.

これらの差異を利用したしきい値を設けることで、「叩き状態」、「撫で状態」、「いずれでもない状態」を検出することが可能となる。また複数のマイク502-1、502-2、502-3を用いることにより、1番強い信号が発生した場所を「叩かれた部位、撫でられた部位」として検出できるようになる。   By providing a threshold value using these differences, it is possible to detect “striking state”, “boiled state”, and “neither state”. Further, by using a plurality of microphones 502-1, 502-2, and 502-3, a place where the strongest signal is generated can be detected as a “struck part or a stroked part”.

より具体的には、ロボット500の内部に埋め込まれたマイク502-1、502-2、502-3は、ロボット500のセンシング面501にユーザの手などが接触した場合に、ロボット500の内部を伝搬してくる音を検出して電気信号に変換する。   More specifically, the microphones 502-1, 502-2, and 502-3 embedded in the robot 500 move inside the robot 500 when a user's hand or the like comes into contact with the sensing surface 501 of the robot 500. The propagating sound is detected and converted into an electrical signal.

信号処理部503は、マイク502-1、502-2、502-3からの出力信号(音声信号)のノイズ除去、信号増幅、A/D変換を行い、出力データを出力する。この出力データを絶対値に変換して一定時間蓄積することなどにより、信号強度を算出できる。そして算出された信号強度を、しきい値THと比較する。そしてしきい値THを超えていれば、「接触」が検出されたものと判定して、接触状態検出回数としてカウントする。そしてこの接触状態検出処理を所定時間、繰り返す。   The signal processing unit 503 performs noise removal, signal amplification, and A / D conversion on output signals (audio signals) from the microphones 502-1, 502-2, and 502-3, and outputs output data. The signal intensity can be calculated by converting this output data into an absolute value and accumulating it for a certain period of time. Then, the calculated signal strength is compared with a threshold value TH. If the threshold value TH is exceeded, it is determined that “contact” has been detected, and the number of contact state detections is counted. This contact state detection process is repeated for a predetermined time.

所定時間が経過した時点で、接触状態判定部16は、事前に設定しておいた条件と、前述の接触状態検出回数を比較して、例えば下述のような条件により、撫でられた状態、叩かれた状態を検出する。ここでは、撫でた場合には接触状態が継続するため接触状態検出回数も多くなるが、叩いた場合には接触状態検出回数は少なくなるという現象を利用して、撫でられた状態なのか、叩かれた状態なのかを検出する。   At the time when the predetermined time has elapsed, the contact state determination unit 16 compares the condition set in advance with the above-described contact state detection count, for example, the boiled state according to the following conditions, Detect the hit state. In this case, the number of contact state detections increases because the contact state continues when stroked, but the phenomenon that the number of contact state detections decreases when hit is used. Detect whether it is in the state.

検出状態 (検出回数/最大検出回数)×100(%)
撫で状態 25%以上
叩き状態 10%以上、25%未満
未検出状態 10%未満
このようにすることで、少なくとも1つのマイクを用いて「撫で状態」、「叩き状態」、「いずれでもない状態(未検出状態)」を判定できる。また複数のマイクを分散して埋め込み、各マイクの接触状態検出回数を比較することで、接触が発生した部位についても判定することが可能になる。
Detection state (number of detections / maximum number of detections) x 100 (%)
Boiled state 25% or more Strike state 10% or more, less than 25% Undetected state Less than 10% By doing this, using at least one microphone, “boiled state”, “striking state”, “none of the states ( Undetected state) ”can be determined. In addition, by dispersing and embedding a plurality of microphones and comparing the number of contact state detections of each microphone, it is possible to determine a portion where contact has occurred.

11.第1、第2のユーザ情報に基づく提示情報の決定処理
本実施形態では、第1のユーザへの提示情報の決定処理を、例えば第1、第2のユーザ情報の両方を考慮して行う。具体的には、第1のユーザへの提示情報の決定処理における第1のユーザ情報の重み付けと第2のユーザ情報の重み付けとを、時間経過に伴い変化させる。
11. Presentation information determination process based on first and second user information In the present embodiment, the presentation information determination process for the first user is performed in consideration of both the first and second user information, for example. Specifically, the weighting of the first user information and the weighting of the second user information in the process for determining the presentation information to the first user are changed with the passage of time.

例えば、第1のユーザ(父親)が帰宅したり、ロボットと接触すると、ロボット(ホームサブシステム)の利用可能イベントが発生する。具体的には、ウェアラブルセンサのGPSや、家のドアなどに付けられたセンサや、クレードルへの携帯型電子機器の接続などにより第1のユーザの帰宅が検出されたり、無線通信における無線強度やロボットの接触センサなどにより第1のユーザとロボットの接近が検出されると、図16のイベント判定部11が、第1のユーザによるロボットの利用可能イベントが発生したと判定する。即ちロボットの利用が可能な状態になったことを示す利用可能イベントが発生したと判定する。   For example, when the first user (father) returns home or comes into contact with the robot, a robot (home subsystem) available event occurs. Specifically, the return of the first user is detected by the GPS of the wearable sensor, the sensor attached to the door of the house, the connection of the portable electronic device to the cradle, etc. When the approach between the first user and the robot is detected by a robot contact sensor or the like, the event determination unit 11 in FIG. 16 determines that a robot usable event has occurred by the first user. That is, it is determined that an available event indicating that the robot is ready for use has occurred.

そして図27では、この利用可能イベント発生前の例えば第1のユーザの外出期間(ロボットの利用不可期間、ロボットと第1のユーザの非近接期間)を第1の期間T1とし、利用可能イベント発生後の例えば在宅期間(ロボットの利用可能期間、ロボットと第1のユーザの近接期間)を第2の期間T2としている。   In FIG. 27, for example, the first user's outing period (robot unusable period, robot and first user non-proximity period) before the occurrence of the usable event is defined as the first period T1, and the usable event occurs. For example, a later home period (a period in which the robot can be used, a period in which the robot and the first user are in close proximity) is a second period T2.

この第1の期間T1では、第1のユーザ(父親)の第1のユーザ情報や、第2のユーザ(子供)の第2のユーザ情報が取得(更新)される。例えば第1のユーザ情報(第1のユーザ履歴情報)は、第1の期間T1において、第1のユーザのウァアラブルセンサの行動センサ、状態センサ、環境センサを用いて第1のユーザの行動(歩行、発話、食事等)、状態(疲労、緊張、空腹、精神状態、肉体状態等)、又は環境(場所、明るさ、気温等)を計測することで、取得できる。具体的には携帯型電子機器100-1のユーザ情報更新部が、これらのセンサからのセンサ情報に基づいて、携帯型電子機器100-1のユーザ情報記憶部の第1のユーザ情報を更新することで、第1の期間T1での第1のユーザ情報が取得される。   In the first period T1, the first user information of the first user (father) and the second user information of the second user (child) are acquired (updated). For example, the first user information (first user history information) is the first user's behavior using the behavior sensor, the state sensor, and the environment sensor of the first user's wearable sensor in the first period T1. It can be acquired by measuring (walking, speaking, eating, etc.), state (fatigue, tension, hunger, mental state, physical state, etc.) or environment (location, brightness, temperature, etc.). Specifically, the user information update unit of portable electronic device 100-1 updates the first user information in the user information storage unit of portable electronic device 100-1 based on the sensor information from these sensors. Thus, the first user information in the first period T1 is acquired.

第2のユーザ(子供)の第2のユーザ情報も、同様に、第1の期間T1において、第2のユーザのウェラブルセンサを用いて、第2のユーザの行動、状態又は環境を計測することで、取得できる。具体的には携帯型電子機器100-2のユーザ情報更新部が、これらのセンサからのセンサ情報に基づいて、携帯型電子機器100-2のユーザ情報記憶部の第2のユーザ情報を更新することで、第1の期間T1での第2のユーザ情報が取得される。なお第2のユーザ情報は、図6(A)〜図6(C)で説明したようにロボットとの会話を介しても取得できる。   Similarly, the second user information of the second user (child) measures the behavior, state, or environment of the second user using the wearable sensor of the second user in the first period T1. You can get it. Specifically, the user information update unit of the portable electronic device 100-2 updates the second user information in the user information storage unit of the portable electronic device 100-2 based on the sensor information from these sensors. Thus, the second user information in the first period T1 is acquired. Note that the second user information can also be acquired through conversation with the robot as described with reference to FIGS. 6 (A) to 6 (C).

そして、例えばロボット1の利用可能イベントが発生すると、第1の期間T1において更新された第1、第2のユーザ情報が、携帯型電子機器100-1、100-2のユーザ情報記憶部からロボット1のユーザ情報記憶部22(ユーザ履歴情報記憶部23)に転送される。これにより提示情報決定部14は、転送された第1、第2のユーザ情報に基づいて、ロボット1が第1のユーザに対して提示する提示情報の決定処理(シナリオの選択処理)を行うことが可能になる。   For example, when an available event of the robot 1 occurs, the first and second user information updated in the first period T1 is transferred from the user information storage unit of the portable electronic devices 100-1 and 100-2 to the robot. 1 user information storage unit 22 (user history information storage unit 23). Thereby, the presentation information determination unit 14 performs a presentation information determination process (scenario selection process) that the robot 1 presents to the first user based on the transferred first and second user information. Is possible.

なお、利用可能イベント発生後の第2の期間T2においても、ロボット搭載センサ34や他のセンサ(例えばウェアラブルセンサや、ホームに埋め込まれたホームセンサ等)を用いて、第1のユーザの行動、状態又は環境を計測することで、第1のユーザ情報を更新してもよい。   Even in the second period T2 after the occurrence of the usable event, the action of the first user using the robot-mounted sensor 34 or other sensors (for example, a wearable sensor or a home sensor embedded in the home), The first user information may be updated by measuring the state or environment.

図28に示すように、提示情報決定部14は、第1の期間T1(或いは第2の期間T2)などで取得された第1、第2のユーザ情報に基づいて、ロボット1が第1のユーザに対して提示する提示情報の決定処理を行う。具体的には、第1、第2のユーザ情報に基づいて、ロボット1が会話するシナリオの決定処理を行う。このようにすれば、帰宅した第1のユーザ(父親)に対して、第2のユーザ(子供)についての話題のみならず、外出先等での第1のユーザ自身の話題についても、第1のユーザに提供できるようになり、外出先での自身の行動等に関する気付きを与えることができる。   As illustrated in FIG. 28, the presentation information determination unit 14 determines that the robot 1 is the first based on the first and second user information acquired in the first period T1 (or the second period T2). The presentation information to be presented to the user is determined. Specifically, a scenario determination process for the robot 1 to perform a conversation is performed based on the first and second user information. In this way, for the first user (father) who has returned home, not only the topic about the second user (child), but also the first user's own topic on the go, etc. Can be provided to other users, and awareness of their own actions and the like on the go can be given.

更に具体的には提示情報決定部14は、提示情報の決定処理の際における第1のユーザ情報の重み付け(重み付け係数)と第2のユーザ情報の重み付けとを、時間経過に伴い変化させている。   More specifically, the presentation information determination unit 14 changes the weighting (weighting coefficient) of the first user information and the weighting of the second user information with the passage of time in the presentation information determination process. .

例えば図28では、ロボット1の利用可能イベントの発生時には(ユーザの帰宅時、帰宅時から所与の期間が経過するまでは)、決定処理における第1のユーザ情報の重み付けの方が第2のユーザ情報の重み付けに比べて大きくなっており、例えば、第1のユーザ情報の重み付けが1.0になり、第2のユーザ情報の重み付けが0になっている。   For example, in FIG. 28, when an available event of the robot 1 occurs (when the user returns home, until a given period elapses from the time of returning home), the weighting of the first user information in the determination process is the second weight. For example, the weight of the first user information is 1.0 and the weight of the second user information is 0.

そして重み付け変更期間TAにおいて、第1のユーザ情報の重み付けは小さくなる一方で、第2のユーザ情報の重み付けは大きくなり、重み付けの大きさが逆転する。そして、変更期間TAの後は、第2のユーザ情報の重み付けの方が第1のユーザ情報の重み付けに比べて大きくなっており、例えば第1のユーザ情報の重み付けが0になり、第2のユーザ情報の重み付けが1.0になっている。   In the weight change period TA, the weight of the first user information is reduced, while the weight of the second user information is increased, and the weight is reversed. After the change period TA, the weight of the second user information is larger than the weight of the first user information. For example, the weight of the first user information becomes 0, The user information weight is 1.0.

このように図28では、利用可能イベント発生時には、決定処理における第1のユーザ情報の重み付けを大きくし、第2のユーザ情報の重み付けを小さくし、その後、第1のユーザ情報の重み付けを小さくし、第2のユーザ情報の重み付けを大きくしている。具体的には、第2の期間T2では、提示情報の決定処理の際における第1のユーザ情報の重み付けを時間経過に伴い小さくし、第2のユーザ情報の重み付けを時間経過に伴い大きくしている。   Thus, in FIG. 28, when an available event occurs, the weighting of the first user information in the determination process is increased, the weighting of the second user information is decreased, and then the weighting of the first user information is decreased. The weight of the second user information is increased. Specifically, in the second period T2, the weighting of the first user information in the presentation information determination process is decreased with the passage of time, and the weighting of the second user information is increased with the passage of time. Yes.

このようにすれば、第2の期間T1の前半期間では、ロボット1は、例えば外出期間である第1の期間T1での第1のユーザ(父親)の行動等に関連する話題を提供する。そして、その後、時間が経過すると、今度は、第2のユーザ(子供)の行動等に関連する話題を提供する。   In this way, in the first half period of the second period T1, the robot 1 provides topics related to, for example, the behavior of the first user (father) in the first period T1, which is the outing period. Then, after a lapse of time, a topic related to the behavior of the second user (child) is provided.

このようにすれば、第1のユーザは、帰宅した直後は自身に関する話題が提供され、その後、時間が経過して落ちついたところで、他の人である第2のユーザの話題が提供されるようになり、第1のユーザにとってより自然な話題の提供が可能になる。   In this way, the first user is provided with a topic related to him / herself immediately after returning home, and then the topic of the second user, who is another person, is provided when time has settled. Thus, it is possible to provide a topic more natural for the first user.

また、例えば第2のユーザがロボット1と自宅に一緒に居るときに、第1のユーザが帰宅した場合には、第2のユーザよりも第1のユーザの方に注目が集まることが予想される。従って、第1のユーザの帰宅直後では、第1のユーザに関する話題を中心に提示し、時間が経過して落ちついたところで、第1、第2のユーザに関する話題を満遍なく提供するようにする。   In addition, for example, when the first user returns home when the second user is at home with the robot 1, it is expected that the first user will receive more attention than the second user. The Therefore, immediately after the first user returns home, the topics related to the first user are presented mainly, and when the time has passed and the time has settled, the topics related to the first and second users are provided evenly.

なお重み付けの変化のさせ方は図28の手法に限定されない。例えば図28とは逆に、前半期間では第2のユーザ情報の重み付けの方を大きくし、その後、第1のユーザ情報の重み付けの方を大きくする変形実施も可能である。また、重み付けの変化のさせ方は、ロボット1等に予めプログラミングしておく構成にしてもよいし、ユーザが好みに応じて自由に切り替えられる構成にしてもよい。   The method of changing the weight is not limited to the method shown in FIG. For example, contrary to FIG. 28, it is possible to perform a modification in which the weighting of the second user information is increased in the first half period, and then the weighting of the first user information is increased. The weighting may be changed by programming the robot 1 or the like in advance, or by allowing the user to switch freely according to his / her preference.

また第2の期間T2においても第1のユーザ情報を取得(更新)する場合には、提示情報の決定処理の際に、第1の期間T1で取得された第1のユーザ情報の重み付けと、第2の期間T2で取得された第1のユーザ情報の重み付けについても、時間経過に伴い変化させてもよい。例えばロボット1の利用可能イベントの発生直後では、第1の期間T1で取得された第1のユーザ情報の重み付けを大きくし、時間が経過するにつれて、第2の期間T2で取得された第1のユーザ情報の重み付けを大きくする。   Further, when the first user information is acquired (updated) also in the second period T2, the weighting of the first user information acquired in the first period T1 during the presentation information determination process, The weighting of the first user information acquired in the second period T2 may also be changed over time. For example, immediately after the occurrence of an available event of the robot 1, the first user information acquired in the first period T1 is increased in weight, and as time passes, the first user information acquired in the second period T2 is increased. Increase the weight of user information.

また、提示情報の決定処理の際のユーザ情報の重み付けの一例としては、ユーザ情報で選択されるシナリオの選択確率がある。具体的には、第1のユーザ情報の重み付けを大きくする場合には、第2のユーザ情報よりも第1のユーザ情報の方のシナリオが選択されるようにする。具体的には、第1のユーザ情報に対応するシナリオの選択確率を大きくする。一方、第2のユーザ情報の重み付けを大きくする場合には、第1のユーザ情報よりも第2のユーザ情報の方のシナリオが選択されるようにする。具体的には、第2のユーザ情報に対応するシナリオの選択確率を大きくする。   Further, as an example of the weighting of the user information in the presentation information determination process, there is a selection probability of the scenario selected by the user information. Specifically, when the weight of the first user information is increased, the scenario of the first user information is selected rather than the second user information. Specifically, the selection probability of the scenario corresponding to the first user information is increased. On the other hand, when increasing the weight of the second user information, the scenario of the second user information is selected rather than the first user information. Specifically, the selection probability of the scenario corresponding to the second user information is increased.

例えば図28において、第2の期間T2の前半では、第1のユーザ情報の重み付けが大きいため、第1のユーザ情報用のシナリオの選択確率が高くなる。これにより、前半期間では、ロボット1は、第1のユーザのその日の行動等に関する会話を行うようになる。一方、第2の期間T2の後半では、第2のユーザ情報の重み付けが大きいため、第2のユーザ情報用のシナリオの選択確率が高くなる。これにより、後半期間では、ロボット1は、第2のユーザのその日の行動等に関する会話を行うようになる。このようにすれば、時間経過に伴い、提供するシナリオの話題を徐々に変化させることができ、より自然で多様なロボットの会話を実現できる。   For example, in FIG. 28, in the first half of the second period T2, since the weight of the first user information is large, the selection probability of the scenario for the first user information is high. As a result, in the first half period, the robot 1 starts a conversation related to the behavior of the first user on the day. On the other hand, in the second half of the second period T2, since the weight of the second user information is large, the scenario selection probability for the second user information is high. As a result, in the second half period, the robot 1 starts a conversation regarding the behavior of the second user on the day. In this way, the topic of the scenario to be provided can be gradually changed over time, and more natural and diverse robot conversations can be realized.

なお、上記のように本実施形態について詳細に説明したが、本発明の新規事項および効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。従って、このような変形例はすべて本発明の範囲に含まれるものとする。例えば、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語と共に記載された用語は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。またロボット制御システムやロボットの構成、動作も本実施形態で説明したものに限定に限定されず、種々の変形実施が可能である。   Although the present embodiment has been described in detail as described above, it will be easily understood by those skilled in the art that many modifications can be made without departing from the novel matters and effects of the present invention. Accordingly, all such modifications are intended to be included in the scope of the present invention. For example, a term described at least once together with a different term having a broader meaning or the same meaning in the specification or the drawings can be replaced with the different term in any part of the specification or the drawings. Further, the configuration and operation of the robot control system and the robot are not limited to those described in the present embodiment, and various modifications can be made.

ユーザ情報の取得手法の説明図Explanatory diagram of user information acquisition method 本実施形態のシステム構成例。The system configuration example of this embodiment. 図3(A)〜図3(C)は本実施形態の手法の説明図。FIG. 3A to FIG. 3C are explanatory diagrams of the method of this embodiment. 本実施形態の動作を説明するためのフローチャート。The flowchart for demonstrating the operation | movement of this embodiment. ロボットが複数台である場合の本実施形態の第2のシステム構成例。The 2nd system configuration example of this embodiment in case there are two or more robots. 図6(A)〜図6(C)は第2のユーザ情報の取得手法の説明図。FIGS. 6A to 6C are explanatory diagrams of a second user information acquisition method. 図7(A)〜図7(C)は第1のユーザへの情報提示手法の説明図。FIG. 7A to FIG. 7C are explanatory diagrams of an information presentation method to the first user. 第2のシステム構成の動作を説明するためのフローチャート。The flowchart for demonstrating operation | movement of a 2nd system configuration. 本実施形態の第3のシステム構成例。The 3rd system configuration example of this embodiment. ネットワークを介した第2のユーザ情報の取得手法の説明図。Explanatory drawing of the acquisition method of the 2nd user information via a network. 本実施形態の第4のシステム構成例。The 4th system configuration example of this embodiment. 本実施形態の第5のシステム構成例。The 5th system configuration example of this embodiment. ユーザ履歴情報の更新処理のフローチャート。The flowchart of the update process of user history information. ユーザ履歴情報の説明図。Explanatory drawing of user log | history information. 図15(A)、図15(B)はユーザ履歴情報の説明図。15A and 15B are explanatory diagrams of user history information. 本実施形態の詳細なシステム構成例。2 is a detailed system configuration example of the present embodiment. 図17(A)、図17(B)は発話権の制御手法の説明図。FIG. 17A and FIG. 17B are explanatory diagrams of a speech right control method. 図18(A)、図18(B)は発話権の制御手法の説明図。FIG. 18A and FIG. 18B are explanatory diagrams of a speech right control method. 提示許可判断情報の説明図。Explanatory drawing of presentation permission judgment information. 本実施形態の詳細な動作を説明するためのフローチャート。The flowchart for demonstrating the detailed operation | movement of this embodiment. シナリオデータの説明図。Explanatory drawing of scenario data. 子供の話題を父親に提供するシナリオの例。An example scenario that provides the father with a child's topic. 子供のユーザ情報収集に使用されるシナリオ例。Example scenario used to collect user information for children. 収集された第2のユーザ情報に基づき父親に提示されるシナリオ例。The example scenario shown to a father based on the collected 2nd user information. 図25(A)、図25(B)は接触判定手法の説明図。25A and 25B are explanatory diagrams of the contact determination method. 図26(A)、図26(B)、図26(C)は、叩いた時、撫でた時、マイクに向かって話かけた時の音声波形例。FIG. 26A, FIG. 26B, and FIG. 26C show examples of sound waveforms when the speaker is hit, stroked, or spoken to the microphone. 第1、第2のユーザ情報に基づく提示情報の決定手法の説明図。Explanatory drawing of the determination method of the presentation information based on 1st, 2nd user information. 第1、第2のユーザ情報に基づく提示情報の決定処理の説明図。Explanatory drawing of the determination process of the presentation information based on 1st, 2nd user information.

符号の説明Explanation of symbols

1、2 ロボット、10 処理部、11 イベント判定部、12 ユーザ情報取得部、
13 演算部、14 提示情報決定部、15 ユーザ認識部、16 接触状態判定部、
17 発話権制御部、18 シナリオデータ取得部、20 記憶部、
22 ユーザ情報記憶部、23 ユーザ履歴情報記憶部、26 提示情報記憶部、
27 シナリオデータ記憶部、28 提示許可判断情報記憶部、30 ロボット制御部、
32 ロボット動作機構、34 ロボット搭載センサ、40 通信部、
60 処理部、62 ユーザ情報取得部、63 演算部、64 提示情報決定部、
70 記憶部、72 ユーザ情報記憶部、73 ユーザ履歴情報記憶部、
76 提示情報記憶部、80 ロボット制御部、82 ロボット動作機構、
84 ロボット搭載センサ、90 通信部、
100-1、100-2 携帯型電子機器、110-1、110-2 処理部、
112-1、112-2 演算部、114-1、114-2 ユーザ情報更新部、
120-1、120-2 記憶部、122-1、122-2 ユーザ情報記憶部、
130-1、130-2 制御部、138-1、138-2 通信部、
140-1、140-2 ウェアラブルディスプレイ、
150-1、150-2 ウェアラブルセンサ、200 ホームサーバ(ローカルサーバ)、
210 処理部、212 ユーザ情報取得部、213 演算部、
214 提示情報決定部、220 記憶部、
222 ユーザ情報記憶部、223 ユーザ履歴情報記憶部、
226 提示情報記憶部、300 外部サーバ
1, 2 robot, 10 processing unit, 11 event determination unit, 12 user information acquisition unit,
13 calculation units, 14 presentation information determination unit, 15 user recognition unit, 16 contact state determination unit,
17 utterance right control unit, 18 scenario data acquisition unit, 20 storage unit,
22 user information storage unit, 23 user history information storage unit, 26 presentation information storage unit,
27 scenario data storage unit, 28 presentation permission judgment information storage unit, 30 robot control unit,
32 robot operation mechanism, 34 robot mounted sensor, 40 communication unit,
60 processing units, 62 user information acquisition unit, 63 calculation unit, 64 presentation information determination unit,
70 storage unit, 72 user information storage unit, 73 user history information storage unit,
76 presentation information storage unit, 80 robot control unit, 82 robot operation mechanism,
84 Robot mounted sensor, 90 communication unit,
100-1, 100-2 portable electronic device, 110-1, 110-2 processing unit,
112-1, 112-2 calculation unit, 114-1, 114-2 user information update unit,
120-1, 120-2 storage unit, 122-1, 122-2 user information storage unit,
130-1, 130-2 control unit, 138-1, 138-2 communication unit,
140-1, 140-2 Wearable display,
150-1, 150-2 wearable sensor, 200 home server (local server),
210 processing unit, 212 user information acquisition unit, 213 calculation unit,
214 presentation information determination unit, 220 storage unit,
222 user information storage unit, 223 user history information storage unit,
226 Presentation information storage unit, 300 External server

Claims (25)

ロボットを制御するためのロボット制御システムであって、
ユーザの行動を計測する行動センサ、ユーザの状態を計測する状態センサ及びユーザの環境を計測する環境センサの少なくとも1つからのセンサ情報により得られるユーザ情報を取得するユーザ情報取得部と、
取得された前記ユーザ情報に基づいて、ロボットがユーザに対して提示する提示情報の決定処理を行う提示情報決定部と、
前記提示情報をユーザに対してロボットに提示させるための制御を行うロボット制御部とを含み、
前記ユーザ情報取得部は、
第2のユーザの前記ユーザ情報である第2のユーザ情報を取得し、
前記提示情報決定部は、
取得された前記第2のユーザ情報に基づいて、第1のユーザへの提示情報の決定処理を行い、
前記ロボット制御部は、
前記第2のユーザ情報に基づき決定された提示情報を、前記第1のユーザに提示するためのロボット制御を行うことを特徴とするロボット制御システム。
A robot control system for controlling a robot,
A user information acquisition unit that acquires user information obtained from sensor information from at least one of a behavior sensor that measures a user's behavior, a state sensor that measures a user's state, and an environment sensor that measures a user's environment;
Based on the acquired user information, a presentation information determination unit that performs a process of determining presentation information that the robot presents to the user;
A robot controller that performs control for causing the robot to present the presentation information to a user,
The user information acquisition unit
Obtaining second user information which is the user information of a second user;
The presentation information determination unit
Based on the acquired second user information, a process for determining the presentation information to the first user is performed,
The robot controller is
A robot control system for performing robot control for presenting presentation information determined based on the second user information to the first user.
請求項1において、
前記ユーザ情報取得部は、
前記第1のユーザの前記ユーザ情報である第1のユーザ情報と、前記第2のユーザの前記ユーザ情報である前記第2のユーザ情報を取得し、
前記提示情報決定部は、
取得された前記第1のユーザ情報と前記第2のユーザ情報とに基づいて、前記第1のユーザへの提示情報の決定処理を行うことを特徴とするロボット制御システム。
In claim 1,
The user information acquisition unit
Obtaining the first user information that is the user information of the first user and the second user information that is the user information of the second user;
The presentation information determination unit
A robot control system that performs presentation information determination processing for the first user based on the acquired first user information and second user information.
請求項2において、
前記提示情報決定部は、
前記第1のユーザ情報に基づいて提示情報の提示タイミングを決定し、前記第2のユーザ情報に基づいて提示情報の内容を決定し、
前記ロボット制御部は、
決定された前記提示タイミングで、決定された内容の提示情報を、前記第1のユーザに提示するためのロボット制御を行うことを特徴とするロボット制御システム。
In claim 2,
The presentation information determination unit
Determining the presentation timing of the presentation information based on the first user information, determining the content of the presentation information based on the second user information,
The robot controller is
A robot control system for performing robot control for presenting the presentation information of the decided content to the first user at the decided presentation timing.
請求項2において、
前記提示情報決定部は、
前記第1のユーザへの提示情報の決定処理における前記第1のユーザ情報の重み付けと前記第2のユーザ情報の重み付けとを、時間経過に伴い変化させることを特徴とするロボット制御システム。
In claim 2,
The presentation information determination unit
A robot control system characterized in that the weighting of the first user information and the weighting of the second user information in the process of determining the information presented to the first user are changed with time.
請求項4において、
前記第1のユーザによるロボットの利用が可能な状態になったことを示す利用可能イベントの発生を判定するイベント判定部を含み、
前記提示情報決定部は、
前記利用可能イベント発生時には、前記決定処理における前記第1のユーザ情報の重み付けを大きくし、前記第2のユーザ情報の重み付けを小さくし、その後、前記第1のユーザ情報の重み付けを小さくし、前記第2のユーザ情報の重み付けを大きくすることを特徴とするロボット制御システム。
In claim 4,
Including an event determination unit that determines occurrence of an available event indicating that the robot can be used by the first user;
The presentation information determination unit
When the available event occurs, the weighting of the first user information in the determination process is increased, the weighting of the second user information is decreased, and then the weighting of the first user information is decreased, A robot control system characterized by increasing the weight of the second user information.
請求項1乃至5のいずれかにおいて、
前記提示情報決定部は、
ロボットによる提示情報の提示に対する前記第1のユーザの反応に基づいて、ロボットが前記第1のユーザに対して次に提示する提示情報の決定処理を行うことを特徴とするロボット制御システム。
In any one of Claims 1 thru | or 5,
The presentation information determination unit
A robot control system characterized in that, based on a response of the first user to presentation of presentation information by a robot, the robot performs a process of determining presentation information to be presented next to the first user.
請求項6において、
ロボットのセンシング面における接触状態を判定する接触状態判定部を含み、
前記提示情報決定部は、
ロボットによる提示情報の提示に対する前記第1のユーザの反応として、前記第1のユーザがロボットを撫でる動作を行ったか叩く動作を行ったかを、前記接触状態判定部での判定結果に基づき判断して、前記第1のユーザに対して次に提示する提示情報の決定処理を行うことを特徴とするロボット制御システム。
In claim 6,
Including a contact state determination unit for determining a contact state on the sensing surface of the robot,
The presentation information determination unit
As a response of the first user to the presentation of presentation information by the robot, it is determined based on the determination result in the contact state determination unit whether the first user has performed an operation of stroking or hitting the robot. A robot control system that performs a process for determining presentation information to be presented next to the first user.
請求項7において、
前記接触状態判定部は、
前記センシング面よりも内側に設けられたマイクからの出力信号に対して演算処理を行うことで得られた出力データに基づいて、前記センシング面における接触状態を判定することを特徴とするロボット制御システム。
In claim 7,
The contact state determination unit
A robot control system for determining a contact state on the sensing surface based on output data obtained by performing arithmetic processing on an output signal from a microphone provided inside the sensing surface .
請求項8において、
前記出力データは、信号強度であり、
前記接触状態判定部は、
前記信号強度と、所定のしきい値との比較処理を行うことで、前記第1のユーザがロボットを撫でる動作を行ったか叩く動作を行ったかを判定することを特徴とするロボット制御システム。
In claim 8,
The output data is signal strength;
The contact state determination unit
A robot control system comprising: comparing the signal intensity with a predetermined threshold value to determine whether the first user has performed an operation of stroking or hitting the robot.
請求項1乃至9のいずれかにおいて、
前記提示情報決定部は、
取得された同じ前記第2のユーザ情報に対して、第1、第2のロボットが異なる提示情報を提示するように、前記第1のユーザに対して提示する提示情報の決定処理を行うことを特徴とするロボット制御システム。
In any one of Claims 1 thru | or 9,
The presentation information determination unit
A process for determining the presentation information to be presented to the first user is performed so that the first and second robots present different presentation information for the same second user information acquired. Characteristic robot control system.
請求項10において、
前記第1のロボットはマスタ側に設定され、前記第2のロボットはスレーブ側に設定され、
マスタ側の前記第1のロボットに設けられた前記提示情報決定部が、スレーブ側の前記第2のロボットに対して、前記第1のユーザへの提示情報の提示を指示することを特徴とするロボット制御システム。
In claim 10,
The first robot is set on the master side, the second robot is set on the slave side,
The presentation information determination unit provided in the first robot on the master side instructs the second robot on the slave side to present the presentation information to the first user. Robot control system.
請求項11において、
提示情報の提示を指示する指示情報を、マスタ側の前記第1のロボットからスレーブ側の前記第2のロボットに対して通信する通信部を含むことを特徴とするロボット制御システム。
In claim 11,
A robot control system comprising: a communication unit that communicates instruction information for instructing presentation of presentation information from the first robot on the master side to the second robot on the slave side.
請求項1乃至12のいずれかにおいて、
前記ユーザ情報取得部は、
前記第2のユーザの前記第2のユーザ情報を、ネットワークを介して取得し、
前記提示情報決定部は、
ネットワークを介して取得された前記第2のユーザ情報に基づいて、前記第1のユーザに提示する提示情報の決定処理を行うことを特徴とするロボット制御システム。
In any one of Claims 1 to 12,
The user information acquisition unit
Obtaining the second user information of the second user via a network;
The presentation information determination unit
A robot control system that performs a process of determining presentation information to be presented to the first user based on the second user information acquired via a network.
請求項1乃至13のいずれかにおいて、
前記ユーザ情報取得部は、
前記第2のユーザ情報として、前記第2のユーザの行動履歴、前記第2のユーザの状態履歴及び前記第2のユーザの環境履歴の少なくとも1つである第2のユーザ履歴情報を取得し、
前記提示情報決定部は、
取得された前記第2のユーザ履歴情報に基づいて、ロボットが前記第1のユーザに対して提示する提示情報の決定処理を行うことを特徴とするロボット制御システム。
In any one of Claims 1 thru | or 13.
The user information acquisition unit
As the second user information, second user history information that is at least one of the second user behavior history, the second user state history, and the second user environment history is acquired,
The presentation information determination unit
A robot control system that performs presentation information determination processing to be presented to the first user by the robot based on the acquired second user history information.
請求項14において、
前記第2のユーザ履歴情報は、前記第2のユーザのウェアラブルセンサからのセンサ情報により更新することで得られる情報であることを特徴とするロボット制御システム。
In claim 14,
The robot control system according to claim 2, wherein the second user history information is information obtained by updating with sensor information from the wearable sensor of the second user.
請求項1乃至15のいずれかにおいて、
ロボットに対してユーザが接近した場合に、接近したユーザを識別するユーザ識別部を含み、
前記ロボット制御部は、
前記第1のユーザが接近したと前記ユーザ識別部により識別された場合に、前記第1のユーザに提示情報を提示するためのロボット制御を行うことを特徴とするロボット制御システム。
In any one of Claims 1 thru | or 15,
A user identification unit for identifying the approached user when the user approaches the robot;
The robot controller is
A robot control system for performing robot control for presenting presentation information to the first user when the user identification unit is identified as approaching the first user.
請求項1乃至16のいずれかにおいて、
ユーザ間での情報提示の許可・不許可を判断するための提示許可判断情報を記憶する提示許可判断情報記憶部を含み、
前記提示情報決定部は、
前記提示許可判断情報に基づいて、前記第1、第2のユーザ間での情報提示が許可されていると判断した場合に、前記第2のユーザ情報に基づく前記第1のユーザへの提示情報の決定処理を行うことを特徴とするロボット制御システム。
In any one of Claims 1 thru | or 16.
Including a presentation permission judgment information storage unit for storing presentation permission judgment information for judging permission / non-permission of information presentation between users,
The presentation information determination unit
Information presented to the first user based on the second user information when it is determined that information presentation between the first and second users is permitted based on the presentation permission judgment information A robot control system characterized by performing a determination process.
請求項1乃至17のいずれかにおいて、
複数の会話フレーズにより構成されるシナリオデータを、前記提示情報として記憶するシナリオデータ記憶部を含み、
前記提示情報決定部は、
前記シナリオデータに基づいて、ロボットが前記第1のユーザに対して発話する会話フレーズを決定し、
前記ロボット制御部は、
決定された会話フレーズをロボットに発話させるための制御を行うことを特徴とするロボット制御システム。
In any one of Claims 1 thru | or 17,
A scenario data storage unit that stores scenario data composed of a plurality of conversation phrases as the presentation information;
The presentation information determination unit
Based on the scenario data, determine a conversation phrase that the robot speaks to the first user;
The robot controller is
A robot control system characterized by performing control for causing a robot to utter a determined conversation phrase.
請求項18において、
前記シナリオデータ記憶部は、
複数の会話フレーズが分岐構造でリンクされたシナリオデータを記憶し、
前記提示情報決定部は、
ロボットが発話した会話フレーズに対する前記第1のユーザの反応に基づいて、次にロボットに発話させる会話フレーズを決定することを特徴とするロボット制御システム。
In claim 18,
The scenario data storage unit
Stores scenario data in which multiple conversation phrases are linked in a branch structure,
The presentation information determination unit
A robot control system characterized by determining a conversation phrase to be subsequently spoken by the robot based on a reaction of the first user to a conversation phrase spoken by the robot.
請求項18又は19において、
ロボットが発話した会話フレーズに対する前記第2のユーザの反応に基づき作成されるシナリオデータを取得するシナリオデータ取得部を含み、
前記提示情報決定部は、
前記第2のユーザの反応により取得されたシナリオデータに基づいて、ロボットが前記第1のユーザに対して発話する会話フレーズを決定すること特徴とするロボット制御システム。
In claim 18 or 19,
A scenario data acquisition unit that acquires scenario data created based on the reaction of the second user to the conversation phrase spoken by the robot;
The presentation information determination unit
A robot control system, wherein a conversation phrase that the robot speaks to the first user is determined based on scenario data acquired by a reaction of the second user.
請求項18乃至20のいずれかにおいて、
前記提示情報決定部は、
取得された同じ前記第2のユーザ情報に対して、第1、第2のロボットが異なる会話フレーズを発話するように、前記第1のユーザに対して発話する会話フレーズの決定処理を行い、
ロボットが発話した会話フレーズに対する前記第1のユーザの反応に基づいて、前記第1、第2のロボットのいずれに対して次の会話フレーズの発話権を付与するかを制御する発話権制御部を含むことを特徴とするロボット制御システム。
In any of claims 18 to 20,
The presentation information determination unit
For the same second user information that has been acquired, a conversation phrase to be uttered to the first user is determined so that the first and second robots utter different conversation phrases,
An utterance right control unit that controls which of the first and second robots is granted the utterance right of the next conversation phrase based on the reaction of the first user to the conversation phrase uttered by the robot. A robot control system comprising:
請求項21において、
前記発話権制御部は、
前記第1、第2のロボットのいずれか一方のロボットが発話した会話フレーズに対して前記第1のユーザが肯定的な反応をしたか否定的な反応をしたかに応じて、次の会話フレーズの発話権を付与するロボットを決定することを特徴とするロボット制御システム。
In claim 21,
The speaking right control unit
Depending on whether the first user has made a positive reaction or a negative reaction to the conversation phrase spoken by either one of the first and second robots, the next conversation phrase A robot control system characterized by determining a robot to be given the right to speak.
請求項1乃至22のいずれかに記載のロボット制御システムと、
前記ロボット制御システムの制御対象であるロボット動作機構とを含むことを特徴とするロボット。
The robot control system according to any one of claims 1 to 22,
And a robot operation mechanism which is a control target of the robot control system.
ロボット制御のためのプログラムであって、
ユーザの行動を計測する行動センサ、ユーザの状態を計測する状態センサ及びユーザの環境を計測する環境センサの少なくとも1つからのセンサ情報により得られるユーザ情報を取得するユーザ情報取得部と、
取得された前記ユーザ情報に基づいて、ロボットがユーザに対して提示する提示情報の決定処理を行う提示情報決定部と、
前記提示情報をユーザに対してロボットに提示させるための制御を行うロボット制御部として、
コンピュータを機能させ、
前記ユーザ情報取得部は、
第2のユーザの前記ユーザ情報である第2のユーザ情報を取得し、
前記提示情報決定部は、
取得された前記第2のユーザ情報に基づいて、第1のユーザへの提示情報の決定処理を行い、
前記ロボット制御部は、
前記第2のユーザ情報に基づき決定された提示情報を、前記第1のユーザに提示するためのロボット制御を行うことを特徴とするプログラム。
A program for robot control,
A user information acquisition unit that acquires user information obtained from sensor information from at least one of a behavior sensor that measures a user's behavior, a state sensor that measures a user's state, and an environment sensor that measures a user's environment;
Based on the acquired user information, a presentation information determination unit that performs a process of determining presentation information that the robot presents to the user;
As a robot controller that performs control for causing the robot to present the presentation information to the user,
Make the computer work,
The user information acquisition unit
Obtaining second user information which is the user information of a second user;
The presentation information determination unit
Based on the acquired second user information, a process for determining the presentation information to the first user is performed,
The robot controller is
A program for performing robot control for presenting presentation information determined based on the second user information to the first user.
コンピュータ読み取り可能な情報記憶媒体であって、請求項24に記載のプログラムを記憶したことを特徴とする情報記憶媒体。   An information storage medium readable by a computer, wherein the program according to claim 24 is stored.
JP2007309625A 2007-09-06 2007-11-30 Robot control system, robot, program and information recording medium Withdrawn JP2009131928A (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2007309625A JP2009131928A (en) 2007-11-30 2007-11-30 Robot control system, robot, program and information recording medium
CN200880105801A CN101795830A (en) 2007-09-06 2008-09-01 Robot control system, robot, program, and information recording medium
US12/676,729 US20110118870A1 (en) 2007-09-06 2008-09-01 Robot control system, robot, program, and information storage medium
PCT/JP2008/065642 WO2009031486A1 (en) 2007-09-06 2008-09-01 Robot control system, robot, program, and information recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007309625A JP2009131928A (en) 2007-11-30 2007-11-30 Robot control system, robot, program and information recording medium

Publications (1)

Publication Number Publication Date
JP2009131928A true JP2009131928A (en) 2009-06-18

Family

ID=40864358

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007309625A Withdrawn JP2009131928A (en) 2007-09-06 2007-11-30 Robot control system, robot, program and information recording medium

Country Status (1)

Country Link
JP (1) JP2009131928A (en)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015050657A (en) * 2013-09-02 2015-03-16 シャープ株式会社 Control device, control method for control device, control system, and control program
CN105093986A (en) * 2015-07-23 2015-11-25 百度在线网络技术(北京)有限公司 Humanoid robot control method based on artificial intelligence, system and the humanoid robot
JP2016133557A (en) * 2015-01-16 2016-07-25 国立大学法人大阪大学 Agent dialog system, and program
JP2017504914A (en) * 2014-10-20 2017-02-09 小米科技有限責任公司Xiaomi Inc. User information acquisition method and apparatus
JP2017042883A (en) * 2015-08-27 2017-03-02 シャープ株式会社 Robot, robot selling system, robot control method, and program
JP2017079004A (en) * 2015-10-21 2017-04-27 国立大学法人大阪大学 Agent dialogue system
WO2017200074A1 (en) * 2016-05-20 2017-11-23 日本電信電話株式会社 Dialog method, dialog system, dialog device, and program
JP2017226047A (en) * 2016-06-23 2017-12-28 カシオ計算機株式会社 Robot, robot control system, robot control method, and program
JP2018097185A (en) * 2016-12-14 2018-06-21 パナソニックIpマネジメント株式会社 Voice dialogue device, voice dialogue method, voice dialogue program and robot
WO2018116531A1 (en) * 2016-12-19 2018-06-28 シャープ株式会社 Server, information processing method, network system, and terminal
EP3373301A1 (en) 2017-03-08 2018-09-12 Panasonic Intellectual Property Management Co., Ltd. Apparatus, robot, method and recording medium having program recorded thereon
US10356160B2 (en) 2014-10-20 2019-07-16 Xiaomi Inc. Methods and devices for acquiring user information
WO2019187256A1 (en) * 2018-03-26 2019-10-03 Necソリューションイノベータ株式会社 Conversation initiation timing determination device, conversation initiation timing determination method, and program
WO2020071401A1 (en) * 2018-10-02 2020-04-09 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Information provision method
JP2021121316A (en) * 2019-07-30 2021-08-26 株式会社リビングロボット Personal assistant control system

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015050657A (en) * 2013-09-02 2015-03-16 シャープ株式会社 Control device, control method for control device, control system, and control program
JP2017504914A (en) * 2014-10-20 2017-02-09 小米科技有限責任公司Xiaomi Inc. User information acquisition method and apparatus
US10356160B2 (en) 2014-10-20 2019-07-16 Xiaomi Inc. Methods and devices for acquiring user information
JP2016133557A (en) * 2015-01-16 2016-07-25 国立大学法人大阪大学 Agent dialog system, and program
CN105093986A (en) * 2015-07-23 2015-11-25 百度在线网络技术(北京)有限公司 Humanoid robot control method based on artificial intelligence, system and the humanoid robot
JP2017042883A (en) * 2015-08-27 2017-03-02 シャープ株式会社 Robot, robot selling system, robot control method, and program
JP2017079004A (en) * 2015-10-21 2017-04-27 国立大学法人大阪大学 Agent dialogue system
WO2017200074A1 (en) * 2016-05-20 2017-11-23 日本電信電話株式会社 Dialog method, dialog system, dialog device, and program
JPWO2017200074A1 (en) * 2016-05-20 2019-03-07 日本電信電話株式会社 Dialogue method, dialogue system, dialogue apparatus, and program
CN107538497A (en) * 2016-06-23 2018-01-05 卡西欧计算机株式会社 Robot, robot control system, robot control method and storage medium
JP2017226047A (en) * 2016-06-23 2017-12-28 カシオ計算機株式会社 Robot, robot control system, robot control method, and program
US10350760B2 (en) 2016-06-23 2019-07-16 Casio Computer Co., Ltd. Robot, robot control system, robot control method, and non-transitory computer-readable recording medium
JP2018097185A (en) * 2016-12-14 2018-06-21 パナソニックIpマネジメント株式会社 Voice dialogue device, voice dialogue method, voice dialogue program and robot
WO2018116531A1 (en) * 2016-12-19 2018-06-28 シャープ株式会社 Server, information processing method, network system, and terminal
JP2018101197A (en) * 2016-12-19 2018-06-28 シャープ株式会社 Server, information processing method, network system, and terminal
EP3373301A1 (en) 2017-03-08 2018-09-12 Panasonic Intellectual Property Management Co., Ltd. Apparatus, robot, method and recording medium having program recorded thereon
US20180257236A1 (en) * 2017-03-08 2018-09-13 Panasonic Intellectual Property Management Co., Ltd. Apparatus, robot, method and recording medium having program recorded thereon
US10702991B2 (en) 2017-03-08 2020-07-07 Panasonic Intellectual Property Management Co., Ltd. Apparatus, robot, method and recording medium having program recorded thereon
WO2019187256A1 (en) * 2018-03-26 2019-10-03 Necソリューションイノベータ株式会社 Conversation initiation timing determination device, conversation initiation timing determination method, and program
JPWO2019187256A1 (en) * 2018-03-26 2020-10-22 Necソリューションイノベータ株式会社 Talking timing determination device, speaking timing determination method, and program
WO2020071401A1 (en) * 2018-10-02 2020-04-09 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Information provision method
JPWO2020071401A1 (en) * 2018-10-02 2021-09-02 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Information provision method
JP7296980B2 (en) 2018-10-02 2023-06-23 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Information provision method
JP2021121316A (en) * 2019-07-30 2021-08-26 株式会社リビングロボット Personal assistant control system
JP7350356B2 (en) 2019-07-30 2023-09-26 株式会社リビングロボット personal assistant control system

Similar Documents

Publication Publication Date Title
JP2009131928A (en) Robot control system, robot, program and information recording medium
JP2009061547A (en) Robot control system, robot, program, and information storage medium
US20110118870A1 (en) Robot control system, robot, program, and information storage medium
JP6494062B2 (en) Autonomous robot that recognizes the direction of the sound source
JP6409206B2 (en) Autonomous robot that welcomes you
US8229877B2 (en) Information processing system, information processing method, and computer program product
JP5265141B2 (en) Portable electronic device, program and information storage medium
JP6402320B2 (en) An autonomous behavioral robot
JP7173031B2 (en) Information processing device, information processing method, and program
JP4794846B2 (en) Estimation apparatus and estimation method
JP2008310680A (en) Control system, program, and information storage medium
JP2009176130A (en) Information-presenting system, program, and information storage medium
JP2018120618A (en) Autonomously behaving robot seeking coolness
JP7350356B2 (en) personal assistant control system
WO2019087478A1 (en) Information processing device, information processing method, and program
JPWO2020116233A1 (en) Information processing equipment, information processing methods, and programs
JP2006172410A (en) Care information base with the use of robot
JP2008009505A (en) Information display system
WO2021085175A1 (en) Autonomous mobile object, information processing method, program, and information processing device
JP7156300B2 (en) Information processing device, information processing method, and program
JP5105779B2 (en) Information selection system
JP7425681B2 (en) Social ability generation device, social ability generation method, and communication robot
CN116704828A (en) Language and cognition assistance system and method
KR20240006100A (en) System for inducing pet movement in metaverse environment
JPWO2020004213A1 (en) Information processing equipment, information processing methods, and programs

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20110201