JP2016012341A - Action control system, system and program - Google Patents

Action control system, system and program Download PDF

Info

Publication number
JP2016012341A
JP2016012341A JP2015053473A JP2015053473A JP2016012341A JP 2016012341 A JP2016012341 A JP 2016012341A JP 2015053473 A JP2015053473 A JP 2015053473A JP 2015053473 A JP2015053473 A JP 2015053473A JP 2016012341 A JP2016012341 A JP 2016012341A
Authority
JP
Japan
Prior art keywords
user
unit
action
information
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015053473A
Other languages
Japanese (ja)
Other versions
JP6053847B2 (en
Inventor
孫 正義
Masayoshi Son
正義 孫
康介 朝長
Kosuke Asanaga
康介 朝長
悠磨 三平
Yuma Sampei
悠磨 三平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SoftBank Corp
Original Assignee
SoftBank Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SoftBank Corp filed Critical SoftBank Corp
Priority to JP2015053473A priority Critical patent/JP6053847B2/en
Publication of JP2016012341A publication Critical patent/JP2016012341A/en
Application granted granted Critical
Publication of JP6053847B2 publication Critical patent/JP6053847B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To solve a problem of incapability of determining an adequate action to a state of a user.SOLUTION: An action control system includes: an action information storage part which stores determination information for determining an action on the basis of a state of a user; a user state recognition part which recognizes the state of the user; an action determination part which determines an action to be executed based on the state of the user recognized by the user state recognition part and determination information; a response recognition part which recognizes a response of the user to execution of the action determined by the action determination part; a transmission part which transmits the state of the user recognized by the user state recognition part, the action determined by the determination part, and the response of the user to the action recognized by the response recognition part, to an external server; a receiving part which receives an action appropriate to the state of the user recognized by the user state recognition part from a server when the action determination part is not able to determine the action to be executed based on the state of the user and the determination information; and an action information updating part which updates the determination information on the basis of the action received by the receiving part from the server.

Description

本発明は、行動制御システム、システム及びプログラムに関する。   The present invention relates to a behavior control system, a system, and a program.

ユーザと通話相手との会話を学習してユーザの問いかけに対する通話相手の返答を返答テーブルに蓄積する端末が知られていた(例えば、特許文献1参照)。
[先行技術文献]
[特許文献]
[特許文献1]特開2011−253389号公報
There has been known a terminal that learns a conversation between a user and a call partner and accumulates a response of the call partner in response to the user's inquiry in a response table (see, for example, Patent Document 1).
[Prior art documents]
[Patent Literature]
[Patent Document 1] Japanese Patent Application Laid-Open No. 2011-253389

ユーザの状態に対して適切な行動を決定できない場合がある。   Appropriate behavior may not be determined for the user's condition.

本発明の第1の態様においては、ユーザの状態に基づいて行動を決定するための決定情報を記憶する行動情報記憶部と、ユーザの状態を認識するユーザ状態認識部と、ユーザ状態認識部が認識したユーザの状態と、決定情報とに基づいて、実行する行動を決定する行動決定部と、行動決定部が決定した行動を実行したことに対するユーザの反応を認識する反応認識部と、ユーザ状態認識部が認識したユーザの状態、行動決定部が決定した行動、及び反応認識部が認識したユーザの反応を、外部のサーバに送信する送信部と、行動決定部がユーザの状態と決定情報とに基づいて実行する行動を決定できなかった場合に、ユーザ状態認識部が認識したユーザの状態に適した行動を、サーバから受信する受信部と、受信部がサーバから受信した行動に基づいて、決定情報を更新する行動情報更新部とを備える行動制御システムが提供される。   In the first aspect of the present invention, an action information storage unit that stores determination information for determining an action based on a user state, a user state recognition unit that recognizes a user state, and a user state recognition unit include: Based on the recognized user state and the determination information, an action determination unit that determines an action to be executed, a reaction recognition unit that recognizes a user's reaction to the execution of the action determined by the action determination unit, and a user state The transmission unit that transmits the user status recognized by the recognition unit, the behavior determined by the behavior determination unit, and the user response recognized by the reaction recognition unit to an external server, and the behavior determination unit includes the user status and determination information If the action to be executed based on the condition cannot be determined, the receiver that receives the action appropriate for the user state recognized by the user state recognizer from the server, and the action that the receiver receives from the server Based on, behavior control system and a behavior information updating unit that updates the decision information is provided.

ユーザ状態認識部が認識したユーザの状態に基づいて、システムの現在の感情を示す感情値を決定する感情決定部と、感情決定部が決定した感情値に基づいて、行動決定部が決定した行動の実行形態を決定する行動制御部とを更に備えてよい。   Based on the state of the user recognized by the user state recognition unit, an emotion determination unit that determines an emotion value indicating the current emotion of the system, and an action determined by the behavior determination unit based on the emotion value determined by the emotion determination unit And an action control unit that determines the execution form.

送信部は更に、ユーザの属性をサーバに送信し、受信部は、行動決定部がユーザの状態と決定情報とに基づいて実行する行動を決定できなかった場合に、ユーザ状態認識部が認識したユーザの状態及びユーザの属性に適した行動を、サーバから受信してよい。   The transmission unit further transmits the user attribute to the server, and the reception unit recognizes the user state recognition unit when the behavior determination unit cannot determine the action to be executed based on the user state and the determination information. Actions appropriate for the user's condition and user attributes may be received from the server.

決定情報は、行動を行う場合に満たされるべきユーザの状態を示す条件と、条件に対応付けられた行動とを示す情報を含み、行動制御システムは、ユーザ状態認識部が認識したユーザの状態に基づいて、決定情報に含まれる条件が満たされているか否かを判断する条件判断部を更に備え、受信部は、条件判断部によって決定情報に含まれるいずれの条件も満たされていないことが判断された場合に、ユーザ状態認識部が認識したユーザの状態に適した行動を、サーバから受信してよい。   The decision information includes information indicating a condition indicating the state of the user to be satisfied when performing the action, and information indicating the action associated with the condition, and the action control system determines the user state recognized by the user state recognition unit. And a condition determining unit that determines whether or not a condition included in the determination information is satisfied, and the receiving unit determines that any condition included in the determination information is not satisfied by the condition determining unit. When it is, you may receive the action suitable for the user's state which the user state recognition part recognized from the server.

決定情報は、1以上の行動のそれぞれの適正度を示す情報を含み、行動決定部は、決定情報に含まれる情報のうち条件判断部によって満たされたことが判断された条件に対応付けられた1以上の行動のうち、決定情報に含まれる適正度が予め定められた値より高い行動を、実行する行動として決定し、受信部は、条件判断部によって満たされたことが判断された条件に対応付けられた1以上の行動の適正度が、いずれも予め定められた値以下である場合に、ユーザ状態認識部が認識したユーザの状態に適した行動を、サーバから受信してよい。   The determination information includes information indicating the appropriateness of each of the one or more actions, and the action determination unit is associated with the condition determined to be satisfied by the condition determination unit among the information included in the determination information. Among the one or more actions, an action having a degree of appropriateness included in the decision information higher than a predetermined value is determined as an action to be executed, and the receiving unit sets the condition determined to be satisfied by the condition determining unit. When the appropriateness of one or more associated actions is less than or equal to a predetermined value, an action suitable for the user state recognized by the user state recognition unit may be received from the server.

行動情報更新部は、条件判断部によって満たされたことが判断された条件に対応付けて、受信部がサーバから受信した行動を決定情報に追加してよい。   The behavior information update unit may add the behavior received from the server by the reception unit to the determination information in association with the condition determined to be satisfied by the condition determination unit.

行動情報更新部は、反応認識部が認識したユーザの反応が不良であった場合に、条件判断部によって満たされたことが判断された条件及び行動決定部が決定した行動に対応付けて決定情報に記憶されている適正度を低下させてよい。   The behavior information update unit is determined in association with the condition determined to be satisfied by the condition determination unit and the action determined by the behavior determination unit when the reaction of the user recognized by the reaction recognition unit is poor. You may reduce the appropriateness memorize | stored in.

本発明の第2の態様においては、コンピュータを、上記の行動制御システムとして機能させるためのプログラムが提供される。   In the 2nd aspect of this invention, the program for functioning a computer as said behavior control system is provided.

本発明の第3の態様においては、上記の複数の行動制御システムと、サーバとを備えるシステムが提供される。   In the 3rd aspect of this invention, a system provided with said some action control system and a server is provided.

本発明の第4の態様においては、第1の行動制御システムにおいて認識されたユーザの状態、第1の行動制御システムにおいて当該ユーザの状態に基づいて決定された行動、及び当該行動が実行されたことに対する当該ユーザの反応を、第1の行動制御システムから受信するユーザ反応受信部と、ユーザ反応受信部が受信したユーザの状態、行動、及びユーザの反応を対応づけて記憶する行動結果記憶部と、第2の行動制御システムにおいて認識されたユーザの状態を、第2の行動制御システムから受信するユーザ状態受信部と、ユーザ状態受信部が受信したユーザの状態に合致する状態に対応付けて行動結果記憶部が記憶しているユーザの反応に基づいて、ユーザ状態受信部が受信したユーザの状態に合致する状態に対応付けて行動結果記憶部が記憶している行動の中から、ユーザ状態受信部が受信したユーザの状態に適した行動を選択する行動選択部と、行動選択部が選択した行動を、第2の行動制御システムに送信する送信部とを備えるサーバが提供される。   In the fourth aspect of the present invention, the state of the user recognized in the first behavior control system, the behavior determined based on the state of the user in the first behavior control system, and the behavior are executed. A user response receiving unit that receives the user's response to the first behavior control system, and a user result receiving unit that receives the user response, the behavior and the result of the user's response And the user status recognized by the second behavior control system in association with the user status receiving unit that receives from the second behavior control system and the status that matches the user status received by the user status receiving unit. Based on the user's reaction stored in the action result storage unit, the action result description is associated with the state that matches the user state received by the user state reception unit. The behavior selection unit that selects a behavior suitable for the user's state received by the user status reception unit from the behaviors stored in the unit, and the behavior selected by the behavior selection unit are transmitted to the second behavior control system A server including a transmitting unit is provided.

本発明の第5の態様においては、コンピュータを、上記のサーバとして機能させるためのプログラムが提供される。   In the fifth aspect of the present invention, a program for causing a computer to function as the server is provided.

なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。   It should be noted that the above summary of the invention does not enumerate all the necessary features of the present invention. In addition, a sub-combination of these feature groups can also be an invention.

本実施形態に係るシステム5の一例を概略的に示す。An example of system 5 concerning this embodiment is shown roughly. ロボット100がユーザ10に対して実行する行動を概略的に示す。The action which the robot 100 performs with respect to the user 10 is shown schematically. ロボット100がデータの記録を実行する場面を概略的に示す。A scene in which the robot 100 executes data recording is schematically shown. ロボット100の機能構成を概略的に示す。1 schematically shows a functional configuration of a robot 100. サーバ200の機能構成を概略的に示す。The function structure of the server 200 is shown schematically. 知覚処理部416が知覚する情報を概略的に示す。The information perceived by the perception processing unit 416 is schematically shown. 意味理解部418が理解する情報を概略的に示す。The information understood by the semantic understanding unit 418 is schematically shown. 反応ルール421に含まれる情報をテーブル形式で示す。Information included in the reaction rule 421 is shown in a table format. 反応ルールに基づく処理を概略的に示す。The process based on a reaction rule is shown schematically. ロボット100による動作フローの一例を概略的に示す。An example of the operation | movement flow by the robot 100 is shown schematically. サーバ200が格納している反応ルール統計情報522の一例を示す。An example of the reaction rule statistical information 522 stored in the server 200 is shown. サーバ200に記録させる情報に付帯するラベルを決定するために実行する行動を概略的に示す。The action performed in order to determine the label incidental to the information recorded on the server 200 is schematically shown. 記録形式を切り換えるための記録形式切換ルール471の一例を示す。An example of the recording format switching rule 471 for switching the recording format is shown. 記録形式の切り換えに関する動作フローの一例を概略的に示す。An example of the operation | movement flow regarding switching of a recording format is shown roughly.

以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。   Hereinafter, the present invention will be described through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. In addition, not all the combinations of features described in the embodiments are essential for the solving means of the invention.

図1は、本実施形態に係るシステム5の一例を概略的に示す。システム5は、ロボット100、ロボット101、ロボット102、及びサーバ200を備える。ユーザ10a、ユーザ10b、ユーザ10c、及びユーザ10dは、ロボット100のユーザである。ユーザ11a、ユーザ11b及びユーザ11cは、ロボット101のユーザである。ユーザ12a及びユーザ12bは、ロボット102のユーザである。なお、本実施形態の説明において、ユーザ10a、ユーザ10b、ユーザ10c、及びユーザ10dを、ユーザ10と総称する場合がある。また、ユーザ11a、ユーザ11b及びユーザ11cを、ユーザ11と総称する場合がある。また、ユーザ12a及びユーザ12bを、ユーザ12と総称する場合がある。ロボット101及びロボット102は、ロボット100と略同一の機能を有する。そのため、ロボット100の機能を主として取り上げてシステム5を説明する。   FIG. 1 schematically shows an example of a system 5 according to the present embodiment. The system 5 includes a robot 100, a robot 101, a robot 102, and a server 200. The user 10 a, the user 10 b, the user 10 c, and the user 10 d are users of the robot 100. The user 11a, the user 11b, and the user 11c are users of the robot 101. The user 12 a and the user 12 b are users of the robot 102. In the description of the present embodiment, the user 10a, the user 10b, the user 10c, and the user 10d may be collectively referred to as the user 10. In addition, the user 11a, the user 11b, and the user 11c may be collectively referred to as the user 11. In addition, the user 12a and the user 12b may be collectively referred to as the user 12. The robot 101 and the robot 102 have substantially the same function as the robot 100. Therefore, the system 5 will be described mainly focusing on the functions of the robot 100.

ロボット100は、ユーザ10と会話を行ったり、ユーザ10に映像を提供したりする。このとき、ロボット100は、通信網20を介して通信可能なサーバ200等と連携して、ユーザ10との会話や、ユーザ10への映像等の提供を行う。例えば、ロボット100は、自身で適切な会話を学習するだけでなく、サーバ200と連携して、ユーザ10とより適切に会話を進められるように学習を行う。また、ロボット100は、撮影したユーザ10の映像データ等をサーバ200に記録させ、必要に応じて映像データ等をサーバ200に要求して、ユーザ10に提供する。   The robot 100 has a conversation with the user 10 and provides video to the user 10. At this time, the robot 100 cooperates with the server 200 or the like that can communicate via the communication network 20 and provides a conversation with the user 10 and a video to the user 10. For example, the robot 100 not only learns an appropriate conversation by itself, but also learns so that the conversation with the user 10 can be advanced more appropriately in cooperation with the server 200. In addition, the robot 100 causes the server 200 to record the captured video data of the user 10, requests the video data from the server 200 as necessary, and provides the user 10 with the video data.

また、ロボット100は、自身の感情の種類を表す感情値を持つ。例えば、ロボット100は、「喜」、「怒」、「哀」、「楽」、「快」、「不快」、「安心」、「不安」、「悲しみ」、「興奮」、「心配」、「安堵」、「充実感」、「虚無感」及び「普通」のそれぞれの感情の強さを表す感情値を持つ。ロボット100は、例えば興奮の感情値が大きい状態でユーザ10と会話するときは、早いスピードで音声を発する。このように、ロボット100は、自己の感情を行動で表現することができる。   The robot 100 also has an emotion value that represents the type of emotion of the robot 100. For example, the robot 100 has “joy”, “anger”, “sorrow”, “easy”, “pleasant”, “unpleasant”, “relief”, “anxiety”, “sadness”, “excitement”, “worry”, It has emotion values that represent the emotional strengths of “Relief”, “Fulfillment”, “Nonsense” and “Normal”. For example, when talking with the user 10 in a state where the emotion value of excitement is large, the robot 100 emits a voice at a high speed. In this way, the robot 100 can express its own emotions with actions.

また、ロボット100は、ユーザ10の感情を認識する機能を有する。ロボット100は、カメラ機能で取得したユーザ10の顔画像や、マイク機能で取得したユーザ10の音声を解析することによって、ユーザ10の感情を認識する。ロボット100は、認識したユーザ10の感情等に基づいて、ロボット100が実行する行動を決定する。例えば、ロボット100は、ユーザ10が寂しそうだと認識した場合に、ユーザ10に対して声をかける等の行動を実行する。   The robot 100 has a function of recognizing the emotion of the user 10. The robot 100 recognizes the emotion of the user 10 by analyzing the face image of the user 10 acquired by the camera function and the voice of the user 10 acquired by the microphone function. The robot 100 determines an action to be executed by the robot 100 based on the recognized emotion of the user 10 and the like. For example, when the robot 100 recognizes that the user 10 is likely to be lonely, the robot 100 performs an action such as calling the user 10.

ロボット100は、ユーザ10の感情や自己の感情等に基づいてロボット100が実行する行動を定めたルールを記憶しており、ルールに従って各種の行動を行う。図2及び図3等に関連して、ルールに基づく行動の一例を概略的に説明する。   The robot 100 stores rules that define actions to be executed by the robot 100 based on the emotions of the user 10, self-emotions, and the like, and performs various actions according to the rules. An example of the action based on the rule will be schematically described with reference to FIGS.

図2は、ロボット100がユーザ10に対して実行する行動を概略的に示す。ロボット100には、ユーザ10の感情に基づいて行動を決定するための反応ルールを有している。図示された反応ルールによると、ロボット100の感情が「普通」であり、ユーザの状態が「1人、寂しそう」という条件が満たされた場合に、ロボット100の感情が「心配になる」という感情の変化内容と、「声をかける」の行動を実行できることが定められている。ここで、行動には、ユーザ10の思いやりの強さを表す思いやりポイントが対応付けられている。   FIG. 2 schematically shows actions that the robot 100 performs on the user 10. The robot 100 has a reaction rule for determining an action based on the emotion of the user 10. According to the illustrated reaction rule, when the emotion of the robot 100 is “ordinary” and the condition of the user is “one person seems to be lonely”, the emotion of the robot 100 is “worried”. It is stipulated that the content of emotion change and the action of “calling out” can be executed. Here, the action is associated with a consideration point representing the strength of the consideration of the user 10.

ロボット100は、反応ルールに基づいて、ロボット100の現在の感情が「普通」であり、かつ、ユーザ10が1人で寂しそうな状態にあると認識した場合、ロボット100の「心配」の感情値を増大させる。また、ロボット100は、反応ルールで定められた「声をかける」という行動を、ユーザ10に対して実行する行動として選択する。例えば、ロボット100は、「声をかける」という行動を選択した場合に、心配していることを表す「どうしたの?」という言葉を、心配そうな音声に変換して出力する。   If the robot 100 recognizes that the current emotion of the robot 100 is “ordinary” and the user 10 is in a state of being lonely based on the reaction rule, the emotion of the robot 100 “anxiety”. Increase the value. In addition, the robot 100 selects the action of “calling a voice” defined in the reaction rule as an action to be performed on the user 10. For example, when the robot 100 selects the action of “calling a voice”, the robot 100 converts the word “What's wrong?” Indicating worried into a worried voice and outputs it.

ロボット100は、ユーザ10に音声を出力した後に、ユーザ10の感情の変化を認識する。例えば、ロボット100が「どうしたの?」という音声を出力した後に、ユーザ10が「ありがとう。大丈夫だよ!」と返答すると、ロボット100は、ユーザ10の返答を音声解析することによって、ユーザ10の感情が好転したと認識する。ロボット100は、「声をかける」という行動によって、ユーザ10の感情が好転したことから、「声をかける」という行動が思いやり度の高い行動であったと判断して、「声をかける」という行動の思いやりポイントを高める。これにより、ロボット100は、ユーザ10にとって適正な行動を学習していくことができる。   The robot 100 recognizes a change in the emotion of the user 10 after outputting the voice to the user 10. For example, when the user 10 replies “Thank you! All right!” After the robot 100 outputs the voice “What was it?”, The robot 100 analyzes the reply of the user 10 by voice analysis. Recognize that feelings improved. Since the emotion of the user 10 is improved by the action of “calling out”, the robot 100 determines that the action of “calling out” is a highly considerate action, and the action of “calling out” Increase compassion points. Thereby, the robot 100 can learn an action appropriate for the user 10.

また、ロボット100は、この行動によって、ユーザ10からポジティブな反応が得られたことを示すユーザ反応情報を、サーバ200に送信する。ユーザ反応情報には、例えば、「一人、寂しそう」という条件、「声をかける」という行動、ユーザ10の反応がポジティブであったこと、及びユーザ10の属性が含まれる。   In addition, the robot 100 transmits user response information indicating that a positive response is obtained from the user 10 to the server 200 by this action. The user response information includes, for example, the condition “one person seems to be lonely”, the action “call out”, the user 10's reaction being positive, and the user's 10 attributes.

サーバ200は、ロボット100から受信したユーザ反応情報を記憶する。なお、サーバ200は、ロボット100だけでなく、ロボット101及びロボット102のそれぞれからもユーザ反応情報を受信して記憶する。そして、サーバ200は、ロボット100、ロボット101及びロボット102からのユーザ反応情報を解析して、推奨される反応ルールを生成する。   The server 200 stores user reaction information received from the robot 100. The server 200 receives and stores user reaction information not only from the robot 100 but also from each of the robot 101 and the robot 102. Then, the server 200 analyzes user reaction information from the robot 100, the robot 101, and the robot 102, and generates a recommended reaction rule.

ロボット100は、推奨される反応ルールをサーバ200に問い合わせることにより、推奨される反応ルールをサーバ200から受信する。ロボット100は、推奨される反応ルールを、ロボット100が記憶している反応ルールに組み込む。これにより、ロボット100は、ロボット101やロボット102等が獲得した反応ルールを、自身の反応ルールに組み込むことができる。   The robot 100 receives the recommended reaction rule from the server 200 by inquiring the server 200 for the recommended reaction rule. The robot 100 incorporates the recommended reaction rule into the reaction rule stored in the robot 100. Thereby, the robot 100 can incorporate the reaction rule acquired by the robot 101, the robot 102, or the like into its own reaction rule.

図3は、ロボット100がサーバ200に記録させるデータの記録形式の切り換えを実行する場面を概略的に示す。ロボット100には、ユーザ10の感情に基づいて記録形式の切り換えを行うための記録形式切換ルールを有している。図示された記録形式切換ルールによると、「一定人数以上の家族がいる」及び「一定数以上、家族の笑顔が検出された」という条件が満たされた場合に、データの記録形式を「低圧縮形式に切り換える」という行動が定められている。   FIG. 3 schematically shows a scene in which the robot 100 executes switching of the recording format of data that the server 200 records. The robot 100 has a recording format switching rule for switching the recording format based on the emotion of the user 10. According to the recording format switching rule shown in the figure, the data recording format is set to “low compression” when the conditions “there are more than a certain number of families” and “a certain number of family smiles are detected” are satisfied. The action of “switch to form” is defined.

ロボット100は、この記録形式切換ルールの条件が満されていない期間には、ユーザ10の骨格データ等の高圧縮データを連続的にサーバ200に送信して、サーバ200に記録させる。なお、骨格データは、ユーザの形状を表現する形状データの一例である。ロボット100は、記録形式切換ルールの条件が満たされたと判断すると、フルHDの映像データ及び音声データの送信を開始して、骨格データに加えて、フルHDの映像データ及び音声データを含む低圧縮データをサーバ200に記録させる。   The robot 100 continuously transmits high-compressed data such as the skeleton data of the user 10 to the server 200 and records it in the server 200 during a period when the conditions of the recording format switching rule are not satisfied. The skeleton data is an example of shape data that represents the shape of the user. When the robot 100 determines that the condition of the recording format switching rule is satisfied, the robot 100 starts transmission of full HD video data and audio data, and performs low compression including full HD video data and audio data in addition to the skeleton data. Data is recorded on the server 200.

そして、ロボット100は、ユーザ10に何か楽しい映像を提供する場合に、サーバ200にフルHDの映像データ及び音声データを送信するよう要求して、サーバ200から受信した映像データをユーザ10に提供する。これにより、ロボット100は、ユーザ10が強く思い出に残るようなシーンに遭遇した場合に、そのシーンの高画質な映像データをサーバ200に蓄積することができる。   Then, when providing the user 10 with some fun video, the robot 100 requests the server 200 to transmit full HD video data and audio data, and provides the video data received from the server 200 to the user 10. To do. Thus, when the robot 100 encounters a scene that is strongly memorable, the robot 100 can accumulate high-quality video data of the scene in the server 200.

図4は、ロボット100の機能構成を概略的に示す。ロボット100は、センサ部400と、センサモジュール部410と、格納部420と、ユーザ状態認識部430と、条件判断部434と、ユーザ反応認識部432と、行動決定部440と、感情決定部442と、ルール更新部422と、通信処理部480と、記録データ生成部470と、切換制御部477と、ラベル生成部478と、制御対象452とを有する。   FIG. 4 schematically shows a functional configuration of the robot 100. The robot 100 includes a sensor unit 400, a sensor module unit 410, a storage unit 420, a user state recognition unit 430, a condition determination unit 434, a user reaction recognition unit 432, an action determination unit 440, and an emotion determination unit 442. A rule update unit 422, a communication processing unit 480, a recording data generation unit 470, a switching control unit 477, a label generation unit 478, and a control object 452.

制御対象452は、表示装置、スピーカ及び目部のLED、並びに、腕、手及び足等を駆動するモータ等を含む。ロボット100の姿勢や仕草は、腕、手及び足等のモータを制御することにより制御される。ロボット100の感情の一部は、これらのモータを制御することにより表現できる。また、ロボット100の目部のLEDの発光状態を制御することによっても、ロボット100の感情の一部を表現できる。なお、ロボット100の姿勢、仕草及び表情は、ロボット100の態度の一例である。   The control object 452 includes a display device, a speaker, an eye LED, a motor that drives arms, hands, legs, and the like. The posture and gesture of the robot 100 are controlled by controlling motors such as arms, hands, and feet. A part of the emotion of the robot 100 can be expressed by controlling these motors. Also, a part of the emotion of the robot 100 can be expressed by controlling the light emission state of the LED of the eye part of the robot 100. Note that the posture, gesture, and facial expression of the robot 100 are examples of the attitude of the robot 100.

センサ部400は、マイク401と、3D深度センサ402と、2Dカメラ403と、距離センサ404とを含む。マイク401は、音声を連続的に検出して音声データを出力する。なお、マイク401は、ロボット100の頭部に設けられ、バイノーラル録音を行う機能を有してよい。3D深度センサ402は、赤外線パターンを連続的に照射して、赤外線カメラで連続的に撮影された赤外線画像から赤外線パターンを解析することによって、物体の輪郭を検出する。2Dカメラ403は、イメージセンサの一例である。2Dカメラ403は、可視光によって撮影して、可視光の映像情報を生成する。距離センサは、例えばレーザや超音波等を照射して物体までの距離を検出する。なお、センサ部400は、この他にも、時計、ジャイロセンサ、タッチセンサ、モータフィードバック用のセンサ等を含んでよい。   The sensor unit 400 includes a microphone 401, a 3D depth sensor 402, a 2D camera 403, and a distance sensor 404. The microphone 401 continuously detects sound and outputs sound data. The microphone 401 may be provided on the head of the robot 100 and have a function of performing binaural recording. The 3D depth sensor 402 detects the contour of an object by continuously irradiating an infrared pattern and analyzing the infrared pattern from infrared images continuously captured by an infrared camera. The 2D camera 403 is an example of an image sensor. The 2D camera 403 shoots with visible light and generates visible light video information. The distance sensor detects the distance to the object by irradiating, for example, a laser or an ultrasonic wave. In addition, the sensor unit 400 may include a timepiece, a gyro sensor, a touch sensor, a motor feedback sensor, and the like.

なお、図4に示すロボット100の構成要素のうち、制御対象452及びセンサ部400を除く構成要素は、ロボット100が有する行動制御システムが有する構成要素の一例である。ロボット100の行動制御システムは、制御対象452を制御の対象とする。   Note that, among the components of the robot 100 illustrated in FIG. 4, the components other than the control target 452 and the sensor unit 400 are examples of components included in the behavior control system included in the robot 100. The behavior control system of the robot 100 sets the control target 452 as a control target.

格納部420は、反応ルール421と、知覚確認ルール417と、意味理解ルール419と、記録形式切換ルール471と、人物DB424とを含む。格納部420の少なくとも一部は、メモリ等の記憶媒体によって実装される。人物DB424は、ユーザ10の顔画像、ユーザ10の属性情報等を格納する。なお、図4に示すロボット100の構成要素のうち、制御対象452、センサ部400及び格納部420を除く構成要素の機能は、CPUがプログラムに基づいて動作することによって実現できる。例えば、基本ソフトウエア(OS)及びOS上で動作するプログラムによって、これらの構成要素の機能をCPUの動作として実装できる。   The storage unit 420 includes a reaction rule 421, a perception confirmation rule 417, a meaning understanding rule 419, a recording format switching rule 471, and a person DB 424. At least a part of the storage unit 420 is implemented by a storage medium such as a memory. The person DB 424 stores the face image of the user 10, attribute information of the user 10, and the like. Among the components of the robot 100 shown in FIG. 4, the functions of the components other than the control object 452, the sensor unit 400, and the storage unit 420 can be realized by the CPU operating based on a program. For example, the functions of these components can be implemented as the operation of the CPU by a basic software (OS) and a program operating on the OS.

センサモジュール部410は、音声感情認識部411と、発話理解部412と、表情認識部413と、顔認識部414とを含む。センサモジュール部410には、センサ部400で検出された情報が入力される。センサモジュール部410は、センサ部400で検出された情報を解析して、解析結果をユーザ状態認識部430に出力する。   The sensor module unit 410 includes a voice emotion recognition unit 411, an utterance understanding unit 412, a facial expression recognition unit 413, and a face recognition unit 414. Information detected by the sensor unit 400 is input to the sensor module unit 410. The sensor module unit 410 analyzes information detected by the sensor unit 400 and outputs an analysis result to the user state recognition unit 430.

センサモジュール部410の音声感情認識部411は、マイク401で検出されたユーザ10の音声を解析して、ユーザ10の感情を認識する。例えば、音声感情認識部411は、音声の周波数成分等の特徴量を抽出して、抽出した特徴量に基づいて、ユーザ10の感情を認識する。発話理解部412は、マイク401で検出されたユーザ10の音声を解析して、ユーザ10の発話内容を表す文字情報を出力する。   The voice emotion recognition unit 411 of the sensor module unit 410 analyzes the voice of the user 10 detected by the microphone 401 and recognizes the emotion of the user 10. For example, the voice emotion recognition unit 411 extracts a feature quantity such as a frequency component of voice and recognizes the emotion of the user 10 based on the extracted feature quantity. The utterance understanding unit 412 analyzes the voice of the user 10 detected by the microphone 401 and outputs character information representing the utterance content of the user 10.

表情認識部413は、2Dカメラ403で撮影されたユーザ10の画像から、ユーザ10の表情及びユーザ10の感情を認識する。例えば、表情認識部413は、目及び口の形状、位置関係等に基づいて、ユーザ10の表情及び感情を認識する。   The facial expression recognition unit 413 recognizes the facial expression of the user 10 and the emotion of the user 10 from the image of the user 10 captured by the 2D camera 403. For example, the facial expression recognition unit 413 recognizes the facial expression and emotion of the user 10 based on the shape and positional relationship of the eyes and mouth.

顔認識部414は、ユーザ10の顔を認識する。顔認識部414は、人物DB424に格納されている顔画像と、2Dカメラ403によって撮影されたユーザ10の顔画像とをマッチングすることによって、ユーザ10を認識する。   The face recognition unit 414 recognizes the face of the user 10. The face recognition unit 414 recognizes the user 10 by matching the face image stored in the person DB 424 with the face image of the user 10 taken by the 2D camera 403.

ユーザ状態認識部430は、ユーザ10の状態を認識する。ユーザ状態認識部430は、知覚処理部416及び意味理解部418を含む。センサモジュール部410で解析された情報は、知覚処理部416に出力される。知覚処理部416は、センサモジュール部410の解析結果及び格納部420の知覚確認ルール417を用いて、主として知覚に関する処理を行う。例えば、知覚処理部416は、「パパが1人です。」、「パパが笑顔でない確率90%です。」等の知覚情報を生成する。   The user state recognition unit 430 recognizes the state of the user 10. The user state recognition unit 430 includes a perception processing unit 416 and a semantic understanding unit 418. Information analyzed by the sensor module unit 410 is output to the perception processing unit 416. The perception processing unit 416 mainly performs processing related to perception using the analysis result of the sensor module unit 410 and the perception confirmation rule 417 of the storage unit 420. For example, the perception processing unit 416 generates perception information such as “a daddy is one person” and “a daddy has a 90% probability of not smiling”.

意味理解部418は、知覚処理部416で生成された知覚情報の意味を、格納部420の意味理解ルール419を用いて理解する処理を行う。例えば、意味理解部418は、「パパが1人、寂しそうです。」等の意味情報を生成する。なお、知覚情報や意味情報は、ユーザ10の状態を表す情報の一例である。ここで、ユーザ10の状態を表す情報とは、ユーザ10の感情を表す情報を含んでよい。   The meaning understanding unit 418 performs processing for understanding the meaning of the perceptual information generated by the perception processing unit 416 using the meaning understanding rules 419 of the storage unit 420. For example, the semantic understanding unit 418 generates semantic information such as “One daddy seems lonely.” Note that perceptual information and semantic information are examples of information representing the state of the user 10. Here, the information representing the state of the user 10 may include information representing the emotion of the user 10.

意味理解部418によって生成された意味情報は、条件判断部434、ユーザ反応認識部432及びラベル生成部478に出力される。   The semantic information generated by the semantic understanding unit 418 is output to the condition determination unit 434, the user reaction recognition unit 432, and the label generation unit 478.

条件判断部434は、意味情報と、格納部420の反応ルール421に基づいて、反応ルール421で定められている条件が満たされたことを判断する。なお、反応ルール421は、ロボット100の行動を決定するための決定情報の一例である。上述したように、反応ルール421によって、複数の行動及び複数の行動のそれぞれの思いやりポイントが対応付けられる。また、反応ルール421には、ロボット100における感情を示す感情値及びユーザ10の状態に基づいて行動を決定するための情報が含まれる。このように、格納部420は、ユーザの状態に基づいて行動を決定するための情報を記憶する行動情報記憶部の一例として機能する。   The condition determining unit 434 determines that the condition defined in the reaction rule 421 is satisfied based on the semantic information and the reaction rule 421 in the storage unit 420. The reaction rule 421 is an example of determination information for determining the action of the robot 100. As described above, the reaction rule 421 associates the plurality of actions and the consideration points of the plurality of actions. The reaction rule 421 includes information for determining an action based on an emotion value indicating an emotion in the robot 100 and the state of the user 10. As described above, the storage unit 420 functions as an example of an action information storage unit that stores information for determining an action based on the state of the user.

条件判断部434は、反応ルール421によって記憶されている条件が満たされたことを判断する。行動決定部440は、条件判断部434によって満たされたことが判断された条件に対応付けて反応ルール421で記憶されている複数の行動の中から、実行する行動を決定する。具体的には、行動決定部440は、条件判断部434によって満たされたことが判断された条件に対応付けて反応ルール421によって記憶されている複数の行動のそれぞれの思いやりポイントに基づいて、実行する行動を決定する。このように、行動決定部440は、ユーザ状態認識部430が認識したユーザ10の状態と、反応ルール421の情報とに基づいて、実行する行動を決定する。   The condition determination unit 434 determines that the condition stored by the reaction rule 421 is satisfied. The action determination unit 440 determines an action to be executed from among a plurality of actions stored in the reaction rule 421 in association with the condition determined to be satisfied by the condition determination unit 434. Specifically, the action determination unit 440 executes based on each consideration point of the plurality of actions stored in the reaction rule 421 in association with the condition determined to be satisfied by the condition determination unit 434. Decide what action to take. Thus, the action determination unit 440 determines an action to be executed based on the state of the user 10 recognized by the user state recognition unit 430 and the information of the reaction rule 421.

感情決定部442は、意味理解部418によって生成された意味情報に基づいて、ロボット100の現在の感情を示す感情値を決定する。このように、感情決定部442は、ユーザ状態認識部430が認識したユーザの状態に基づいて、ロボット100の現在の感情を示す感情値を決定する。   The emotion determination unit 442 determines an emotion value indicating the current emotion of the robot 100 based on the semantic information generated by the meaning understanding unit 418. As described above, the emotion determination unit 442 determines an emotion value indicating the current emotion of the robot 100 based on the user state recognized by the user state recognition unit 430.

行動制御部450は、行動決定部440が決定した行動に基づいて、制御対象452を制御する。例えば、行動制御部450は、行動決定部440が発話することを決定した場合に、制御対象452に含まれるスピーカから音声を出力させる。このとき、行動制御部450は、感情決定部442が更新した感情値に基づいて、音声の発声速度を決定する。例えば、行動制御部450は、興奮の感情値が大きいほど、速い発生速度を決定する。このように、行動制御部450は、感情決定部442が決定した感情値に基づいて、行動決定部440が決定した行動の実行形態を決定する。   The behavior control unit 450 controls the control object 452 based on the behavior determined by the behavior determination unit 440. For example, the behavior control unit 450 outputs a sound from a speaker included in the control target 452 when the behavior determination unit 440 determines to speak. At this time, the behavior control unit 450 determines the voice production speed based on the emotion value updated by the emotion determination unit 442. For example, the behavior control unit 450 determines a faster generation rate as the emotion value of excitement is larger. As described above, the behavior control unit 450 determines the execution form of the behavior determined by the behavior determination unit 440 based on the emotion value determined by the emotion determination unit 442.

ユーザ反応認識部432は、行動決定部440が決定した行動を実行したことに対するユーザ10の感情の変化を認識する。なお、ユーザ10の感情の変化は、ユーザ10の反応の一例である。すなわち、ユーザ反応認識部432は、行動決定部440が決定した行動を実行したことに対するユーザ10の反応を認識する。なお、ユーザ反応認識部432は、ユーザ10の音声や表情に基づいて感情の変化を認識してよい。その他、ユーザ反応認識部432は、センサ部400に含まれるタッチセンサで衝撃が検出されたことに基づいて、ユーザ10の感情の変化を認識してよい。例えば、ユーザ反応認識部432は、センサ部400に含まれるタッチセンサで衝撃が検出された場合に、ユーザ10の感情が悪くなったと認識してよい。   The user reaction recognition unit 432 recognizes a change in the emotion of the user 10 with respect to the execution of the action determined by the action determination unit 440. Note that the change in emotion of the user 10 is an example of the reaction of the user 10. That is, the user reaction recognition unit 432 recognizes the reaction of the user 10 to the execution of the action determined by the action determination unit 440. Note that the user reaction recognition unit 432 may recognize a change in emotion based on the voice or facial expression of the user 10. In addition, the user reaction recognition unit 432 may recognize a change in the emotion of the user 10 based on the detection of the impact by the touch sensor included in the sensor unit 400. For example, the user reaction recognition unit 432 may recognize that the emotion of the user 10 has deteriorated when an impact is detected by a touch sensor included in the sensor unit 400.

ユーザ反応認識部432によって認識されたユーザ10の反応を示す情報は、感情決定部442、通信処理部480及びラベル生成部478に出力される。上述したように、感情決定部442は、ユーザ状態認識部430によってユーザ10が寂しそうと認識された場合、反応ルール421に従って、悲しさの感情値を増大させてよい。また、ユーザ反応認識部432によって、ユーザ10が笑顔になったと認識された場合、反応ルール421によって、喜び感情値を増大させてよい。このように、感情決定部442は、ユーザ状態認識部430が認識したユーザの状態及び行動決定部440が決定した行動を実行したことに対するユーザの反応の少なくとも一方に基づいて、感情値を更新する。   Information indicating the reaction of the user 10 recognized by the user reaction recognition unit 432 is output to the emotion determination unit 442, the communication processing unit 480, and the label generation unit 478. As described above, the emotion determination unit 442 may increase the emotion value of sadness according to the reaction rule 421 when the user 10 is recognized to be lonely by the user state recognition unit 430. When the user reaction recognition unit 432 recognizes that the user 10 is smiling, the joy emotion value may be increased by the reaction rule 421. Thus, the emotion determination unit 442 updates the emotion value based on at least one of the user's state recognized by the user state recognition unit 430 and the user's reaction to the action determined by the behavior determination unit 440. .

また、ルール更新部422は、ユーザ反応認識部432が認識したユーザ10の感情の変化に基づいて、行動決定部440が決定した行動に対応づけて反応ルール421によって記憶されている思いやりポイントを変更する。具体的には、ルール更新部422は、ユーザ反応認識部432が認識したユーザ10の感情の変化に基づいて、条件判断部434によって満たされたことが判断された条件に対応付けて反応ルール421によって記憶されている複数の行動の思いやりポイントのうち、行動決定部440が決定した行動の思いやりポイントを変更する。例えば、ルール更新部422は、ユーザ反応認識部432によってユーザ10の感情が良くなったことが認識された場合に、条件判断部434によって満たされたことが判断された条件及び行動決定部440が決定した行動に対応付けて反応ルール421によって記憶されている思いやりポイントを大きくする。一方、ルール更新部422は、ユーザ反応認識部432によってユーザ10の感情が悪くなったことが認識された場合に、条件判断部434によって満たされたことが判断された条件及び行動決定部440が決定した行動に対応付けて反応ルール421によって記憶されている思いやりポイントを小さくする。   Also, the rule update unit 422 changes the consideration points stored by the reaction rule 421 in association with the action determined by the action determination unit 440 based on the change in the emotion of the user 10 recognized by the user reaction recognition unit 432. To do. Specifically, the rule update unit 422 associates the reaction rule 421 with the condition determined to be satisfied by the condition determination unit 434 based on the change in the emotion of the user 10 recognized by the user reaction recognition unit 432. The consideration point of the action determined by the action determination unit 440 is changed among the consideration points of the plurality of actions stored in the above. For example, when the user reaction recognition unit 432 recognizes that the emotion of the user 10 has improved, the rule update unit 422 determines that the condition and action determination unit 440 determined to be satisfied by the condition determination unit 434 The consideration point stored by the reaction rule 421 is increased in association with the determined action. On the other hand, the rule update unit 422 determines that the condition and action determination unit 440 determined to be satisfied by the condition determination unit 434 when the user reaction recognition unit 432 recognizes that the emotion of the user 10 has deteriorated. The consideration point stored in the reaction rule 421 in association with the determined action is reduced.

通信処理部480は、サーバ200との通信を担う。上述したように、通信処理部480は、ユーザ反応情報をサーバ200に送信する。このように、通信処理部480は、ユーザ状態認識部430が認識したユーザ10の状態、行動決定部440が決定した行動、及びユーザ反応認識部432が認識したユーザ10の反応を、サーバ200に送信する。また、通信処理部480は、行動決定部440がユーザ10の状態と反応ルール421とに基づいて実行する行動を決定できなかった場合に、推奨される反応ルールをサーバ200から受信する。このように、通信処理部480は、行動決定部440がユーザ10の状態と反応ルール421とに基づいて実行する行動を決定できなかった場合に、ユーザ状態認識部430が認識したユーザ10の状態に適した行動を、サーバ200から受信する。   The communication processing unit 480 is responsible for communication with the server 200. As described above, the communication processing unit 480 transmits user reaction information to the server 200. As described above, the communication processing unit 480 transmits the state of the user 10 recognized by the user state recognition unit 430, the action determined by the behavior determination unit 440, and the reaction of the user 10 recognized by the user reaction recognition unit 432 to the server 200. Send. Further, the communication processing unit 480 receives a recommended reaction rule from the server 200 when the behavior determination unit 440 cannot determine an action to be executed based on the state of the user 10 and the reaction rule 421. In this way, the communication processing unit 480 determines the state of the user 10 recognized by the user state recognition unit 430 when the behavior determination unit 440 cannot determine the action to be executed based on the state of the user 10 and the reaction rule 421. An action suitable for the server is received from the server 200.

ルール更新部422は、通信処理部480がサーバ200から受信した、推奨される反応ルールに基づいて、反応ルール421を更新する。このように、ルール更新部422は、通信処理部480がサーバ200から受信した行動に基づいて、反応ルール421を更新する。   The rule update unit 422 updates the reaction rule 421 based on the recommended reaction rule received from the server 200 by the communication processing unit 480. As described above, the rule update unit 422 updates the reaction rule 421 based on the behavior received from the server 200 by the communication processing unit 480.

なお、感情決定部442は、ユーザ状態認識部430が認識したユーザ10の状態に基づいて行動決定部440がユーザに対する行動を決定できなかった場合に、悲しさの強さを表す感情値を、より大きい悲しさの強さを表す値に変更してよい。   In addition, the emotion determination part 442, when the action determination part 440 cannot determine the action with respect to the user based on the state of the user 10 recognized by the user state recognition part 430, the emotion value indicating the intensity of sadness You may change it to a value that represents the intensity of greater sadness.

記録データ生成部470は、センサ部400によって検出された情報に基づいて、サーバ200に記録させるデータを生成する。通信処理部480は、記録データ生成部470が生成した情報を、外部のサーバに送信してサーバに記録させる。   The recording data generation unit 470 generates data to be recorded on the server 200 based on the information detected by the sensor unit 400. The communication processing unit 480 transmits information generated by the recording data generation unit 470 to an external server and causes the server to record the information.

例えば、記録データ生成部470は、3D深度センサ402により連続的に検出された骨格情報に基づいて、記録用の骨格データを連続的に生成する。また、記録データ生成部470は、2Dカメラ403によって撮影された映像情報に基づいて、記録用の映像データを生成する。例えば、記録データ生成部470は、フルHDの映像データを生成する。また、記録データ生成部470は、マイク401により連続的に検出された音声情報に基づいて、記録用の音声データを生成する。   For example, the recording data generation unit 470 continuously generates skeleton data for recording based on the skeleton information continuously detected by the 3D depth sensor 402. Further, the recording data generation unit 470 generates recording video data based on the video information captured by the 2D camera 403. For example, the recording data generation unit 470 generates full HD video data. The recording data generation unit 470 generates recording audio data based on the audio information continuously detected by the microphone 401.

ここで、映像データは、例えばフルHDの映像データであり、骨格データより情報量が多い。したがって、骨格データは、高圧縮データとみなすことができ、映像データは、低圧縮データとみなすことができる。このように、骨格データは、第1記録形式の情報の一例であり、映像データは、第1記録形式の情報より情報量が多い第2記録形式の情報の一例である。このように、記録データ生成部470は、ユーザ10を連続的に検出するセンサによって検出された情報の少なくとも一部を連続的に処理して、第1記録形式の情報又は第1記録形式の情報より情報量が多い第2記録形式の情報を生成する。   Here, the video data is, for example, full HD video data and has a larger amount of information than the skeleton data. Therefore, the skeleton data can be regarded as high-compression data, and the video data can be regarded as low-compression data. Thus, the skeleton data is an example of information in the first recording format, and the video data is an example of information in the second recording format that has a larger amount of information than the information in the first recording format. As described above, the recording data generation unit 470 continuously processes at least a part of the information detected by the sensor that continuously detects the user 10, so that the first recording format information or the first recording format information is obtained. The information of the second recording format having a larger amount of information is generated.

ここで、知覚処理部416は、センサ部400によって検出された情報の少なくとも一部に基づいて、認識された家族の数及び笑顔が検出された家族の数を知覚する。上述したように、知覚処理部416は、センサ部400によって検出されたユーザ10の画像及びユーザ10の音声の少なくとも一方に基づいて、笑っているユーザを知覚する。ここで、笑顔は、ユーザ10の感情の強さを表す情報の一例である。したがって、笑顔が検出された家族の数は、複数のユーザ10のそれぞれの感情の強さの合計値の一例である。このように、知覚処理部416は、センサ部400によって検出された情報の少なくとも一部に基づいて、ユーザの感情の強さを検出する。   Here, the perception processing unit 416 perceives the number of recognized families and the number of families from which smiles are detected based on at least part of the information detected by the sensor unit 400. As described above, the perception processing unit 416 perceives a laughing user based on at least one of the user 10 image and the user 10 voice detected by the sensor unit 400. Here, the smile is an example of information representing the strength of emotion of the user 10. Therefore, the number of families in which a smile is detected is an example of the total value of the emotional strengths of the plurality of users 10. Thus, the perception processing unit 416 detects the strength of the user's emotion based on at least a part of the information detected by the sensor unit 400.

そして、知覚処理部416は、記録形式切換ルール471に基づいて、一定数以上の家族が認識され、かつ、一定数以上の家族の笑顔が検出されたか否かを知覚する。そして、切換制御部477は、記録データ生成部470に骨格データを生成させている場合に、知覚処理部416によって一定数以上の家族が認識され、かつ、一定数以上の家族の笑顔が検出されたことに応じて、記録データ生成部470に映像データの生成を開始させる。このように、切換制御部477は、記録データ生成部470に第1記録形式の情報を生成させている場合に、複数のユーザ10の数が予め定められた人数を超え、かつ、検出された感情の強さの合計値が予め定められた閾値を超えたことに応じて、記録データ生成部470に生成させる情報の記録形式を、第1記録形式から、第1記録形式の情報より情報量が多い第2記録形式に切り換える。   Based on the recording format switching rule 471, the perception processing unit 416 perceives whether or not a certain number of family members have been recognized and a certain number or more of family smiles have been detected. When the recording data generation unit 470 generates the skeleton data, the switching control unit 477 recognizes a certain number of families or more than a certain number of family smiles by the perception processing unit 416. In response to this, the recording data generating unit 470 starts generating video data. As described above, the switching control unit 477 detects that the number of the plurality of users 10 exceeds the predetermined number when the recording data generation unit 470 generates the information of the first recording format. When the total value of emotional intensity exceeds a predetermined threshold, the recording format of information to be generated by the recording data generating unit 470 is changed from the first recording format to the information amount of the first recording format. Switch to the second recording format with a large amount.

ラベル生成部478は、記録データに付帯されて記録されるラベルを生成する。ラベルは、記録データに付帯される付帯情報の一例である。ラベル生成部478は、例えば「ヨシコちゃんのお誕生日」、「ヨシコちゃんの誕生パーティー」等の言葉を含むラベルを生成する。ラベルの他の例としては、「進学祝い」、「クリスマス」及び「正月」等を例示できる。ラベル生成部478は、日時情報や、ユーザ10への質問に対してユーザ反応認識部432で認識された返答内容に基づいて、誕生日であることや誕生パーティーをしている等の状況を判断して、判断した状況に基づいてラベルを生成する。このように、ラベル生成部478は、センサ部400サで検出された情報の少なくとも一部に基づいて、現在の状況を表す1以上の言葉を含むラベルを生成する。通信処理部480は、記録データ生成部470が生成した記録データにラベル生成部478が生成したラベルを対応付けて、サーバ200に送信してサーバ200に記録させる。   The label generation unit 478 generates a label that is attached to the recording data and recorded. The label is an example of incidental information attached to the recording data. The label generation unit 478 generates a label including words such as “Yoshiko's birthday” and “Yoshiko's birthday party”. Other examples of labels include “celebration for higher education”, “Christmas”, “New Year”, and the like. The label generation unit 478 determines a situation such as a birthday or a birthday party based on the date / time information and the response content recognized by the user reaction recognition unit 432 in response to the question to the user 10. Then, a label is generated based on the determined situation. As described above, the label generation unit 478 generates a label including one or more words representing the current situation based on at least a part of the information detected by the sensor unit 400. The communication processing unit 480 associates the label generated by the label generation unit 478 with the recording data generated by the recording data generation unit 470, transmits the label to the server 200, and causes the server 200 to record it.

図5は、サーバ200の機能構成を概略的に示す。サーバ200は、格納部520と、反応ルール生成部530と、反応ルール検索部540と、統計情報制御部550と、アクセス制御部560と、通信処理部580とを有する。   FIG. 5 schematically shows a functional configuration of the server 200. The server 200 includes a storage unit 520, a reaction rule generation unit 530, a reaction rule search unit 540, a statistical information control unit 550, an access control unit 560, and a communication processing unit 580.

格納部520には、反応ルール521、反応ルール統計情報522及び記録データ561が格納される。反応ルール521は、反応ルール421と同様の情報を含む。反応ルール統計情報522は、反応ルール421と同様の情報に加えて、ユーザ10、ユーザ11及びユーザ12の属性情報と、ポジティブな反応が得られた割合の情報を含む。記録データ561は、上述した骨格データ、映像データ及び音声データ等の、記録用のデータである。   The storage unit 520 stores reaction rules 521, reaction rule statistical information 522, and recorded data 561. The reaction rule 521 includes the same information as the reaction rule 421. The reaction rule statistical information 522 includes the attribute information of the user 10, the user 11, and the user 12, and information on the rate at which a positive reaction is obtained, in addition to the same information as the reaction rule 421. The recording data 561 is data for recording such as the above-described skeleton data, video data, and audio data.

通信処理部580は、ロボット100、ロボット101及びロボット102とサーバ200との間の通信を担う。通信処理部580は、ロボット100から送信されたユーザ反応情報を受信する。上述したように、ロボット101及びロボット102も、ロボット100が有する機能と同様の機能を有する。したがって、例えばロボット101は、ユーザ11に対して実行した行動に対する反応を含むユーザ反応情報を、サーバ200に送信する。通信処理部580は、ロボット101から送信されたユーザ反応情報及びロボット102から送信されたユーザ反応情報を受信する。このように、通信処理部580は、ロボット101において認識されたユーザ11の状態、ロボット101においてユーザ11の状態に基づいて決定された行動、及び当該行動が実行されたことに対するユーザ11の反応を、ロボット101から受信する。   The communication processing unit 580 is responsible for communication between the robot 100, the robot 101, and the robot 102 and the server 200. The communication processing unit 580 receives user reaction information transmitted from the robot 100. As described above, the robot 101 and the robot 102 also have the same functions as the functions that the robot 100 has. Therefore, for example, the robot 101 transmits user response information including a response to an action performed on the user 11 to the server 200. The communication processing unit 580 receives the user reaction information transmitted from the robot 101 and the user reaction information transmitted from the robot 102. As described above, the communication processing unit 580 responds to the state of the user 11 recognized by the robot 101, the action determined based on the state of the user 11 in the robot 101, and the reaction of the user 11 to the execution of the action. , Received from the robot 101.

統計情報制御部550は、格納部520の反応ルール統計情報522として、通信処理部580が受信したユーザ反応情報を蓄積する。このように、格納部520には、通信処理部580が受信したユーザの状態、行動、及びユーザの反応を対応づけて記憶される。統計情報制御部550に蓄積されるユーザ反応情報は、ユーザ10に関するユーザ反応情報、ユーザ11に関するユーザ反応情報及びユーザ12に関するユーザ反応情報を含む。   The statistical information control unit 550 accumulates the user reaction information received by the communication processing unit 580 as the reaction rule statistical information 522 in the storage unit 520. As described above, the storage unit 520 stores the user state, action, and user reaction received by the communication processing unit 580 in association with each other. The user response information stored in the statistical information control unit 550 includes user response information regarding the user 10, user response information regarding the user 11, and user response information regarding the user 12.

反応ルール生成部530は、反応ルール統計情報522に蓄積されているユーザ反応情報に基づいて、推奨される反応ルールを生成して、反応ルール521として格納する。反応ルール統計情報522に含まれる情報に基づいて、ポジティブな反応が得られた行動を含む反応ルールを、推奨される反応ルールとして生成する。   The reaction rule generation unit 530 generates a recommended reaction rule based on the user reaction information accumulated in the reaction rule statistical information 522 and stores it as the reaction rule 521. Based on the information included in the reaction rule statistical information 522, a reaction rule including an action for which a positive reaction is obtained is generated as a recommended reaction rule.

ここで、ロボット100が、推奨される反応ルールをサーバ200に問い合わせた場合の動作を説明する。ロボット100は、ロボット100において認識されたユーザ10の状態をサーバ200に送信することによって、推奨される反応ルールをサーバ200に問い合わせる。この場合、反応ルール検索部540は、通信処理部580が受信したユーザ10の状態によって満たされる条件を有する反応ルールを、反応ルール521及び反応ルール統計情報522の少なくとも一方から検索する。通信処理部580は、反応ルール検索部540によって検索された反応ルールを、推奨される反応ルールとしてロボット100に送信する。   Here, an operation when the robot 100 inquires the server 200 for a recommended reaction rule will be described. The robot 100 inquires of the server 200 about a recommended reaction rule by transmitting the state of the user 10 recognized by the robot 100 to the server 200. In this case, the reaction rule search unit 540 searches the reaction rule 521 and / or the reaction rule statistical information 522 for a reaction rule having a condition that is satisfied by the state of the user 10 received by the communication processing unit 580. The communication processing unit 580 transmits the reaction rule searched by the reaction rule search unit 540 to the robot 100 as a recommended reaction rule.

このように、反応ルール検索部540は、通信処理部580が受信したユーザ10の状態に合致する状態に対応付けて行動結果記憶部が記憶しているユーザ10の反応に基づいて、通信処理部580が受信したユーザの状態に合致する状態に対応付けて反応ルール統計情報522に記憶されている行動の中から、通信処理部580が受信したユーザ10の状態に適した行動を選択する。通信処理部580は、反応ルール検索部540が選択した行動を、ロボット100に送信する。   As described above, the reaction rule search unit 540 is based on the reaction of the user 10 stored in the behavior result storage unit in association with the state that matches the state of the user 10 received by the communication processing unit 580. The behavior suitable for the state of the user 10 received by the communication processing unit 580 is selected from the behaviors stored in the reaction rule statistical information 522 in association with the state that matches the state of the user received by 580. The communication processing unit 580 transmits the action selected by the reaction rule search unit 540 to the robot 100.

アクセス制御部560は、通信処理部580がロボット100、ロボット101及びロボット102からそれぞれ受信した記録データを、格納部520の記録データ561に格納する。また、アクセス制御部560は、記録データの送信要求を通信処理部580が受信した場合、要求された記録データを記録データ561から読み出して、通信処理部580に送信させる。   The access control unit 560 stores the recording data received by the communication processing unit 580 from the robot 100, the robot 101, and the robot 102 in the recording data 561 of the storage unit 520. When the communication processing unit 580 receives a recording data transmission request, the access control unit 560 reads the requested recording data from the recording data 561 and causes the communication processing unit 580 to transmit the recording data.

なお、図5に示すロボット100の構成要素のうち、格納部420を除く構成要素の機能は、CPUがプログラムに基づいて動作することによって実現できる。例えば、基本ソフトウエア(OS)及びOS上で動作するプログラムによって、これらの構成要素の機能をCPUの動作として実装できる。   Of the components of the robot 100 shown in FIG. 5, the functions of the components other than the storage unit 420 can be realized by the CPU operating based on the program. For example, the functions of these components can be implemented as the operation of the CPU by a basic software (OS) and a program operating on the OS.

図6は、知覚処理部416が知覚する情報を概略的に示す。知覚処理部416は、3D深度センサ402による人物検出情報601、顔認識部414による顔検出情報602及びユーザ認識情報603が入力されると、人物検出情報601、顔検出情報602及びユーザ認識情報603を統合して、知覚情報611、知覚情報612及び知覚情報613を生成する。続いて、表情認識部413からの笑顔検出情報604が入力されると、笑顔検出情報604を変換して、知覚情報614を生成する。また、知覚処理部416は、知覚情報614で知覚した笑顔でない確率の高さに基づいて、「パパもしかして寂しい?」と知覚する(知覚情報615)。   FIG. 6 schematically shows information perceived by the perception processing unit 416. When the human detection information 601 by the 3D depth sensor 402 and the face detection information 602 and user recognition information 603 by the face recognition unit 414 are input, the perception processing unit 416 receives the person detection information 601, the face detection information 602, and the user recognition information 603. Are combined to generate perceptual information 611, perceptual information 612, and perceptual information 613. Subsequently, when smile detection information 604 is input from the facial expression recognition unit 413, the smile detection information 604 is converted to generate perceptual information 614. Further, the perception processing unit 416 perceives “Dad or lonely?” Based on the high probability of not smiling as perceived by the perception information 614 (perception information 615).

ここで、知覚確認ルール417には、「もしかして寂しい?」と知覚した場合の知覚確認ルールとして、「誰かが1人」かつ「笑顔である確率が20%以下」という条件部と、「マイクから30秒、発話がないか確認する」という結論部とを持つ知覚確認ルール630が含まれている。知覚処理部416は、知覚情報613及び笑顔検出情報604から、知覚確認ルール630の条件部が満たされると判断して、知覚確認ルール630の結論部に基づいて、マイク401による検出結果の確認を実行する。具体的には、知覚処理部416は、マイク401から出力される音声を発話理解部412に解析させる。   Here, in the perception confirmation rule 417, as a perception confirmation rule when perceiving “Is it lonely?”, A condition part of “one person is one” and “the probability of being a smile is 20% or less”, and “from microphone” A perception confirmation rule 630 having a conclusion part “confirm that there is no utterance for 30 seconds” is included. The perception processing unit 416 determines that the condition part of the perception confirmation rule 630 is satisfied from the perception information 613 and the smile detection information 604, and confirms the detection result by the microphone 401 based on the conclusion part of the perception confirmation rule 630. Run. Specifically, the perception processing unit 416 causes the speech understanding unit 412 to analyze the sound output from the microphone 401.

ここで、発話理解部412は、マイク401によって音声が30秒間検出されなかった場合に、発話が30秒間検出されなかったことを示すタイムアウト情報を出力する。知覚処理部416は、発話理解部412からのタイムアウト情報605が入力されると、タイムアウト情報605を「パパは何も話しません。」という知覚情報616に変換する。   Here, when the voice is not detected by the microphone 401 for 30 seconds, the speech understanding unit 412 outputs time-out information indicating that the speech has not been detected for 30 seconds. When the time-out information 605 from the utterance understanding unit 412 is input, the perception processing unit 416 converts the time-out information 605 into perception information 616 “Dad does not speak anything”.

このようにして、知覚処理部416は、知覚情報611、知覚情報612、知覚情報613、知覚情報614、知覚情報615及び知覚情報616を含む知覚履歴610を生成する。知覚処理部416は、生成した知覚情報を、意味理解部418に出力する。   In this way, the perception processing unit 416 generates the perception history 610 including the perception information 611, the perception information 612, the perception information 613, the perception information 614, the perception information 615, and the perception information 616. The perception processing unit 416 outputs the generated perception information to the meaning understanding unit 418.

図7は、意味理解部418が理解する情報を概略的に示す。意味理解部418には、知覚処理部416が生成した知覚履歴610が入力される。意味理解部418は、知覚情報611、知覚情報612、知覚情報613、知覚情報614及び知覚情報615から、それぞれ意味情報711、意味情報712、意味情報713、意味情報714及び意味情報715を生成する。   FIG. 7 schematically shows information understood by the semantic understanding unit 418. The perception history 610 generated by the perception processing unit 416 is input to the meaning understanding unit 418. The semantic understanding unit 418 generates semantic information 711, semantic information 712, semantic information 713, semantic information 714, and semantic information 715 from the perceptual information 611, the perceptual information 612, the perceptual information 613, the perceptual information 614, and the perceptual information 615, respectively. .

なお、知覚情報614から意味情報714を生成する場合、意味理解部418は、意味理解部418は、知覚情報614に含まれる「確率90%」という数値情報を、「あまり〜でない」という情報に曖昧化する。これにより、意味理解部418は、知覚情報614を曖昧化した意味情報714を生成する。   When the semantic information 714 is generated from the perceptual information 614, the semantic understanding unit 418 converts the numerical information “probability 90%” included in the perceptual information 614 into information “not so much”. Vague. As a result, the semantic understanding unit 418 generates semantic information 714 obtained by obscuring the perceptual information 614.

ここで、意味理解ルール419には、「もしかして寂しい?」と理解した場合の意味確認ルールとして、「誰かが1人」かつ「あまり笑顔でない」かつ「何も話さない」という条件部と、「誰かが1人、寂しそう」と理解するという結論部とを持つ意味理解ルール730が含まれる。意味理解部418は、意味理解ルール730に基づいて、意味情報713、意味情報714及び知覚情報616が意味理解ルール730の条件部を満たすと判断すると、「パパが1人、寂しそうです。」という意味情報717を生成する。このように、意味理解部418は、意味理解ルール730を用いて、意味情報714及び知覚情報616を統合して意味情報717を生成する。   Here, in the meaning understanding rule 419, as a meaning confirmation rule in the case of understanding “Is it lonely?”, A condition part “someone is alone”, “not so much smiling” and “does not speak anything”, and “ A semantic comprehension rule 730 having a conclusion that “someone seems to be lonely” is included. When the semantic understanding unit 418 determines that the semantic information 713, the semantic information 714, and the perceptual information 616 satisfy the condition part of the semantic understanding rule 730 based on the semantic understanding rule 730, “One dad seems to be lonely.” The semantic information 717 is generated. As described above, the semantic understanding unit 418 generates the semantic information 717 by integrating the semantic information 714 and the perceptual information 616 using the semantic understanding rule 730.

このようにして、意味理解部418は、意味情報711、意味情報712、意味情報713、意味情報714、意味情報715及び意味情報717を含む意味履歴710を生成する。意味理解部418が生成した意味情報は、条件判断部434、ユーザ反応認識部432及びラベル生成部478に出力される。   In this way, the semantic understanding unit 418 generates the semantic history 710 including the semantic information 711, the semantic information 712, the semantic information 713, the semantic information 714, the semantic information 715, and the semantic information 717. The semantic information generated by the semantic understanding unit 418 is output to the condition determination unit 434, the user reaction recognition unit 432, and the label generation unit 478.

図6及び図7等に関連して説明したように、知覚処理部416及び意味理解部418においては、知覚結果の正確性を失いながらも、知覚結果の意味を、パターン化した言語を用いて曖昧に記憶する。   As described with reference to FIGS. 6 and 7, the perceptual processing unit 416 and the semantic understanding unit 418 use a language in which the meaning of the perceptual result is patterned while losing the accuracy of the perceptual result. Memorize vaguely.

図8は、反応ルール421に含まれる情報をテーブル形式で示す。反応ルール421は、「自己感情」及び「ユーザ状態」の条件を含む条件部と、「感情変化」及び「行動」を含む結論部と、「思いやりポイント」及び「褒められポイント」を含む「付属情報」とを含む。   FIG. 8 shows information included in the reaction rule 421 in a table format. The reaction rule 421 includes a condition part including conditions of “self-emotion” and “user state”, a conclusion part including “emotion change” and “behavior”, and “attachment points” including “compassion points” and “praised points”. Information ".

「自己感情」の条件は、ロボット100の自己の感情に関する条件である。「ユーザ状態」は、ユーザ10の状態に関する条件である。「感情変化」は、ロボット100の感情をどのように変更させるかを示す。「行動」は、ロボット100が実行できる行動を表す。「思いやりポイント」は、ユーザ10に対する思いやりの度合いを示す。「思いやりポイント」は、適正度の一例である。   The condition of “self emotion” is a condition related to the self emotion of the robot 100. “User state” is a condition relating to the state of the user 10. “Emotion change” indicates how the emotion of the robot 100 is changed. “Action” represents an action that the robot 100 can execute. The “compassion point” indicates the degree of compassion for the user 10. The “compassion point” is an example of appropriateness.

図示されるように、反応ルール421の条件部は、「普通である」という「自己感情」の条件と、「誰かが一人、寂しそう」という「ユーザ状態」とを含む。この条件部に対応する結論部には、「心配になる」という感情変化を表す「感情変化」が含まれている。また、この条件部に対応する結論部として、「声をかける」、「心配そうな仕草だけ返す」及び「挨拶をする」という行動を示す「行動」が含まれている。また、「付属情報」によって、これらの「声をかける」、「心配そうな仕草だけ返す」及び「挨拶をする」という行動に対する「思いやりポイント」として、それぞれ30ポイント、20ポイント及び10ポイントが対応付けられている。また、「付属情報」によって、これらの「声をかける」、「心配そうな仕草だけ返す」及び「挨拶をする」という行動に対する「褒められポイント」として、それぞれ50ポイント、30ポイント及び30ポイントが対応付けられている。   As shown in the figure, the condition part of the reaction rule 421 includes a “self-emotion” condition of “normal” and a “user state” of “someone seems to be lonely”. The conclusion part corresponding to the condition part includes “emotion change” representing an emotion change “being worried”. In addition, as a conclusion part corresponding to this condition part, “behavior” indicating actions such as “call out”, “return only the anxious gesture” and “greet” are included. In addition, 30 points, 20 points, and 10 points correspond to the “consideration points” for these actions of “speaking”, “returning only worried gestures”, and “greeting” by “attached information”. It is attached. In addition, 50 points, 30 points, and 30 points are given as “praised points” for the actions of “speaking”, “returning only the gestures that are worried”, and “greeting” by the “attached information”, respectively. It is associated.

このように、反応ルール421は、満たされるべきユーザの状態を示す条件と、条件に対応付けられた行動とを示す情報を含む。また、反応ルール421は、満たされるべきロボット100の感情を示す条件と、条件に対応付けられた行動とを示す情報を含む。また、反応ルール421は、ロボット100の感情値及びユーザ10の状態に基づいて感情値を変更するための感情変更情報を含む。そして、感情決定部442は、感情決定部442によって決定された感情値及びユーザ状態認識部430が認識したユーザ10の状態に対応付けて反応ルール421によって記憶されている感情変更情報に基づいて、感情値を更新する。   Thus, the reaction rule 421 includes information indicating a condition indicating the state of the user to be satisfied and an action associated with the condition. Further, the reaction rule 421 includes information indicating a condition indicating the emotion of the robot 100 to be satisfied and an action associated with the condition. The reaction rule 421 includes emotion change information for changing the emotion value based on the emotion value of the robot 100 and the state of the user 10. Then, the emotion determination unit 442 is based on the emotion change information stored in the reaction rule 421 in association with the emotion value determined by the emotion determination unit 442 and the state of the user 10 recognized by the user state recognition unit 430. Update emotion values.

図9は、反応ルール421に基づく処理を概略的に示す。条件判断部434は、意味理解部418から「パパが一人、寂しそう」という意味情報717が入力されると、「パパが一人、寂しそう」というユーザ10の状態と、現在のロボット100の感情である「普通」の感情とによって満たされる条件部を、反応ルール421から検索する。   FIG. 9 schematically shows processing based on the reaction rule 421. When the semantic determination unit 434 receives the semantic information 717 “Daddy seems to be lonely” from the meaning understanding unit 418, the condition of the user 10, “Daddy is alone, seems to be lonely” and the current emotion of the robot 100. A condition part that is satisfied by the “ordinary” feeling is searched from the reaction rule 421.

条件判断部434は、「パパが一人、寂しそう」というユーザ10の状態と、「普通」の感情とが、反応ルール421内の反応ルール810の条件部を満たすと判断する。これにより、行動決定部440は、反応ルール810で定められた「声をかける」、「心配そうな仕草だけ返す」及び「挨拶をする」を、行動の候補910として特定する。そして、行動決定部440は、特定した行動の候補910の中から、実際に実行する行動を選択する。例えば、行動決定部440は、思いやりポイントの大きさに応じた選択確率で、1つの行動を選択する。ここでは、行動決定部440は、「声をかける」という行動を選択したとする。   The condition determination unit 434 determines that the state of the user 10 “Dad seems to be lonely” and the “normal” emotion satisfy the condition part of the reaction rule 810 in the reaction rule 421. As a result, the action determination unit 440 specifies “speak a voice”, “return only the gesture that seems to be worried”, and “greet” as the action candidates 910 defined in the reaction rule 810. Then, the action determining unit 440 selects an action to be actually executed from the identified action candidates 910. For example, the action determination unit 440 selects one action with a selection probability corresponding to the size of the consideration point. Here, it is assumed that the action determining unit 440 selects the action “call out”.

また、感情決定部442は、反応ルール810で定められた「心配になる」という感情の変化内容に基づいて、感情値を更新する。例えば、感情決定部442は、心配さの強さを表す「心配」の感情値を増大させる。このように、感情決定部442は、反応ルール421に基づいて、ユーザ状態認識部430が認識したユーザ10の状態に基づいて、感情値を更新する。例えば、感情決定部442は、ユーザ状態認識部430によってユーザ10が寂しさを感じている状態にあると認識された場合に、心配の強さを表す感情値を、より大きい心配の強さを表す値に変更する。   In addition, the emotion determination unit 442 updates the emotion value based on the emotional change content “being worried” determined by the reaction rule 810. For example, the emotion determination unit 442 increases the emotion value of “anxiety” indicating the intensity of anxiety. As described above, the emotion determination unit 442 updates the emotion value based on the state of the user 10 recognized by the user state recognition unit 430 based on the reaction rule 421. For example, when the user state recognition unit 430 recognizes that the user 10 feels loneliness, the emotion determination unit 442 gives an emotion value representing the strength of worry to a greater worry strength. Change to the value you want to represent.

続いて、行動制御部450は、「どうしたの?」という発話内容の音声を、制御対象452のスピーカから出力させる。このとき、行動制御部450は、現在の感情値に基づいて、心配そうな感情を表す音声特性を持つ音声を出力させる。例えば、スピードが比較的に遅い音声を生成させる。なお、行動制御部450は、「心配になる」という感情に基づいて、「どうしたの?」という発話内容を決定してよい。   Subsequently, the behavior control unit 450 causes the speech of the utterance content “What was it?” To be output from the speaker of the control target 452. At this time, the behavior control unit 450 outputs a voice having voice characteristics representing an emotion that is likely to be worried based on the current emotion value. For example, a voice with a relatively low speed is generated. Note that the behavior control unit 450 may determine the content of the utterance “What happened?” Based on the feeling “I am worried”.

続いて、ユーザ反応認識部432は、ユーザ10の反応が検出されるのを待つ。例えば、「大丈夫だよ。ありがとう!」という音声や、そのときのユーザ10の顔の表情に基づいて、「パパは少し笑顔です。」という意味情報940が意味理解部418から出力されると、ユーザ反応認識部432は、ユーザ10が「寂しそう」な感情から「楽しそう」な感情に変化したと判断する。これにより、ルール更新部422は、「声をかける」という行動によってユーザ10の感情が良くなったと判断する。これにより、「声をかける」という行動の思いやりポイントを、30ポイントから40ポイントに増加させる。また、ルール更新部422は、褒められポイントを50ポイントから60ポイントに増加させる。   Subsequently, the user reaction recognition unit 432 waits for the reaction of the user 10 to be detected. For example, when the semantic information 940 “Dad is a little smile” is output from the meaning understanding unit 418 based on the voice “Thank you!” And the facial expression of the user 10 at that time, The user reaction recognizing unit 432 determines that the user 10 has changed from an emotion that seems to be lonely to an emotion that seems to be fun. Thereby, the rule update unit 422 determines that the emotion of the user 10 is improved by the action of “calling out”. Thereby, the consideration point of the action of “calling out” is increased from 30 points to 40 points. Also, the rule update unit 422 increases the number of points given up from 50 points to 60 points.

また、感情決定部442は、ロボット100が実行した行動によってユーザ10の感情が良くなったことから、喜びの感情値を増大させる。また、行動制御部450は、増大させた喜びの感情値に基づいて、喜ばしい感情になったことを動作で表現する。例えば、行動制御部450は、喜びを表す仕草を行わせる。   In addition, the emotion determination unit 442 increases the emotion value of joy because the emotion of the user 10 is improved by the action executed by the robot 100. In addition, the behavior control unit 450 expresses that it has become a joyful emotion based on the increased emotion value of the joy. For example, the behavior control unit 450 causes a gesture representing joy to be performed.

また、通信処理部480は、反応ルール810に含まれる情報のうち「思いやりポイント」及び「褒められポイント」を除く情報と、ユーザ10の反応がポジティブであったことを示す情報と、「パパ」として認識されたユーザ10の属性とを含むユーザ反応情報960を、サーバ200に送信する。   The communication processing unit 480 also includes information excluding “consideration points” and “praised points” in the information included in the reaction rule 810, information indicating that the reaction of the user 10 is positive, and “papa”. The user response information 960 including the attribute of the user 10 recognized as “” is transmitted to the server 200.

このように、行動決定部440は、感情決定部442によって決定された感情値、ユーザ状態認識部430が認識したユーザの状態及び反応ルール421に基づいて、実行される行動を決定する。具体的には、行動決定部440は、条件判断部434によって満たされたことが判断された条件に対応付けて反応ルール421によって記憶されている複数の行動の中から、条件判断部434によって満たされたことが判断された条件に対応付けて反応ルール421によって記憶されている思いやりポイントがより高い行動を、実行する行動としてより高い頻度で決定する。なお、行動決定部440は、思いやりポイントが最大の行動を、実際に実行する行動として選択してよい。この場合において、思いやりポイントが最大の行動が複数存在する場合、行動決定部440は、思いやりポイントが最大の複数の行動の中から、実際に実行する1つの行動をランダムに選択してよい。この場合に、行動決定部440は、褒められポイントに応じた選択確率で、実際に実行する1つの行動を選択してもよい。   As described above, the action determination unit 440 determines an action to be executed based on the emotion value determined by the emotion determination unit 442, the user state recognized by the user state recognition unit 430, and the reaction rule 421. Specifically, the action determination unit 440 satisfies the condition determination unit 434 among the plurality of actions stored by the reaction rule 421 in association with the condition determined to be satisfied by the condition determination unit 434. The action with the higher compassion point stored by the reaction rule 421 in association with the condition determined to have been determined is determined with a higher frequency as the action to be executed. Note that the action determination unit 440 may select the action having the maximum consideration point as the action to be actually executed. In this case, when there are a plurality of actions having the maximum consideration point, the action determination unit 440 may randomly select one action to be actually executed from the plurality of actions having the maximum consideration point. In this case, the action determination unit 440 may select one action to be actually executed with a selection probability corresponding to the point given up.

図10は、ロボット100において行動を決定する動作に関する動作フローの一例を概略的に示す。図10に示す動作フローは、例えば、ユーザ10の感情を含む意味情報が入力された場合に開始される。なお、動作フロー中の「S」は、実行されるステップを表す。   FIG. 10 schematically shows an example of an operation flow related to an action of determining an action in the robot 100. The operation flow illustrated in FIG. 10 is started when, for example, semantic information including the emotion of the user 10 is input. Note that “S” in the operation flow represents a step to be executed.

条件判断部434は、反応ルール421が含む条件部のうち、ロボット100の感情と、入力された意味情報とによって満される条件部を検索する(S1002)。条件判断部434は、条件部が満たされた反応ルールの有無を判断する(S1004)。条件部が満たされた反応ルールが存在すると判断した場合、行動決定部440は、検索された反応ルールの結論部で定められた行動の中から、ユーザ10に対して実行する1つの行動を選択する(S1006)。また、感情決定部442は、検索された反応ルールの結論部で定められた感情変化に基づいて、感情値を更新する(S1008)。   The condition determination unit 434 searches for a condition part satisfied by the emotion of the robot 100 and the input semantic information among the condition parts included in the reaction rule 421 (S1002). The condition determination unit 434 determines whether there is a reaction rule that satisfies the condition part (S1004). If it is determined that there is a reaction rule that satisfies the condition part, the action determination part 440 selects one action to be executed for the user 10 from the actions determined in the conclusion part of the retrieved reaction rule. (S1006). In addition, the emotion determination unit 442 updates the emotion value based on the emotion change determined in the conclusion part of the retrieved reaction rule (S1008).

続いて、行動制御部450は、S1006で選択された行動を実行するよう、制御対象452を制御する(S1010)。このとき、行動制御部450は、S1008で更新された後の感情値に基づいて、制御対象452を制御する。例えば、「心配」の感情を表す場合、行動制御部450は、ロボット100の姿勢が心配そうな姿勢になるように、制御対象452を制御する。   Subsequently, the behavior control unit 450 controls the control object 452 to execute the behavior selected in S1006 (S1010). At this time, the behavior control unit 450 controls the control object 452 based on the emotion value updated in S1008. For example, when expressing the feeling of “worry”, the behavior control unit 450 controls the control object 452 so that the posture of the robot 100 is likely to be worried.

続いて、ユーザ反応認識部432は、ユーザ10の反応を表す意味情報が入力されるのを監視する(S1012)。ユーザ10の反応を表す意味情報が入力されると、ユーザ反応認識部432は、入力された意味情報に基づいて、ユーザの反応がポジティブであるか否かを判断する(S1016)。   Subsequently, the user reaction recognition unit 432 monitors input of semantic information indicating the reaction of the user 10 (S1012). When the semantic information indicating the reaction of the user 10 is input, the user response recognition unit 432 determines whether the user's response is positive based on the input semantic information (S1016).

S1016の判断において、反応がポジティブであると判断した場合、感情決定部442は、「喜び」の感情値を増加させる(S1018)。また、ルール更新部422は、実行した行動に対応する思いやりポイント及び褒められポイントを増大させる。一方、S1016の判断において、ネガティブな反応が得られた場合、感情決定部442は、「悲しみ」の感情値を増加させる(S1022)。また、ルール更新部422は、実行した行動に対応する思いやりポイント及び褒められポイントを減少させる(S1024)。   If it is determined in S1016 that the reaction is positive, the emotion determination unit 442 increases the emotion value of “joy” (S1018). Also, the rule update unit 422 increases compassion points and praised points corresponding to the executed action. On the other hand, if a negative reaction is obtained in the determination of S1016, the emotion determination unit 442 increases the emotion value of “sadness” (S1022). In addition, the rule update unit 422 reduces compassion points and praised points corresponding to the executed action (S1024).

このように、ルール更新部422は、ユーザ反応認識部432が認識したユーザの反応が不良でなかった場合に、条件判断部434によって満たされたことが判断された条件及び行動決定部440が決定した行動に対応付けて反応ルール421によって記憶されている思いやりポイントを増大させる。一方、ユーザ反応認識部432が認識したユーザの反応が不良であった場合、ルール更新部422は、条件判断部434によって満たされたことが判断された条件及び行動決定部440が決定した行動に対応付けて反応ルール421によって記憶されている思いやりポイントを減少させる。   As described above, the rule update unit 422 determines the condition and action determination unit 440 determined to be satisfied by the condition determination unit 434 when the user reaction recognized by the user reaction recognition unit 432 is not defective. The compassion point memorize | stored by the reaction rule 421 is increased in association with the performed action. On the other hand, when the user reaction recognized by the user reaction recognition unit 432 is bad, the rule update unit 422 determines that the condition determined by the condition determination unit 434 and the action determined by the action determination unit 440 are satisfied. Corresponding points stored by the reaction rule 421 are reduced in association with each other.

また、行動制御部450は、行動決定部440が決定した行動を感情に応じて決定した実行形態で実行した後、感情決定部442は、当該行動が実行されたことに対するユーザの反応に基づいて、感情値を更に変化させる。具体的には、感情決定部442は、行動決定部440が決定した行動を行動制御部450が決定した実行形態でユーザに対して行ったことに対するユーザの反応が不良でなかった場合に、喜びの強さを表す感情値を、より大きい喜びの強さを表す値に変更する。また、感情決定部442は、行動決定部440が決定した行動を行動制御部450が決定した実行形態でユーザに対して行ったことに対するユーザの反応が不良であった場合に、悲しさの強さを表す感情値を、より大きい悲しさの強さを表す値に変更する。   In addition, after the behavior control unit 450 executes the behavior determined by the behavior determination unit 440 in the execution form determined according to the emotion, the emotion determination unit 442 is based on the user's reaction to the execution of the behavior. , Further change the emotion value. Specifically, the emotion determination unit 442 is delighted when the user's reaction to having performed the action determined by the behavior determination unit 440 on the user in the execution form determined by the behavior control unit 450 is not bad. The emotional value representing the strength of the emotion is changed to a value representing the strength of greater pleasure. In addition, the emotion determination unit 442 increases the sadness when the user's reaction to the user having performed the behavior determined by the behavior determination unit 440 in the execution mode determined by the behavior control unit 450 is poor. The emotional value representing the height is changed to a value representing the intensity of greater sadness.

行動制御部450は、S1018又はS1022で決定した感情値に基づいて、ロボット100の感情を表現する(S1026)。例えば、行動制御部450は、「喜び」の感情値を増加させた場合、制御対象452を制御して、ロボット100に喜んだ仕草を行わせる。また、行動制御部450は、「悲しみ」の感情値を増加させた場合、ロボット100の姿勢がうなだれた姿勢になるように、制御対象452を制御する。続いて、通信処理部480は、ユーザ反応情報をサーバ200に送信し(S1028)、ロボット100の動作の決定に関する動作を終了する。   The behavior control unit 450 expresses the emotion of the robot 100 based on the emotion value determined in S1018 or S1022 (S1026). For example, when the emotion control value of “joy” is increased, the behavior control unit 450 controls the control object 452 to make the robot 100 perform a joyful gesture. In addition, when the emotion value of “sadness” is increased, the behavior control unit 450 controls the control object 452 so that the posture of the robot 100 becomes a prowled posture. Subsequently, the communication processing unit 480 transmits user reaction information to the server 200 (S1028), and ends the operation related to the determination of the operation of the robot 100.

なお、S1004の判断において、条件部が満たされた反応ルールが存在しなかったと判断された場合、通信処理部480は、サーバ200に対して、推奨される反応ルールの問い合わせを行う。例えば、ロボット100の感情を示す情報、入力された意味情報で表されるユーザの状態を示す情報、及び、ユーザ10の属性を示す情報を、サーバ200に送信する(S1030)。サーバ200からは、問い合わせで送信した情報に適した反応ルールが、推奨される反応ルールとしてロボット100に送信される。通信処理部480がサーバ200から推奨される反応ルールを受信すると、ルール更新部422は、推奨される反応ルールを反応ルール421に組み込んで(S1032)、S1006に移行する。この場合、S1006及びS1008では、サーバ200から受信した反応ルールに基づいて、行動の選択及び感情値の更新を行う。このように、通信処理部480は、条件判断部434によって反応ルール421に含まれるいずれの条件も満たされていないことが判断された場合に、ユーザ状態認識部430が認識したユーザの状態に適した行動を、サーバ200から受信する。   If it is determined in S1004 that there is no reaction rule that satisfies the condition part, the communication processing unit 480 inquires the server 200 about a recommended reaction rule. For example, information indicating the emotion of the robot 100, information indicating the state of the user represented by the input semantic information, and information indicating the attribute of the user 10 are transmitted to the server 200 (S1030). From the server 200, a reaction rule suitable for the information transmitted by the inquiry is transmitted to the robot 100 as a recommended reaction rule. When the communication processing unit 480 receives the recommended reaction rule from the server 200, the rule update unit 422 incorporates the recommended reaction rule into the reaction rule 421 (S1032), and proceeds to S1006. In this case, in S1006 and S1008, based on the reaction rule received from the server 200, action selection and emotion value update are performed. As described above, the communication processing unit 480 is suitable for the user state recognized by the user state recognition unit 430 when the condition determination unit 434 determines that none of the conditions included in the reaction rule 421 is satisfied. The received action is received from the server 200.

なお、本動作フローによれば、条件部が満たされた反応ルールが存在しなかった場合に、推奨される反応ルールの問い合わせを行う。なお、条件部が満たされた反応ルールが存在した場合でも、どの行動に対応付けられている思いやりポイントも予め定められた値より小さい場合には、行動を決定できないと判断してよい。この場合に、通信処理部480は、推奨される反応ルールの問い合わせを行ってよい。すなわち、行動決定部440は、決定情報に含まれる情報のうち条件判断部434によって満たされたことが判断された条件に対応付けられた1以上の行動のうち、決定情報に含まれる思いやりポイントが予め定められた値より高い行動を、実行する行動として決定する。通信処理部480は、条件判断部434によって満たされたことが判断された条件に対応付けられた1以上の行動の思いやりポイントが、いずれも予め定められた値以下である場合に、ユーザ状態認識部430が認識したユーザ10の状態に適した行動を、サーバ200から受信してよい。そして、ルール更新部422は、条件判断部434によって満たされたことが判断された条件に対応付けて、通信処理部480がサーバ200から受信した行動を反応ルールに追加してよい。   According to this operation flow, when there is no reaction rule that satisfies the condition part, an inquiry about a recommended reaction rule is performed. Note that even when there is a reaction rule that satisfies the condition part, it may be determined that the action cannot be determined if the consideration point associated with any action is smaller than a predetermined value. In this case, the communication processing unit 480 may inquire a recommended reaction rule. In other words, the action determination unit 440 includes a consideration point included in the determination information among one or more actions associated with the condition determined to be satisfied by the condition determination unit 434 among the information included in the determination information. An action higher than a predetermined value is determined as an action to be executed. The communication processing unit 480 recognizes the user state when the consideration points of one or more actions associated with the condition determined to be satisfied by the condition determination unit 434 are all equal to or less than a predetermined value. An action suitable for the state of the user 10 recognized by the unit 430 may be received from the server 200. Then, the rule update unit 422 may add the action received from the server 200 by the communication processing unit 480 to the reaction rule in association with the condition determined to be satisfied by the condition determination unit 434.

なお、推奨される反応ルールの問い合わせは、行動決定部440が行動を決定できない場合の他に、バッチ処理等で定期的に行ってもよい。また、推奨される反応ルールの問い合わせは、ユーザ10が睡眠していると判断した場合や、ロボット100がアイドル状態またはスリープ状態に遷移した場合に行ってよい。その他、ロボット100が行動しようとする任意のタイミングで、推奨される反応ルールの問い合わせを行ってよい。   In addition, the inquiry of the recommended reaction rule may be periodically performed by batch processing or the like in addition to the case where the behavior determination unit 440 cannot determine the behavior. The inquiry of the recommended reaction rule may be performed when it is determined that the user 10 is sleeping or when the robot 100 transitions to an idle state or a sleep state. In addition, an inquiry about a recommended reaction rule may be made at any timing at which the robot 100 tries to act.

また、反応ルール421は、ユーザ10に対して実行するべき行動が検索されなかった場合の行動を定めたルールを有してよい。例えば、反応ルール421は、「ユーザ10に対して実行するべき行動が検索されなかった」という条件を定めた条件部と、「推奨される反応ルールをサーバ200に問い合わせる」という行動を定めた結論部とを含むルールを有してよい。これにより、行動決定部440は、反応ルール421に従って、推奨される反応ルールをサーバ200に問い合わせすることを決定してよい。   Further, the reaction rule 421 may include a rule that defines an action when an action to be executed for the user 10 is not searched. For example, the reaction rule 421 includes a condition part that defines a condition that “an action to be performed on the user 10 has not been searched” and a conclusion that defines an action that “inquires the server 200 for a recommended reaction rule”. And a rule including a part. Thereby, the action determination unit 440 may determine to inquire the server 200 for a recommended reaction rule according to the reaction rule 421.

図11は、サーバ200が格納している反応ルール統計情報522の一例を示す。反応ルール統計情報522は、「反応ルール」、「属性」、「人数」及び「反応結果」を含む。「反応ルール」は、「条件部」、「結論部」及び「思いやりポイント」を含む。反応ルール統計情報522の「条件部」、「結論部」及び「思いやりポイント」には、反応ルール421の「条件部」、「結論部」及び「思いやりポイント」に対応する情報が格納される。   FIG. 11 shows an example of the reaction rule statistical information 522 stored in the server 200. The reaction rule statistical information 522 includes “reaction rule”, “attribute”, “number of people”, and “reaction result”. The “reaction rule” includes a “condition part”, a “conclusion part”, and a “compassion point”. In the “condition part”, “conclusion part”, and “compassion point” of the reaction rule statistical information 522, information corresponding to the “condition part”, “conclusion part”, and “compassion point” of the reaction rule 421 is stored.

反応ルール統計情報522の「属性」には、ユーザ10の属性が格納される。ユーザ10の属性には、年齢層、性別、又は家庭内での役割、住んでいる地域の情報等を含む。「人数」には、反応ルール統計情報522に蓄積されている情報に寄与した人の数が格納される。「反応結果」には、ポジティブな反応があった回数と、ポジティネガティブな反応があった回数とを示す情報が格納される。   In the “attribute” of the reaction rule statistical information 522, the attribute of the user 10 is stored. The attributes of the user 10 include age group, sex, role in the home, information on the area where the user lives, and the like. The “number of people” stores the number of people who contributed to the information accumulated in the reaction rule statistical information 522. The “reaction result” stores information indicating the number of times of positive reaction and the number of times of positive negative reaction.

通信処理部580がロボット100からユーザ反応情報を受信した場合、統計情報制御部550は、ユーザ反応情報に含まれる属性に合致する属性に対応付けて、ユーザ反応情報に含まれる反応ルールの「条件部」及び「結論部」を、反応ルール統計情報522に格納する。また、統計情報制御部550は、ユーザ反応情報に含まれる反応の良否情報に基づいて、「ポジティブ回数」の値又は「ネガティブ回数」の値をインクリメントする。また、統計情報制御部550は、必要に応じて「人数」の値をインクリメントする。例えば、今回受信したユーザ反応情報が、過去において反応ルール統計情報522の同一レコードにユーザ反応情報を反映したことがあるユーザのユーザ反応情報である場合、「人数」の値をインクリメントしない。   When the communication processing unit 580 receives the user reaction information from the robot 100, the statistical information control unit 550 associates the attribute that matches the attribute included in the user reaction information with the “condition” of the reaction rule included in the user reaction information. Part ”and“ conclusion part ”are stored in the reaction rule statistical information 522. Further, the statistical information control unit 550 increments the value of “positive count” or the value of “negative count” based on the response quality information included in the user response information. Further, the statistical information control unit 550 increments the value of “number of people” as necessary. For example, when the user response information received this time is user response information of a user who has reflected the user response information in the same record of the response rule statistical information 522 in the past, the value of “number of people” is not incremented.

また、統計情報制御部550は、推奨される思いやりポイントを算出して、「反応ルール」の「思いやりポイント」に格納する。例えば、統計情報制御部550は、「ポジティブ回数」の値が大きいほど、推奨される思いやりポイントとしてより大きい値を算出する。具体的には、統計情報制御部550は、「ネガティブ回数」の値に対する「ポジティブ回数」の値の比が大きいほど、推奨される思いやりポイントとしてより大きい値を算出してよい。   Further, the statistical information control unit 550 calculates a recommended compassion point and stores it in the “compassion point” of the “reaction rule”. For example, the statistical information control unit 550 calculates a larger value as the recommended compassion point as the value of “the number of positives” is larger. Specifically, the statistical information control unit 550 may calculate a larger value as a recommended compassion point as the ratio of the “positive count” value to the “negative count” value is larger.

通信処理部580がロボット100から推奨される反応ルールの問い合わせを受信した場合、反応ルール検索部540は、反応ルール521に格納されている反応ルールの中から、推奨される反応ルールを検索する。例えば、反応ルール検索部540は、反応ルール521から、問い合わせに含まれる「条件部」に合致する「条件部」を有する反応ルールを検索する。反応ルール検索部540によって検索された反応ルールは、問い合わせに対する応答として、通信処理部580からロボット100に送信される。   When the communication processing unit 580 receives an inquiry about a recommended reaction rule from the robot 100, the reaction rule search unit 540 searches for a recommended reaction rule from the reaction rules stored in the reaction rule 521. For example, the reaction rule search unit 540 searches the reaction rule 521 for a reaction rule having a “condition part” that matches the “condition part” included in the inquiry. The reaction rule retrieved by the reaction rule retrieval unit 540 is transmitted from the communication processing unit 580 to the robot 100 as a response to the inquiry.

なお、反応ルール検索部540は、反応ルール統計情報522に格納されている反応ルールの中から、推奨される反応ルールを検索してよい。具体的には、反応ルール検索部540は、反応ルール統計情報522に格納されている反応ルールのうち、問い合わせに含まれる「条件部」に合致する「条件部」を有し、かつ、問い合わせに含まれる「属性」に合致する「属性」を有する反応ルールを検索してよい。これにより、サーバ200は、ユーザ10の属性に適した行動をロボット100に提供できる。   The reaction rule search unit 540 may search for a recommended reaction rule from the reaction rules stored in the reaction rule statistical information 522. Specifically, the reaction rule search unit 540 has a “condition part” that matches the “condition part” included in the inquiry among the reaction rules stored in the reaction rule statistical information 522, and the inquiry Reaction rules having “attributes” that match the “attributes” included may be searched. Thereby, the server 200 can provide the robot 100 with an action suitable for the attribute of the user 10.

なお、図12の例では、反応ルール統計情報522では、ユーザの属性毎に反応結果が集計されている。反応ルール統計情報の他の例としては、反応結果がユーザ別に集計されていてよい。   In the example of FIG. 12, in the reaction rule statistical information 522, reaction results are tabulated for each user attribute. As another example of the reaction rule statistical information, reaction results may be aggregated for each user.

図12は、記録データに付帯されるラベルを決定するためにロボット100が実行する行動を概略的に示す。行動決定部440は、日時情報及びユーザ10の属性情報に基づいて、ユーザ10の誕生日であることが判断された場合、誕生日であるか否かをユーザ10に確認するために質問することを決定する。この場合、行動制御部450は、例えば「○○さん、今日は誕生日だね。お誕生日おめでとう!」という発話内容の音声を、制御対象452のスピーカから出力させる。   FIG. 12 schematically shows actions performed by the robot 100 to determine a label attached to the recording data. When it is determined that the date is the date of birth and the user's 10 attribute information, the behavior determination unit 440 asks the user 10 to confirm whether the date is the birthday. To decide. In this case, for example, the behavior control unit 450 causes the speaker of the control target 452 to output the voice of the utterance content “Mr. XX, today is a birthday. Happy birthday!”.

その後、ユーザ反応認識部432は、ユーザ10の発話内容から、ユーザ10の反応が肯定的であったか否定的であったかを認識する。例えば、ユーザ10が「ありがとう、嬉しいよ!」という返答をした場合、ユーザ反応認識部432は、ユーザ10の反応が肯定的であったと認識する。認識されたユーザ10の名前が「ヨシコちゃん」であった場合、ラベル生成部478は、「ヨシコちゃんの誕生日」というラベルを生成する。   Thereafter, the user reaction recognition unit 432 recognizes whether the reaction of the user 10 is positive or negative from the utterance content of the user 10. For example, when the user 10 replies “Thank you, I am happy!”, The user reaction recognition unit 432 recognizes that the reaction of the user 10 is positive. When the recognized name of the user 10 is “Yoshiko-chan”, the label generation unit 478 generates a label “Yoshiko-chan's birthday”.

ラベル生成部478は、認識されたユーザ10の名前を示す情報と、「ヨシコちゃんの誕生日」という情報とを含むラベルを、記録データに付帯するラベルとして生成する。通信処理部480は、3D深度センサ402で取得された骨格情報に基づく骨格データに、ラベル生成部478が生成したラベルを付帯した記録データを、サーバ200に連続的に送信する。サーバ200においては、ロボット100から受信した記録データを、格納部520の記録データ561に格納する。   The label generation unit 478 generates a label including information indicating the name of the recognized user 10 and information “Yoshiko's birthday” as a label attached to the recording data. The communication processing unit 480 continuously transmits, to the server 200, recording data in which the label generated by the label generation unit 478 is added to the skeleton data based on the skeleton information acquired by the 3D depth sensor 402. In the server 200, the recording data received from the robot 100 is stored in the recording data 561 of the storage unit 520.

意味理解部418において、3D深度センサ402から取得された骨格情報に基づく現在の骨格データによって、現在認識されている人数を算出する。また、過去の同じ時間帯に取得された骨格データをサーバ200から取得して、過去の同じ時間帯に同じ室内で認識された人数の平均値を算出する。ここで、意味理解部418は、現在認識されている人数が、過去の同じ時間帯に同じ室内で認識された人数の平均値より予め定められた閾値以上多いと認識した場合に、いつもと違う状況であると認識する。また、意味理解部418は、過去の同じ時間帯に取得された骨格データに付帯されたラベルと、現在認識されているユーザ10とを比較して、いつもは家にいないユーザ10が現在認識されていると判断した場合に、いつもと違う状況であると認識する。なお、行動制御部450は、いつもと違う状況であると認識した場合、センサ部400やセンサモジュール部410を制御して、より詳細な検出動作を行うように制御してよい。例えば、行動制御部450は、発話理解部412に対して、より高い精度で発話内容を認識するよう制御してよい。また、音声感情認識部411に対して、より高い精度で感情を認識するよう制御してよい。また、表情認識部413に対して、より高い精度で表情を認識するよう制御してよい。   The semantic understanding unit 418 calculates the number of people currently recognized based on the current skeleton data based on the skeleton information acquired from the 3D depth sensor 402. In addition, the skeleton data acquired in the same time zone in the past is acquired from the server 200, and the average value of the number of people recognized in the same room in the same time zone in the past is calculated. Here, when the semantic understanding unit 418 recognizes that the number of people currently recognized is more than a predetermined threshold value than the average number of people recognized in the same room in the same time period in the past, it is different from usual. Recognize the situation. The semantic understanding unit 418 compares the label attached to the skeleton data acquired at the same time in the past with the currently recognized user 10, and the user 10 who is not usually at home is currently recognized. If it is determined that it is, it is recognized that the situation is different from usual. When the behavior control unit 450 recognizes that the situation is different from usual, the behavior control unit 450 may control the sensor unit 400 or the sensor module unit 410 to perform more detailed detection operation. For example, the behavior control unit 450 may control the utterance understanding unit 412 to recognize the utterance content with higher accuracy. Further, the voice emotion recognition unit 411 may be controlled to recognize emotions with higher accuracy. Further, the facial expression recognition unit 413 may be controlled to recognize the facial expression with higher accuracy.

意味理解部418によっていつもと違う状況であると認識された場合、行動決定部440は、ユーザ10に状況を確認するために質問することを決定する。例えば、「ヨシコちゃんの誕生日」というラベルが決定されている場合において、沢山の人が認識されていると判断した場合には、行動制御部450は、「ヨシコちゃんの誕生パーティーをするの?」という発話内容の音声を、制御対象452のスピーカから出力させる。   When the meaning understanding unit 418 recognizes that the situation is different from the usual situation, the behavior determination unit 440 determines to ask the user 10 a question to confirm the situation. For example, in a case where the label “Yoshiko-chan's birthday” is determined, if it is determined that many people are recognized, the behavior control unit 450 determines “Yoshiko-chan ’s birthday party? ”Is output from the speaker of the control target 452.

この場合に、ユーザ反応認識部432は、ユーザ10の発話内容から、ユーザ10の反応が肯定的であったか否定的であったかを認識する。例えば、ユーザ10が「そうだよ!」という返答をした場合、ユーザ反応認識部432は、ユーザ10の反応が肯定的であったと認識する。この場合、ラベル生成部478は、「ヨシコちゃんの誕生パーティー」というラベルを生成する。なお、「ヨシコちゃんの誕生日」や「ヨシコちゃんの誕生パーティー」というラベルは、ユーザ10の現在の状況を表すラベルの一例である。   In this case, the user reaction recognition unit 432 recognizes whether the reaction of the user 10 is positive or negative from the utterance content of the user 10. For example, when the user 10 replies “Yes!”, The user reaction recognition unit 432 recognizes that the reaction of the user 10 is positive. In this case, the label generation unit 478 generates a label “Yoshiko's birthday party”. Note that the labels “Yoshiko-chan's birthday” and “Yoshiko-chan's birthday party” are examples of labels representing the current status of the user 10.

このように、ロボット100は、センサ部400で検出された情報の少なくとも一部に基づいて、現在の状況を確認するためにユーザ10と対話を行う。そして、ラベル生成部478は、ユーザ10との対話結果に基づいて、ユーザ10の現在の状況を決定して、決定した情報に基づいて、ユーザ10の現在の状況を表す1以上の文字情報を含むラベルを生成する。   As described above, the robot 100 interacts with the user 10 to confirm the current situation based on at least a part of the information detected by the sensor unit 400. And the label production | generation part 478 determines the present condition of the user 10 based on the interaction result with the user 10, Based on the determined information, 1 or more character information showing the present condition of the user 10 is obtained. Generate a label that contains it.

図13は、記録形式切換ルール471の一例を示す。記録形式切換ルール471は、「一定数以上の家族が前にいる」かつ「一定数以上、家族の笑顔が検出された」という条件を定めた条件部と、「低圧縮の記録形式に切り換える」という行動を定めた結論部とを有するルール1300が含まれる。また、記録形式切換ルール471には、「前にいる家族が一定数未満になった」かつ「一定数以上、家族の怒りが検出された」という条件を定めた条件部と、「高圧縮の記録形式に切り換える」という行動を定めた結論部とを有するルールが含まれる。   FIG. 13 shows an example of the recording format switching rule 471. The recording format switching rule 471 includes a condition part that defines a condition that “a certain number of family members are in front” and “a certain number of family smiles are detected” and “switch to a low compression recording format”. And a rule 1300 having a conclusion part that defines the action. In addition, the recording format switching rule 471 includes a condition part that defines a condition that “the number of family members in front is less than a certain number” and “a certain number or more of family anger has been detected”; A rule having a conclusion part that defines an action of “switch to recording format”.

なお、「一定数」の値は、1つの家族に属する人数が多いほど、大きくてよい。例えば、4人家族である場合、「一定数」の値は3であってよい。5人家族である場合、「一定数」の値は4であってよい。また、「一定数」の値には、意味理解部418で認識されるユーザ10の数の履歴に基づいて決定されてよい。例えば、5人家族であっても、意味理解部418で4人しか認識されないことが多い場合は、「一定数」の値として3を決定してよい。   Note that the value of the “certain number” may be larger as the number of members belonging to one family increases. For example, in the case of a family of four, the “certain number” value may be three. In the case of a family of five, the “certain number” value may be four. Further, the value of “a certain number” may be determined based on the history of the number of users 10 recognized by the meaning understanding unit 418. For example, even if a family of five people only recognizes four people by the semantic understanding unit 418, 3 may be determined as the value of “a certain number”.

図14は、記録形式の切り換えに関する動作フローの一例を概略的に示す。本動作フローは、記録データ生成部470が高圧縮形式の記録データの生成を開始した場合に開始される。   FIG. 14 schematically shows an example of an operation flow relating to switching of recording formats. This operation flow is started when the recording data generation unit 470 starts generating high-compression recording data.

S1402において、知覚処理部416は、センサ部400及びセンサモジュール部410が出力する情報に基づいて、特定の家族に属するユーザ10の数と、笑顔度が予め定められた値を超えているユーザ10の数の検出とを開始する。ここで、知覚処理部416は、センサ部400及びセンサモジュール部410が出力する情報に基づいて存在が認識されたユーザのうち、人物DB424に家族として登録されているユーザ10の数を数える。また、知覚処理部416は、笑顔度が予め定められた値を超えているユーザのうち、人物DB424に家族として登録されているユーザ10の数を数える。   In S1402, the perception processing unit 416 determines the number of users 10 belonging to a specific family and the degree of smile exceeding a predetermined value based on information output from the sensor unit 400 and the sensor module unit 410. Start detecting the number of Here, the perception processing unit 416 counts the number of users 10 registered as a family in the person DB 424 among the users whose existence is recognized based on information output from the sensor unit 400 and the sensor module unit 410. In addition, the perception processing unit 416 counts the number of users 10 registered as a family in the person DB 424 among users whose smile level exceeds a predetermined value.

S1404において、切換制御部477は、記録形式を低圧縮形式に切り換えることを定めたルール1300の条件部が満たされたか否かを判断する。ルール1300の条件部が満たされたと判断された場合、行動制御部450は、「楽しそうだから撮っておきますね!」という発話内容の音声を制御対象452のスピーカから出力させる(S1406)。これにより、映像を記録することをユーザ10に通知する。   In step S <b> 1404, the switching control unit 477 determines whether the condition part of the rule 1300 that determines to switch the recording format to the low compression format is satisfied. When it is determined that the condition part of the rule 1300 is satisfied, the action control unit 450 outputs the voice of the utterance content “I will take a picture because it looks fun!” From the speaker of the control target 452 (S1406). As a result, the user 10 is notified that the video is to be recorded.

S1408において、切換制御部477は、ユーザ10から否定的な反応があったか否かを判断する。例えば、切換制御部477は、ユーザ10の音声から否定的な語句が認識されなかった場合に、ユーザ10から否定的な反応がなかったと判断する。ユーザ10から否定的な反応がなかったと判断した場合、切換制御部477は、記録データ生成部470を制御して、骨格データに加えて、フルHDの映像データ及び音声データの生成を開始させる(S1410)。このようにして、切換制御部477は、記録形式を高圧縮形式から低圧縮形式に切り換わる。S1408の判断において、ユーザ10から否定的な反応があったと判断した場合、予め定められたウェイト時間が経過してから(S1420)、S1404に処理を移行する。   In step S <b> 1408, the switching control unit 477 determines whether there is a negative response from the user 10. For example, the switching control unit 477 determines that there is no negative reaction from the user 10 when a negative word / phrase is not recognized from the voice of the user 10. If it is determined that there is no negative response from the user 10, the switching control unit 477 controls the recording data generation unit 470 to start generating full HD video data and audio data in addition to the skeleton data ( S1410). In this way, the switching control unit 477 switches the recording format from the high compression format to the low compression format. If it is determined in S1408 that there is a negative response from the user 10, the process proceeds to S1404 after a predetermined wait time has elapsed (S1420).

S1410で低圧縮形式に切り換えた後、S1412において、高圧縮形式に切り換えることを定めたルール1310の条件部が満たされたか否かを判断する。ルール1310の条件部が満たされたと判断された場合、切換制御部477は、記録形式を低圧縮形式から高圧縮形式に切り換える(S1414)。S1412の判断において、ルール1310の条件部が満たされていないと判断された場合、ルール1310の条件部が満たされるまで、S1412の判断を繰り返す。   After switching to the low compression format in S1410, it is determined in S1412 whether or not the condition part of the rule 1310 that determines to switch to the high compression format is satisfied. When it is determined that the condition part of the rule 1310 is satisfied, the switching control unit 477 switches the recording format from the low compression format to the high compression format (S1414). If it is determined in S1412 that the condition part of the rule 1310 is not satisfied, the determination in S1412 is repeated until the condition part of the rule 1310 is satisfied.

なお、S1412のルール1310に基づく判断の他、「記録を終了して」等のように、低圧縮形式による記録の停止を指示する発話が認識された場合にも、記録形式を低圧縮形式から高圧縮形式に切り換えてよい。また、記録形式を低圧縮形式に切り換えた後、予め定められた最大記録時間が経過した場合に、記録形式を低圧縮形式から高圧縮形式に切り換えてもよい。   In addition to the determination based on the rule 1310 in S1412, the recording format is changed from the low compression format even when an utterance instructing to stop recording in the low compression format is recognized, such as “End recording”. You may switch to a high compression format. Further, after the recording format is switched to the low compression format, the recording format may be switched from the low compression format to the high compression format when a predetermined maximum recording time has elapsed.

なお、切換制御部477は、笑顔の数に限らず、ユーザ10の感情の強さが激しく変化したことに応じて、記録形式を切り換えてよい。例えば、切換制御部477は、センサ部400に含まれるタッチセンサで予め定められた値より強い衝撃が検出された場合に、記録形式を低圧縮形式に切り換えてよい。   It should be noted that the switching control unit 477 may switch the recording format in accordance with not only the number of smiles but also the intenseness of the emotion of the user 10. For example, the switching control unit 477 may switch the recording format to the low compression format when an impact stronger than a predetermined value is detected by a touch sensor included in the sensor unit 400.

なお、ロボット100は、行動制御システムを備える電子機器の一例である。行動制御システムの適用対象は、ロボット100に限られず、様々な電子機器に行動制御システムを適用できる。また、サーバ200の機能は、1以上のコンピュータによって実装されてよい。サーバ200の少なくとも一部の機能は、仮想マシンによって実装されてよい。また、サーバ200の機能の少なくとも一部は、クラウドで実装されてよい。   The robot 100 is an example of an electronic device that includes a behavior control system. The application target of the behavior control system is not limited to the robot 100, and the behavior control system can be applied to various electronic devices. Further, the function of the server 200 may be implemented by one or more computers. At least some of the functions of the server 200 may be implemented by a virtual machine. Further, at least a part of the functions of the server 200 may be implemented in the cloud.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。   As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above-described embodiment. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.

特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階などの各処理の実行順序は、特段「より前に」、「先立って」などと明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」などを用いて説明したとしても、この順で実施することが必須であることを意味するものではない。   The order of execution of each process such as operations, procedures, steps, and stages in the apparatus, system, program, and method shown in the claims, the description, and the drawings is particularly “before” or “prior to”. It should be noted that it can be realized in any order unless the output of the previous process is used in the subsequent process. Regarding the operation flow in the claims, the description, and the drawings, even if it is described using “first,” “next,” etc. for convenience, it means that it is essential to carry out in this order. It is not a thing.

5 システム
10、11、12 ユーザ
20 通信網
100、101、102 ロボット
200 サーバ
400 センサ部
401 マイク
402 3D深度センサ
403 2Dカメラ
404 距離センサ
410 センサモジュール部
411 音声感情認識部
412 発話理解部
413 表情認識部
414 顔認識部
416 知覚処理部
417 知覚確認ルール
418 意味理解部
419 意味理解ルール
420 格納部
421 反応ルール
422 ルール更新部
424 人物DB
430 ユーザ状態認識部
432 ユーザ反応認識部
434 条件判断部
440 行動決定部
442 感情決定部
450 行動制御部
452 制御対象
470 記録データ生成部
471 記録形式切換ルール
477 切換制御部
478 ラベル生成部
480 通信処理部
520 格納部
521 反応ルール
522 反応ルール統計情報
530 反応ルール生成部
540 反応ルール検索部
550 統計情報制御部
560 アクセス制御部
561 記録データ
580 通信処理部
601 人物検出情報
602 顔検出情報
603 ユーザ認識情報
604 笑顔検出情報
605 タイムアウト情報
610 知覚履歴
611、612、613、614、615、616 知覚情報
630 知覚確認ルール
710 意味履歴
711、712、713、714、715、717 意味情報
730 意味理解ルール
810 反応ルール
910 候補
940 意味情報
960 ユーザ反応情報
1300、1310 ルール
5 System 10, 11, 12 User 20 Communication network 100, 101, 102 Robot 200 Server 400 Sensor unit 401 Microphone 402 3D depth sensor 403 2D camera 404 Distance sensor 410 Sensor module unit 411 Speech emotion recognition unit 412 Speech understanding unit 413 Expression recognition Unit 414 face recognition unit 416 perception processing unit 417 perception confirmation rule 418 meaning understanding unit 419 meaning understanding rule 420 storage unit 421 reaction rule 422 rule update unit 424 person DB
430 User state recognition unit 432 User reaction recognition unit 434 Condition determination unit 440 Action determination unit 442 Emotion determination unit 450 Action control unit 452 Control object 470 Recording data generation unit 471 Recording format switching rule 477 Switching control unit 478 Label generation unit 480 Communication processing Unit 520 storage unit 521 reaction rule 522 reaction rule statistical information 530 reaction rule generation unit 540 reaction rule search unit 550 statistical information control unit 560 access control unit 561 record data 580 communication processing unit 601 person detection information 602 face detection information 603 user recognition information 604 Smile detection information 605 Time-out information 610 Perception history 611, 612, 613, 614, 615, 616 Perception information 630 Perception confirmation rule 710 Semantic history 711, 712, 713, 714, 715, 717 Semantic information 730 Understanding the rules 810 reaction Rule 910 candidate 940 semantic information 960 user response information 1300 and 1310 rules

Claims (11)

ユーザの状態に基づいて行動を決定するための決定情報を記憶する行動情報記憶部と、
ユーザの状態を認識するユーザ状態認識部と、
前記ユーザ状態認識部が認識した前記ユーザの状態と、前記決定情報とに基づいて、実行する行動を決定する行動決定部と、
前記行動決定部が決定した行動を実行したことに対する前記ユーザの反応を認識する反応認識部と、
前記ユーザ状態認識部が認識した前記ユーザの状態、前記行動決定部が決定した行動、及び前記反応認識部が認識した前記ユーザの反応を、外部のサーバに送信する送信部と、
前記行動決定部が前記ユーザの状態と前記決定情報とに基づいて実行する行動を決定できなかった場合に、前記ユーザ状態認識部が認識した前記ユーザの状態に適した行動を、前記サーバから受信する受信部と、
前記受信部が前記サーバから受信した行動に基づいて、前記決定情報を更新する行動情報更新部と
を備える行動制御システム。
An action information storage unit for storing determination information for determining an action based on a user's state;
A user state recognition unit for recognizing the user state;
An action determination unit that determines an action to be executed based on the user state recognized by the user state recognition unit and the determination information;
A reaction recognition unit for recognizing the user's response to the execution of the action determined by the action determination unit;
A transmission unit that transmits the user status recognized by the user status recognition unit, the behavior determined by the behavior determination unit, and the user response recognized by the reaction recognition unit to an external server;
When the action determining unit fails to determine an action to be executed based on the user state and the determination information, the action suitable for the user state recognized by the user state recognizing unit is received from the server. A receiving unit to
A behavior control system comprising: a behavior information update unit that updates the determination information based on a behavior received by the reception unit from the server.
前記ユーザ状態認識部が認識した前記ユーザの状態に基づいて、前記システムの現在の感情を示す感情値を決定する感情決定部と、
前記感情決定部が決定した前記感情値に基づいて、前記行動決定部が決定した行動の実行形態を決定する行動制御部と
を更に備える請求項1に記載の行動制御システム。
An emotion determination unit that determines an emotion value indicating a current emotion of the system based on the state of the user recognized by the user state recognition unit;
The behavior control system according to claim 1, further comprising a behavior control unit that determines an execution form of the behavior determined by the behavior determination unit based on the emotion value determined by the emotion determination unit.
前記送信部は更に、前記ユーザの属性を前記サーバに送信し、
前記受信部は、前記行動決定部が前記ユーザの状態と前記決定情報とに基づいて実行する行動を決定できなかった場合に、前記ユーザ状態認識部が認識した前記ユーザの状態及び前記ユーザの属性に適した行動を、前記サーバから受信する
請求項1または2に記載の行動制御システム。
The transmission unit further transmits the attribute of the user to the server,
The reception unit is configured to recognize the user status and the user attribute recognized by the user status recognition unit when the behavior determination unit cannot determine an action to be executed based on the user status and the determination information. The behavior control system according to claim 1, wherein a behavior suitable for the operation is received from the server.
前記決定情報は、前記行動を行う場合に満たされるべきユーザの状態を示す条件と、前記条件に対応付けられた行動とを示す情報を含み、
前記行動制御システムは、
前記ユーザ状態認識部が認識した前記ユーザの状態に基づいて、前記決定情報に含まれる前記条件が満たされているか否かを判断する条件判断部
を更に備え、
前記受信部は、前記条件判断部によって前記決定情報に含まれるいずれの条件も満たされていないことが判断された場合に、前記ユーザ状態認識部が認識した前記ユーザの状態に適した行動を、前記サーバから受信する
請求項1から3のいずれか1項に記載の行動制御システム。
The decision information includes information indicating a condition indicating a state of a user to be satisfied when performing the action, and an action associated with the condition,
The behavior control system includes:
A condition determination unit that determines whether the condition included in the determination information is satisfied based on the state of the user recognized by the user state recognition unit;
When the condition determining unit determines that none of the conditions included in the determination information is satisfied, the receiving unit performs an action suitable for the user state recognized by the user state recognizing unit, The behavior control system according to claim 1, which is received from the server.
前記決定情報は、1以上の前記行動のそれぞれの適正度を示す情報を含み、
前記行動決定部は、前記決定情報に含まれる情報のうち前記条件判断部によって満たされたことが判断された条件に対応付けられた前記1以上の行動のうち、前記決定情報に含まれる適正度が予め定められた値より高い行動を、実行する行動として決定し、
前記受信部は、前記条件判断部によって満たされたことが判断された前記条件に対応付けられた前記1以上の行動の適正度が、いずれも前記予め定められた値以下である場合に、前記ユーザ状態認識部が認識した前記ユーザの状態に適した行動を、前記サーバから受信する
請求項4に記載の行動制御システム。
The determination information includes information indicating the appropriateness of each of the one or more actions,
The degree of appropriateness included in the determination information among the one or more actions associated with the condition determined to be satisfied by the condition determination unit among the information included in the determination information. Determines an action that is higher than a predetermined value as an action to be executed,
The receiving unit, when the appropriateness of the one or more actions associated with the condition determined to be satisfied by the condition determining unit is less than or equal to the predetermined value, The behavior control system according to claim 4, wherein a behavior suitable for the state of the user recognized by the user state recognition unit is received from the server.
前記行動情報更新部は、前記条件判断部によって満たされたことが判断された前記条件に対応付けて、前記受信部が前記サーバから受信した行動を前記決定情報に追加する
請求項5に記載の行動制御システム。
The said action information update part is matched with the said condition judged that the said condition judgment part was satisfy | filled, The action which the said receiving part received from the said server is added to the said determination information. Behavior control system.
前記行動情報更新部は、前記反応認識部が認識した前記ユーザの反応が不良であった場合に、前記条件判断部によって満たされたことが判断された前記条件及び前記行動決定部が決定した行動に対応付けて前記決定情報に記憶されている適正度を低下させる
請求項5または6に記載の行動制御システム。
The behavior information update unit is configured to determine the condition determined by the condition determination unit and the action determined by the behavior determination unit when the user's response recognized by the reaction recognition unit is poor. The behavior control system according to claim 5 or 6, wherein the degree of appropriateness stored in the determination information is reduced in association with the action information.
コンピュータを、請求項1から7のいずれか1項に記載の行動制御システムとして機能させるためのプログラム。   A program for causing a computer to function as the behavior control system according to any one of claims 1 to 7. 請求項1から7のいずれか1項に記載の複数の行動制御システムと、
前記サーバと
を備えるシステム。
A plurality of behavior control systems according to any one of claims 1 to 7,
A system comprising the server.
第1の行動制御システムにおいて認識されたユーザの状態、前記第1の行動制御システムにおいて当該ユーザの状態に基づいて決定された行動、及び当該行動が実行されたことに対する当該ユーザの反応を、前記第1の行動制御システムから受信するユーザ反応受信部と、
前記ユーザ反応受信部が受信した前記ユーザの状態、前記行動、及び前記ユーザの反応を対応づけて記憶する行動結果記憶部と、
第2の行動制御システムにおいて認識されたユーザの状態を、前記第2の行動制御システムから受信するユーザ状態受信部と、
前記ユーザ状態受信部が受信した前記ユーザの状態に合致する状態に対応付けて前記行動結果記憶部が記憶している前記ユーザの反応に基づいて、前記ユーザ状態受信部が受信した前記ユーザの状態に合致する状態に対応付けて前記行動結果記憶部が記憶している前記行動の中から、前記ユーザ状態受信部が受信した前記ユーザの状態に適した行動を選択する行動選択部と、
前記行動選択部が選択した行動を、前記第2の行動制御システムに送信する送信部と
を備えるサーバ。
The state of the user recognized in the first behavior control system, the behavior determined based on the state of the user in the first behavior control system, and the user's reaction to the execution of the behavior, A user response receiver that receives from the first behavior control system;
An action result storage unit that stores the state of the user, the action, and the reaction of the user received by the user reaction reception unit;
A user status receiving unit that receives the status of the user recognized in the second behavior control system from the second behavior control system;
The state of the user received by the user state reception unit based on the reaction of the user stored in the action result storage unit in association with a state that matches the state of the user received by the user state reception unit An action selection unit that selects an action suitable for the state of the user received by the user state reception unit from the behaviors stored in the action result storage unit in association with a state that matches
A server comprising: a transmission unit that transmits the behavior selected by the behavior selection unit to the second behavior control system.
コンピュータを、請求項10記載のサーバとして機能させるためのプログラム。   The program for functioning a computer as a server of Claim 10.
JP2015053473A 2014-06-05 2015-03-17 Action control system, system and program Active JP6053847B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015053473A JP6053847B2 (en) 2014-06-05 2015-03-17 Action control system, system and program

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014116432 2014-06-05
JP2014116432 2014-06-05
JP2015053473A JP6053847B2 (en) 2014-06-05 2015-03-17 Action control system, system and program

Publications (2)

Publication Number Publication Date
JP2016012341A true JP2016012341A (en) 2016-01-21
JP6053847B2 JP6053847B2 (en) 2016-12-27

Family

ID=55228986

Family Applications (4)

Application Number Title Priority Date Filing Date
JP2015053475A Expired - Fee Related JP6058053B2 (en) 2014-06-05 2015-03-17 Recording control system, system and program
JP2015053473A Active JP6053847B2 (en) 2014-06-05 2015-03-17 Action control system, system and program
JP2015053472A Active JP6351528B2 (en) 2014-06-05 2015-03-17 Behavior control system and program
JP2015053474A Active JP6328580B2 (en) 2014-06-05 2015-03-17 Behavior control system and program

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2015053475A Expired - Fee Related JP6058053B2 (en) 2014-06-05 2015-03-17 Recording control system, system and program

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2015053472A Active JP6351528B2 (en) 2014-06-05 2015-03-17 Behavior control system and program
JP2015053474A Active JP6328580B2 (en) 2014-06-05 2015-03-17 Behavior control system and program

Country Status (1)

Country Link
JP (4) JP6058053B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017170404A1 (en) * 2016-03-30 2017-10-05 光吉 俊二 Intention emergence device, intention emergence method, and intention emergence program
JP2017188097A (en) * 2016-03-30 2017-10-12 光吉 俊二 Intention creation device, intention creation method, and intention creation program
JP2019003283A (en) * 2017-06-12 2019-01-10 シャープ株式会社 Information processing device, control method of information processing device, and program for allowing computer as information processing device
JP2019008113A (en) * 2017-06-23 2019-01-17 カシオ計算機株式会社 Electronic apparatus, emotion information acquisition system, program and emotion information acquisition method
WO2020012982A1 (en) * 2018-07-10 2020-01-16 ソニー株式会社 Management device and method, control device and method, and management system
EP3677392A1 (en) * 2018-12-24 2020-07-08 LG Electronics Inc. Robot and method of controlling the same
WO2020213244A1 (en) * 2019-04-16 2020-10-22 ソニー株式会社 Information processing device, information processing method, and program

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6199927B2 (en) * 2015-06-17 2017-09-20 Cocoro Sb株式会社 Control system, system and program
WO2017130649A1 (en) * 2016-01-26 2017-08-03 インターマン株式会社 Autonomous robot
JP6726388B2 (en) 2016-03-16 2020-07-22 富士ゼロックス株式会社 Robot control system
JP6267846B2 (en) * 2016-03-31 2018-01-24 Cocoro Sb株式会社 Customer service control system, customer service system and program
US9751212B1 (en) * 2016-05-05 2017-09-05 Toyota Jidosha Kabushiki Kaisha Adapting object handover from robot to human using perceptual affordances
WO2018006371A1 (en) * 2016-07-07 2018-01-11 深圳狗尾草智能科技有限公司 Method and system for synchronizing speech and virtual actions, and robot
CN106182032B (en) * 2016-08-24 2018-11-13 陈中流 One kind is accompanied and attended to robot
JP6933455B2 (en) 2016-09-29 2021-09-08 株式会社東芝 Interest maintenance system and server
CN107053191B (en) 2016-12-31 2020-05-08 华为技术有限公司 Robot, server and man-machine interaction method
JP6712961B2 (en) * 2017-03-15 2020-06-24 日立グローバルライフソリューションズ株式会社 Communication system and communication control device
JP6637917B2 (en) * 2017-03-16 2020-01-29 株式会社日立製作所 Education support system and education support method
JP6891601B2 (en) * 2017-03-31 2021-06-18 富士通株式会社 Robot control programs, robot devices, and robot control methods
JP7146373B2 (en) * 2017-07-13 2022-10-04 雅美 田嶋 Customer service system
JP7085788B2 (en) * 2017-09-12 2022-06-17 達闥機器人股▲分▼有限公司 Robot dynamic learning methods, systems, robots and cloud servers
WO2019064650A1 (en) * 2017-09-28 2019-04-04 三菱自動車工業株式会社 Information transfer support system for vehicle
CN109635616B (en) * 2017-10-09 2022-12-27 阿里巴巴集团控股有限公司 Interaction method and device
JP2019197509A (en) * 2018-05-11 2019-11-14 フューブライト・コミュニケーションズ株式会社 Nursing-care robot, nursing-care robot control method and nursing-care robot control program
JP7101815B2 (en) * 2018-12-19 2022-07-15 本田技研工業株式会社 Guidance robot control device, guidance system using it, and guidance robot control method
JP7273637B2 (en) * 2019-07-17 2023-05-15 本田技研工業株式会社 ROBOT MANAGEMENT DEVICE, ROBOT MANAGEMENT METHOD AND ROBOT MANAGEMENT SYSTEM
WO2024071165A1 (en) * 2022-09-29 2024-04-04 日東電工株式会社 Robot, learning device, control method, and program
WO2024071164A1 (en) * 2022-09-29 2024-04-04 日東電工株式会社 Robot, learning device, control method, and program
WO2024071171A1 (en) * 2022-09-29 2024-04-04 日東電工株式会社 Robot, learning device, control method, and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008123332A (en) * 2006-11-14 2008-05-29 Mitsubishi Electric Corp Information processor, information processing method, and program
JP2013027937A (en) * 2011-07-26 2013-02-07 Fujitsu Ltd Robot controller, robot system, method for controlling behavior of robot apparatus, and program
JP2013237124A (en) * 2012-05-15 2013-11-28 Fujitsu Ltd Terminal device, method for providing information, and program

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11126017A (en) * 1997-08-22 1999-05-11 Sony Corp Storage medium, robot, information processing device and electronic pet system
JP3125746B2 (en) * 1998-05-27 2001-01-22 日本電気株式会社 PERSON INTERACTIVE DEVICE AND RECORDING MEDIUM RECORDING PERSON INTERACTIVE PROGRAM
JP2001212783A (en) * 2000-02-01 2001-08-07 Sony Corp Robot device and control method for it
JP2002049385A (en) * 2000-08-07 2002-02-15 Yamaha Motor Co Ltd Voice synthesizer, pseudofeeling expressing device and voice synthesizing method
JP2002261966A (en) * 2000-09-08 2002-09-13 Matsushita Electric Works Ltd Communication support system and photographing equipment
JP2002116792A (en) * 2000-10-11 2002-04-19 Sony Corp Robot controller and method for robot control and recording medium
JP2002137182A (en) * 2000-10-31 2002-05-14 Yamaha Motor Co Ltd Operation content deciding device
JP2002239256A (en) * 2001-02-14 2002-08-27 Sanyo Electric Co Ltd Emotion determination device in automatic response toy and automatic response toy
JP2002268663A (en) * 2001-03-08 2002-09-20 Sony Corp Voice synthesizer, voice synthesis method, program and recording medium
JP2003181784A (en) * 2001-12-19 2003-07-02 Sanyo Electric Co Ltd Automatic answering robot
JP2003274360A (en) * 2002-03-14 2003-09-26 Sony Corp Apparatus and method for imaging, and device and system for imaging management
JP2004066367A (en) * 2002-08-05 2004-03-04 Mitsubishi Heavy Ind Ltd Action pattern formation device, action pattern formation method, and action pattern formation program
JP2005044330A (en) * 2003-07-24 2005-02-17 Univ Of California San Diego Weak hypothesis generation device and method, learning device and method, detection device and method, expression learning device and method, expression recognition device and method, and robot device
JP4244812B2 (en) * 2004-01-16 2009-03-25 ソニー株式会社 Action control system and action control method for robot apparatus
JP2005222331A (en) * 2004-02-05 2005-08-18 Ntt Docomo Inc Agent interface system
JP2005238422A (en) * 2004-02-27 2005-09-08 Sony Corp Robot device, its state transition model construction method and behavior control method
JP4368316B2 (en) * 2005-03-02 2009-11-18 シャープ株式会社 Content viewing system
JP2011119963A (en) * 2009-12-03 2011-06-16 Seiko Epson Corp Imaging apparatus and imaging method
JP2011201002A (en) * 2010-03-26 2011-10-13 Sony Corp Robot device, method and program of remote control of the robot device
JP6157838B2 (en) * 2012-11-13 2017-07-05 シャープ株式会社 Action control device, action control method, and control program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008123332A (en) * 2006-11-14 2008-05-29 Mitsubishi Electric Corp Information processor, information processing method, and program
JP2013027937A (en) * 2011-07-26 2013-02-07 Fujitsu Ltd Robot controller, robot system, method for controlling behavior of robot apparatus, and program
JP2013237124A (en) * 2012-05-15 2013-11-28 Fujitsu Ltd Terminal device, method for providing information, and program

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017170404A1 (en) * 2016-03-30 2017-10-05 光吉 俊二 Intention emergence device, intention emergence method, and intention emergence program
JP2017188097A (en) * 2016-03-30 2017-10-12 光吉 俊二 Intention creation device, intention creation method, and intention creation program
CN108885711A (en) * 2016-03-30 2018-11-23 株式会社日本数理研究所 The meaning emerges in large numbers device, meaning emergence and the meaning and emerges in large numbers program
US10325616B2 (en) 2016-03-30 2019-06-18 Japan Mathematical Institute Inc. Intention emergence device, intention emergence method, and intention emergence program
TWI722160B (en) * 2016-03-30 2021-03-21 光吉俊二 Meaning creation device, meaning creation method and meaning creation program
CN108885711B (en) * 2016-03-30 2022-09-20 株式会社日本数理研究所 Intention emergence device, intention emergence method, and storage medium
JP2019003283A (en) * 2017-06-12 2019-01-10 シャープ株式会社 Information processing device, control method of information processing device, and program for allowing computer as information processing device
JP2019008113A (en) * 2017-06-23 2019-01-17 カシオ計算機株式会社 Electronic apparatus, emotion information acquisition system, program and emotion information acquisition method
JP7073640B2 (en) 2017-06-23 2022-05-24 カシオ計算機株式会社 Electronic devices, emotion information acquisition systems, programs and emotion information acquisition methods
WO2020012982A1 (en) * 2018-07-10 2020-01-16 ソニー株式会社 Management device and method, control device and method, and management system
EP3677392A1 (en) * 2018-12-24 2020-07-08 LG Electronics Inc. Robot and method of controlling the same
WO2020213244A1 (en) * 2019-04-16 2020-10-22 ソニー株式会社 Information processing device, information processing method, and program

Also Published As

Publication number Publication date
JP6053847B2 (en) 2016-12-27
JP6351528B2 (en) 2018-07-04
JP2016012340A (en) 2016-01-21
JP6328580B2 (en) 2018-05-23
JP2016012342A (en) 2016-01-21
JP6058053B2 (en) 2017-01-11
JP2016012914A (en) 2016-01-21

Similar Documents

Publication Publication Date Title
JP6053847B2 (en) Action control system, system and program
US20210335342A1 (en) Detection and/or enrollment of hot commands to trigger responsive action by automated assistant
US10486312B2 (en) Robot, robot control method, and robot system
US10270736B2 (en) Account adding method, terminal, server, and computer storage medium
EP3631793B1 (en) Dynamic and/or context-specific hot words to invoke automated assistant
KR20210008521A (en) Dynamic and/or context-specific hot words to invoke automated assistants
JP2019534492A (en) Interpretation device and method (DEVICE AND METHOD OF TRANSLATING A LANGUAGE INTO ANOTHER LANGUAGE)
KR20160011620A (en) Systems and methods for interactive synthetic character dialogue
US11367443B2 (en) Electronic device and method for controlling electronic device
US11267121B2 (en) Conversation output system, conversation output method, and non-transitory recording medium
JP2014191029A (en) Voice recognition system and method for controlling voice recognition system
US11789695B2 (en) Automatic adjustment of muted response setting
CN110188364B (en) Translation method, device and computer readable storage medium based on intelligent glasses
CN111556999B (en) Method, computer device and computer readable storage medium for providing natural language dialogue by providing substantive answer in real time
KR20230087577A (en) Control Playback of Scene Descriptions
CN111557001B (en) Method for providing natural language dialogue, computer device and computer readable storage medium
KR20200051173A (en) System for providing topics of conversation in real time using intelligence speakers
WO2019202804A1 (en) Speech processing device and speech processing method
US20220328033A1 (en) Road map for audio presentation of communications
KR20200040625A (en) An electronic device which is processing user&#39;s utterance and control method thereof
US11150923B2 (en) Electronic apparatus and method for providing manual thereof
US11269590B2 (en) Audio presentation of conversation threads
JP7474211B2 (en) Dialogue program, device and method for forgetting nouns spoken by a user
JP2020077272A (en) Conversation system and conversation program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151203

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20160425

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161101

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161129

R150 Certificate of patent or registration of utility model

Ref document number: 6053847

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250