JP2016012341A - Action control system, system and program - Google Patents
Action control system, system and program Download PDFInfo
- Publication number
- JP2016012341A JP2016012341A JP2015053473A JP2015053473A JP2016012341A JP 2016012341 A JP2016012341 A JP 2016012341A JP 2015053473 A JP2015053473 A JP 2015053473A JP 2015053473 A JP2015053473 A JP 2015053473A JP 2016012341 A JP2016012341 A JP 2016012341A
- Authority
- JP
- Japan
- Prior art keywords
- user
- unit
- action
- information
- state
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、行動制御システム、システム及びプログラムに関する。 The present invention relates to a behavior control system, a system, and a program.
ユーザと通話相手との会話を学習してユーザの問いかけに対する通話相手の返答を返答テーブルに蓄積する端末が知られていた(例えば、特許文献1参照)。
[先行技術文献]
[特許文献]
[特許文献1]特開2011−253389号公報
There has been known a terminal that learns a conversation between a user and a call partner and accumulates a response of the call partner in response to the user's inquiry in a response table (see, for example, Patent Document 1).
[Prior art documents]
[Patent Literature]
[Patent Document 1] Japanese Patent Application Laid-Open No. 2011-253389
ユーザの状態に対して適切な行動を決定できない場合がある。 Appropriate behavior may not be determined for the user's condition.
本発明の第1の態様においては、ユーザの状態に基づいて行動を決定するための決定情報を記憶する行動情報記憶部と、ユーザの状態を認識するユーザ状態認識部と、ユーザ状態認識部が認識したユーザの状態と、決定情報とに基づいて、実行する行動を決定する行動決定部と、行動決定部が決定した行動を実行したことに対するユーザの反応を認識する反応認識部と、ユーザ状態認識部が認識したユーザの状態、行動決定部が決定した行動、及び反応認識部が認識したユーザの反応を、外部のサーバに送信する送信部と、行動決定部がユーザの状態と決定情報とに基づいて実行する行動を決定できなかった場合に、ユーザ状態認識部が認識したユーザの状態に適した行動を、サーバから受信する受信部と、受信部がサーバから受信した行動に基づいて、決定情報を更新する行動情報更新部とを備える行動制御システムが提供される。 In the first aspect of the present invention, an action information storage unit that stores determination information for determining an action based on a user state, a user state recognition unit that recognizes a user state, and a user state recognition unit include: Based on the recognized user state and the determination information, an action determination unit that determines an action to be executed, a reaction recognition unit that recognizes a user's reaction to the execution of the action determined by the action determination unit, and a user state The transmission unit that transmits the user status recognized by the recognition unit, the behavior determined by the behavior determination unit, and the user response recognized by the reaction recognition unit to an external server, and the behavior determination unit includes the user status and determination information If the action to be executed based on the condition cannot be determined, the receiver that receives the action appropriate for the user state recognized by the user state recognizer from the server, and the action that the receiver receives from the server Based on, behavior control system and a behavior information updating unit that updates the decision information is provided.
ユーザ状態認識部が認識したユーザの状態に基づいて、システムの現在の感情を示す感情値を決定する感情決定部と、感情決定部が決定した感情値に基づいて、行動決定部が決定した行動の実行形態を決定する行動制御部とを更に備えてよい。 Based on the state of the user recognized by the user state recognition unit, an emotion determination unit that determines an emotion value indicating the current emotion of the system, and an action determined by the behavior determination unit based on the emotion value determined by the emotion determination unit And an action control unit that determines the execution form.
送信部は更に、ユーザの属性をサーバに送信し、受信部は、行動決定部がユーザの状態と決定情報とに基づいて実行する行動を決定できなかった場合に、ユーザ状態認識部が認識したユーザの状態及びユーザの属性に適した行動を、サーバから受信してよい。 The transmission unit further transmits the user attribute to the server, and the reception unit recognizes the user state recognition unit when the behavior determination unit cannot determine the action to be executed based on the user state and the determination information. Actions appropriate for the user's condition and user attributes may be received from the server.
決定情報は、行動を行う場合に満たされるべきユーザの状態を示す条件と、条件に対応付けられた行動とを示す情報を含み、行動制御システムは、ユーザ状態認識部が認識したユーザの状態に基づいて、決定情報に含まれる条件が満たされているか否かを判断する条件判断部を更に備え、受信部は、条件判断部によって決定情報に含まれるいずれの条件も満たされていないことが判断された場合に、ユーザ状態認識部が認識したユーザの状態に適した行動を、サーバから受信してよい。 The decision information includes information indicating a condition indicating the state of the user to be satisfied when performing the action, and information indicating the action associated with the condition, and the action control system determines the user state recognized by the user state recognition unit. And a condition determining unit that determines whether or not a condition included in the determination information is satisfied, and the receiving unit determines that any condition included in the determination information is not satisfied by the condition determining unit. When it is, you may receive the action suitable for the user's state which the user state recognition part recognized from the server.
決定情報は、1以上の行動のそれぞれの適正度を示す情報を含み、行動決定部は、決定情報に含まれる情報のうち条件判断部によって満たされたことが判断された条件に対応付けられた1以上の行動のうち、決定情報に含まれる適正度が予め定められた値より高い行動を、実行する行動として決定し、受信部は、条件判断部によって満たされたことが判断された条件に対応付けられた1以上の行動の適正度が、いずれも予め定められた値以下である場合に、ユーザ状態認識部が認識したユーザの状態に適した行動を、サーバから受信してよい。 The determination information includes information indicating the appropriateness of each of the one or more actions, and the action determination unit is associated with the condition determined to be satisfied by the condition determination unit among the information included in the determination information. Among the one or more actions, an action having a degree of appropriateness included in the decision information higher than a predetermined value is determined as an action to be executed, and the receiving unit sets the condition determined to be satisfied by the condition determining unit. When the appropriateness of one or more associated actions is less than or equal to a predetermined value, an action suitable for the user state recognized by the user state recognition unit may be received from the server.
行動情報更新部は、条件判断部によって満たされたことが判断された条件に対応付けて、受信部がサーバから受信した行動を決定情報に追加してよい。 The behavior information update unit may add the behavior received from the server by the reception unit to the determination information in association with the condition determined to be satisfied by the condition determination unit.
行動情報更新部は、反応認識部が認識したユーザの反応が不良であった場合に、条件判断部によって満たされたことが判断された条件及び行動決定部が決定した行動に対応付けて決定情報に記憶されている適正度を低下させてよい。 The behavior information update unit is determined in association with the condition determined to be satisfied by the condition determination unit and the action determined by the behavior determination unit when the reaction of the user recognized by the reaction recognition unit is poor. You may reduce the appropriateness memorize | stored in.
本発明の第2の態様においては、コンピュータを、上記の行動制御システムとして機能させるためのプログラムが提供される。 In the 2nd aspect of this invention, the program for functioning a computer as said behavior control system is provided.
本発明の第3の態様においては、上記の複数の行動制御システムと、サーバとを備えるシステムが提供される。 In the 3rd aspect of this invention, a system provided with said some action control system and a server is provided.
本発明の第4の態様においては、第1の行動制御システムにおいて認識されたユーザの状態、第1の行動制御システムにおいて当該ユーザの状態に基づいて決定された行動、及び当該行動が実行されたことに対する当該ユーザの反応を、第1の行動制御システムから受信するユーザ反応受信部と、ユーザ反応受信部が受信したユーザの状態、行動、及びユーザの反応を対応づけて記憶する行動結果記憶部と、第2の行動制御システムにおいて認識されたユーザの状態を、第2の行動制御システムから受信するユーザ状態受信部と、ユーザ状態受信部が受信したユーザの状態に合致する状態に対応付けて行動結果記憶部が記憶しているユーザの反応に基づいて、ユーザ状態受信部が受信したユーザの状態に合致する状態に対応付けて行動結果記憶部が記憶している行動の中から、ユーザ状態受信部が受信したユーザの状態に適した行動を選択する行動選択部と、行動選択部が選択した行動を、第2の行動制御システムに送信する送信部とを備えるサーバが提供される。 In the fourth aspect of the present invention, the state of the user recognized in the first behavior control system, the behavior determined based on the state of the user in the first behavior control system, and the behavior are executed. A user response receiving unit that receives the user's response to the first behavior control system, and a user result receiving unit that receives the user response, the behavior and the result of the user's response And the user status recognized by the second behavior control system in association with the user status receiving unit that receives from the second behavior control system and the status that matches the user status received by the user status receiving unit. Based on the user's reaction stored in the action result storage unit, the action result description is associated with the state that matches the user state received by the user state reception unit. The behavior selection unit that selects a behavior suitable for the user's state received by the user status reception unit from the behaviors stored in the unit, and the behavior selected by the behavior selection unit are transmitted to the second behavior control system A server including a transmitting unit is provided.
本発明の第5の態様においては、コンピュータを、上記のサーバとして機能させるためのプログラムが提供される。 In the fifth aspect of the present invention, a program for causing a computer to function as the server is provided.
なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。 It should be noted that the above summary of the invention does not enumerate all the necessary features of the present invention. In addition, a sub-combination of these feature groups can also be an invention.
以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。 Hereinafter, the present invention will be described through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. In addition, not all the combinations of features described in the embodiments are essential for the solving means of the invention.
図1は、本実施形態に係るシステム5の一例を概略的に示す。システム5は、ロボット100、ロボット101、ロボット102、及びサーバ200を備える。ユーザ10a、ユーザ10b、ユーザ10c、及びユーザ10dは、ロボット100のユーザである。ユーザ11a、ユーザ11b及びユーザ11cは、ロボット101のユーザである。ユーザ12a及びユーザ12bは、ロボット102のユーザである。なお、本実施形態の説明において、ユーザ10a、ユーザ10b、ユーザ10c、及びユーザ10dを、ユーザ10と総称する場合がある。また、ユーザ11a、ユーザ11b及びユーザ11cを、ユーザ11と総称する場合がある。また、ユーザ12a及びユーザ12bを、ユーザ12と総称する場合がある。ロボット101及びロボット102は、ロボット100と略同一の機能を有する。そのため、ロボット100の機能を主として取り上げてシステム5を説明する。
FIG. 1 schematically shows an example of a
ロボット100は、ユーザ10と会話を行ったり、ユーザ10に映像を提供したりする。このとき、ロボット100は、通信網20を介して通信可能なサーバ200等と連携して、ユーザ10との会話や、ユーザ10への映像等の提供を行う。例えば、ロボット100は、自身で適切な会話を学習するだけでなく、サーバ200と連携して、ユーザ10とより適切に会話を進められるように学習を行う。また、ロボット100は、撮影したユーザ10の映像データ等をサーバ200に記録させ、必要に応じて映像データ等をサーバ200に要求して、ユーザ10に提供する。
The
また、ロボット100は、自身の感情の種類を表す感情値を持つ。例えば、ロボット100は、「喜」、「怒」、「哀」、「楽」、「快」、「不快」、「安心」、「不安」、「悲しみ」、「興奮」、「心配」、「安堵」、「充実感」、「虚無感」及び「普通」のそれぞれの感情の強さを表す感情値を持つ。ロボット100は、例えば興奮の感情値が大きい状態でユーザ10と会話するときは、早いスピードで音声を発する。このように、ロボット100は、自己の感情を行動で表現することができる。
The
また、ロボット100は、ユーザ10の感情を認識する機能を有する。ロボット100は、カメラ機能で取得したユーザ10の顔画像や、マイク機能で取得したユーザ10の音声を解析することによって、ユーザ10の感情を認識する。ロボット100は、認識したユーザ10の感情等に基づいて、ロボット100が実行する行動を決定する。例えば、ロボット100は、ユーザ10が寂しそうだと認識した場合に、ユーザ10に対して声をかける等の行動を実行する。
The
ロボット100は、ユーザ10の感情や自己の感情等に基づいてロボット100が実行する行動を定めたルールを記憶しており、ルールに従って各種の行動を行う。図2及び図3等に関連して、ルールに基づく行動の一例を概略的に説明する。
The
図2は、ロボット100がユーザ10に対して実行する行動を概略的に示す。ロボット100には、ユーザ10の感情に基づいて行動を決定するための反応ルールを有している。図示された反応ルールによると、ロボット100の感情が「普通」であり、ユーザの状態が「1人、寂しそう」という条件が満たされた場合に、ロボット100の感情が「心配になる」という感情の変化内容と、「声をかける」の行動を実行できることが定められている。ここで、行動には、ユーザ10の思いやりの強さを表す思いやりポイントが対応付けられている。
FIG. 2 schematically shows actions that the
ロボット100は、反応ルールに基づいて、ロボット100の現在の感情が「普通」であり、かつ、ユーザ10が1人で寂しそうな状態にあると認識した場合、ロボット100の「心配」の感情値を増大させる。また、ロボット100は、反応ルールで定められた「声をかける」という行動を、ユーザ10に対して実行する行動として選択する。例えば、ロボット100は、「声をかける」という行動を選択した場合に、心配していることを表す「どうしたの?」という言葉を、心配そうな音声に変換して出力する。
If the
ロボット100は、ユーザ10に音声を出力した後に、ユーザ10の感情の変化を認識する。例えば、ロボット100が「どうしたの?」という音声を出力した後に、ユーザ10が「ありがとう。大丈夫だよ!」と返答すると、ロボット100は、ユーザ10の返答を音声解析することによって、ユーザ10の感情が好転したと認識する。ロボット100は、「声をかける」という行動によって、ユーザ10の感情が好転したことから、「声をかける」という行動が思いやり度の高い行動であったと判断して、「声をかける」という行動の思いやりポイントを高める。これにより、ロボット100は、ユーザ10にとって適正な行動を学習していくことができる。
The
また、ロボット100は、この行動によって、ユーザ10からポジティブな反応が得られたことを示すユーザ反応情報を、サーバ200に送信する。ユーザ反応情報には、例えば、「一人、寂しそう」という条件、「声をかける」という行動、ユーザ10の反応がポジティブであったこと、及びユーザ10の属性が含まれる。
In addition, the
サーバ200は、ロボット100から受信したユーザ反応情報を記憶する。なお、サーバ200は、ロボット100だけでなく、ロボット101及びロボット102のそれぞれからもユーザ反応情報を受信して記憶する。そして、サーバ200は、ロボット100、ロボット101及びロボット102からのユーザ反応情報を解析して、推奨される反応ルールを生成する。
The
ロボット100は、推奨される反応ルールをサーバ200に問い合わせることにより、推奨される反応ルールをサーバ200から受信する。ロボット100は、推奨される反応ルールを、ロボット100が記憶している反応ルールに組み込む。これにより、ロボット100は、ロボット101やロボット102等が獲得した反応ルールを、自身の反応ルールに組み込むことができる。
The
図3は、ロボット100がサーバ200に記録させるデータの記録形式の切り換えを実行する場面を概略的に示す。ロボット100には、ユーザ10の感情に基づいて記録形式の切り換えを行うための記録形式切換ルールを有している。図示された記録形式切換ルールによると、「一定人数以上の家族がいる」及び「一定数以上、家族の笑顔が検出された」という条件が満たされた場合に、データの記録形式を「低圧縮形式に切り換える」という行動が定められている。
FIG. 3 schematically shows a scene in which the
ロボット100は、この記録形式切換ルールの条件が満されていない期間には、ユーザ10の骨格データ等の高圧縮データを連続的にサーバ200に送信して、サーバ200に記録させる。なお、骨格データは、ユーザの形状を表現する形状データの一例である。ロボット100は、記録形式切換ルールの条件が満たされたと判断すると、フルHDの映像データ及び音声データの送信を開始して、骨格データに加えて、フルHDの映像データ及び音声データを含む低圧縮データをサーバ200に記録させる。
The
そして、ロボット100は、ユーザ10に何か楽しい映像を提供する場合に、サーバ200にフルHDの映像データ及び音声データを送信するよう要求して、サーバ200から受信した映像データをユーザ10に提供する。これにより、ロボット100は、ユーザ10が強く思い出に残るようなシーンに遭遇した場合に、そのシーンの高画質な映像データをサーバ200に蓄積することができる。
Then, when providing the
図4は、ロボット100の機能構成を概略的に示す。ロボット100は、センサ部400と、センサモジュール部410と、格納部420と、ユーザ状態認識部430と、条件判断部434と、ユーザ反応認識部432と、行動決定部440と、感情決定部442と、ルール更新部422と、通信処理部480と、記録データ生成部470と、切換制御部477と、ラベル生成部478と、制御対象452とを有する。
FIG. 4 schematically shows a functional configuration of the
制御対象452は、表示装置、スピーカ及び目部のLED、並びに、腕、手及び足等を駆動するモータ等を含む。ロボット100の姿勢や仕草は、腕、手及び足等のモータを制御することにより制御される。ロボット100の感情の一部は、これらのモータを制御することにより表現できる。また、ロボット100の目部のLEDの発光状態を制御することによっても、ロボット100の感情の一部を表現できる。なお、ロボット100の姿勢、仕草及び表情は、ロボット100の態度の一例である。
The
センサ部400は、マイク401と、3D深度センサ402と、2Dカメラ403と、距離センサ404とを含む。マイク401は、音声を連続的に検出して音声データを出力する。なお、マイク401は、ロボット100の頭部に設けられ、バイノーラル録音を行う機能を有してよい。3D深度センサ402は、赤外線パターンを連続的に照射して、赤外線カメラで連続的に撮影された赤外線画像から赤外線パターンを解析することによって、物体の輪郭を検出する。2Dカメラ403は、イメージセンサの一例である。2Dカメラ403は、可視光によって撮影して、可視光の映像情報を生成する。距離センサは、例えばレーザや超音波等を照射して物体までの距離を検出する。なお、センサ部400は、この他にも、時計、ジャイロセンサ、タッチセンサ、モータフィードバック用のセンサ等を含んでよい。
The sensor unit 400 includes a
なお、図4に示すロボット100の構成要素のうち、制御対象452及びセンサ部400を除く構成要素は、ロボット100が有する行動制御システムが有する構成要素の一例である。ロボット100の行動制御システムは、制御対象452を制御の対象とする。
Note that, among the components of the
格納部420は、反応ルール421と、知覚確認ルール417と、意味理解ルール419と、記録形式切換ルール471と、人物DB424とを含む。格納部420の少なくとも一部は、メモリ等の記憶媒体によって実装される。人物DB424は、ユーザ10の顔画像、ユーザ10の属性情報等を格納する。なお、図4に示すロボット100の構成要素のうち、制御対象452、センサ部400及び格納部420を除く構成要素の機能は、CPUがプログラムに基づいて動作することによって実現できる。例えば、基本ソフトウエア(OS)及びOS上で動作するプログラムによって、これらの構成要素の機能をCPUの動作として実装できる。
The
センサモジュール部410は、音声感情認識部411と、発話理解部412と、表情認識部413と、顔認識部414とを含む。センサモジュール部410には、センサ部400で検出された情報が入力される。センサモジュール部410は、センサ部400で検出された情報を解析して、解析結果をユーザ状態認識部430に出力する。
The
センサモジュール部410の音声感情認識部411は、マイク401で検出されたユーザ10の音声を解析して、ユーザ10の感情を認識する。例えば、音声感情認識部411は、音声の周波数成分等の特徴量を抽出して、抽出した特徴量に基づいて、ユーザ10の感情を認識する。発話理解部412は、マイク401で検出されたユーザ10の音声を解析して、ユーザ10の発話内容を表す文字情報を出力する。
The voice
表情認識部413は、2Dカメラ403で撮影されたユーザ10の画像から、ユーザ10の表情及びユーザ10の感情を認識する。例えば、表情認識部413は、目及び口の形状、位置関係等に基づいて、ユーザ10の表情及び感情を認識する。
The facial
顔認識部414は、ユーザ10の顔を認識する。顔認識部414は、人物DB424に格納されている顔画像と、2Dカメラ403によって撮影されたユーザ10の顔画像とをマッチングすることによって、ユーザ10を認識する。
The
ユーザ状態認識部430は、ユーザ10の状態を認識する。ユーザ状態認識部430は、知覚処理部416及び意味理解部418を含む。センサモジュール部410で解析された情報は、知覚処理部416に出力される。知覚処理部416は、センサモジュール部410の解析結果及び格納部420の知覚確認ルール417を用いて、主として知覚に関する処理を行う。例えば、知覚処理部416は、「パパが1人です。」、「パパが笑顔でない確率90%です。」等の知覚情報を生成する。
The user
意味理解部418は、知覚処理部416で生成された知覚情報の意味を、格納部420の意味理解ルール419を用いて理解する処理を行う。例えば、意味理解部418は、「パパが1人、寂しそうです。」等の意味情報を生成する。なお、知覚情報や意味情報は、ユーザ10の状態を表す情報の一例である。ここで、ユーザ10の状態を表す情報とは、ユーザ10の感情を表す情報を含んでよい。
The meaning understanding unit 418 performs processing for understanding the meaning of the perceptual information generated by the
意味理解部418によって生成された意味情報は、条件判断部434、ユーザ反応認識部432及びラベル生成部478に出力される。
The semantic information generated by the semantic understanding unit 418 is output to the
条件判断部434は、意味情報と、格納部420の反応ルール421に基づいて、反応ルール421で定められている条件が満たされたことを判断する。なお、反応ルール421は、ロボット100の行動を決定するための決定情報の一例である。上述したように、反応ルール421によって、複数の行動及び複数の行動のそれぞれの思いやりポイントが対応付けられる。また、反応ルール421には、ロボット100における感情を示す感情値及びユーザ10の状態に基づいて行動を決定するための情報が含まれる。このように、格納部420は、ユーザの状態に基づいて行動を決定するための情報を記憶する行動情報記憶部の一例として機能する。
The
条件判断部434は、反応ルール421によって記憶されている条件が満たされたことを判断する。行動決定部440は、条件判断部434によって満たされたことが判断された条件に対応付けて反応ルール421で記憶されている複数の行動の中から、実行する行動を決定する。具体的には、行動決定部440は、条件判断部434によって満たされたことが判断された条件に対応付けて反応ルール421によって記憶されている複数の行動のそれぞれの思いやりポイントに基づいて、実行する行動を決定する。このように、行動決定部440は、ユーザ状態認識部430が認識したユーザ10の状態と、反応ルール421の情報とに基づいて、実行する行動を決定する。
The
感情決定部442は、意味理解部418によって生成された意味情報に基づいて、ロボット100の現在の感情を示す感情値を決定する。このように、感情決定部442は、ユーザ状態認識部430が認識したユーザの状態に基づいて、ロボット100の現在の感情を示す感情値を決定する。
The emotion determination unit 442 determines an emotion value indicating the current emotion of the
行動制御部450は、行動決定部440が決定した行動に基づいて、制御対象452を制御する。例えば、行動制御部450は、行動決定部440が発話することを決定した場合に、制御対象452に含まれるスピーカから音声を出力させる。このとき、行動制御部450は、感情決定部442が更新した感情値に基づいて、音声の発声速度を決定する。例えば、行動制御部450は、興奮の感情値が大きいほど、速い発生速度を決定する。このように、行動制御部450は、感情決定部442が決定した感情値に基づいて、行動決定部440が決定した行動の実行形態を決定する。
The
ユーザ反応認識部432は、行動決定部440が決定した行動を実行したことに対するユーザ10の感情の変化を認識する。なお、ユーザ10の感情の変化は、ユーザ10の反応の一例である。すなわち、ユーザ反応認識部432は、行動決定部440が決定した行動を実行したことに対するユーザ10の反応を認識する。なお、ユーザ反応認識部432は、ユーザ10の音声や表情に基づいて感情の変化を認識してよい。その他、ユーザ反応認識部432は、センサ部400に含まれるタッチセンサで衝撃が検出されたことに基づいて、ユーザ10の感情の変化を認識してよい。例えば、ユーザ反応認識部432は、センサ部400に含まれるタッチセンサで衝撃が検出された場合に、ユーザ10の感情が悪くなったと認識してよい。
The user
ユーザ反応認識部432によって認識されたユーザ10の反応を示す情報は、感情決定部442、通信処理部480及びラベル生成部478に出力される。上述したように、感情決定部442は、ユーザ状態認識部430によってユーザ10が寂しそうと認識された場合、反応ルール421に従って、悲しさの感情値を増大させてよい。また、ユーザ反応認識部432によって、ユーザ10が笑顔になったと認識された場合、反応ルール421によって、喜び感情値を増大させてよい。このように、感情決定部442は、ユーザ状態認識部430が認識したユーザの状態及び行動決定部440が決定した行動を実行したことに対するユーザの反応の少なくとも一方に基づいて、感情値を更新する。
Information indicating the reaction of the
また、ルール更新部422は、ユーザ反応認識部432が認識したユーザ10の感情の変化に基づいて、行動決定部440が決定した行動に対応づけて反応ルール421によって記憶されている思いやりポイントを変更する。具体的には、ルール更新部422は、ユーザ反応認識部432が認識したユーザ10の感情の変化に基づいて、条件判断部434によって満たされたことが判断された条件に対応付けて反応ルール421によって記憶されている複数の行動の思いやりポイントのうち、行動決定部440が決定した行動の思いやりポイントを変更する。例えば、ルール更新部422は、ユーザ反応認識部432によってユーザ10の感情が良くなったことが認識された場合に、条件判断部434によって満たされたことが判断された条件及び行動決定部440が決定した行動に対応付けて反応ルール421によって記憶されている思いやりポイントを大きくする。一方、ルール更新部422は、ユーザ反応認識部432によってユーザ10の感情が悪くなったことが認識された場合に、条件判断部434によって満たされたことが判断された条件及び行動決定部440が決定した行動に対応付けて反応ルール421によって記憶されている思いやりポイントを小さくする。
Also, the
通信処理部480は、サーバ200との通信を担う。上述したように、通信処理部480は、ユーザ反応情報をサーバ200に送信する。このように、通信処理部480は、ユーザ状態認識部430が認識したユーザ10の状態、行動決定部440が決定した行動、及びユーザ反応認識部432が認識したユーザ10の反応を、サーバ200に送信する。また、通信処理部480は、行動決定部440がユーザ10の状態と反応ルール421とに基づいて実行する行動を決定できなかった場合に、推奨される反応ルールをサーバ200から受信する。このように、通信処理部480は、行動決定部440がユーザ10の状態と反応ルール421とに基づいて実行する行動を決定できなかった場合に、ユーザ状態認識部430が認識したユーザ10の状態に適した行動を、サーバ200から受信する。
The
ルール更新部422は、通信処理部480がサーバ200から受信した、推奨される反応ルールに基づいて、反応ルール421を更新する。このように、ルール更新部422は、通信処理部480がサーバ200から受信した行動に基づいて、反応ルール421を更新する。
The
なお、感情決定部442は、ユーザ状態認識部430が認識したユーザ10の状態に基づいて行動決定部440がユーザに対する行動を決定できなかった場合に、悲しさの強さを表す感情値を、より大きい悲しさの強さを表す値に変更してよい。
In addition, the emotion determination part 442, when the action determination part 440 cannot determine the action with respect to the user based on the state of the
記録データ生成部470は、センサ部400によって検出された情報に基づいて、サーバ200に記録させるデータを生成する。通信処理部480は、記録データ生成部470が生成した情報を、外部のサーバに送信してサーバに記録させる。
The recording
例えば、記録データ生成部470は、3D深度センサ402により連続的に検出された骨格情報に基づいて、記録用の骨格データを連続的に生成する。また、記録データ生成部470は、2Dカメラ403によって撮影された映像情報に基づいて、記録用の映像データを生成する。例えば、記録データ生成部470は、フルHDの映像データを生成する。また、記録データ生成部470は、マイク401により連続的に検出された音声情報に基づいて、記録用の音声データを生成する。
For example, the recording
ここで、映像データは、例えばフルHDの映像データであり、骨格データより情報量が多い。したがって、骨格データは、高圧縮データとみなすことができ、映像データは、低圧縮データとみなすことができる。このように、骨格データは、第1記録形式の情報の一例であり、映像データは、第1記録形式の情報より情報量が多い第2記録形式の情報の一例である。このように、記録データ生成部470は、ユーザ10を連続的に検出するセンサによって検出された情報の少なくとも一部を連続的に処理して、第1記録形式の情報又は第1記録形式の情報より情報量が多い第2記録形式の情報を生成する。
Here, the video data is, for example, full HD video data and has a larger amount of information than the skeleton data. Therefore, the skeleton data can be regarded as high-compression data, and the video data can be regarded as low-compression data. Thus, the skeleton data is an example of information in the first recording format, and the video data is an example of information in the second recording format that has a larger amount of information than the information in the first recording format. As described above, the recording
ここで、知覚処理部416は、センサ部400によって検出された情報の少なくとも一部に基づいて、認識された家族の数及び笑顔が検出された家族の数を知覚する。上述したように、知覚処理部416は、センサ部400によって検出されたユーザ10の画像及びユーザ10の音声の少なくとも一方に基づいて、笑っているユーザを知覚する。ここで、笑顔は、ユーザ10の感情の強さを表す情報の一例である。したがって、笑顔が検出された家族の数は、複数のユーザ10のそれぞれの感情の強さの合計値の一例である。このように、知覚処理部416は、センサ部400によって検出された情報の少なくとも一部に基づいて、ユーザの感情の強さを検出する。
Here, the
そして、知覚処理部416は、記録形式切換ルール471に基づいて、一定数以上の家族が認識され、かつ、一定数以上の家族の笑顔が検出されたか否かを知覚する。そして、切換制御部477は、記録データ生成部470に骨格データを生成させている場合に、知覚処理部416によって一定数以上の家族が認識され、かつ、一定数以上の家族の笑顔が検出されたことに応じて、記録データ生成部470に映像データの生成を開始させる。このように、切換制御部477は、記録データ生成部470に第1記録形式の情報を生成させている場合に、複数のユーザ10の数が予め定められた人数を超え、かつ、検出された感情の強さの合計値が予め定められた閾値を超えたことに応じて、記録データ生成部470に生成させる情報の記録形式を、第1記録形式から、第1記録形式の情報より情報量が多い第2記録形式に切り換える。
Based on the recording
ラベル生成部478は、記録データに付帯されて記録されるラベルを生成する。ラベルは、記録データに付帯される付帯情報の一例である。ラベル生成部478は、例えば「ヨシコちゃんのお誕生日」、「ヨシコちゃんの誕生パーティー」等の言葉を含むラベルを生成する。ラベルの他の例としては、「進学祝い」、「クリスマス」及び「正月」等を例示できる。ラベル生成部478は、日時情報や、ユーザ10への質問に対してユーザ反応認識部432で認識された返答内容に基づいて、誕生日であることや誕生パーティーをしている等の状況を判断して、判断した状況に基づいてラベルを生成する。このように、ラベル生成部478は、センサ部400サで検出された情報の少なくとも一部に基づいて、現在の状況を表す1以上の言葉を含むラベルを生成する。通信処理部480は、記録データ生成部470が生成した記録データにラベル生成部478が生成したラベルを対応付けて、サーバ200に送信してサーバ200に記録させる。
The
図5は、サーバ200の機能構成を概略的に示す。サーバ200は、格納部520と、反応ルール生成部530と、反応ルール検索部540と、統計情報制御部550と、アクセス制御部560と、通信処理部580とを有する。
FIG. 5 schematically shows a functional configuration of the
格納部520には、反応ルール521、反応ルール統計情報522及び記録データ561が格納される。反応ルール521は、反応ルール421と同様の情報を含む。反応ルール統計情報522は、反応ルール421と同様の情報に加えて、ユーザ10、ユーザ11及びユーザ12の属性情報と、ポジティブな反応が得られた割合の情報を含む。記録データ561は、上述した骨格データ、映像データ及び音声データ等の、記録用のデータである。
The
通信処理部580は、ロボット100、ロボット101及びロボット102とサーバ200との間の通信を担う。通信処理部580は、ロボット100から送信されたユーザ反応情報を受信する。上述したように、ロボット101及びロボット102も、ロボット100が有する機能と同様の機能を有する。したがって、例えばロボット101は、ユーザ11に対して実行した行動に対する反応を含むユーザ反応情報を、サーバ200に送信する。通信処理部580は、ロボット101から送信されたユーザ反応情報及びロボット102から送信されたユーザ反応情報を受信する。このように、通信処理部580は、ロボット101において認識されたユーザ11の状態、ロボット101においてユーザ11の状態に基づいて決定された行動、及び当該行動が実行されたことに対するユーザ11の反応を、ロボット101から受信する。
The
統計情報制御部550は、格納部520の反応ルール統計情報522として、通信処理部580が受信したユーザ反応情報を蓄積する。このように、格納部520には、通信処理部580が受信したユーザの状態、行動、及びユーザの反応を対応づけて記憶される。統計情報制御部550に蓄積されるユーザ反応情報は、ユーザ10に関するユーザ反応情報、ユーザ11に関するユーザ反応情報及びユーザ12に関するユーザ反応情報を含む。
The statistical
反応ルール生成部530は、反応ルール統計情報522に蓄積されているユーザ反応情報に基づいて、推奨される反応ルールを生成して、反応ルール521として格納する。反応ルール統計情報522に含まれる情報に基づいて、ポジティブな反応が得られた行動を含む反応ルールを、推奨される反応ルールとして生成する。
The reaction
ここで、ロボット100が、推奨される反応ルールをサーバ200に問い合わせた場合の動作を説明する。ロボット100は、ロボット100において認識されたユーザ10の状態をサーバ200に送信することによって、推奨される反応ルールをサーバ200に問い合わせる。この場合、反応ルール検索部540は、通信処理部580が受信したユーザ10の状態によって満たされる条件を有する反応ルールを、反応ルール521及び反応ルール統計情報522の少なくとも一方から検索する。通信処理部580は、反応ルール検索部540によって検索された反応ルールを、推奨される反応ルールとしてロボット100に送信する。
Here, an operation when the
このように、反応ルール検索部540は、通信処理部580が受信したユーザ10の状態に合致する状態に対応付けて行動結果記憶部が記憶しているユーザ10の反応に基づいて、通信処理部580が受信したユーザの状態に合致する状態に対応付けて反応ルール統計情報522に記憶されている行動の中から、通信処理部580が受信したユーザ10の状態に適した行動を選択する。通信処理部580は、反応ルール検索部540が選択した行動を、ロボット100に送信する。
As described above, the reaction
アクセス制御部560は、通信処理部580がロボット100、ロボット101及びロボット102からそれぞれ受信した記録データを、格納部520の記録データ561に格納する。また、アクセス制御部560は、記録データの送信要求を通信処理部580が受信した場合、要求された記録データを記録データ561から読み出して、通信処理部580に送信させる。
The
なお、図5に示すロボット100の構成要素のうち、格納部420を除く構成要素の機能は、CPUがプログラムに基づいて動作することによって実現できる。例えば、基本ソフトウエア(OS)及びOS上で動作するプログラムによって、これらの構成要素の機能をCPUの動作として実装できる。
Of the components of the
図6は、知覚処理部416が知覚する情報を概略的に示す。知覚処理部416は、3D深度センサ402による人物検出情報601、顔認識部414による顔検出情報602及びユーザ認識情報603が入力されると、人物検出情報601、顔検出情報602及びユーザ認識情報603を統合して、知覚情報611、知覚情報612及び知覚情報613を生成する。続いて、表情認識部413からの笑顔検出情報604が入力されると、笑顔検出情報604を変換して、知覚情報614を生成する。また、知覚処理部416は、知覚情報614で知覚した笑顔でない確率の高さに基づいて、「パパもしかして寂しい?」と知覚する(知覚情報615)。
FIG. 6 schematically shows information perceived by the
ここで、知覚確認ルール417には、「もしかして寂しい?」と知覚した場合の知覚確認ルールとして、「誰かが1人」かつ「笑顔である確率が20%以下」という条件部と、「マイクから30秒、発話がないか確認する」という結論部とを持つ知覚確認ルール630が含まれている。知覚処理部416は、知覚情報613及び笑顔検出情報604から、知覚確認ルール630の条件部が満たされると判断して、知覚確認ルール630の結論部に基づいて、マイク401による検出結果の確認を実行する。具体的には、知覚処理部416は、マイク401から出力される音声を発話理解部412に解析させる。
Here, in the
ここで、発話理解部412は、マイク401によって音声が30秒間検出されなかった場合に、発話が30秒間検出されなかったことを示すタイムアウト情報を出力する。知覚処理部416は、発話理解部412からのタイムアウト情報605が入力されると、タイムアウト情報605を「パパは何も話しません。」という知覚情報616に変換する。
Here, when the voice is not detected by the
このようにして、知覚処理部416は、知覚情報611、知覚情報612、知覚情報613、知覚情報614、知覚情報615及び知覚情報616を含む知覚履歴610を生成する。知覚処理部416は、生成した知覚情報を、意味理解部418に出力する。
In this way, the
図7は、意味理解部418が理解する情報を概略的に示す。意味理解部418には、知覚処理部416が生成した知覚履歴610が入力される。意味理解部418は、知覚情報611、知覚情報612、知覚情報613、知覚情報614及び知覚情報615から、それぞれ意味情報711、意味情報712、意味情報713、意味情報714及び意味情報715を生成する。
FIG. 7 schematically shows information understood by the semantic understanding unit 418. The
なお、知覚情報614から意味情報714を生成する場合、意味理解部418は、意味理解部418は、知覚情報614に含まれる「確率90%」という数値情報を、「あまり〜でない」という情報に曖昧化する。これにより、意味理解部418は、知覚情報614を曖昧化した意味情報714を生成する。 When the semantic information 714 is generated from the perceptual information 614, the semantic understanding unit 418 converts the numerical information “probability 90%” included in the perceptual information 614 into information “not so much”. Vague. As a result, the semantic understanding unit 418 generates semantic information 714 obtained by obscuring the perceptual information 614.
ここで、意味理解ルール419には、「もしかして寂しい?」と理解した場合の意味確認ルールとして、「誰かが1人」かつ「あまり笑顔でない」かつ「何も話さない」という条件部と、「誰かが1人、寂しそう」と理解するという結論部とを持つ意味理解ルール730が含まれる。意味理解部418は、意味理解ルール730に基づいて、意味情報713、意味情報714及び知覚情報616が意味理解ルール730の条件部を満たすと判断すると、「パパが1人、寂しそうです。」という意味情報717を生成する。このように、意味理解部418は、意味理解ルール730を用いて、意味情報714及び知覚情報616を統合して意味情報717を生成する。
Here, in the meaning
このようにして、意味理解部418は、意味情報711、意味情報712、意味情報713、意味情報714、意味情報715及び意味情報717を含む意味履歴710を生成する。意味理解部418が生成した意味情報は、条件判断部434、ユーザ反応認識部432及びラベル生成部478に出力される。
In this way, the semantic understanding unit 418 generates the
図6及び図7等に関連して説明したように、知覚処理部416及び意味理解部418においては、知覚結果の正確性を失いながらも、知覚結果の意味を、パターン化した言語を用いて曖昧に記憶する。
As described with reference to FIGS. 6 and 7, the
図8は、反応ルール421に含まれる情報をテーブル形式で示す。反応ルール421は、「自己感情」及び「ユーザ状態」の条件を含む条件部と、「感情変化」及び「行動」を含む結論部と、「思いやりポイント」及び「褒められポイント」を含む「付属情報」とを含む。
FIG. 8 shows information included in the
「自己感情」の条件は、ロボット100の自己の感情に関する条件である。「ユーザ状態」は、ユーザ10の状態に関する条件である。「感情変化」は、ロボット100の感情をどのように変更させるかを示す。「行動」は、ロボット100が実行できる行動を表す。「思いやりポイント」は、ユーザ10に対する思いやりの度合いを示す。「思いやりポイント」は、適正度の一例である。
The condition of “self emotion” is a condition related to the self emotion of the
図示されるように、反応ルール421の条件部は、「普通である」という「自己感情」の条件と、「誰かが一人、寂しそう」という「ユーザ状態」とを含む。この条件部に対応する結論部には、「心配になる」という感情変化を表す「感情変化」が含まれている。また、この条件部に対応する結論部として、「声をかける」、「心配そうな仕草だけ返す」及び「挨拶をする」という行動を示す「行動」が含まれている。また、「付属情報」によって、これらの「声をかける」、「心配そうな仕草だけ返す」及び「挨拶をする」という行動に対する「思いやりポイント」として、それぞれ30ポイント、20ポイント及び10ポイントが対応付けられている。また、「付属情報」によって、これらの「声をかける」、「心配そうな仕草だけ返す」及び「挨拶をする」という行動に対する「褒められポイント」として、それぞれ50ポイント、30ポイント及び30ポイントが対応付けられている。
As shown in the figure, the condition part of the
このように、反応ルール421は、満たされるべきユーザの状態を示す条件と、条件に対応付けられた行動とを示す情報を含む。また、反応ルール421は、満たされるべきロボット100の感情を示す条件と、条件に対応付けられた行動とを示す情報を含む。また、反応ルール421は、ロボット100の感情値及びユーザ10の状態に基づいて感情値を変更するための感情変更情報を含む。そして、感情決定部442は、感情決定部442によって決定された感情値及びユーザ状態認識部430が認識したユーザ10の状態に対応付けて反応ルール421によって記憶されている感情変更情報に基づいて、感情値を更新する。
Thus, the
図9は、反応ルール421に基づく処理を概略的に示す。条件判断部434は、意味理解部418から「パパが一人、寂しそう」という意味情報717が入力されると、「パパが一人、寂しそう」というユーザ10の状態と、現在のロボット100の感情である「普通」の感情とによって満たされる条件部を、反応ルール421から検索する。
FIG. 9 schematically shows processing based on the
条件判断部434は、「パパが一人、寂しそう」というユーザ10の状態と、「普通」の感情とが、反応ルール421内の反応ルール810の条件部を満たすと判断する。これにより、行動決定部440は、反応ルール810で定められた「声をかける」、「心配そうな仕草だけ返す」及び「挨拶をする」を、行動の候補910として特定する。そして、行動決定部440は、特定した行動の候補910の中から、実際に実行する行動を選択する。例えば、行動決定部440は、思いやりポイントの大きさに応じた選択確率で、1つの行動を選択する。ここでは、行動決定部440は、「声をかける」という行動を選択したとする。
The
また、感情決定部442は、反応ルール810で定められた「心配になる」という感情の変化内容に基づいて、感情値を更新する。例えば、感情決定部442は、心配さの強さを表す「心配」の感情値を増大させる。このように、感情決定部442は、反応ルール421に基づいて、ユーザ状態認識部430が認識したユーザ10の状態に基づいて、感情値を更新する。例えば、感情決定部442は、ユーザ状態認識部430によってユーザ10が寂しさを感じている状態にあると認識された場合に、心配の強さを表す感情値を、より大きい心配の強さを表す値に変更する。
In addition, the emotion determination unit 442 updates the emotion value based on the emotional change content “being worried” determined by the
続いて、行動制御部450は、「どうしたの?」という発話内容の音声を、制御対象452のスピーカから出力させる。このとき、行動制御部450は、現在の感情値に基づいて、心配そうな感情を表す音声特性を持つ音声を出力させる。例えば、スピードが比較的に遅い音声を生成させる。なお、行動制御部450は、「心配になる」という感情に基づいて、「どうしたの?」という発話内容を決定してよい。
Subsequently, the
続いて、ユーザ反応認識部432は、ユーザ10の反応が検出されるのを待つ。例えば、「大丈夫だよ。ありがとう!」という音声や、そのときのユーザ10の顔の表情に基づいて、「パパは少し笑顔です。」という意味情報940が意味理解部418から出力されると、ユーザ反応認識部432は、ユーザ10が「寂しそう」な感情から「楽しそう」な感情に変化したと判断する。これにより、ルール更新部422は、「声をかける」という行動によってユーザ10の感情が良くなったと判断する。これにより、「声をかける」という行動の思いやりポイントを、30ポイントから40ポイントに増加させる。また、ルール更新部422は、褒められポイントを50ポイントから60ポイントに増加させる。
Subsequently, the user
また、感情決定部442は、ロボット100が実行した行動によってユーザ10の感情が良くなったことから、喜びの感情値を増大させる。また、行動制御部450は、増大させた喜びの感情値に基づいて、喜ばしい感情になったことを動作で表現する。例えば、行動制御部450は、喜びを表す仕草を行わせる。
In addition, the emotion determination unit 442 increases the emotion value of joy because the emotion of the
また、通信処理部480は、反応ルール810に含まれる情報のうち「思いやりポイント」及び「褒められポイント」を除く情報と、ユーザ10の反応がポジティブであったことを示す情報と、「パパ」として認識されたユーザ10の属性とを含むユーザ反応情報960を、サーバ200に送信する。
The
このように、行動決定部440は、感情決定部442によって決定された感情値、ユーザ状態認識部430が認識したユーザの状態及び反応ルール421に基づいて、実行される行動を決定する。具体的には、行動決定部440は、条件判断部434によって満たされたことが判断された条件に対応付けて反応ルール421によって記憶されている複数の行動の中から、条件判断部434によって満たされたことが判断された条件に対応付けて反応ルール421によって記憶されている思いやりポイントがより高い行動を、実行する行動としてより高い頻度で決定する。なお、行動決定部440は、思いやりポイントが最大の行動を、実際に実行する行動として選択してよい。この場合において、思いやりポイントが最大の行動が複数存在する場合、行動決定部440は、思いやりポイントが最大の複数の行動の中から、実際に実行する1つの行動をランダムに選択してよい。この場合に、行動決定部440は、褒められポイントに応じた選択確率で、実際に実行する1つの行動を選択してもよい。
As described above, the action determination unit 440 determines an action to be executed based on the emotion value determined by the emotion determination unit 442, the user state recognized by the user
図10は、ロボット100において行動を決定する動作に関する動作フローの一例を概略的に示す。図10に示す動作フローは、例えば、ユーザ10の感情を含む意味情報が入力された場合に開始される。なお、動作フロー中の「S」は、実行されるステップを表す。
FIG. 10 schematically shows an example of an operation flow related to an action of determining an action in the
条件判断部434は、反応ルール421が含む条件部のうち、ロボット100の感情と、入力された意味情報とによって満される条件部を検索する(S1002)。条件判断部434は、条件部が満たされた反応ルールの有無を判断する(S1004)。条件部が満たされた反応ルールが存在すると判断した場合、行動決定部440は、検索された反応ルールの結論部で定められた行動の中から、ユーザ10に対して実行する1つの行動を選択する(S1006)。また、感情決定部442は、検索された反応ルールの結論部で定められた感情変化に基づいて、感情値を更新する(S1008)。
The
続いて、行動制御部450は、S1006で選択された行動を実行するよう、制御対象452を制御する(S1010)。このとき、行動制御部450は、S1008で更新された後の感情値に基づいて、制御対象452を制御する。例えば、「心配」の感情を表す場合、行動制御部450は、ロボット100の姿勢が心配そうな姿勢になるように、制御対象452を制御する。
Subsequently, the
続いて、ユーザ反応認識部432は、ユーザ10の反応を表す意味情報が入力されるのを監視する(S1012)。ユーザ10の反応を表す意味情報が入力されると、ユーザ反応認識部432は、入力された意味情報に基づいて、ユーザの反応がポジティブであるか否かを判断する(S1016)。
Subsequently, the user
S1016の判断において、反応がポジティブであると判断した場合、感情決定部442は、「喜び」の感情値を増加させる(S1018)。また、ルール更新部422は、実行した行動に対応する思いやりポイント及び褒められポイントを増大させる。一方、S1016の判断において、ネガティブな反応が得られた場合、感情決定部442は、「悲しみ」の感情値を増加させる(S1022)。また、ルール更新部422は、実行した行動に対応する思いやりポイント及び褒められポイントを減少させる(S1024)。
If it is determined in S1016 that the reaction is positive, the emotion determination unit 442 increases the emotion value of “joy” (S1018). Also, the
このように、ルール更新部422は、ユーザ反応認識部432が認識したユーザの反応が不良でなかった場合に、条件判断部434によって満たされたことが判断された条件及び行動決定部440が決定した行動に対応付けて反応ルール421によって記憶されている思いやりポイントを増大させる。一方、ユーザ反応認識部432が認識したユーザの反応が不良であった場合、ルール更新部422は、条件判断部434によって満たされたことが判断された条件及び行動決定部440が決定した行動に対応付けて反応ルール421によって記憶されている思いやりポイントを減少させる。
As described above, the
また、行動制御部450は、行動決定部440が決定した行動を感情に応じて決定した実行形態で実行した後、感情決定部442は、当該行動が実行されたことに対するユーザの反応に基づいて、感情値を更に変化させる。具体的には、感情決定部442は、行動決定部440が決定した行動を行動制御部450が決定した実行形態でユーザに対して行ったことに対するユーザの反応が不良でなかった場合に、喜びの強さを表す感情値を、より大きい喜びの強さを表す値に変更する。また、感情決定部442は、行動決定部440が決定した行動を行動制御部450が決定した実行形態でユーザに対して行ったことに対するユーザの反応が不良であった場合に、悲しさの強さを表す感情値を、より大きい悲しさの強さを表す値に変更する。
In addition, after the
行動制御部450は、S1018又はS1022で決定した感情値に基づいて、ロボット100の感情を表現する(S1026)。例えば、行動制御部450は、「喜び」の感情値を増加させた場合、制御対象452を制御して、ロボット100に喜んだ仕草を行わせる。また、行動制御部450は、「悲しみ」の感情値を増加させた場合、ロボット100の姿勢がうなだれた姿勢になるように、制御対象452を制御する。続いて、通信処理部480は、ユーザ反応情報をサーバ200に送信し(S1028)、ロボット100の動作の決定に関する動作を終了する。
The
なお、S1004の判断において、条件部が満たされた反応ルールが存在しなかったと判断された場合、通信処理部480は、サーバ200に対して、推奨される反応ルールの問い合わせを行う。例えば、ロボット100の感情を示す情報、入力された意味情報で表されるユーザの状態を示す情報、及び、ユーザ10の属性を示す情報を、サーバ200に送信する(S1030)。サーバ200からは、問い合わせで送信した情報に適した反応ルールが、推奨される反応ルールとしてロボット100に送信される。通信処理部480がサーバ200から推奨される反応ルールを受信すると、ルール更新部422は、推奨される反応ルールを反応ルール421に組み込んで(S1032)、S1006に移行する。この場合、S1006及びS1008では、サーバ200から受信した反応ルールに基づいて、行動の選択及び感情値の更新を行う。このように、通信処理部480は、条件判断部434によって反応ルール421に含まれるいずれの条件も満たされていないことが判断された場合に、ユーザ状態認識部430が認識したユーザの状態に適した行動を、サーバ200から受信する。
If it is determined in S1004 that there is no reaction rule that satisfies the condition part, the
なお、本動作フローによれば、条件部が満たされた反応ルールが存在しなかった場合に、推奨される反応ルールの問い合わせを行う。なお、条件部が満たされた反応ルールが存在した場合でも、どの行動に対応付けられている思いやりポイントも予め定められた値より小さい場合には、行動を決定できないと判断してよい。この場合に、通信処理部480は、推奨される反応ルールの問い合わせを行ってよい。すなわち、行動決定部440は、決定情報に含まれる情報のうち条件判断部434によって満たされたことが判断された条件に対応付けられた1以上の行動のうち、決定情報に含まれる思いやりポイントが予め定められた値より高い行動を、実行する行動として決定する。通信処理部480は、条件判断部434によって満たされたことが判断された条件に対応付けられた1以上の行動の思いやりポイントが、いずれも予め定められた値以下である場合に、ユーザ状態認識部430が認識したユーザ10の状態に適した行動を、サーバ200から受信してよい。そして、ルール更新部422は、条件判断部434によって満たされたことが判断された条件に対応付けて、通信処理部480がサーバ200から受信した行動を反応ルールに追加してよい。
According to this operation flow, when there is no reaction rule that satisfies the condition part, an inquiry about a recommended reaction rule is performed. Note that even when there is a reaction rule that satisfies the condition part, it may be determined that the action cannot be determined if the consideration point associated with any action is smaller than a predetermined value. In this case, the
なお、推奨される反応ルールの問い合わせは、行動決定部440が行動を決定できない場合の他に、バッチ処理等で定期的に行ってもよい。また、推奨される反応ルールの問い合わせは、ユーザ10が睡眠していると判断した場合や、ロボット100がアイドル状態またはスリープ状態に遷移した場合に行ってよい。その他、ロボット100が行動しようとする任意のタイミングで、推奨される反応ルールの問い合わせを行ってよい。
In addition, the inquiry of the recommended reaction rule may be periodically performed by batch processing or the like in addition to the case where the behavior determination unit 440 cannot determine the behavior. The inquiry of the recommended reaction rule may be performed when it is determined that the
また、反応ルール421は、ユーザ10に対して実行するべき行動が検索されなかった場合の行動を定めたルールを有してよい。例えば、反応ルール421は、「ユーザ10に対して実行するべき行動が検索されなかった」という条件を定めた条件部と、「推奨される反応ルールをサーバ200に問い合わせる」という行動を定めた結論部とを含むルールを有してよい。これにより、行動決定部440は、反応ルール421に従って、推奨される反応ルールをサーバ200に問い合わせすることを決定してよい。
Further, the
図11は、サーバ200が格納している反応ルール統計情報522の一例を示す。反応ルール統計情報522は、「反応ルール」、「属性」、「人数」及び「反応結果」を含む。「反応ルール」は、「条件部」、「結論部」及び「思いやりポイント」を含む。反応ルール統計情報522の「条件部」、「結論部」及び「思いやりポイント」には、反応ルール421の「条件部」、「結論部」及び「思いやりポイント」に対応する情報が格納される。
FIG. 11 shows an example of the reaction rule
反応ルール統計情報522の「属性」には、ユーザ10の属性が格納される。ユーザ10の属性には、年齢層、性別、又は家庭内での役割、住んでいる地域の情報等を含む。「人数」には、反応ルール統計情報522に蓄積されている情報に寄与した人の数が格納される。「反応結果」には、ポジティブな反応があった回数と、ポジティネガティブな反応があった回数とを示す情報が格納される。
In the “attribute” of the reaction rule
通信処理部580がロボット100からユーザ反応情報を受信した場合、統計情報制御部550は、ユーザ反応情報に含まれる属性に合致する属性に対応付けて、ユーザ反応情報に含まれる反応ルールの「条件部」及び「結論部」を、反応ルール統計情報522に格納する。また、統計情報制御部550は、ユーザ反応情報に含まれる反応の良否情報に基づいて、「ポジティブ回数」の値又は「ネガティブ回数」の値をインクリメントする。また、統計情報制御部550は、必要に応じて「人数」の値をインクリメントする。例えば、今回受信したユーザ反応情報が、過去において反応ルール統計情報522の同一レコードにユーザ反応情報を反映したことがあるユーザのユーザ反応情報である場合、「人数」の値をインクリメントしない。
When the
また、統計情報制御部550は、推奨される思いやりポイントを算出して、「反応ルール」の「思いやりポイント」に格納する。例えば、統計情報制御部550は、「ポジティブ回数」の値が大きいほど、推奨される思いやりポイントとしてより大きい値を算出する。具体的には、統計情報制御部550は、「ネガティブ回数」の値に対する「ポジティブ回数」の値の比が大きいほど、推奨される思いやりポイントとしてより大きい値を算出してよい。
Further, the statistical
通信処理部580がロボット100から推奨される反応ルールの問い合わせを受信した場合、反応ルール検索部540は、反応ルール521に格納されている反応ルールの中から、推奨される反応ルールを検索する。例えば、反応ルール検索部540は、反応ルール521から、問い合わせに含まれる「条件部」に合致する「条件部」を有する反応ルールを検索する。反応ルール検索部540によって検索された反応ルールは、問い合わせに対する応答として、通信処理部580からロボット100に送信される。
When the
なお、反応ルール検索部540は、反応ルール統計情報522に格納されている反応ルールの中から、推奨される反応ルールを検索してよい。具体的には、反応ルール検索部540は、反応ルール統計情報522に格納されている反応ルールのうち、問い合わせに含まれる「条件部」に合致する「条件部」を有し、かつ、問い合わせに含まれる「属性」に合致する「属性」を有する反応ルールを検索してよい。これにより、サーバ200は、ユーザ10の属性に適した行動をロボット100に提供できる。
The reaction
なお、図12の例では、反応ルール統計情報522では、ユーザの属性毎に反応結果が集計されている。反応ルール統計情報の他の例としては、反応結果がユーザ別に集計されていてよい。
In the example of FIG. 12, in the reaction rule
図12は、記録データに付帯されるラベルを決定するためにロボット100が実行する行動を概略的に示す。行動決定部440は、日時情報及びユーザ10の属性情報に基づいて、ユーザ10の誕生日であることが判断された場合、誕生日であるか否かをユーザ10に確認するために質問することを決定する。この場合、行動制御部450は、例えば「○○さん、今日は誕生日だね。お誕生日おめでとう!」という発話内容の音声を、制御対象452のスピーカから出力させる。
FIG. 12 schematically shows actions performed by the
その後、ユーザ反応認識部432は、ユーザ10の発話内容から、ユーザ10の反応が肯定的であったか否定的であったかを認識する。例えば、ユーザ10が「ありがとう、嬉しいよ!」という返答をした場合、ユーザ反応認識部432は、ユーザ10の反応が肯定的であったと認識する。認識されたユーザ10の名前が「ヨシコちゃん」であった場合、ラベル生成部478は、「ヨシコちゃんの誕生日」というラベルを生成する。
Thereafter, the user
ラベル生成部478は、認識されたユーザ10の名前を示す情報と、「ヨシコちゃんの誕生日」という情報とを含むラベルを、記録データに付帯するラベルとして生成する。通信処理部480は、3D深度センサ402で取得された骨格情報に基づく骨格データに、ラベル生成部478が生成したラベルを付帯した記録データを、サーバ200に連続的に送信する。サーバ200においては、ロボット100から受信した記録データを、格納部520の記録データ561に格納する。
The
意味理解部418において、3D深度センサ402から取得された骨格情報に基づく現在の骨格データによって、現在認識されている人数を算出する。また、過去の同じ時間帯に取得された骨格データをサーバ200から取得して、過去の同じ時間帯に同じ室内で認識された人数の平均値を算出する。ここで、意味理解部418は、現在認識されている人数が、過去の同じ時間帯に同じ室内で認識された人数の平均値より予め定められた閾値以上多いと認識した場合に、いつもと違う状況であると認識する。また、意味理解部418は、過去の同じ時間帯に取得された骨格データに付帯されたラベルと、現在認識されているユーザ10とを比較して、いつもは家にいないユーザ10が現在認識されていると判断した場合に、いつもと違う状況であると認識する。なお、行動制御部450は、いつもと違う状況であると認識した場合、センサ部400やセンサモジュール部410を制御して、より詳細な検出動作を行うように制御してよい。例えば、行動制御部450は、発話理解部412に対して、より高い精度で発話内容を認識するよう制御してよい。また、音声感情認識部411に対して、より高い精度で感情を認識するよう制御してよい。また、表情認識部413に対して、より高い精度で表情を認識するよう制御してよい。
The semantic understanding unit 418 calculates the number of people currently recognized based on the current skeleton data based on the skeleton information acquired from the
意味理解部418によっていつもと違う状況であると認識された場合、行動決定部440は、ユーザ10に状況を確認するために質問することを決定する。例えば、「ヨシコちゃんの誕生日」というラベルが決定されている場合において、沢山の人が認識されていると判断した場合には、行動制御部450は、「ヨシコちゃんの誕生パーティーをするの?」という発話内容の音声を、制御対象452のスピーカから出力させる。
When the meaning understanding unit 418 recognizes that the situation is different from the usual situation, the behavior determination unit 440 determines to ask the
この場合に、ユーザ反応認識部432は、ユーザ10の発話内容から、ユーザ10の反応が肯定的であったか否定的であったかを認識する。例えば、ユーザ10が「そうだよ!」という返答をした場合、ユーザ反応認識部432は、ユーザ10の反応が肯定的であったと認識する。この場合、ラベル生成部478は、「ヨシコちゃんの誕生パーティー」というラベルを生成する。なお、「ヨシコちゃんの誕生日」や「ヨシコちゃんの誕生パーティー」というラベルは、ユーザ10の現在の状況を表すラベルの一例である。
In this case, the user
このように、ロボット100は、センサ部400で検出された情報の少なくとも一部に基づいて、現在の状況を確認するためにユーザ10と対話を行う。そして、ラベル生成部478は、ユーザ10との対話結果に基づいて、ユーザ10の現在の状況を決定して、決定した情報に基づいて、ユーザ10の現在の状況を表す1以上の文字情報を含むラベルを生成する。
As described above, the
図13は、記録形式切換ルール471の一例を示す。記録形式切換ルール471は、「一定数以上の家族が前にいる」かつ「一定数以上、家族の笑顔が検出された」という条件を定めた条件部と、「低圧縮の記録形式に切り換える」という行動を定めた結論部とを有するルール1300が含まれる。また、記録形式切換ルール471には、「前にいる家族が一定数未満になった」かつ「一定数以上、家族の怒りが検出された」という条件を定めた条件部と、「高圧縮の記録形式に切り換える」という行動を定めた結論部とを有するルールが含まれる。
FIG. 13 shows an example of the recording
なお、「一定数」の値は、1つの家族に属する人数が多いほど、大きくてよい。例えば、4人家族である場合、「一定数」の値は3であってよい。5人家族である場合、「一定数」の値は4であってよい。また、「一定数」の値には、意味理解部418で認識されるユーザ10の数の履歴に基づいて決定されてよい。例えば、5人家族であっても、意味理解部418で4人しか認識されないことが多い場合は、「一定数」の値として3を決定してよい。
Note that the value of the “certain number” may be larger as the number of members belonging to one family increases. For example, in the case of a family of four, the “certain number” value may be three. In the case of a family of five, the “certain number” value may be four. Further, the value of “a certain number” may be determined based on the history of the number of
図14は、記録形式の切り換えに関する動作フローの一例を概略的に示す。本動作フローは、記録データ生成部470が高圧縮形式の記録データの生成を開始した場合に開始される。
FIG. 14 schematically shows an example of an operation flow relating to switching of recording formats. This operation flow is started when the recording
S1402において、知覚処理部416は、センサ部400及びセンサモジュール部410が出力する情報に基づいて、特定の家族に属するユーザ10の数と、笑顔度が予め定められた値を超えているユーザ10の数の検出とを開始する。ここで、知覚処理部416は、センサ部400及びセンサモジュール部410が出力する情報に基づいて存在が認識されたユーザのうち、人物DB424に家族として登録されているユーザ10の数を数える。また、知覚処理部416は、笑顔度が予め定められた値を超えているユーザのうち、人物DB424に家族として登録されているユーザ10の数を数える。
In S1402, the
S1404において、切換制御部477は、記録形式を低圧縮形式に切り換えることを定めたルール1300の条件部が満たされたか否かを判断する。ルール1300の条件部が満たされたと判断された場合、行動制御部450は、「楽しそうだから撮っておきますね!」という発話内容の音声を制御対象452のスピーカから出力させる(S1406)。これにより、映像を記録することをユーザ10に通知する。
In step S <b> 1404, the switching
S1408において、切換制御部477は、ユーザ10から否定的な反応があったか否かを判断する。例えば、切換制御部477は、ユーザ10の音声から否定的な語句が認識されなかった場合に、ユーザ10から否定的な反応がなかったと判断する。ユーザ10から否定的な反応がなかったと判断した場合、切換制御部477は、記録データ生成部470を制御して、骨格データに加えて、フルHDの映像データ及び音声データの生成を開始させる(S1410)。このようにして、切換制御部477は、記録形式を高圧縮形式から低圧縮形式に切り換わる。S1408の判断において、ユーザ10から否定的な反応があったと判断した場合、予め定められたウェイト時間が経過してから(S1420)、S1404に処理を移行する。
In step S <b> 1408, the switching
S1410で低圧縮形式に切り換えた後、S1412において、高圧縮形式に切り換えることを定めたルール1310の条件部が満たされたか否かを判断する。ルール1310の条件部が満たされたと判断された場合、切換制御部477は、記録形式を低圧縮形式から高圧縮形式に切り換える(S1414)。S1412の判断において、ルール1310の条件部が満たされていないと判断された場合、ルール1310の条件部が満たされるまで、S1412の判断を繰り返す。
After switching to the low compression format in S1410, it is determined in S1412 whether or not the condition part of the
なお、S1412のルール1310に基づく判断の他、「記録を終了して」等のように、低圧縮形式による記録の停止を指示する発話が認識された場合にも、記録形式を低圧縮形式から高圧縮形式に切り換えてよい。また、記録形式を低圧縮形式に切り換えた後、予め定められた最大記録時間が経過した場合に、記録形式を低圧縮形式から高圧縮形式に切り換えてもよい。
In addition to the determination based on the
なお、切換制御部477は、笑顔の数に限らず、ユーザ10の感情の強さが激しく変化したことに応じて、記録形式を切り換えてよい。例えば、切換制御部477は、センサ部400に含まれるタッチセンサで予め定められた値より強い衝撃が検出された場合に、記録形式を低圧縮形式に切り換えてよい。
It should be noted that the switching
なお、ロボット100は、行動制御システムを備える電子機器の一例である。行動制御システムの適用対象は、ロボット100に限られず、様々な電子機器に行動制御システムを適用できる。また、サーバ200の機能は、1以上のコンピュータによって実装されてよい。サーバ200の少なくとも一部の機能は、仮想マシンによって実装されてよい。また、サーバ200の機能の少なくとも一部は、クラウドで実装されてよい。
The
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。 As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above-described embodiment. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.
特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階などの各処理の実行順序は、特段「より前に」、「先立って」などと明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」などを用いて説明したとしても、この順で実施することが必須であることを意味するものではない。 The order of execution of each process such as operations, procedures, steps, and stages in the apparatus, system, program, and method shown in the claims, the description, and the drawings is particularly “before” or “prior to”. It should be noted that it can be realized in any order unless the output of the previous process is used in the subsequent process. Regarding the operation flow in the claims, the description, and the drawings, even if it is described using “first,” “next,” etc. for convenience, it means that it is essential to carry out in this order. It is not a thing.
5 システム
10、11、12 ユーザ
20 通信網
100、101、102 ロボット
200 サーバ
400 センサ部
401 マイク
402 3D深度センサ
403 2Dカメラ
404 距離センサ
410 センサモジュール部
411 音声感情認識部
412 発話理解部
413 表情認識部
414 顔認識部
416 知覚処理部
417 知覚確認ルール
418 意味理解部
419 意味理解ルール
420 格納部
421 反応ルール
422 ルール更新部
424 人物DB
430 ユーザ状態認識部
432 ユーザ反応認識部
434 条件判断部
440 行動決定部
442 感情決定部
450 行動制御部
452 制御対象
470 記録データ生成部
471 記録形式切換ルール
477 切換制御部
478 ラベル生成部
480 通信処理部
520 格納部
521 反応ルール
522 反応ルール統計情報
530 反応ルール生成部
540 反応ルール検索部
550 統計情報制御部
560 アクセス制御部
561 記録データ
580 通信処理部
601 人物検出情報
602 顔検出情報
603 ユーザ認識情報
604 笑顔検出情報
605 タイムアウト情報
610 知覚履歴
611、612、613、614、615、616 知覚情報
630 知覚確認ルール
710 意味履歴
711、712、713、714、715、717 意味情報
730 意味理解ルール
810 反応ルール
910 候補
940 意味情報
960 ユーザ反応情報
1300、1310 ルール
5
430 User
Claims (11)
ユーザの状態を認識するユーザ状態認識部と、
前記ユーザ状態認識部が認識した前記ユーザの状態と、前記決定情報とに基づいて、実行する行動を決定する行動決定部と、
前記行動決定部が決定した行動を実行したことに対する前記ユーザの反応を認識する反応認識部と、
前記ユーザ状態認識部が認識した前記ユーザの状態、前記行動決定部が決定した行動、及び前記反応認識部が認識した前記ユーザの反応を、外部のサーバに送信する送信部と、
前記行動決定部が前記ユーザの状態と前記決定情報とに基づいて実行する行動を決定できなかった場合に、前記ユーザ状態認識部が認識した前記ユーザの状態に適した行動を、前記サーバから受信する受信部と、
前記受信部が前記サーバから受信した行動に基づいて、前記決定情報を更新する行動情報更新部と
を備える行動制御システム。 An action information storage unit for storing determination information for determining an action based on a user's state;
A user state recognition unit for recognizing the user state;
An action determination unit that determines an action to be executed based on the user state recognized by the user state recognition unit and the determination information;
A reaction recognition unit for recognizing the user's response to the execution of the action determined by the action determination unit;
A transmission unit that transmits the user status recognized by the user status recognition unit, the behavior determined by the behavior determination unit, and the user response recognized by the reaction recognition unit to an external server;
When the action determining unit fails to determine an action to be executed based on the user state and the determination information, the action suitable for the user state recognized by the user state recognizing unit is received from the server. A receiving unit to
A behavior control system comprising: a behavior information update unit that updates the determination information based on a behavior received by the reception unit from the server.
前記感情決定部が決定した前記感情値に基づいて、前記行動決定部が決定した行動の実行形態を決定する行動制御部と
を更に備える請求項1に記載の行動制御システム。 An emotion determination unit that determines an emotion value indicating a current emotion of the system based on the state of the user recognized by the user state recognition unit;
The behavior control system according to claim 1, further comprising a behavior control unit that determines an execution form of the behavior determined by the behavior determination unit based on the emotion value determined by the emotion determination unit.
前記受信部は、前記行動決定部が前記ユーザの状態と前記決定情報とに基づいて実行する行動を決定できなかった場合に、前記ユーザ状態認識部が認識した前記ユーザの状態及び前記ユーザの属性に適した行動を、前記サーバから受信する
請求項1または2に記載の行動制御システム。 The transmission unit further transmits the attribute of the user to the server,
The reception unit is configured to recognize the user status and the user attribute recognized by the user status recognition unit when the behavior determination unit cannot determine an action to be executed based on the user status and the determination information. The behavior control system according to claim 1, wherein a behavior suitable for the operation is received from the server.
前記行動制御システムは、
前記ユーザ状態認識部が認識した前記ユーザの状態に基づいて、前記決定情報に含まれる前記条件が満たされているか否かを判断する条件判断部
を更に備え、
前記受信部は、前記条件判断部によって前記決定情報に含まれるいずれの条件も満たされていないことが判断された場合に、前記ユーザ状態認識部が認識した前記ユーザの状態に適した行動を、前記サーバから受信する
請求項1から3のいずれか1項に記載の行動制御システム。 The decision information includes information indicating a condition indicating a state of a user to be satisfied when performing the action, and an action associated with the condition,
The behavior control system includes:
A condition determination unit that determines whether the condition included in the determination information is satisfied based on the state of the user recognized by the user state recognition unit;
When the condition determining unit determines that none of the conditions included in the determination information is satisfied, the receiving unit performs an action suitable for the user state recognized by the user state recognizing unit, The behavior control system according to claim 1, which is received from the server.
前記行動決定部は、前記決定情報に含まれる情報のうち前記条件判断部によって満たされたことが判断された条件に対応付けられた前記1以上の行動のうち、前記決定情報に含まれる適正度が予め定められた値より高い行動を、実行する行動として決定し、
前記受信部は、前記条件判断部によって満たされたことが判断された前記条件に対応付けられた前記1以上の行動の適正度が、いずれも前記予め定められた値以下である場合に、前記ユーザ状態認識部が認識した前記ユーザの状態に適した行動を、前記サーバから受信する
請求項4に記載の行動制御システム。 The determination information includes information indicating the appropriateness of each of the one or more actions,
The degree of appropriateness included in the determination information among the one or more actions associated with the condition determined to be satisfied by the condition determination unit among the information included in the determination information. Determines an action that is higher than a predetermined value as an action to be executed,
The receiving unit, when the appropriateness of the one or more actions associated with the condition determined to be satisfied by the condition determining unit is less than or equal to the predetermined value, The behavior control system according to claim 4, wherein a behavior suitable for the state of the user recognized by the user state recognition unit is received from the server.
請求項5に記載の行動制御システム。 The said action information update part is matched with the said condition judged that the said condition judgment part was satisfy | filled, The action which the said receiving part received from the said server is added to the said determination information. Behavior control system.
請求項5または6に記載の行動制御システム。 The behavior information update unit is configured to determine the condition determined by the condition determination unit and the action determined by the behavior determination unit when the user's response recognized by the reaction recognition unit is poor. The behavior control system according to claim 5 or 6, wherein the degree of appropriateness stored in the determination information is reduced in association with the action information.
前記サーバと
を備えるシステム。 A plurality of behavior control systems according to any one of claims 1 to 7,
A system comprising the server.
前記ユーザ反応受信部が受信した前記ユーザの状態、前記行動、及び前記ユーザの反応を対応づけて記憶する行動結果記憶部と、
第2の行動制御システムにおいて認識されたユーザの状態を、前記第2の行動制御システムから受信するユーザ状態受信部と、
前記ユーザ状態受信部が受信した前記ユーザの状態に合致する状態に対応付けて前記行動結果記憶部が記憶している前記ユーザの反応に基づいて、前記ユーザ状態受信部が受信した前記ユーザの状態に合致する状態に対応付けて前記行動結果記憶部が記憶している前記行動の中から、前記ユーザ状態受信部が受信した前記ユーザの状態に適した行動を選択する行動選択部と、
前記行動選択部が選択した行動を、前記第2の行動制御システムに送信する送信部と
を備えるサーバ。 The state of the user recognized in the first behavior control system, the behavior determined based on the state of the user in the first behavior control system, and the user's reaction to the execution of the behavior, A user response receiver that receives from the first behavior control system;
An action result storage unit that stores the state of the user, the action, and the reaction of the user received by the user reaction reception unit;
A user status receiving unit that receives the status of the user recognized in the second behavior control system from the second behavior control system;
The state of the user received by the user state reception unit based on the reaction of the user stored in the action result storage unit in association with a state that matches the state of the user received by the user state reception unit An action selection unit that selects an action suitable for the state of the user received by the user state reception unit from the behaviors stored in the action result storage unit in association with a state that matches
A server comprising: a transmission unit that transmits the behavior selected by the behavior selection unit to the second behavior control system.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015053473A JP6053847B2 (en) | 2014-06-05 | 2015-03-17 | Action control system, system and program |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014116432 | 2014-06-05 | ||
JP2014116432 | 2014-06-05 | ||
JP2015053473A JP6053847B2 (en) | 2014-06-05 | 2015-03-17 | Action control system, system and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016012341A true JP2016012341A (en) | 2016-01-21 |
JP6053847B2 JP6053847B2 (en) | 2016-12-27 |
Family
ID=55228986
Family Applications (4)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015053475A Expired - Fee Related JP6058053B2 (en) | 2014-06-05 | 2015-03-17 | Recording control system, system and program |
JP2015053473A Active JP6053847B2 (en) | 2014-06-05 | 2015-03-17 | Action control system, system and program |
JP2015053472A Active JP6351528B2 (en) | 2014-06-05 | 2015-03-17 | Behavior control system and program |
JP2015053474A Active JP6328580B2 (en) | 2014-06-05 | 2015-03-17 | Behavior control system and program |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015053475A Expired - Fee Related JP6058053B2 (en) | 2014-06-05 | 2015-03-17 | Recording control system, system and program |
Family Applications After (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015053472A Active JP6351528B2 (en) | 2014-06-05 | 2015-03-17 | Behavior control system and program |
JP2015053474A Active JP6328580B2 (en) | 2014-06-05 | 2015-03-17 | Behavior control system and program |
Country Status (1)
Country | Link |
---|---|
JP (4) | JP6058053B2 (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017170404A1 (en) * | 2016-03-30 | 2017-10-05 | 光吉 俊二 | Intention emergence device, intention emergence method, and intention emergence program |
JP2017188097A (en) * | 2016-03-30 | 2017-10-12 | 光吉 俊二 | Intention creation device, intention creation method, and intention creation program |
JP2019003283A (en) * | 2017-06-12 | 2019-01-10 | シャープ株式会社 | Information processing device, control method of information processing device, and program for allowing computer as information processing device |
JP2019008113A (en) * | 2017-06-23 | 2019-01-17 | カシオ計算機株式会社 | Electronic apparatus, emotion information acquisition system, program and emotion information acquisition method |
WO2020012982A1 (en) * | 2018-07-10 | 2020-01-16 | ソニー株式会社 | Management device and method, control device and method, and management system |
EP3677392A1 (en) * | 2018-12-24 | 2020-07-08 | LG Electronics Inc. | Robot and method of controlling the same |
WO2020213244A1 (en) * | 2019-04-16 | 2020-10-22 | ソニー株式会社 | Information processing device, information processing method, and program |
Families Citing this family (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6199927B2 (en) * | 2015-06-17 | 2017-09-20 | Cocoro Sb株式会社 | Control system, system and program |
WO2017130649A1 (en) * | 2016-01-26 | 2017-08-03 | インターマン株式会社 | Autonomous robot |
JP6726388B2 (en) | 2016-03-16 | 2020-07-22 | 富士ゼロックス株式会社 | Robot control system |
JP6267846B2 (en) * | 2016-03-31 | 2018-01-24 | Cocoro Sb株式会社 | Customer service control system, customer service system and program |
US9751212B1 (en) * | 2016-05-05 | 2017-09-05 | Toyota Jidosha Kabushiki Kaisha | Adapting object handover from robot to human using perceptual affordances |
WO2018006371A1 (en) * | 2016-07-07 | 2018-01-11 | 深圳狗尾草智能科技有限公司 | Method and system for synchronizing speech and virtual actions, and robot |
CN106182032B (en) * | 2016-08-24 | 2018-11-13 | 陈中流 | One kind is accompanied and attended to robot |
JP6933455B2 (en) | 2016-09-29 | 2021-09-08 | 株式会社東芝 | Interest maintenance system and server |
CN107053191B (en) | 2016-12-31 | 2020-05-08 | 华为技术有限公司 | Robot, server and man-machine interaction method |
JP6712961B2 (en) * | 2017-03-15 | 2020-06-24 | 日立グローバルライフソリューションズ株式会社 | Communication system and communication control device |
JP6637917B2 (en) * | 2017-03-16 | 2020-01-29 | 株式会社日立製作所 | Education support system and education support method |
JP6891601B2 (en) * | 2017-03-31 | 2021-06-18 | 富士通株式会社 | Robot control programs, robot devices, and robot control methods |
JP7146373B2 (en) * | 2017-07-13 | 2022-10-04 | 雅美 田嶋 | Customer service system |
JP7085788B2 (en) * | 2017-09-12 | 2022-06-17 | 達闥機器人股▲分▼有限公司 | Robot dynamic learning methods, systems, robots and cloud servers |
WO2019064650A1 (en) * | 2017-09-28 | 2019-04-04 | 三菱自動車工業株式会社 | Information transfer support system for vehicle |
CN109635616B (en) * | 2017-10-09 | 2022-12-27 | 阿里巴巴集团控股有限公司 | Interaction method and device |
JP2019197509A (en) * | 2018-05-11 | 2019-11-14 | フューブライト・コミュニケーションズ株式会社 | Nursing-care robot, nursing-care robot control method and nursing-care robot control program |
JP7101815B2 (en) * | 2018-12-19 | 2022-07-15 | 本田技研工業株式会社 | Guidance robot control device, guidance system using it, and guidance robot control method |
JP7273637B2 (en) * | 2019-07-17 | 2023-05-15 | 本田技研工業株式会社 | ROBOT MANAGEMENT DEVICE, ROBOT MANAGEMENT METHOD AND ROBOT MANAGEMENT SYSTEM |
WO2024071165A1 (en) * | 2022-09-29 | 2024-04-04 | 日東電工株式会社 | Robot, learning device, control method, and program |
WO2024071164A1 (en) * | 2022-09-29 | 2024-04-04 | 日東電工株式会社 | Robot, learning device, control method, and program |
WO2024071171A1 (en) * | 2022-09-29 | 2024-04-04 | 日東電工株式会社 | Robot, learning device, control method, and program |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008123332A (en) * | 2006-11-14 | 2008-05-29 | Mitsubishi Electric Corp | Information processor, information processing method, and program |
JP2013027937A (en) * | 2011-07-26 | 2013-02-07 | Fujitsu Ltd | Robot controller, robot system, method for controlling behavior of robot apparatus, and program |
JP2013237124A (en) * | 2012-05-15 | 2013-11-28 | Fujitsu Ltd | Terminal device, method for providing information, and program |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11126017A (en) * | 1997-08-22 | 1999-05-11 | Sony Corp | Storage medium, robot, information processing device and electronic pet system |
JP3125746B2 (en) * | 1998-05-27 | 2001-01-22 | 日本電気株式会社 | PERSON INTERACTIVE DEVICE AND RECORDING MEDIUM RECORDING PERSON INTERACTIVE PROGRAM |
JP2001212783A (en) * | 2000-02-01 | 2001-08-07 | Sony Corp | Robot device and control method for it |
JP2002049385A (en) * | 2000-08-07 | 2002-02-15 | Yamaha Motor Co Ltd | Voice synthesizer, pseudofeeling expressing device and voice synthesizing method |
JP2002261966A (en) * | 2000-09-08 | 2002-09-13 | Matsushita Electric Works Ltd | Communication support system and photographing equipment |
JP2002116792A (en) * | 2000-10-11 | 2002-04-19 | Sony Corp | Robot controller and method for robot control and recording medium |
JP2002137182A (en) * | 2000-10-31 | 2002-05-14 | Yamaha Motor Co Ltd | Operation content deciding device |
JP2002239256A (en) * | 2001-02-14 | 2002-08-27 | Sanyo Electric Co Ltd | Emotion determination device in automatic response toy and automatic response toy |
JP2002268663A (en) * | 2001-03-08 | 2002-09-20 | Sony Corp | Voice synthesizer, voice synthesis method, program and recording medium |
JP2003181784A (en) * | 2001-12-19 | 2003-07-02 | Sanyo Electric Co Ltd | Automatic answering robot |
JP2003274360A (en) * | 2002-03-14 | 2003-09-26 | Sony Corp | Apparatus and method for imaging, and device and system for imaging management |
JP2004066367A (en) * | 2002-08-05 | 2004-03-04 | Mitsubishi Heavy Ind Ltd | Action pattern formation device, action pattern formation method, and action pattern formation program |
JP2005044330A (en) * | 2003-07-24 | 2005-02-17 | Univ Of California San Diego | Weak hypothesis generation device and method, learning device and method, detection device and method, expression learning device and method, expression recognition device and method, and robot device |
JP4244812B2 (en) * | 2004-01-16 | 2009-03-25 | ソニー株式会社 | Action control system and action control method for robot apparatus |
JP2005222331A (en) * | 2004-02-05 | 2005-08-18 | Ntt Docomo Inc | Agent interface system |
JP2005238422A (en) * | 2004-02-27 | 2005-09-08 | Sony Corp | Robot device, its state transition model construction method and behavior control method |
JP4368316B2 (en) * | 2005-03-02 | 2009-11-18 | シャープ株式会社 | Content viewing system |
JP2011119963A (en) * | 2009-12-03 | 2011-06-16 | Seiko Epson Corp | Imaging apparatus and imaging method |
JP2011201002A (en) * | 2010-03-26 | 2011-10-13 | Sony Corp | Robot device, method and program of remote control of the robot device |
JP6157838B2 (en) * | 2012-11-13 | 2017-07-05 | シャープ株式会社 | Action control device, action control method, and control program |
-
2015
- 2015-03-17 JP JP2015053475A patent/JP6058053B2/en not_active Expired - Fee Related
- 2015-03-17 JP JP2015053473A patent/JP6053847B2/en active Active
- 2015-03-17 JP JP2015053472A patent/JP6351528B2/en active Active
- 2015-03-17 JP JP2015053474A patent/JP6328580B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008123332A (en) * | 2006-11-14 | 2008-05-29 | Mitsubishi Electric Corp | Information processor, information processing method, and program |
JP2013027937A (en) * | 2011-07-26 | 2013-02-07 | Fujitsu Ltd | Robot controller, robot system, method for controlling behavior of robot apparatus, and program |
JP2013237124A (en) * | 2012-05-15 | 2013-11-28 | Fujitsu Ltd | Terminal device, method for providing information, and program |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017170404A1 (en) * | 2016-03-30 | 2017-10-05 | 光吉 俊二 | Intention emergence device, intention emergence method, and intention emergence program |
JP2017188097A (en) * | 2016-03-30 | 2017-10-12 | 光吉 俊二 | Intention creation device, intention creation method, and intention creation program |
CN108885711A (en) * | 2016-03-30 | 2018-11-23 | 株式会社日本数理研究所 | The meaning emerges in large numbers device, meaning emergence and the meaning and emerges in large numbers program |
US10325616B2 (en) | 2016-03-30 | 2019-06-18 | Japan Mathematical Institute Inc. | Intention emergence device, intention emergence method, and intention emergence program |
TWI722160B (en) * | 2016-03-30 | 2021-03-21 | 光吉俊二 | Meaning creation device, meaning creation method and meaning creation program |
CN108885711B (en) * | 2016-03-30 | 2022-09-20 | 株式会社日本数理研究所 | Intention emergence device, intention emergence method, and storage medium |
JP2019003283A (en) * | 2017-06-12 | 2019-01-10 | シャープ株式会社 | Information processing device, control method of information processing device, and program for allowing computer as information processing device |
JP2019008113A (en) * | 2017-06-23 | 2019-01-17 | カシオ計算機株式会社 | Electronic apparatus, emotion information acquisition system, program and emotion information acquisition method |
JP7073640B2 (en) | 2017-06-23 | 2022-05-24 | カシオ計算機株式会社 | Electronic devices, emotion information acquisition systems, programs and emotion information acquisition methods |
WO2020012982A1 (en) * | 2018-07-10 | 2020-01-16 | ソニー株式会社 | Management device and method, control device and method, and management system |
EP3677392A1 (en) * | 2018-12-24 | 2020-07-08 | LG Electronics Inc. | Robot and method of controlling the same |
WO2020213244A1 (en) * | 2019-04-16 | 2020-10-22 | ソニー株式会社 | Information processing device, information processing method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP6053847B2 (en) | 2016-12-27 |
JP6351528B2 (en) | 2018-07-04 |
JP2016012340A (en) | 2016-01-21 |
JP6328580B2 (en) | 2018-05-23 |
JP2016012342A (en) | 2016-01-21 |
JP6058053B2 (en) | 2017-01-11 |
JP2016012914A (en) | 2016-01-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6053847B2 (en) | Action control system, system and program | |
US20210335342A1 (en) | Detection and/or enrollment of hot commands to trigger responsive action by automated assistant | |
US10486312B2 (en) | Robot, robot control method, and robot system | |
US10270736B2 (en) | Account adding method, terminal, server, and computer storage medium | |
EP3631793B1 (en) | Dynamic and/or context-specific hot words to invoke automated assistant | |
KR20210008521A (en) | Dynamic and/or context-specific hot words to invoke automated assistants | |
JP2019534492A (en) | Interpretation device and method (DEVICE AND METHOD OF TRANSLATING A LANGUAGE INTO ANOTHER LANGUAGE) | |
KR20160011620A (en) | Systems and methods for interactive synthetic character dialogue | |
US11367443B2 (en) | Electronic device and method for controlling electronic device | |
US11267121B2 (en) | Conversation output system, conversation output method, and non-transitory recording medium | |
JP2014191029A (en) | Voice recognition system and method for controlling voice recognition system | |
US11789695B2 (en) | Automatic adjustment of muted response setting | |
CN110188364B (en) | Translation method, device and computer readable storage medium based on intelligent glasses | |
CN111556999B (en) | Method, computer device and computer readable storage medium for providing natural language dialogue by providing substantive answer in real time | |
KR20230087577A (en) | Control Playback of Scene Descriptions | |
CN111557001B (en) | Method for providing natural language dialogue, computer device and computer readable storage medium | |
KR20200051173A (en) | System for providing topics of conversation in real time using intelligence speakers | |
WO2019202804A1 (en) | Speech processing device and speech processing method | |
US20220328033A1 (en) | Road map for audio presentation of communications | |
KR20200040625A (en) | An electronic device which is processing user's utterance and control method thereof | |
US11150923B2 (en) | Electronic apparatus and method for providing manual thereof | |
US11269590B2 (en) | Audio presentation of conversation threads | |
JP7474211B2 (en) | Dialogue program, device and method for forgetting nouns spoken by a user | |
JP2020077272A (en) | Conversation system and conversation program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20151203 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20160425 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20161101 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20161129 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6053847 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |