JP2013208681A - Interaction device and interaction control program - Google Patents

Interaction device and interaction control program Download PDF

Info

Publication number
JP2013208681A
JP2013208681A JP2012080610A JP2012080610A JP2013208681A JP 2013208681 A JP2013208681 A JP 2013208681A JP 2012080610 A JP2012080610 A JP 2012080610A JP 2012080610 A JP2012080610 A JP 2012080610A JP 2013208681 A JP2013208681 A JP 2013208681A
Authority
JP
Japan
Prior art keywords
behavior
interaction
definition information
unit
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012080610A
Other languages
Japanese (ja)
Other versions
JP5910249B2 (en
Inventor
Ichiro Watanabe
一郎 渡辺
Takeshi Imai
岳 今井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2012080610A priority Critical patent/JP5910249B2/en
Publication of JP2013208681A publication Critical patent/JP2013208681A/en
Application granted granted Critical
Publication of JP5910249B2 publication Critical patent/JP5910249B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To realize purposeful interaction while maintaining a communication atmosphere with a person without using a fixed scenario.SOLUTION: An interaction device includes: an output device outputting a plurality of behaviors; a detection part detecting a state relating to the interaction between a person and the output device; a database registering behavior definition information including a trigger condition showing a condition that outputs the behavior in the output device and category information showing a category of state change of the person that can be generated by the output of the behavior; a retrieval section retrieving, from the database as a behavior candidate, behavior definition information that satisfies the trigger condition by the state detected by the detection part according to an instruction specifying the purpose of approach to the person, the behavior definition information including the category information showing the state change of a predetermined category; a selection part selecting one from the behavior candidates; and a control part executing the behavior corresponding to the selected behavior definition information by the selection part.

Description

本件開示は、人物との間で言語および非言語によるコミュニケーションを行うインタラクション装置およびインタラクション制御プログラムに関する。   The present disclosure relates to an interaction device and an interaction control program that perform communication in a language and non-language with a person.

インタラクション装置の一つであるコミュニケーションロボットは、音声と身振りなどのジェスチャーとの少なくとも一方を含む様々なふるまいを実行することにより、人物との間でコミュニケーションを行う機能を有する。このようなコミュニケーションロボットを、例えば、高齢者などの見守りに利用する技術が提案されている。   A communication robot, which is one of interaction devices, has a function of performing communication with a person by executing various behaviors including at least one of voice and gestures such as gestures. Techniques have been proposed in which such communication robots are used for watching, for example, elderly people.

コミュニケーションロボットが人物との交流を進める過程で、時々刻々と変化する状況に合ったふるまいを実行させる手法として、例えば、様々な状況を想定したシナリオに従って、複数のふるまいを組み合わせる手法が提案されている(特許文献1参照)。   In the process of communication robots interacting with people, a method that combines multiple behaviors according to scenarios that assume various situations, for example, has been proposed as a way to execute behaviors that match the situation that changes from moment to moment. (See Patent Document 1).

特開2002−120174号公報Japanese Patent Laid-Open No. 2002-120174

上述した特許文献1の技法によれば、生き物の形態を模したコミュニケーションロボットに、生き物らしいふるまいをさせながら、見守り対象の人物に対して目的を持った働きかけをするインタラクションサービスのためのシナリオを作成することが可能である。   According to the technique of Patent Document 1 described above, a scenario is created for an interaction service in which a communication robot that imitates the form of a living creature behaves like a living thing, and has a purposeful approach to a person to be watched over. Is possible.

しかしながら、予め作成されたシナリオに基づいてコミュニケーションロボットが動作する場合には、互いに類似した状況において、互いに類似したサービスを実行させようとすれば、コミュニケーションロボットが実行するふるまいは同じになってしまう。コミュニケーションロボットが、このような画一化したふるまいを繰り返すと、コミュニケーションロボット自体が、見守り対象の人物に飽きられてしまう可能性がある。そして、その場合には、見守り対象の人物とコミュニケーションロボットとのインタラクションである相互作用が成り立たなくなってしまうおそれがある。   However, when the communication robot operates based on a scenario created in advance, the behavior executed by the communication robot will be the same if an attempt is made to execute services similar to each other in a situation similar to each other. If the communication robot repeats such uniform behavior, the communication robot itself may be bored with the person being watched over. In that case, there is a possibility that the interaction that is the interaction between the person to be watched over and the communication robot may not be realized.

類似した複数の状況を互いに区別するとともにコミュニケーションロボットが実行するふるまいに変化を持たせるために、膨大な場合分けを含む緻密なシナリオを予め作成しておけば、上述したような画一化を避けることが可能である。しかしながら、そのような緻密なシナリオを作成することは非常に困難である。   In order to distinguish multiple similar situations from each other and to change the behavior performed by the communication robot, if a precise scenario including a huge number of cases is created in advance, the above-mentioned uniformization is avoided. It is possible. However, it is very difficult to create such a detailed scenario.

本件開示は、固定したシナリオを用いることなく、人物との交流の雰囲気を維持しながら目的を持った働きかけを継続的に実現可能なインタラクション装置およびインタラクション制御プログラムを提供することを目的とする。   An object of the present disclosure is to provide an interaction device and an interaction control program capable of continuously realizing a purposeful action while maintaining an atmosphere of interaction with a person without using a fixed scenario.

一つの観点によるインタラクション装置は、音声と動作との少なくとも一方を含む複数のふるまいを出力する出力装置と、前記出力装置による働きかけを受ける人物と前記出力装置との間の相互作用に関する状況を検知する検知部と、前記各ふるまいに対応して、当該ふるまいを前記出力装置に出力させる条件を示す契機条件と、当該ふるまいの出力によって引き出すことが可能な前記人物の状態変化の種類を示す種類情報とを含むふるまい定義情報を登録するデータベースと、前記複数種類の状態変化の少なくとも一つの発生を前記人物に対する働きかけの目的として指定する指示に応じて、前記検知部で検知された状況によって前記契機条件が満たされているふるまい定義情報であって、かつ、前記指定された種類の状態変化を示す種類情報を含むふるまい定義情報を、ふるまい候補として前記データベースから検索する検索部と、前記ふるまい候補の中から一つを選択する選択部と、前記選択部によって選択された前記ふるまい定義情報に対応するふるまいを前記出力装置に実行させる制御部とを備える。   An interaction device according to one aspect detects an output device that outputs a plurality of behaviors including at least one of sound and action, and a situation related to an interaction between a person who is acted on by the output device and the output device. Corresponding to each behavior, a trigger condition that indicates a condition for causing the output device to output the behavior, and type information that indicates a type of state change of the person that can be extracted by the output of the behavior The trigger condition is determined according to a situation detected by the detection unit in response to an instruction that specifies at least one occurrence of the plurality of types of state changes as a purpose of acting on the person. The type of behavior definition information that is satisfied and that indicates the state change of the specified type A search unit that searches the database for behavior definition information including information, a selection unit that selects one of the behavior candidates, and a behavior corresponding to the behavior definition information selected by the selection unit And a control unit that causes the output device to execute.

また、別の観点によるインタラクション制御プログラムは、出力装置が音声と動作との少なくとも一方を含むふるまいを出力することによって行った働きかけを受ける人物と、前記出力装置との間の相互作用に関する状況を検知し、前記出力装置によって出力可能な各ふるまいに対応して、当該ふるまいを前記出力装置に出力させる条件を示す契機条件と、当該ふるまいの出力によって引き出すことが可能な前記人物の状態変化の種類を示す種類情報とを含むふるまい定義情報を登録するデータベースから、前記複数種類の状態変化の少なくとも一つの発生を前記人物に対する働きかけの目的として指定する指示に応じて、前記検知部で検知された状況によって前記契機条件が満たされているふるまい定義情報であって、かつ、前記指定された種類の状態変化を示す種類情報を含むふるまい定義情報を検索し、検索結果として得られたふるまい定義情報の中から一つを選択し、選択した前記ふるまい定義情報に対応するふるまいを前記出力装置に実行させる処理をコンピュータに実行させる。   An interaction control program according to another aspect detects a situation related to an interaction between an output device and a person subjected to an action performed by outputting a behavior including at least one of voice and action. Then, corresponding to each behavior that can be output by the output device, the trigger condition indicating the condition for causing the output device to output the behavior, and the type of state change of the person that can be extracted by the output of the behavior From the database for registering the behavior definition information including the type information to be indicated, depending on the situation detected by the detection unit in response to an instruction specifying at least one occurrence of the plurality of types of state changes as the purpose of acting on the person Behavior definition information that satisfies the trigger condition, and the specified information Search the behavior definition information including the type information indicating the status change of the type, select one of the behavior definition information obtained as a search result, and send the behavior corresponding to the selected behavior definition information to the output device. Causes the computer to execute the process to be executed.

本件開示のインタラクション装置およびインタラクション制御プログラムによれば、固定したシナリオを用いることなく、人物との交流の雰囲気を維持しながら目的を持った働きかけを継続的に実現することができる。   According to the interaction device and the interaction control program of the present disclosure, it is possible to continuously achieve a purposeful action while maintaining an atmosphere of exchange with a person without using a fixed scenario.

インタラクション装置の一実施形態を示す図である。It is a figure which shows one Embodiment of an interaction apparatus. ふるまい定義情報の例を示す図である。It is a figure which shows the example of behavior definition information. 目的の達成に寄与するふるまいの例を示す図である。It is a figure which shows the example of the behavior which contributes to achievement of the objective. インタラクション装置の別実施形態を示す図である。It is a figure which shows another embodiment of an interaction apparatus. インタラクション装置の別実施形態を示す図である。It is a figure which shows another embodiment of an interaction apparatus. 各ふるまい候補について算出される合成期待度の例を示す図である。It is a figure which shows the example of the synthetic | combination expectation degree calculated about each behavior candidate. インタラクション装置の別実施形態を示す図である。It is a figure which shows another embodiment of an interaction apparatus. 状況テーブルの例を示す図である。It is a figure which shows the example of a situation table. ふるまい定義情報の別例を示す図である。It is a figure which shows another example of behavior definition information. 興味度UILの時間変化の例を示す図である。It is a figure which shows the example of the time change of the interest degree UIL. インタラクション装置の別実施形態を示す図である。It is a figure which shows another embodiment of an interaction apparatus. インタラクション装置のハードウェア構成例を示す図である。It is a figure which shows the hardware structural example of an interaction apparatus. 状況を検知する処理のフローチャートの例を示す図である。It is a figure which shows the example of the flowchart of the process which detects a condition. ふるまいを制御する処理のフローチャートの例を示す図である。It is a figure which shows the example of the flowchart of the process which controls behavior. ふるまいを選択する処理のフローチャートの例を示す図である。It is a figure which shows the example of the flowchart of the process which selects behavior. 期待度を更新する処理のフローチャートの例を示す図である。It is a figure which shows the example of the flowchart of the process which updates an expectation degree.

以下、図面に基づいて、本発明の実施形態について詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は、インタラクション装置の一実施形態を示している。図1に例示したインタラクション装置10は、別の場所にあるコンピュータ装置などの上位装置(図示せず)から受け取った指示Dirに応じて、利用者Uに対する働きかけを行う。   FIG. 1 shows an embodiment of an interaction device. The interaction device 10 illustrated in FIG. 1 acts on the user U in response to an instruction Dir received from a host device (not shown) such as a computer device at another location.

このインタラクション装置10は、出力装置11と、検知部12と、データベース13と、検索部14と、選択部15と、制御部16とを含んでいる。検索部14は、指示Dirで指定された目的と、検知部12が後述するようにして検知する状況とに基づいて、データベース13を検索する。検索によって検索部14が得たふるまいは、インタラクション装置10と利用者Uとの間のインタラクションのために、インタラクション装置10が利用者Uに対する働きかけとして実行するふるまいの候補となる。選択部15は、検索部14によって得られたふるまい候補の中から一つを選択し、制御部16を介して出力装置11に、選択したふるまいを出力させる。   The interaction device 10 includes an output device 11, a detection unit 12, a database 13, a search unit 14, a selection unit 15, and a control unit 16. The search unit 14 searches the database 13 based on the purpose specified by the instruction Dir and the situation detected by the detection unit 12 as described later. The behavior obtained by the retrieval unit 14 by the retrieval is a candidate of behavior to be executed by the interaction device 10 as an action for the user U for the interaction between the interaction device 10 and the user U. The selection unit 15 selects one of the behavior candidates obtained by the search unit 14 and causes the output device 11 to output the selected behavior via the control unit 16.

また、図1に示したセンサ部SDは、例えば、温度センサや湿度センサおよび明るさセンサを含んでいる。このセンサ部SDは、出力装置11および利用者Uの周囲の気温や湿度、明るさなど、出力装置11と利用者Uとの相互作用がどのような環境において行われているかを示す様々な要素に関する計測値を取得する。   The sensor unit SD illustrated in FIG. 1 includes, for example, a temperature sensor, a humidity sensor, and a brightness sensor. The sensor unit SD includes various elements that indicate in which environment the interaction between the output device 11 and the user U is performed, such as the temperature, humidity, and brightness around the output device 11 and the user U. Get the measured value for.

出力装置11は、音声と動作との少なくとも一方を含む複数のふるまいを、利用者Uに対する働きかけとして出力する機能を有する。この出力装置11は、例えば、熊などの生き物の形態を模したコミュニケーションロボットのように、利用者Uによって、自律的な個体として認識される存在であることが望ましい。また、出力装置11は、CG(Computer Graphics)キャラクタなどを表示する表示装置でもよい。なお、以下の説明では、コミュニケーションロボットを単にロボットと称する。また、出力装置11がロボットである場合に、出力装置11は、働きかけの相手である利用者Uの様子を観測するための観測機器として、カメラやマイクロホンおよび接触センサなどを搭載していることが望ましい。   The output device 11 has a function of outputting a plurality of behaviors including at least one of voice and operation as an action for the user U. The output device 11 is desirably an entity that is recognized as an autonomous individual by the user U, such as a communication robot that imitates the form of a creature such as a bear. The output device 11 may be a display device that displays a CG (Computer Graphics) character or the like. In the following description, the communication robot is simply referred to as a robot. Further, when the output device 11 is a robot, the output device 11 is equipped with a camera, a microphone, a contact sensor, and the like as observation equipment for observing the state of the user U who is a work partner. desirable.

検知部12は、出力装置11と利用者Uとの間の相互作用に関する状況を検知する。検知部12は、相互作用に関する状況を表すインタラクション情報の一部として、例えば、出力装置11に搭載された観測機器で得られた利用者Uの状況に関する計測値とともに、上述したセンサ部SDで得られた各計測値を取得する。また、検知部12は、インタラクション情報の一部として、出力装置11から、この出力装置11の内部状態を示す情報を取得する。出力装置11の内部状態とは、出力装置11が個々のふるまいを実行する過程で集積されるパラメータの集まりで表される。例えば、出力装置11が生き物を模したロボットである場合に、出力装置11の内部状態は、このロボットの感情や利用者Uへのなつき度合いなど、このロボットの個性や自律性を示すパラメータ群によって表すことができる。   The detection unit 12 detects a situation related to the interaction between the output device 11 and the user U. The detection unit 12 obtains, as part of the interaction information indicating the situation regarding the interaction, for example, the sensor unit SD described above together with the measurement value regarding the situation of the user U obtained by the observation device mounted on the output device 11. Obtain each measured value. Moreover, the detection part 12 acquires the information which shows the internal state of this output device 11 from the output device 11 as some interaction information. The internal state of the output device 11 is represented by a set of parameters accumulated in the process of the output device 11 performing individual behavior. For example, when the output device 11 is a robot simulating a living creature, the internal state of the output device 11 depends on a parameter group indicating the individuality and autonomy of the robot, such as the emotion of the robot and the degree of familiarity with the user U. Can be represented.

データベース13は、出力装置11によって出力可能な各ふるまいを定義するふるまい定義情報を、例えば、個々のふるまいに与えた識別番号に対応して登録している。各ふるまい定義情報は、当該ふるまいを出力装置11に出力させる条件を示す契機条件を含んでいる。また、各ふるまい定義情報は、ふるまいの出力によって引き出すことが可能な利用者Uの状態変化の種類を示す種類情報と、各状態変化が発生する可能性の高さを示す期待度を含んでいる。   The database 13 registers behavior definition information that defines each behavior that can be output by the output device 11, for example, corresponding to an identification number assigned to each behavior. Each behavior definition information includes a trigger condition indicating a condition for causing the output device 11 to output the behavior. Further, each behavior definition information includes type information indicating the type of state change of the user U that can be extracted by the output of the behavior, and an expectation degree indicating the high possibility of occurrence of each state change. .

ここで、利用者Uの状態は、例えば、他者に対して興味を持っている度合いを示す興味度や、利用者Uが活動的である度合いを示す活動度や、利用者Uの感情表現の豊かさを示す情動度などを含む複数の指標値によって表すことが可能である。また、利用者Uが他者に対して示す興味度は、例えば、利用者Uが出力装置11として機能するロボットに対してどの程度興味を持っているかに基づいて推定することが可能である。そして、利用者Uの状態変化は、例えば、これらの指標値の少なくとも一つの値が変化することとして表れる。つまり、上述した興味度、活動度、情動度を含む各指標値の変化は、それぞれ利用者Uの状態変化の一例である。   Here, the state of the user U is, for example, an interest level indicating a degree of interest in another person, an activity level indicating a level of the user U being active, or an emotional expression of the user U. It can be expressed by a plurality of index values including the emotional level indicating the richness of the image. In addition, the degree of interest that the user U shows to others can be estimated based on, for example, how much the user U is interested in the robot functioning as the output device 11. The state change of the user U appears, for example, as a change in at least one of these index values. That is, the change of each index value including the above-described degree of interest, activity, and emotion is an example of a change in the state of the user U.

また、出力装置11によって実行させる個々のふるまいを設計する設計者は、それぞれのふるまいの実行により、上述した指標値の少なくとも一つについて、好ましい方向への変化を起こさせることを狙って、個々のふるまいを設定することもできる。なお、指標値の好ましい方向への変化とは、例えば、上述した活動度、興味度および情動度では、これらの指標値の値を上昇させる方向の変化である。したがって、ふるまいの設計者は、個々のふるまいをデータベース13に登録する際に、当該ふるまいによって変化することが期待できる指標値の種類を示す指標値名を、当該ふるまいの種類情報として、対応するふるまい定義情報に設定してもよい。   In addition, the designer who designs each behavior to be executed by the output device 11 aims to cause a change in a preferable direction for at least one of the above-described index values by executing each behavior. You can also set the behavior. Note that the change in the index value in the preferred direction is, for example, a change in the direction in which the value of the index value is increased in the above-described activity level, interest level, and emotion level. Therefore, when a behavior designer registers each behavior in the database 13, the behavior value corresponding to an index value name indicating the type of the index value that can be expected to change according to the behavior is used as the corresponding behavior type information. It may be set in the definition information.

なお、データベース13への種類情報の設定は、後述するような実験結果に基づいて行うこともできる。例えば、個々のふるまいによる働きかけを様々な人物に対して行った際に、例えば、上述した興味度、活動度および情動度を上昇させるような変化が発生した回数や、各指標値の上昇幅などを調べる実験を行うことにより、各ふるまいによって変化することが期待できる指標値を高い精度で特定することができる。また、このような実験結果に基づいて、個々のふるまいの実行によって利用者Uに働きかけを行った際に、各指標値が上昇する可能性の高さを見積もることができる。各ふるまい定義情報において、種類情報ごとに設定される期待度の値は、上述したような実験結果に基づいて例えば数値「0」〜数値「1」の範囲で特定してもよいし、また、ふるまいの設計者が経験に基づいて予想した値を設定してもよい。   The setting of the type information in the database 13 can also be performed based on experimental results as described later. For example, the number of changes that increase the interest level, activity level, and emotional level described above, and the amount of increase in each index value, etc. By conducting an experiment for examining the index value, it is possible to specify with high accuracy an index value that can be expected to change depending on each behavior. Further, based on such experimental results, it is possible to estimate the high possibility that each index value will increase when the user U is acted upon by executing individual behaviors. In each behavior definition information, the value of the expectation set for each type information may be specified in the range of numerical value “0” to numerical value “1” based on the experimental result as described above, The value predicted by the behavior designer based on experience may be set.

また、各ふるまい定義情報において、利用者Uの状態を示す各指標値に対応して、当該ふるまいの実行によって各指標値を変化させる可能性の高さを示す期待度を設定してもよい。この場合に、期待度が「0」である場合は、対応する指標値を変化させる可能性がないことを示し、期待度が数値「1」に近づくほど、対応する指標値が高い確度で変化することを示す。   Further, in each behavior definition information, an expectation level indicating a high possibility of changing each index value by executing the behavior may be set corresponding to each index value indicating the state of the user U. In this case, when the degree of expectation is “0”, it indicates that there is no possibility of changing the corresponding index value, and as the degree of expectation approaches the numerical value “1”, the corresponding index value changes with higher accuracy. Indicates to do.

また、上述した指示Dirによって指定された目的が、上述した興味度、活動度および情動度を含む各指標値の好ましい方向への変化で示される利用者Uの状態変化である場合に、上述した種類情報は、個々のふるまいが達成可能な目的を示している。また、各ふるまい定義情報において、各指標値に対応する期待度は、当該ふるまいを実行することによって、それぞれの指標値についての目的が達成される度合いを示している。   Further, when the purpose specified by the above-described instruction Dir is a change in the state of the user U indicated by a change in each index value including the degree of interest, the degree of activity, and the degree of emotion described above in a preferable direction, the above-described case is described. The type information indicates the purpose that the individual behavior can achieve. In each behavior definition information, the expectation level corresponding to each index value indicates the degree to which the purpose for each index value is achieved by executing the behavior.

図2は、ふるまい定義情報の一例を示している。図2に例示したふるまい定義情報は、識別番号「13」およびふるまい名「さわやかな挨拶」で特定されるふるまいについてのふるまい定義情報である。   FIG. 2 shows an example of behavior definition information. The behavior definition information illustrated in FIG. 2 is behavior definition information regarding the behavior specified by the identification number “13” and the behavior name “fresh greeting”.

このふるまい定義情報は、ふるまい「さわやかな挨拶」として、図1に示した出力装置11が出力する音声メッセージや動作を示すふるまい内容「Def13」を含んでいる。ふるまい内容「Def13」は、例えば、音声メッセージの内容あるいは音声データのファイル名や、身振りを実現するための個々の動作を記述した情報を含んでいる。   This behavior definition information includes a behavior message “Def13” indicating the voice message output by the output device 11 shown in FIG. 1 and the operation as the behavior “refreshing greeting”. The behavior content “Def13” includes, for example, the content of the voice message or the file name of the voice data, and information describing individual operations for realizing gestures.

また、ふるまい定義情報は、ふるまい「さわやかな挨拶」を出力する契機を指定する契機条件「C1 AND C2 AND C3」を含んでいる。なお、図2に示した符号C1,C2,C3のそれぞれは、例えば、図1に示した検知部12によって検知可能なパラメータの値の範囲を示し、演算子「AND」は、論理積演算を示している。このように、各ふるまいに対応する契機条件は、一つのパラメータの範囲あるいは複数のパラメータの範囲相互についての関係を示す論理式として示すことができる。このような論理式により、例えば、「利用者Uが出力装置11からの働きかけが可能な位置におり、気温および湿度から算出される不快指数が閾値以下であり、周囲の明るさが閾値以上である」ときのように、複雑な契機条件を示すことができる。   Further, the behavior definition information includes a trigger condition “C1 AND C2 AND C3” that specifies a trigger for outputting the behavior “refreshing greeting”. Each of the symbols C1, C2, and C3 shown in FIG. 2 indicates, for example, a range of parameter values that can be detected by the detection unit 12 shown in FIG. 1, and the operator “AND” performs an AND operation. Show. As described above, the trigger condition corresponding to each behavior can be expressed as a logical expression indicating a relationship between one parameter range or a plurality of parameter ranges. According to such a logical expression, for example, “the user U is in a position where the user can act from the output device 11, the discomfort index calculated from the temperature and humidity is equal to or lower than the threshold value, and the ambient brightness is equal to or higher than the threshold value. Complex trigger conditions can be shown as when

更に、図2に示したふるまい定義情報は、ふるまい「さわやかな挨拶」によって引き出すことが可能な利用者Uの状態変化の種類と、それぞれに対応する期待度を含んでいる。図2において、符号AILは、状態変化「利用者Uの活動度を上昇させる」の達成についての期待度を示し、符号EILは、状態変化「利用者Uの情動度を上昇させる」の達成についての期待度を示す。また、符号IILは、状態変化「利用者Uの興味度を上昇させる」の達成についての期待度を示している。   Furthermore, the behavior definition information shown in FIG. 2 includes the types of state changes of the user U that can be extracted by the behavior “refreshing greeting” and the expectation level corresponding to each. In FIG. 2, symbol AIL indicates the degree of expectation for achievement of the state change “increases the activity level of the user U”, and symbol EIL indicates the achievement of the state change “increase the emotion level of the user U”. Indicates the expected degree of. Reference numeral IIL indicates the degree of expectation for achieving the state change “increase the degree of interest of the user U”.

各ふるまい定義情報は、上述した3種類の期待度AIL,EIL,IILに加えて、他の種類の状態変化についての期待度を含んでいてもよい。各目的についての期待度の値は、例えば、個々のふるまいをデータベース13に登録する際などに、数値「0」〜数値「1」の範囲内でそれぞれ設定することができる。なお、以下の説明において、3種類の期待度AIL,EIL,IILを含む各種の期待度を互いに区別しない場合は、期待度XILと称する。   Each behavior definition information may include an expectation degree regarding other kinds of state changes in addition to the above three kinds of expectation degrees AIL, EIL, and IIL. The value of the expectation degree for each purpose can be set within the range of numerical value “0” to numerical value “1”, for example, when each behavior is registered in the database 13. In the following description, when various expectations including the three types of expectations AIL, EIL, and IIL are not distinguished from each other, they are referred to as expectations XIL.

図2に示したふるまい「さわやかな挨拶」は、利用者Uの活動度、情動度および興味度をそれぞれ変化させる可能性を持っているので、期待度AIL,EIL,IILについてそれぞれ数値「0」以外の値「0.3」、「0.5」、「0.3」が設定されている。データベース13は、図2の例のように、複数の目的についての期待度として「0」以外の値が設定されるふるまいを含む一方で、全ての目的についての期待度が「0」であるふるまいを含んでいてもよい。また、データベース13は、一部又は全ての目的について期待度が設定されていないふるまい定義情報を含んでいてもよい。なお、ふるまい定義情報において、一部又は全ての目的について期待度が設定されていない場合は、それらの目的についての期待度が値「0」であるとして扱うことができる。   The behavior “refreshing greeting” shown in FIG. 2 has the possibility of changing the activity level, emotion level, and interest level of the user U, and therefore the numerical value “0” for each of the expectations AIL, EIL, and IIL. Values other than “0.3”, “0.5”, and “0.3” are set. The database 13 includes a behavior in which a value other than “0” is set as the degree of expectation for a plurality of purposes, as in the example of FIG. 2, while the degree of expectation for all purposes is “0”. May be included. In addition, the database 13 may include behavior definition information in which the degree of expectation is not set for some or all purposes. Note that, in the behavior definition information, when the expectation level is not set for some or all purposes, it can be handled that the expectation level for those purposes is the value “0”.

また、各ふるまい定義情報は、図2に示すように、個々のふるまいの実行についての優先度を含んでいてもよい。優先度は、例えば、個々のふるまいをデータベース13に登録する際に、ふるまいそれぞれの性質などに応じて、複数段階の優先度の一つを設定すればよい。例えば、呼吸動作のように、継続的に実行されるふるまいについては、他のふるまいを優先的に実行させるために、低い優先度を設定することが望ましい。逆に、利用者Uからの働きかけに反応するためのふるまいについては高い優先度を設定することにより、継続的なふるまいよりも優先して実行されるようにすることが望ましい。なお、図2の例では、ふるまい「さわやかな挨拶」について、3段階の優先度「高」、「中」、「低」のうち、中程度の優先度「中」が設定されている。   Each behavior definition information may include a priority for execution of each behavior as shown in FIG. For example, when each behavior is registered in the database 13, one of a plurality of priorities may be set according to the property of each behavior. For example, for a behavior that is continuously executed, such as a breathing motion, it is desirable to set a low priority in order to preferentially execute another behavior. On the contrary, it is desirable that the behavior for reacting to the action from the user U is executed with priority over the continuous behavior by setting a high priority. In the example of FIG. 2, the medium priority among the three levels of priority “high”, “medium”, and “low” is set for the behavior “fresh greeting”.

図1に示したインタラクション装置10において、検索部14は、上述したような各ふるまいが登録されたデータベース13から、次に述べるようにして、ふるまい候補を検索する。   In the interaction device 10 shown in FIG. 1, the search unit 14 searches for behavior candidates from the database 13 in which each behavior as described above is registered as described below.

検索部14は、例えば、検知部12で収集されたインタラクション情報と、各ふるまいに対応してデータベース13に登録されたふるまい定義情報に含まれる契機条件とを照合することで、契機条件が満たされているふるまいを判別する。このようにして判別されたふるまいは、いずれも、検知部12で収集されたインタラクション条件で示される現在の状況において、出力装置11が実行することがふさわしいふるまいである。更に、検索部14は、このようにして判別した各ふるまいに対応するふるまい定義情報を参照し、指示Dirで目的として指定された状態変化の種類を示す指標値名に対応して数値「0」以外の値を持つ期待度が設定されているふるまいを検出する。例えば、検索部14は、指示Dirで状態変化「興味度を上昇させる」が働きかけの目的として指定された場合に、照合結果に基づいて判別された各ふるまいのふるまい定義情報の興味度に対応する期待度を参照する。そして、検索部14は、数値「0」以外の値を持つ期待度が設定されているふるまい定義情報に対応するふるまいを、ふるまい候補の一つとして抽出する。なお、検索部14は、ふるまい候補を抽出する際に、指示Dirで指定された指標値に対応する期待度について所定の閾値を設定し、期待度がこの閾値以上であることを抽出の条件としてもよい。また、検索部14は、指示Dirで指定された目的に対応する期待度に基づく抽出を先に行い、この抽出で得られた各ふるまいに対応するふるまい定義情報に設定された契機条件と、上述したインタラクション情報との照合に基づく抽出を行ってもよい。   For example, the search unit 14 matches the interaction information collected by the detection unit 12 with the trigger condition included in the behavior definition information registered in the database 13 corresponding to each behavior, thereby satisfying the trigger condition. Determine the behavior. Any of the behaviors determined in this way is a behavior that is suitable for the output device 11 to execute in the current situation indicated by the interaction conditions collected by the detection unit 12. Further, the search unit 14 refers to the behavior definition information corresponding to each behavior determined in this manner, and corresponds to the index value name indicating the type of state change designated as the purpose in the instruction Dir, with a numerical value “0”. Detects behaviors with expectation values other than. For example, the search unit 14 corresponds to the degree of interest of the behavior definition information of each behavior determined based on the matching result when the state change “increase the degree of interest” is designated as an action purpose in the instruction Dir. Refer to expectations. Then, the search unit 14 extracts, as one of the behavior candidates, a behavior corresponding to the behavior definition information for which the expectation level having a value other than the numerical value “0” is set. In addition, when extracting the behavior candidate, the search unit 14 sets a predetermined threshold for the expectation corresponding to the index value specified by the instruction Dir, and an extraction condition is that the expectation is equal to or greater than this threshold. Also good. In addition, the search unit 14 first performs extraction based on the expectation corresponding to the purpose specified by the instruction Dir, and the trigger condition set in the behavior definition information corresponding to each behavior obtained by this extraction, Extraction may be performed based on matching with the interaction information.

図1に示した選択部15は、このようにしてデータベース13から検索されたふるまい候補の中から一つを選択する。選択部15は、複数のふるまい候補の中からランダムに一つのふるまい候補を選択してもよいし、また、ラウンドロビンなどの手法を用いて選択するふるまい候補を決定してもよい。なお、選択部15において、複数のふるまい候補から一つを選択する手法として、より好適な例については後述する。また、選択部15は、このようにして選択したふるまいを示す識別番号を制御部16に渡すことにより、選択結果を通知する。   The selection unit 15 shown in FIG. 1 selects one of the behavior candidates retrieved from the database 13 in this way. The selection unit 15 may randomly select one behavior candidate from among a plurality of behavior candidates, or may determine a behavior candidate to be selected using a technique such as round robin. Note that a more preferable example will be described later as a method of selecting one from a plurality of behavior candidates in the selection unit 15. The selection unit 15 notifies the selection result by passing the identification number indicating the behavior selected in this way to the control unit 16.

図1に示した制御部16は、選択部15から通知された識別番号に基づいて、データベース13にこの識別番号に対応して登録されたふるまい定義情報を参照し、このふるまい定義情報に含まれるふるまい内容を取得する。そして、制御部16は、このふるまい内容を出力装置11に渡すとともに、このふるまい内容の実行を出力装置11に対して指示することにより、選択部15が選択したふるまいを出力装置11に実行させる。なお、制御部16は、利用者Uへの働きかけのためのふるまいのほかに、例えば、生き物らしさを演出するための呼吸動作などを継続的に出力装置11が出力するための制御を行ってもよい。   The control unit 16 shown in FIG. 1 refers to the behavior definition information registered corresponding to the identification number in the database 13 based on the identification number notified from the selection unit 15, and is included in the behavior definition information. Get behavior content. The control unit 16 passes the behavior content to the output device 11 and instructs the output device 11 to execute the behavior content, thereby causing the output device 11 to execute the behavior selected by the selection unit 15. Note that the control unit 16 may perform control for the output device 11 to continuously output, for example, a breathing action for producing a creature-likeness, in addition to the behavior for acting on the user U. Good.

ここで、上述した検索部14で得られらふるまい候補は、ふるまい定義情報に含まれる契機条件が検知部12によって取得された現在の状況に適合しており、かつ、指示Dirで指定された目的の達成に有用なふるまいである。つまり、これらのふるまい候補のどれが選択された場合でも、選択されたふるまいは、現在の状況に適合しており、指示Dirで指定された目的の達成に有用である。したがって、選択部15によって選択されるふるまいは、それまでに出力装置11が実行した利用者Uに対する働きかけによって築かれた交流の雰囲気を継承しつつ、指定された目的を達成可能なふるまいである。   Here, the behavior candidate obtained by the search unit 14 described above is the purpose specified by the instruction Dir when the trigger condition included in the behavior definition information matches the current situation acquired by the detection unit 12. This is a useful behavior for achieving this. In other words, regardless of which of these behavior candidates is selected, the selected behavior is suitable for the achievement of the purpose specified by the instruction Dir because it matches the current situation. Therefore, the behavior selected by the selection unit 15 is a behavior that can achieve the specified purpose while inheriting the atmosphere of alternating current established by the user U that has been executed by the output device 11 so far.

選択部15に渡されるふるまい候補の数は、検知部12によって検知された状況によって増減があるものの、多くの場合には複数である。例えば、出力装置11としてロボットを用いる場合に、多数のふるまいに対応するふるまい定義情報に、このロボットと利用者Uとの視線が合っていることが契機条件として設定されている。そして、契機条件「ロボットと利用者Uの視線が合っている」がふるまい定義情報に設定されているふるまいの中から、各指標値を変化させる目的の達成に寄与するふるまいとして、検索部14は、図3に示すように、それぞれ複数個ずつのふるまい候補を抽出可能である。   Although the number of behavior candidates passed to the selection unit 15 may increase or decrease depending on the situation detected by the detection unit 12, there are a plurality of behavior candidates in many cases. For example, when a robot is used as the output device 11, it is set as an opportunity condition that the line of sight of the robot and the user U matches the behavior definition information corresponding to a large number of behaviors. Then, the search unit 14 determines that the behavior that contributes to the achievement of the purpose of changing each index value from among the behaviors that are set in the behavior definition information in which the opportunity condition “the robot and the user U are in line of sight”. As shown in FIG. 3, a plurality of behavior candidates can be extracted.

図3は、目的の達成に寄与するふるまいの例を示している。なお、図3に示した要素のうち、図2に示した要素と同等のものについては、同一の符号を付して示し、その説明は省略する。   FIG. 3 shows an example of behavior that contributes to the achievement of the objective. Note that among the elements shown in FIG. 3, the same elements as those shown in FIG. 2 are denoted by the same reference numerals, and description thereof is omitted.

図3に例示した目的「利用者Uの興味度を上昇させる」の達成に寄与するふるまいの集合は、識別番号13のふるまい「さわやかな挨拶」と、識別番号15のふるまい「地味にかまって欲しがる」とを含んでいる。更に、目的「利用者Uの興味度を上昇させる」の達成に寄与するふるまいの集合は、識別番号22のふるまい「派手にかまって欲しがる」と、識別番号11のふるまい「はしゃいで喜ぶ」とを含んでいる。なお、図3の例は、ふるまい「さわやかな挨拶」のふるまい定義情報に、上述した目的に対応して期待度IIL=0.3が設定されていることを示している。同様に、この例は、ふるまい「地味にかまって欲しがる」のふるまい定義情報に、上述した目的に対応して期待度IIL=0.2が設定されていることを示している。また、この例は、ふるまい「派手にかまって欲しがる」のふるまい定義情報に、上述した目的に対応して期待度IIL=0.6が設定されていることを示している。同様に、この例は、ふるまい「はしゃいで喜ぶ」のふるまい定義情報に、上述した目的に対応して期待度IIL=0.7が設定されていることを示している。   The set of behaviors that contribute to the achievement of the purpose “increase the interest level of the user U” illustrated in FIG. 3 includes the behavior “refreshing greeting” with the identification number 13 and the behavior “refreshing greeting” with the identification number 15. Is included. Furthermore, the set of behaviors that contribute to the achievement of the purpose “increase the degree of interest of the user U” is the behavior of the identification number 22 “I want you to be flashy” and the behavior of the identification number 11 “I am happy with chatter” Including. The example of FIG. 3 indicates that the expectation degree IIL = 0.3 is set in the behavior definition information of the behavior “Refreshing Greeting” in correspondence with the above-described purpose. Similarly, this example shows that the expectation degree IIL = 0.2 is set in the behavior definition information of the behavior “I want to be quiet” corresponding to the above-mentioned purpose. Also, this example shows that the expectation degree IIL = 0.6 is set in the behavior definition information of the behavior “I want to be flashy” corresponding to the above-mentioned purpose. Similarly, this example shows that the expectation degree IIL = 0.7 is set in the behavior definition information of the behavior “Happy and happy” corresponding to the above-described purpose.

また、図3に例示した目的「利用者Uの活動度を上昇させる」の達成に寄与するふるまいの集合は、識別番号13のふるまい「さわやかな挨拶」と、識別番号8のふるまい「手を振る」とを含んでいる。更に、目的「利用者Uの活動度を上昇させる」の達成に寄与するふるまいの集合は、識別番号11のふるまい「はしゃいで喜ぶ」と、識別番号34のふるまい「くしゃみをする」とを含んでいる。なお、図3の例は、ふるまい「さわやかな挨拶」のふるまい定義情報に、上述した目的に対応して期待度AIL=0.3が設定されていることを示している。同様に、この例は、ふるまい「手を振る」のふるまい定義情報に、上述した目的に対応して期待度AIL=0.5が設定されていることを示している。また、この例は、ふるまい「はしゃいで喜ぶ」のふるまい定義情報に、上述した目的に対応して期待度AIL=0.8が設定されていることを示している。同様に、この例は、ふるまい「くしゃみをする」のふるまい定義情報に、上述した目的に対応して期待度AIL=0.8が設定されていることを示している。   Also, the set of behaviors that contributes to the achievement of the purpose “increasing the activity level of the user U” illustrated in FIG. 3 includes the behavior “Refreshing Greeting” with the identification number 13 and the behavior “Wake a hand” with the identification number 8. Is included. Further, the set of behaviors that contribute to the achievement of the purpose “increase the activity level of the user U” includes the behavior of the identification number 11 “Rejoices” and the behavior of the identification number 34 “Sneezes”. Yes. The example of FIG. 3 indicates that the expectation level AIL = 0.3 is set in the behavior definition information of the behavior “Refreshing Greeting” corresponding to the above-described purpose. Similarly, this example shows that the expectation level AIL = 0.5 is set in the behavior definition information of the behavior “waving hand” corresponding to the above-described purpose. Further, this example shows that the expectation level AIL = 0.8 is set in the behavior definition information of the behavior “Happy and happy” corresponding to the above-described purpose. Similarly, this example shows that the expectation level AIL = 0.8 is set in the behavior definition information of the behavior “sneeze” corresponding to the above-described purpose.

また、図3に例示した目的「利用者Uの情動度を上昇させる」の達成に寄与するふるまいの集合は、識別番号13のふるまい「さわやかな挨拶」と、識別番号35のふるまい「ゲップをする」とを含んでいる。更に、目的「利用者Uの情動度を上昇させる」の達成に寄与するふるまいの集合は、識別番号11のふるまい「はしゃいで喜ぶ」と、識別番号121のふるまい「ギャグを言う」と、識別番号8のふるまい「手を振る」とを含んでいる。なお、図3の例は、ふるまい「さわやかな挨拶」のふるまい定義情報に、上述した目的に対応して期待度EIL=0.5が設定されていることを示している。同様に、この例は、ふるまい「ゲップをする」のふるまい定義情報に、上述した目的に対応して期待度EIL=0.8が設定されていることを示している。また、この例は、ふるまい「はしゃいで喜ぶ」のふるまい定義情報に、上述した目的に対応して期待度EIL=0.9が設定されていることを示している。同様に、この例は、ふるまい「ギャグを言う」のふるまい定義情報に、上述した目的に対応して期待度EIL=0.7が設定されていることを示している。更に、この例は、ふるまい「手を振る」のふるまい定義情報に、上述した目的に対応して期待度EIL=0.6が設定されていることを示している。   In addition, the set of behaviors that contribute to the achievement of the purpose “increase the emotion of the user U” illustrated in FIG. 3 includes the behavior “refreshing greeting” of the identification number 13 and the behavior “getting the behavior of the identification number 35”. Is included. Furthermore, the set of behaviors that contribute to the achievement of the purpose “increase the emotional level of the user U” includes the behavior of the identification number 11 “Rejoices”, the behavior of the identification number 121 “says a gag”, and the identification number 8 behaviors “waving hands” are included. Note that the example in FIG. 3 indicates that the degree of expectation EIL = 0.5 is set in the behavior definition information of the behavior “Refreshing Greeting” corresponding to the above-described purpose. Similarly, this example shows that the expectation level EIL = 0.8 is set in the behavior definition information of the behavior “getting” corresponding to the above-described purpose. In addition, this example shows that the expectation level EIL = 0.9 is set in the behavior definition information of the behavior “Happy and happy” corresponding to the above-described purpose. Similarly, this example shows that the degree of expectation EIL = 0.7 is set in the behavior definition information of the behavior “say gag” corresponding to the above-described purpose. Furthermore, this example shows that the expectation degree EIL = 0.6 is set in the behavior definition information of the behavior “waving hand” corresponding to the above-described purpose.

なお、図3に示した符号UILは、利用者Uの状態を表す指標値の一つであるロボットに対する興味度を示している。また、符号UALは、利用者Uの状態を表す指標値の一つである活動度を示し、符号UELは、同じく情動度を示している。これらの各指標値については、後述する。   Note that the symbol UIL shown in FIG. 3 indicates the degree of interest with respect to the robot, which is one of the index values representing the state of the user U. Moreover, the code | symbol UAL shows the activity level which is one of the index values showing the state of the user U, and the code | symbol UEL shows the emotion level similarly. Each of these index values will be described later.

図3に示した例から分かるように、現在の状況によって契機条件が満たされており、かつ、指定された目的の達成に寄与することを条件として抽出されたふるまい候補の集合は、利用者Uに対して多様な働きかけを実行する複数のふるまいを含んでいる。したがって、選択部15によって選択されるふるまいは、検知部12によって検知された状況および指示Dirで指定された目的が同じであっても、一つのふるまいに固定されることはなく、ふるまい候補の集合の中でばらつきを持つ。   As can be seen from the example shown in FIG. 3, the set of behavior candidates extracted under the condition that the trigger condition is satisfied by the current situation and contributes to the achievement of the specified purpose is the user U It includes multiple behaviors that perform various actions against the. Therefore, the behavior selected by the selection unit 15 is not fixed to one behavior even if the situation detected by the detection unit 12 and the purpose specified by the instruction Dir are the same, and a set of behavior candidates There is variation in the inside.

つまり、上述したような選択部15によって選択されたふるまいを、制御部16が出力装置11に実行させることにより、同一の状況においても、出力装置11が実行するふるまいに変化を持たせることができる。選択部15は、単に、複数のふるまい候補の中から一つを選択すればよいので、複雑に分岐したシナリオを必要としない。その一方で、選択部15によって選択されるふるまいは、それまでに出力装置11が実行した利用者Uに対する働きかけによって築かれた交流の雰囲気を継承しつつ、指定された目的を達成可能なふるまいであることは上述したとおりである。故に、この検索部14および選択部15を有するインタラクション装置10は、利用者Uと出力装置11との間の相互作用の雰囲気を損なうことなく、指定された目的を達成可能な多様なふるまいを出力装置11によって出力させることができる。   That is, by causing the output device 11 to execute the behavior selected by the selection unit 15 as described above, the behavior executed by the output device 11 can be changed even in the same situation. . The selection unit 15 simply needs to select one from a plurality of behavior candidates, and does not require a complicated branch scenario. On the other hand, the behavior selected by the selection unit 15 is a behavior that can achieve the specified purpose while inheriting the atmosphere of exchange established by the user device U executed by the output device 11 so far. It is as described above. Therefore, the interaction device 10 having the search unit 14 and the selection unit 15 outputs various behaviors that can achieve the specified purpose without impairing the atmosphere of interaction between the user U and the output device 11. It can be output by the device 11.

このように、本件開示のインタラクション装置10によれば、固定したシナリオを用いることなく、利用者Uに対する働きかけによって築かれた交流の雰囲気を継承しながら目的を持った働きかけを継続的に実現することができる。なぜなら、このようなインタラクション装置10は、互いに類似した状況において互いに類似した目的が指示された場合であっても、利用者Uに対して多様な働きかけを提示することにより、利用者Uを飽きさせるおそれが少ないからである。したがって、本件開示のインタラクション装置10によれば、利用者Uと出力装置11との間で自然な交流を持続させることが可能である。   As described above, according to the interaction device 10 of the present disclosure, it is possible to continuously realize a purposeful approach while inheriting the atmosphere of exchange established by the approach to the user U without using a fixed scenario. Can do. This is because such an interaction device 10 makes the user U bored by presenting various actions to the user U even when similar objectives are instructed in situations similar to each other. This is because there is little fear. Therefore, according to the interaction device 10 of the present disclosure, it is possible to maintain a natural exchange between the user U and the output device 11.

本件開示のインタラクション装置10は、例えば、出力装置11として生き物の形態を模したロボットを用いて、利用者Uに癒しの感覚を与えるサービスを提供しつつ、この利用者Uの見守りに有用な目的を達成するサービスの実現において有用である。   The interaction device 10 of the present disclosure is useful for watching over the user U while providing a service that gives the user U a sense of healing using, for example, a robot that imitates the form of a living thing as the output device 11. It is useful in the realization of services that achieve the above.

例えば、各ふるまいについて、このロボットが模している生き物の生態を反映した契機条件や個々のロボットに特有の性格を反映した契機条件を設定しておくことにより、生き物らしい自律的な個体として、利用者Uに対して、より自然に働きかけることができる。   For example, for each behavior, by setting an opportunity condition that reflects the ecology of the creature imitated by this robot and an opportunity condition that reflects the characteristics that are unique to each robot, It is possible to work on the user U more naturally.

図4は、インタラクション装置10の別実施形態を示している。なお、図4に示した構成要素のうち、図1に示した構成要素と同等のものについては、同一の符号を付して示し、その説明は省略する。   FIG. 4 shows another embodiment of the interaction device 10. 4 that are the same as those shown in FIG. 1 are given the same reference numerals, and descriptions thereof are omitted.

図4に示した選択部15は、算出部151と、決定部152とを含んでいる。図4に示した算出部151は、検索部14によってデータベース13から抽出されたふるまい候補ごとに、指示Dirで指定された種類の状態変化についての期待度の高さに相関を持つ確率を算出する。また、決定部152は、算出部151で各ふるまい候補について求めた確率に従って、ふるまい候補の中から選択するふるまいを決定する。このように、算出部151と決定部152とにより、期待度で重み付けした確率に従って複数のふるまい候補の一つを選択する、重み付きランダム選択を実現してもよい。   The selection unit 15 illustrated in FIG. 4 includes a calculation unit 151 and a determination unit 152. The calculation unit 151 illustrated in FIG. 4 calculates, for each behavior candidate extracted from the database 13 by the search unit 14, a probability that has a correlation with the high degree of expectation for the type of state change specified by the instruction Dir. . Further, the determination unit 152 determines a behavior to be selected from the behavior candidates according to the probability obtained for each behavior candidate by the calculation unit 151. As described above, the calculation unit 151 and the determination unit 152 may realize weighted random selection in which one of a plurality of behavior candidates is selected according to the probability weighted with the degree of expectation.

算出部151は、例えば、N個のふるまい候補の中でj番目のふるまい候補が選択される確率Pjとして、各ふるまい候補について設定された目的に対応する期待度XIL(j)を、これらの期待度の総和Sで除算した値として算出してもよい。この場合に、確率Pjは、各ふるまい候補の指定された目的についての期待度XIL(j)を用いて、式(1)のように表すことができる。   For example, as the probability Pj that the j-th behavior candidate is selected from the N behavior candidates, the calculation unit 151 sets the expectation degree XIL (j) corresponding to the purpose set for each behavior candidate to these expectations. It may be calculated as a value divided by the sum S of degrees. In this case, the probability Pj can be expressed as in Expression (1) using the expectation degree XIL (j) for the designated purpose of each behavior candidate.

Figure 2013208681
指示Dirによって目的「利用者Uの興味度を上昇させる」が与えられた場合について、図3に示した例に基づいて説明すれば、各ふるまいが選択される確率は、次のように計算することができる。ふるまい「さわやかな挨拶」が選択される確率は、ふるまい「さわやかな挨拶」の期待度0.3を、4つのふるまいに対応する期待度の総和1.8で除算した値0.18となる。同様にして、ふるまい「地味にかまって欲しがる」が選択される確率は、ふるまい「地味にかまって欲しがる」の期待度0.2を上述した期待度の総和1.8で除算した値0.11となる。また、ふるまい「派手にかまって欲しがる」が選択される確率は、ふるまい「派手にかまって欲しがる」の期待度0.6を上述した期待度の総和1.8で除算した値0.33となる。そして、ふるまい「はしゃいで喜ぶ」が選択される確率は、ふるまい「はしゃいで喜ぶ」の期待度0.7を上述した期待度の総和1.8で除算した値0.39となる。
Figure 2013208681
If the purpose “increase the interest level of the user U” is given by the instruction Dir, based on the example shown in FIG. 3, the probability that each behavior is selected is calculated as follows. be able to. The probability that the behavior “Refreshing Greeting” is selected is 0.18, which is obtained by dividing the expectation level 0.3 of the behavior “Refreshing Greeting” by the sum of 1.8 of the expectation levels corresponding to the four behaviors. Similarly, the probability that the behavior “I want to be quiet” is selected by dividing the expectation level 0.2 of the behavior “I want to be quiet” by the sum of the above expectations of 1.8. The value is 0.11. In addition, the probability that the behavior “I want to be flashy” is selected is a value obtained by dividing the expectation level 0.6 of the behavior “I want to flashy” by the sum of the above-mentioned expectations of 1.8. .33. Then, the probability that the behavior “happy with pleasure” is selected is 0.39, which is obtained by dividing the expectation degree 0.7 of the behavior “happy with pleasure” by the total of the above-mentioned expectation degrees 1.8.

図4に示した決定部152は、例えば、所定の範囲の乱数を発生させるような確率的試行を実行し、得られた乱数の値と、上述したようにして決定した確率とに基づいて、ふるまい候補の中から選択するふるまいを決定する。決定部152は、上述した乱数の範囲を、各ふるまい候補について得られた確率の大きさに対応する幅を持つN個の区分に分割しておき、発生させた乱数がどの区分に含まれるかによって、選択するふるまいを決定してもよい。   For example, the determination unit 152 illustrated in FIG. 4 performs a probabilistic trial to generate a random number in a predetermined range, and based on the obtained random number value and the probability determined as described above, The behavior to be selected from the behavior candidates is determined. The determining unit 152 divides the range of the random numbers described above into N sections having a width corresponding to the probability size obtained for each behavior candidate, and which section includes the generated random numbers. Depending on, the behavior to be selected may be determined.

上述した算出部151と決定部152とを有する選択部15は、ふるまい候補の中から、各ふるまいによって指示Dirで指定された目的が達成される可能性の高さである期待度の高さを反映した重み付きランダム選択により、実行するふるまいを選択する。したがって、図4に示した選択部15による選択結果は、検索部14による検索で得られたふるまい候補の範囲内での多様性を保ちながらも、指示Dirで指定された目的の達成に関する期待度の高さを反映している。   The selection unit 15 including the calculation unit 151 and the determination unit 152 described above calculates a high degree of expectation that is a high possibility that the purpose specified by the instruction Dir is achieved by each behavior from the behavior candidates. The behavior to be executed is selected by the reflected weighted random selection. Therefore, the selection result by the selection unit 15 shown in FIG. 4 indicates that the degree of expectation regarding achievement of the purpose specified by the instruction Dir while maintaining diversity within the range of behavior candidates obtained by the search by the search unit 14. Reflects the height of.

このような選択部15を有するインタラクション装置10によれば、出力装置11によって出力されるふるまいの多様性を保ちつつ、指示Dirで指定された目的を達成する可能性が高いふるまいを優先的に出力させることができる。これにより、出力装置11が利用者Uに対して実行する働きかけが画一化することを避けながら、出力装置11により、目的を達成する可能性の高い働きかけを実行することができる。   According to the interaction device 10 having such a selection unit 15, the behavior that is highly likely to achieve the purpose specified by the instruction Dir is preferentially output while maintaining the variety of behaviors output by the output device 11. Can be made. As a result, the output device 11 can execute an action with a high possibility of achieving the object while avoiding the action that the output device 11 performs to the user U from being uniform.

なお、本件開示のインタラクション装置10は、図5に示すような選択部15を設けることにより、指示Dirにより、複数の目的が指定された場合にも対応することができる。   Note that the interaction device 10 disclosed herein can cope with a case where a plurality of purposes are designated by the instruction Dir by providing the selection unit 15 as shown in FIG.

図5は、インタラクション装置10の別実施形態を示している。なお、図5に示した構成要素のうち、図4に示した構成要素と同等のものについては、同一の符号を付して示し、その説明は省略する。   FIG. 5 shows another embodiment of the interaction device 10. Note that among the components shown in FIG. 5, components equivalent to those shown in FIG. 4 are denoted by the same reference numerals, and description thereof is omitted.

図5に示した選択部15は、図4と同様の算出部151および決定部152に加えて、集計部153を有している。   The selection unit 15 illustrated in FIG. 5 includes a counting unit 153 in addition to the calculation unit 151 and the determination unit 152 similar to those in FIG.

図5に示した集計部153は、データベース13を参照することにより、検索部14による検索結果として得られた各ふるまい候補に対応するふるまい定義情報において、指示Dirで指定されたM個の目的それぞれに対応する期待度を取得する。また、集計部153は、各ふるまい候補について取得した各目的に対応する期待度を集計することにより、各ふるまい候補が、上述したM個の目的の達成に寄与する度合いを示す合成期待度を算出する。   The totaling unit 153 shown in FIG. 5 refers to the database 13, and each of the M purposes specified by the instruction Dir in the behavior definition information corresponding to each behavior candidate obtained as a search result by the search unit 14. Get the expectation corresponding to. In addition, the totaling unit 153 calculates a composite expectation degree indicating the degree of contribution of each behavior candidate to the achievement of the M purposes described above by summing the expectation degree corresponding to each purpose acquired for each behavior candidate. To do.

集計部153は、例えば、式(2)を用いて、N個のふるまい候補の中のj番目のふるまい候補についての合成期待度XILs(j)を算出してもよい。なお、式(2)において、合成期待度XILs(j)は、m番目の目的に対応する期待度XIL(m,j)と、m番目の目的について指定された重みc(m)との積の総和である。   For example, the totaling unit 153 may calculate the combined expectation level XILs (j) for the jth behavior candidate among the N behavior candidates using Equation (2). In Equation (2), the combined expectation degree XILs (j) is the product of the expectation degree XIL (m, j) corresponding to the mth objective and the weight c (m) designated for the mth objective. Is the sum of

Figure 2013208681
各目的に対応する重みc(m)の値は、指示Dirによって指定してもよいし、集計部153の内部に、目的ごとに予め設定しておいてもよい。また、集計部153は、全ての目的について、同一の重みを設定してもよい。いずれの場合にも、各目的に対応する重みc(m)は、それぞれ正の値であり、重みc(m)の総和は数値「1」となるように設定することが望ましい。
Figure 2013208681
The value of the weight c (m) corresponding to each purpose may be specified by the instruction Dir, or may be set in advance for each purpose in the counting unit 153. The totaling unit 153 may set the same weight for all purposes. In any case, it is desirable that the weights c (m) corresponding to each purpose are positive values, and the sum of the weights c (m) is set to a numerical value “1”.

例えば、指示Dirで指定された2つの目的「興味度を上昇させる」および「情動度を上昇させる」に応じて、図2に示したふるまい「さわやかな挨拶」がj番目のふるまい候補として抽出されたときの合成期待度XILs(j)は、式(3)のように求めることができる。
XILs(j)=0.3×0.5+0.5×0.5=0.4 ・・・(3)
なお、式(3)の例は、集計部153において、上述した二つの目的に同一の重み0.5を設定した場合を示している。また、式(3)は、式(2)において、目的の数M=2とし、第1の目的の期待度XIL(1,j)および第2の目的の期待度XIL(2、j)として、ふるまい「さわやかな挨拶」の期待度IIL=0.3および期待度EIL=0.5を設定した例である。
For example, the behavior “Refreshing Greeting” shown in FIG. 2 is extracted as the jth behavior candidate in accordance with the two purposes “increased interest” and “increased emotion” specified by the instruction Dir. The synthesis expectation degree XILs (j) at this time can be obtained as shown in Expression (3).
XILs (j) = 0.3 × 0.5 + 0.5 × 0.5 = 0.4 (3)
In addition, the example of Formula (3) has shown the case where the same weight 0.5 is set in the totaling unit 153 for the two purposes described above. Further, the expression (3) is obtained by setting the number of objectives M = 2 in the expression (2) as the first target expected degree XIL (1, j) and the second target expected degree XIL (2, j). This is an example in which the expectation degree IIL = 0.3 and the expectation degree EIL = 0.5 of the behavior “refreshing greeting” are set.

同様にして、図3において、上述した2つの目的の達成にそれぞれに寄与するふるまいの例として挙げた各ふるまいがふるまい候補として抽出された場合に、各ふるまいについて集計部153が算出する合成期待度を、図6に示す。   Similarly, in FIG. 3, when each behavior listed as an example of behavior that contributes to the achievement of the above-described two purposes is extracted as a behavior candidate, the combined expectation degree calculated by the aggregation unit 153 for each behavior Is shown in FIG.

図6は、各ふるまい候補について算出される合成期待度の例を示している。なお、図6に示した各要素のうち、図3と同等のものについては、同一の符号を付して示し、その説明は省略する。   FIG. 6 shows an example of the synthesis expected degree calculated for each behavior candidate. 6 that are the same as those in FIG. 3 are denoted by the same reference numerals and description thereof is omitted.

図6の例では、ふるまい「地味にかまって欲しがる」に対応する合成期待度は、このふるまいのふるまい定義情報において、興味度に対応して設定された期待度IIL=0.2に重み0.5を乗じた値0.1となる。同様に、ふるまい「派手にかまって欲しがる」に対応する合成期待度は、このふるまいのふるまい定義情報において、興味度に対応して設定された期待度IIL=0.6に重み0.5を乗じた値0.3となる。一方、ふるまい「はしゃいで喜ぶ」に対応する合成期待度は、このふるまいのふるまい定義情報において、興味度および情動度に対応してそれぞれ設定された期待度IIL=0.7、EIL=0.9にそれそれ重み0.5を乗じて加算した値0.8となる。また、ふるまい「ゲップをする」に対応する合成期待度は、このふるまいのふるまい定義情報において、情動度に対応して設定された期待度EIL=0.8に重み0.5を乗じた値0.4となる。同様に、ふるまい「ギャグを言う」に対応する合成期待度は、このふるまいのふるまい定義情報において、情動度に対応して設定された期待度EIL=0.7に重み0.5を乗じた値0.35となる。そして、ふるまい「手を振る」に対応する合成期待度は、このふるまいのふるまい定義情報において、情動度に対応して設定された期待度EIL=0.6に重み0.5を乗じて得られる値0.3となる。   In the example of FIG. 6, the composite expectation level corresponding to the behavior “I want you to be quiet” weights the expectation level IIL = 0.2 set corresponding to the interest level in the behavior definition information of this behavior. A value of 0.1 multiplied by 0.5 is obtained. Similarly, the combined expectation degree corresponding to the behavior “I want to be flashy” is a weight 0.5 to the expectation degree IIL = 0.6 set corresponding to the interest degree in the behavior definition information of this behavior. Multiplied by the value 0.3. On the other hand, the synthesis expectation level corresponding to the behavior “Happy and happy” is the expectation levels IIL = 0.7 and EIL = 0.9 respectively set according to the interest level and the emotion level in the behavior definition information of the behavior. The result is 0.8, which is obtained by multiplying each by a weight of 0.5. Further, the synthesis expectation level corresponding to the behavior “Gep is” is a value obtained by multiplying the expectation level EIL = 0.8 set corresponding to the emotion level by the weight 0.5 in the behavior definition information of the behavior. .4. Similarly, the synthesis expected degree corresponding to the behavior “say gag” is a value obtained by multiplying the expectation degree EIL = 0.7 set corresponding to the emotion degree by the weight 0.5 in the behavior definition information of the behavior. 0.35. The synthesis expectation level corresponding to the behavior “waving hand” is obtained by multiplying the expectation level EIL = 0.6 set corresponding to the emotion level by the weight 0.5 in the behavior definition information of the behavior. The value is 0.3.

このようにして得られた合成期待度XILs(j)に基づいて、算出部151は、上述した式(1)に含まれる期待度X(j)を、上述した合成期待度XILs(j)で置き換えた式(4)を用いることにより、各ふるまい候補が選択される確率Pjを算出する。   Based on the composite expectation degree XILs (j) obtained in this way, the calculation unit 151 converts the expectation degree X (j) included in the above-described expression (1) into the above-described composite expectation degree XILs (j). By using the replaced expression (4), the probability Pj that each behavior candidate is selected is calculated.

Figure 2013208681
このようにして得られた確率Pjは、各ふるまい候補がM個の目的の達成に寄与する度合いを示す合成期待度を反映している。つまり、図5に示した算出部151で得られた確率に従って、決定部152が、N個のふるまい候補から選択するふるまいを決定することにより、複数の目的を達成する可能性の高さを考慮してふるまいを選択することができる。
Figure 2013208681
The probability Pj obtained in this way reflects a composite expectation that indicates the degree to which each behavior candidate contributes to the achievement of M objectives. That is, considering the probability obtained by the calculation unit 151 illustrated in FIG. 5, the determination unit 152 determines the behavior to be selected from the N behavior candidates, thereby taking into consideration the high possibility of achieving multiple objectives. You can then select the behavior.

ところで、図3に例示したふるまいの中には、ふるまいの実行による効果が、インタラクション装置10から働きかけを受ける利用者Uの状態に依存して変化するものが含まれている。例えば、ふるまい「はしゃいで喜ぶ」のように、出力装置11として機能するロボットの派手な動きを伴うふるまいの効果は、利用者Uがこのロボットとの相互作用に乗り気になっているときには、大きな効果を発揮する。このため、このような派手な動きをロボットに実行させるふるまいのふるまい定義情報には、利用者Uの状態に関する各指標値を上昇させる目的に対応して、比較的大きい値を持つ期待度が設定される場合が多い。したがって、期待度を反映した確率に従って、ロボットが実行するふるまいを選択する場合には、上述したような派手な動きを伴うふるまいが、他のふるまいよりも高い確率で選択される。しかしながら、利用者Uがロボットに対してあまり興味を示していないときに、ふるまい「はしゃいで喜ぶ」のような派手な動きを伴うふるまいを実行すると、期待した効果が得られず、かえって逆効果になる場合もある。   By the way, the behavior illustrated in FIG. 3 includes one in which the effect due to the execution of the behavior changes depending on the state of the user U who is challenged by the interaction device 10. For example, the behavior effect accompanied by the flashy movement of the robot functioning as the output device 11 such as the behavior “Rejoices in a chat” is a great effect when the user U is interested in the interaction with the robot. Demonstrate. For this reason, in the behavior definition information for behavior that causes the robot to execute such a flashy movement, a degree of expectation having a relatively large value is set corresponding to the purpose of increasing each index value related to the state of the user U. Often done. Therefore, when the behavior to be executed by the robot is selected according to the probability reflecting the degree of expectation, the behavior with the flashy movement as described above is selected with a higher probability than other behaviors. However, when the user U is not very interested in the robot, if the behavior with a flashy movement such as the behavior “Happy and happy” is executed, the expected effect cannot be obtained and the opposite effect is obtained. Sometimes it becomes.

したがって、インタラクション装置10は、働きかけを行う相手である利用者Uの状態に応じて、働きかけとして出力するふるまいの選択を制御する仕組みを有することが望ましい。   Therefore, it is desirable that the interaction device 10 has a mechanism for controlling the selection of the behavior to be output as an action according to the state of the user U who is the person to whom the action is made.

図7は、インタラクション装置10の別実施形態を示している。なお、図7に示した構成要素のうち、図4に示した構成要素と同等のものについては、同一の符号を付して示し、その説明は省略する。   FIG. 7 shows another embodiment of the interaction device 10. 7 that are the same as those shown in FIG. 4 are given the same reference numerals, and descriptions thereof are omitted.

図7に示したインタラクション装置10は、熊の形態を模したロボットCRの機能の一部を利用することによって、出力装置11を実現する形態の一例である。   The interaction device 10 illustrated in FIG. 7 is an example of a configuration that realizes the output device 11 by using a part of the function of the robot CR that imitates the shape of a bear.

図7に示した出力装置11は、ロボットCRに含まれるモータ部31とスピーカ32と駆動処理部33とを含んでいる。駆動処理部33は、制御部15から受け取ったふるまい内容に基づいて、モータ部31に含まれる複数のモータをそれぞれ駆動し、ロボットCRの手足や首などの稼動部分を動かすことにより、ふるまい内容で定義された動作をさせる。また、駆動処理部33は、制御部15から受け取ったふるまい内容で指定された音声をスピーカ32に出力させることにより、ふるまい内容で定義された音声メッセージを利用者Uに提示する。   The output device 11 illustrated in FIG. 7 includes a motor unit 31, a speaker 32, and a drive processing unit 33 included in the robot CR. The drive processing unit 33 drives the plurality of motors included in the motor unit 31 based on the behavior content received from the control unit 15 and moves the operating parts such as the limbs and the neck of the robot CR. Make a defined action. In addition, the drive processing unit 33 presents the voice message defined by the behavior content to the user U by causing the speaker 32 to output the voice specified by the behavior content received from the control unit 15.

図7に示したロボットCRは、上述したモータ部31とスピーカ32と駆動処理部33とに加えて、更に、観測部34と、内部状態判定部35とを含んでいる。   The robot CR shown in FIG. 7 includes an observation unit 34 and an internal state determination unit 35 in addition to the motor unit 31, the speaker 32, and the drive processing unit 33 described above.

この観測部34は、例えば、カメラやマイクロホン、接触センサなどを含んでおり、利用者Uを含む周囲の映像や利用者Uの音声と、利用者UからロボットCRへの物理的な接触に関する情報とを、利用者Uからの反応を表す情報として取得する。また、観測部34は、例えば、カメラで得られた映像から、利用者Uの体の動きや表情の変化の大きさを示す計測値を取得してもよい。同様に、観測部34は、例えば、マイクロホンで得られた音声から、利用者Uの声の大きさや声の変動の大きさなどを示す計測値を取得してもよい。また、観測部34は、接触センサで得られた情報から、利用者UがロボットCRに物理的に接触した回数や強さなどを示す計測値を取得してもよい。   The observation unit 34 includes, for example, a camera, a microphone, a contact sensor, and the like, and includes information on surrounding images including the user U, voice of the user U, and physical contact from the user U to the robot CR. Are acquired as information representing the reaction from the user U. Moreover, the observation part 34 may acquire the measured value which shows the magnitude | size of a user's U body movement and the change of a facial expression from the image | video obtained with the camera, for example. Similarly, for example, the observation unit 34 may acquire a measurement value indicating the loudness of the user U, the loudness variation of the voice, and the like from the sound obtained by the microphone. In addition, the observation unit 34 may acquire a measurement value indicating the number of times the user U has physically touched the robot CR, the strength, and the like from information obtained by the contact sensor.

内部状態判定部35は、駆動処理部33が制御部15から受け取ったふるまい内容と観測部34で得られる情報とに基づいて、ロボットCRの内部状態を示す各パラメータを算出する。内部状態判定部35は、例えば、制御部15から受け取った個々のふるまい内容に基づいて、ロボットCRの短期的な感情を示すパラメータを、ロボットCRの内部状態を示すパラメータの一つとして求めてもよい。なお、内部状態判定部35は、ロボットCRの短期的な感情を示すパラメータは、観測部34で得られる利用者Uからの反応に基づいて調整してもよい。例えば、内部状態判定部35は、接触センサによって利用者UがロボットCRを撫でたことを検知したときにうれしい感情を示すパラメータの値を上昇させ、たたかれたことを検知したときに悲しい感情を示すパラメータを上昇させるなどの調整を行ってもよい。また、内部状態判定部35は、例えば、時系列に従って受け取った複数のふるまい内容の履歴などに基づいて、上述したような感情の蓄積によって変化するロボットCRの機嫌や利用者Uに対するなつき度合いを示すパラメータを求めてもよい。更に、内部状態判定部35は、例えば、観測部34から受け取った利用者Uの映像に基づいて、利用者UとロボットCRとが目と目とを合わせたアイコンタクト状態であるか否かを示すパラメータを求めてもよい。   The internal state determination unit 35 calculates each parameter indicating the internal state of the robot CR based on the behavior content received from the control unit 15 by the drive processing unit 33 and the information obtained by the observation unit 34. For example, the internal state determination unit 35 may obtain a parameter indicating the short-term emotion of the robot CR as one of the parameters indicating the internal state of the robot CR based on the content of each behavior received from the control unit 15. Good. The internal state determination unit 35 may adjust the parameter indicating the short-term emotion of the robot CR based on a reaction from the user U obtained by the observation unit 34. For example, when the internal state determination unit 35 detects that the user U has stroked the robot CR by the contact sensor, the internal state determination unit 35 increases the value of a parameter indicating a happy emotion, and a sad emotion when detecting that the user U has been hit. Adjustments such as increasing a parameter indicating the above may be performed. Further, the internal state determination unit 35 indicates, for example, the mood of the robot CR that changes due to the accumulation of emotion as described above and the degree of familiarity with the user U based on a history of a plurality of behavior contents received in time series. A parameter may be obtained. Further, for example, the internal state determination unit 35 determines whether or not the user U and the robot CR are in an eye contact state in which the eyes meet each other based on the video of the user U received from the observation unit 34. You may obtain | require the parameter to show.

図7に示した検知部12は、上述した観測部34および内部状態判定部35に加えて、収集部121と、解析部122と、状況テーブル123とを含んでいる。   The detection unit 12 illustrated in FIG. 7 includes a collection unit 121, an analysis unit 122, and a situation table 123 in addition to the observation unit 34 and the internal state determination unit 35 described above.

収集部121は、例えば、センサ部SDに含まれる温度センサ、湿度センサや明るさセンサなどによって得られる計測値を定期的に収集する。また、収集部121は、収集した計測値を出力装置11および利用者Uの周囲の環境に関する状況を示す環境情報として状況テーブル123に保持させる。   The collection unit 121 periodically collects measurement values obtained by, for example, a temperature sensor, a humidity sensor, or a brightness sensor included in the sensor unit SD. In addition, the collection unit 121 stores the collected measurement values in the situation table 123 as environment information indicating the situation regarding the environment around the output device 11 and the user U.

また、解析部122は、観測部34で得られた計測値を解析することにより、図3に示した活動度UAL、情動度UELおよび興味度UILを含む、利用者Uの状態を示す各指標値を算出する。解析部122は、活動度UAL、情動度UELおよび興味度UILを算出する処理に、例えば、本出願人により先に出願された特願2011−243573「非言語情報解析装置および非言語情報解析プログラム並びに非言語情報解析方法」の技法を用いてもよい。この技法は、観測部34に含まれるカメラや接触センサから得られる情報から、利用者Uが表出する非言語反応の強さを示す複数の計測値を取得し、これらの計測値の時間変化を解析することにより、活動度UAL,興味度UILおよび情動度UELを算出する。   Further, the analysis unit 122 analyzes each measurement value obtained by the observation unit 34, thereby indicating each index indicating the state of the user U, including the activity level UAL, the emotion level UEL, and the interest level UIL illustrated in FIG. Calculate the value. For example, Japanese Patent Application No. 2011-243573 “Non-Language Information Analysis Device and Non-Language Information Analysis Program” previously filed by the applicant of the present application is used for the processing of calculating the activity level UAL, emotion level UEL, and interest level UIL In addition, a technique of “non-linguistic information analysis method” may be used. In this technique, a plurality of measurement values indicating the strength of the non-verbal reaction expressed by the user U are acquired from information obtained from a camera or a contact sensor included in the observation unit 34, and time variations of these measurement values are obtained. To calculate the activity level UAL, the interest level UIL, and the emotion level UEL.

解析部122は、観測部34から利用者Uの動きの大きさや動きの頻度および利用者Uの表情の変化を示す計測値を受け取り、これらの計測値に対して上述した技法に基づく解析処理を行う。解析部122は、例えば、上述した解析処理を所定の時間間隔で行うことにより、活動度UAL、情動度UELおよび興味度UILを含む各指標値を、これらの指標値の算出に用いた計測値をサンプリングした時刻ごとに算出してもよい。また、解析部122は、各サンプリング時刻において得られた計測値からそれぞれ算出した各指標値を、利用者Uの状態を示すユーザ情報として、状況テーブル123にサンプリング時刻に対応して保持させてもよい。   The analysis unit 122 receives measurement values indicating the magnitude and frequency of movement of the user U from the observation unit 34 and changes in the facial expression of the user U, and performs analysis processing based on the above-described technique for these measurement values. Do. The analysis unit 122 performs, for example, the above-described analysis processing at predetermined time intervals, so that the index values including the activity level UAL, the emotion level UEL, and the interest level UIL are measured values used for calculating these index values. May be calculated for each sampling time. Further, the analysis unit 122 may cause the status table 123 to hold each index value calculated from the measurement value obtained at each sampling time as user information indicating the state of the user U corresponding to the sampling time. Good.

状況テーブル123は、例えば、図8に示すように、収集部121から受け取った環境情報と内部状態判定部35から受け取ったロボットCRの内部状態を示すロボット情報とを、上述したユーザ情報とともに、それぞれを取得した時刻に対応して格納する。   For example, as shown in FIG. 8, the situation table 123 includes environment information received from the collection unit 121 and robot information indicating the internal state of the robot CR received from the internal state determination unit 35, together with the above-described user information. Is stored in correspondence with the time of acquisition.

図8は、状況テーブル123の例を示している。なお、図8に示した要素のうち、図3に示した要素と同等のものについては、同一の符号を付して示し、その説明は省略する。   FIG. 8 shows an example of the situation table 123. Of the elements shown in FIG. 8, the same elements as those shown in FIG. 3 are designated by the same reference numerals, and the description thereof is omitted.

図8に示した状況テーブル123は、時刻Tiに対応して、明るさセンサによる計測値Liを含む環境情報を格納しており、時刻Tjに対応して、明るさセンサによる計測値Ljを含む環境情報を格納している。また、この状況テーブル123は、時刻Tpに対応して、同様に、明るさセンサによる計測値Lpを含む環境情報を格納している。   The situation table 123 shown in FIG. 8 stores environment information including the measurement value Li measured by the brightness sensor corresponding to the time Ti, and includes the measurement value Lj measured by the brightness sensor corresponding to the time Tj. Stores environmental information. In addition, this situation table 123 similarly stores environment information including the measurement value Lp by the brightness sensor corresponding to the time Tp.

また、この状況テーブル123は、時刻Tiに対応して、アイコンタクト「あり」および機嫌「上機嫌」を含むロボット情報を格納しており、また、時刻Tjに対応して、アイコンタクト「あり」および機嫌「ごきげん」を含むロボット情報を格納している。一方、この状況テーブル123は、時刻Tpに対応して、アイコンタクト「なし」および機嫌「ぼんやり」を含むロボット情報を格納している。   In addition, the situation table 123 stores robot information including eye contact “Yes” and mood “Good mood” corresponding to time Ti, and eye contact “Yes” and “Yes” corresponding to time Tj. Stores robot information including the mood “Gokugen”. On the other hand, this situation table 123 stores robot information including eye contact “none” and mood “blaze” corresponding to the time Tp.

また、図8に示した状況テーブル123は、時刻Tiに対応して、興味度UIL(i)、活動度UAL(i)、情動度UEL(i)を含むユーザ情報を格納している。この状況テーブル123は、時刻Tjに対応して、興味度UIL(j)、活動度UAL(j)、情動度UEL(j)を含むユーザ情報を格納している。なお、図5に示した状況テーブル123において、時刻Tpに対応するユーザ情報の欄に示した符号「−」は、時刻Tpにおいて、解析部122が、興味度、活動度および情動度の算出を行わなかったことを示している。   Further, the situation table 123 shown in FIG. 8 stores user information including an interest level UIL (i), an activity level UAL (i), and an emotion level UEL (i) corresponding to the time Ti. The situation table 123 stores user information including an interest level UIL (j), an activity level UAL (j), and an emotion level UEL (j) corresponding to the time Tj. In the situation table 123 shown in FIG. 5, the sign “−” shown in the user information column corresponding to the time Tp indicates that the analysis unit 122 calculates the interest level, the activity level, and the emotion level at the time Tp. Indicates that it was not done.

ここで、特願2011−243573の技法は、利用者Uの状態を忠実に反映する興味度、活動度および情動度を算出するために、ロボットCRが利用者Uとの間でアイコンタクトを確立している状態で得られる高い精度の計測値を利用することを前提としている。したがって、図8において、時刻Tpに対応するロボット情報で示したように、アイコンタクトが確立されていない場合には、特願2011−243573の技法によって算出した興味度、活動度および情動度は不確かな値となる可能性がある。このような不確かな値を格納する代わりに、解析部122は、図8に示した例のように、興味度、活動度および情動度の算出を行わなかったことを示す符号「−」を格納してもよい。   Here, in the technique of Japanese Patent Application No. 2011-243573, the robot CR establishes eye contact with the user U in order to calculate the degree of interest, the degree of activity, and the degree of emotion that faithfully reflects the state of the user U. It is assumed that high-accuracy measurement values obtained in the state of use are used. Therefore, as shown by the robot information corresponding to the time Tp in FIG. 8, when the eye contact is not established, the interest level, the activity level, and the emotion level calculated by the technique of Japanese Patent Application No. 2011-243573 are uncertain. May be a negative value. Instead of storing such an uncertain value, the analysis unit 122 stores a sign “−” indicating that the interest level, the activity level, and the emotion level are not calculated, as in the example illustrated in FIG. 8. May be.

なお、状況テーブル123は、図8に示した例に限らず、最新の環境情報と最新のロボット情報と最新のユーザ情報とを、出力装置11と利用者Uとの間の相互作用に関する状況を表す最新のインタラクション情報として保持してもよい。   The status table 123 is not limited to the example illustrated in FIG. 8, and the latest environment information, the latest robot information, and the latest user information are displayed on the status regarding the interaction between the output device 11 and the user U. The latest interaction information may be held.

上述したように、図7に示した解析部122を有する検知部12によれば、利用者Uの状態を示す各指標値を、出力装置11と利用者Uとの間の相互作用に関する状況を表すインタラクション情報の一部として、検索部14に渡すことができる。   As described above, according to the detection unit 12 including the analysis unit 122 illustrated in FIG. 7, each index value indicating the state of the user U is obtained from the situation regarding the interaction between the output device 11 and the user U. It can be passed to the search unit 14 as part of the interaction information to be represented.

また、上述した解析部122を含む検知部12を有するインタラクション装置10においては、各ふるまい定義情報に、利用者Uの状態を示す各指標値の範囲を示す条件を含む契機条件を設定してもよい。   Further, in the interaction device 10 having the detection unit 12 including the analysis unit 122 described above, even when an opportunity condition including a condition indicating a range of each index value indicating the state of the user U is set in each behavior definition information. Good.

図9は、ふるまい定義情報の別例を示している。なお、図9に示した要素のうち、図2に示した要素と同等のものについては、同一の符号を付して示し、その説明は省略する。   FIG. 9 shows another example of behavior definition information. Note that, among the elements shown in FIG. 9, elements equivalent to those shown in FIG. 2 are denoted by the same reference numerals, and description thereof is omitted.

図9に例示したふるまい定義情報は、識別番号「11」およびふるまい名「はしゃいで喜ぶ」で特定されるふるまいについてのふるまい定義情報である。   The behavior definition information illustrated in FIG. 9 is behavior definition information regarding the behavior specified by the identification number “11” and the behavior name “Happy and happy”.

このふるまい定義情報は、図7に示した出力装置11が、ふるまい「はしゃいでよろこぶ」として出力する音声メッセージや動作を示すふるまい内容「Def11」を含んでいる。このふるまい内容「Def11」は、例えば、図7に示したロボットCRの手足を大きくしかも激しく動かすことや、くだけた調子の音声メッセージを大きな音量で出力することを記述している。   This behavior definition information includes a behavior message “Def11” indicating a voice message and an operation output by the output device 11 shown in FIG. This behavior content “Def11” describes, for example, that the limbs of the robot CR shown in FIG. 7 are moved large and violently, and that a voice message with a soft tone is output at a high volume.

利用者UがロボットCRとの相互作用に乗り気になっているときに、このような派手なふるまいをロボットCRが実行すれば、高い確率で、利用者Uの興味度、活動度および情動度を上昇させることができることは上述したとおりである。このため、図9に示したふるまい定義情報は、利用者Uの活動度、情動度および興味度をそれぞれ変化させることの期待度AIL,EIL,IILとして、それぞれ値「0.8」、「0.9」、「0.7」のように最大値「1」に近い値を含んでいる。   If the user CR is eager to interact with the robot CR and the robot CR executes such a flashy behavior, the user U's degree of interest, activity and emotion can be estimated with high probability. As described above, it can be raised. For this reason, the behavior definition information shown in FIG. 9 has values “0.8” and “0” as the expected degrees AIL, EIL, and IIL of changing the activity level, emotion level, and interest level of the user U, respectively. .9 ”,“ 0.7 ”, etc., which are close to the maximum value“ 1 ”.

その反面、利用者UがロボットCRとの相互作用にあまり乗り気になっていないときに、ロボットCRが上述したような派手なふるまいによる働きかけを利用者Uに対して実行すると、相互作用の継続を困難にさせるリスクがあることも上述したとおりである。   On the other hand, when the user U is not very interested in the interaction with the robot CR, when the robot CR executes the action by the flashy behavior as described above to the user U, the interaction is continued. As mentioned above, there is a risk of making it difficult.

図9に示したふるまい定義情報は、このようなリスクが想定されるケースにおいて当該ふるまいの出力を抑止するために、契機条件の一部として、利用者Uの状態を示す指標の一つである興味度UILについての範囲を示す条件を含んでいる。   The behavior definition information shown in FIG. 9 is one of indices indicating the state of the user U as a part of the trigger condition in order to suppress the output of the behavior in a case where such a risk is assumed. A condition indicating a range for the interest level UIL is included.

図9に示したふるまい定義情報に設定された契機条件「C1 AND C4」において、条件C4は、図7に示した解析部122によって得られる利用者Uの興味度UILの範囲を示す条件を示している。図9の例では、この条件C4は、利用者UのロボットCRに対する興味度UILが数値「0.8」を超えていることである。   In the trigger condition “C1 AND C4” set in the behavior definition information shown in FIG. 9, the condition C4 indicates a condition indicating the range of the interest degree UIL of the user U obtained by the analysis unit 122 shown in FIG. ing. In the example of FIG. 9, the condition C4 is that the degree of interest UIL of the user U with respect to the robot CR exceeds the numerical value “0.8”.

このような契機条件に基づいて、図7に示した検索部14がふるまい候補の検索を行うことにより、利用者UがロボットCRとの相互作用に大きな関心を示しているときに限って、ふるまい「はしゃいで喜ぶ」をふるまい候補の一つとして抽出することが可能である。   Based on such a trigger condition, the search unit 14 shown in FIG. 7 searches for a behavior candidate, so that the behavior is limited only when the user U shows a great interest in the interaction with the robot CR. “Happy and happy” can be extracted as one of the behavior candidates.

上述したように、図7に示した検索部14は、状況テーブル123に含まれる最新のインタラクション情報と、データベース13内の各ふるまい定義情報に含まれる契機条件とを照合することにより、まず、契機条件が満たされているふるまいを抽出する。次いで、検索部14は、このようにして抽出したふるまいそれぞれについて、指示Dirで指定された目的に対応する期待度として、「0」以外の値が設定されているか否かによって、目的の達成に有効なふるまいをふるまい候補として判別する。   As described above, the search unit 14 illustrated in FIG. 7 first collates the latest interaction information included in the situation table 123 with the trigger condition included in each behavior definition information in the database 13. Extract the behavior that satisfies the condition. Next, the search unit 14 achieves the purpose depending on whether or not a value other than “0” is set as the degree of expectation corresponding to the purpose specified by the instruction Dir for each behavior extracted in this way. Valid behaviors are identified as behavior candidates.

したがって、検索部14がふるまい候補として抽出するふるまいは、利用者Uの状態を示す各指標値を含む最新のインタラクション情報によって契機条件が満たされているふるまいに限られている。つまり、図9に示した契機条件が設定されたふるまい「はしゃいで喜ぶ」は、状況テーブル123に保持された最新のインタラクション情報により、利用者Uの興味度が数値「0.8」を超えたことが示されない限り、ふるまい候補として抽出されることはない。   Therefore, the behavior extracted as a behavior candidate by the search unit 14 is limited to a behavior in which the trigger condition is satisfied by the latest interaction information including each index value indicating the state of the user U. In other words, the behavior “Happy and happy” with the trigger condition shown in FIG. 9 shows that the interest level of the user U exceeded the numerical value “0.8” due to the latest interaction information held in the situation table 123. Unless it is shown, it is not extracted as a behavior candidate.

ここで、利用者UのロボットCRに対する興味度UILを含む各指標値は、例えば、図10に示すように、ロボットCRからの働きかけの積み重ねなどに応じて時間的に変化する。   Here, each index value including the degree of interest UIL of the user U with respect to the robot CR varies with time in accordance with, for example, accumulation of actions from the robot CR as shown in FIG.

図10は、興味度UILの時間変化の例を示している。なお、図10に示した要素のうち、図8に示した要素と同等のものについては、同一の符号を付して示し、その説明は省略する。   FIG. 10 shows an example of the temporal change in the degree of interest UIL. Note that among the elements shown in FIG. 10, elements equivalent to those shown in FIG. 8 are denoted by the same reference numerals, and description thereof is omitted.

図10に示した例では、利用者UのロボットCRに対する興味度UILは、概ね時間の経過に従って上昇している。この興味度UILのグラフにおいて、時刻Ti,Tjにおける興味度UILの値は、いずれも数値「0.8」未満であるが、その後の時刻Tkにおいて、興味度UILの値は数値「0.8」に到達している。   In the example illustrated in FIG. 10, the degree of interest UIL of the user U with respect to the robot CR generally increases with time. In this interest degree UIL graph, the values of the interest degree UIL at the times Ti and Tj are both less than the numerical value “0.8”. At the subsequent time Tk, the value of the interest degree UIL is the numerical value “0.8”. Has been reached.

このような指標値の変化に応じて、検索部14がデータベース13から検索するふるまい候補に、ふるまい「はしゃいで喜ぶ」のようなリスクを持つふるまいが含まれるか否かが変わってくる。例えば、目的「活動度を上昇させる」に寄与するふるまいの例として図3に示した各ふるまいの契機条件が、利用者Uの興味度UILに関する条件を除いて全て満たされている場合に、ふるまい候補は、興味度UILの変化に応じて次のように変化する。   In accordance with such a change in the index value, whether or not the behavior candidate searched by the search unit 14 from the database 13 includes a behavior having a risk such as “being happy” is changed. For example, when the trigger conditions of each behavior shown in FIG. 3 as examples of behavior that contributes to the purpose “increase activity” are all satisfied except for the conditions related to the interest UIL of the user U, the behavior A candidate changes as follows according to the change of the degree of interest UIL.

利用者UのロボットCRに対する興味度UILが図10に示したように変動する場合に、上述したふるまい「はしゃいで喜ぶ」の契機条件は、時刻Tk以前の時刻Tiおよび時刻Tjにおいては満たされない。   When the degree of interest UIL of the user U with respect to the robot CR varies as shown in FIG. 10, the trigger condition for the behavior “pleasantly pleased” described above is not satisfied at time Ti and time Tj before time Tk.

したがって、例えば、時刻Tiにおいて、指示Dirで指定された目的がふるまい「はしゃいで喜ぶ」が寄与する目的であっても、図7に示した検索部14が、ふるまい「はしゃいで喜ぶ」をふるまい候補として抽出することはない。なぜなら、インタラクション情報と各ふるまい定義情報内の契機条件を照合する過程で、検索部14は、ふるまい「はしゃいで喜ぶ」は契機条件が満たされていないと判断し、ふるまい候補から除外するからである。この場合に、目的「活動度を上昇させる」を指定する指示Dirに応じて検索部14が抽出するふるまい候補は、ふるまい「さわやかな挨拶」、ふるまい「手を振る」およびふるまい「くしゃみをする」の3つである。   Therefore, for example, even at the time Ti, even if the purpose specified by the instruction Dir is the purpose contributed by the behavior “Happy and happy”, the search unit 14 shown in FIG. 7 selects the behavior “Happy and happy” as the behavior candidate. Not to extract as. This is because, in the process of collating the interaction information with the trigger condition in each behavior definition information, the search unit 14 determines that the trigger condition is not satisfied and excludes it from the candidate behavior. . In this case, the behavior candidates extracted by the search unit 14 in response to the instruction Dir designating the purpose “increase activity” are the behavior “refreshing greeting”, the behavior “waving hands”, and the behavior “sneezing”. It is three.

一方、図10に示した時刻Tk以降に、ふるまい「はしゃいで喜ぶ」が寄与する目的の一つを指定する指示Dirが入力されれば、図7に示した検索部14は、ふるまい「はしゃいで喜ぶ」をふるまい候補の一つとして抽出する。したがって、時刻Tk以降に、目的「活動度を上昇させる」を指定する指示Dirに応じて検索部14が抽出するふるまい候補は、上述した3つのふるまいに、ふるまい「はしゃいで喜ぶ」を加えた4つである。   On the other hand, if an instruction Dir that designates one of the purposes to which the behavior “joyful” is input after time Tk shown in FIG. 10, the search unit 14 shown in FIG. "Rejoice" is extracted as one of the behavior candidates. Therefore, after the time Tk, the behavior candidate extracted by the search unit 14 in response to the instruction Dir designating the purpose “increase activity” is the above-mentioned three behaviors plus 4 behaviors “pleasantly rejoice” 4 One.

このように、図7に示したインタラクション装置10によれば、緻密に構築された固定的なシナリオによらずに、相互作用の対象となる利用者Uの状態を含めたインタラクション状況の変化に応じて、多彩に変化する働きかけを実行することができる。これにより、ふるまい「はしゃいで喜ぶ」のようなふるまいのために、利用者UにとってロボットCRが煩わしい存在となるリスクを低減し、ロボットCRと利用者Uとの相互作用を安定的に継続させることができる。   As described above, according to the interaction device 10 shown in FIG. 7, the interaction apparatus 10 responds to changes in the interaction state including the state of the user U that is the target of the interaction, without depending on the densely constructed fixed scenario. In this way, it is possible to execute various and varied actions. This reduces the risk that the robot CR will be bothersome for the user U due to the behavior of “being happy”, and the interaction between the robot CR and the user U can be continued stably. Can do.

なお、データベース13に登録する各ふるまいが、上述したようなリスクを持つふるまいであるか否かは、様々な状況において、個々のふるまいを様々な人物に対して提示した際に得られる反応を集積する実験などによって予め見極めることができる。また、当該ふるまいの効果を左右する要因についても、同様の実験結果に基づいて、予め判別することができる。   Whether or not each behavior registered in the database 13 has a risk as described above is determined by accumulating responses obtained when each behavior is presented to various persons in various situations. This can be determined in advance by experiments. Further, the factors that influence the effect of the behavior can be determined in advance based on the same experimental results.

そして、上述したふるまい「はしゃいで喜ぶ」と同様に、上述したようにして見極めたリスクを持つふるまいについて、目的達成の効果を左右する利用者Uの状態を示す指標値についての条件を含む契機条件を設定することができる。これにより、これらのふるまいが利用者Uに対して効果的に働く場面に限って、これらのふるまいをふるまい候補に含めることができるので、上述したようなふるまいをロボットCRによって出力させる際のリスクを避けることができる。   And the behavior having the risk determined as described above, as well as the behavior described above, the trigger condition including the condition for the index value indicating the state of the user U that determines the effect of achieving the objective. Can be set. As a result, since these behaviors can be included in the behavior candidates only in situations where these behaviors work effectively for the user U, the risk of outputting the behaviors as described above by the robot CR is reduced. Can be avoided.

このように、図7に示したインタラクション装置10によれば、利用者Uの状態に関する条件を含む契機条件を一部のふるまいについて設定することにより、ロボットCRと利用者Uとの相互作用を高い確度で継続させつつ、目的に応じた働きかけを実現できる。   As described above, according to the interaction device 10 shown in FIG. 7, the interaction between the robot CR and the user U is enhanced by setting the trigger condition including the condition related to the state of the user U for a part of the behavior. While continuing with accuracy, it is possible to achieve an action according to the purpose.

ところで、指示Dirで利用者Uへの働きかけの目的として指定される状態変化は、いずれも、上述した興味度UIL,活動度UAL,情動度UELを含む各指標値の変化として表れる。したがって、指示Dirで指定された指標値の変化を引き出すためにロボットCRがあるふるまいを実行した後に、解析部122の解析結果として得られる当該指標値は、そのまま目的の達成度を示している。したがって、解析部122によって得られる各指標値の変化に基づいて、その指標値に関する目的の指定に応じて、出力装置11が利用者Uに対して提示したふるまいの効果を評価し、評価結果に基づいて期待度を最適化することが可能である。   By the way, all the state changes specified as the purpose of acting on the user U by the instruction Dir appear as changes in the respective index values including the interest degree UIL, the activity degree UAL, and the emotion degree UEL. Therefore, the index value obtained as an analysis result of the analysis unit 122 after executing a certain behavior of the robot CR in order to extract a change in the index value specified by the instruction Dir indicates the target achievement level as it is. Therefore, based on the change of each index value obtained by the analysis unit 122, the effect of the behavior presented by the output device 11 to the user U is evaluated according to the designation of the purpose related to the index value, and the evaluation result is obtained. It is possible to optimize the expectation based on this.

図11は、インタラクション装置10の別実施形態を示している。なお、図11に示した構成要素のうち、図7に示した構成要素と同等のものについては、同一の符号を付して示し、その説明は省略する。   FIG. 11 shows another embodiment of the interaction device 10. 11 that are the same as those shown in FIG. 7 are denoted by the same reference numerals and description thereof is omitted.

図11に示したインタラクション装置10は、図7に示した出力装置11、検知部12、データベース13、検索部14、選択部15、制御部16に加えて、更新部17を含んでいる。   The interaction device 10 shown in FIG. 11 includes an update unit 17 in addition to the output device 11, the detection unit 12, the database 13, the search unit 14, the selection unit 15, and the control unit 16 shown in FIG.

更新部17は、ふるまいの出力の前後に解析部122によって得られる指標値の変化に基づいて、ロボットCRが出力したふるまいに対応するふるまい定義情報について、指示Dirで働きかけの目的として指定された種類の状態変化についての期待度を更新する。   The update unit 17 determines, based on the change in the index value obtained by the analysis unit 122 before and after the output of the behavior, the type of behavior definition information corresponding to the behavior output by the robot CR, which is designated as the purpose of the action in the instruction Dir. Update the expectation level for the state change.

例えば、更新部17は、まず、指示Dirに応じて選択されたふるまいを出力装置11が出力する前後のタイミングにおいて状況テーブル123を参照することで、指定された目的に対応する達成度を示す指標値を、ふるまいの出力前後についてそれぞれ取得する。次いで、更新部17は、上述したふるまいの出力後に対応して取得した達成度から、ふるまいの出力前に対応して取得した達成度を差し引くことにより、このふるまいを出力したことによる達成度の変化分δを求める。なお、更新部17は、例えば、指示Dirに応じて選択されたふるまいを出力装置11が出力する前後のタイミングを示す通知を制御部15から受け取り、この通知に応じて、状況テーブル123を参照してもよい。   For example, the update unit 17 first refers to the situation table 123 at a timing before and after the output device 11 outputs the behavior selected according to the instruction Dir, thereby indicating an achievement level corresponding to the designated purpose. Get the values before and after the behavior output. Next, the update unit 17 subtracts the achievement obtained correspondingly before outputting the behavior from the achievement obtained correspondingly after outputting the behavior described above, thereby changing the achievement due to the output of this behavior. Find the minute δ. The update unit 17 receives, for example, a notification indicating the timing before and after the output device 11 outputs the behavior selected according to the instruction Dir from the control unit 15, and refers to the status table 123 according to this notification. May be.

例えば、図10に示したように興味度UILが変化した場合に、時刻Tiから時刻Tjの期間に提示されたふるまいについて、更新部17は、目的「興味度を上昇させる」の達成度の変化分として、上述した期間における興味度UILの変化分δを得る。   For example, when the degree of interest UIL changes as shown in FIG. 10, for the behavior presented during the period from time Ti to time Tj, the update unit 17 changes the achievement degree of the purpose “increase the degree of interest”. As a minute, a change δ of the degree of interest UIL in the above-described period is obtained.

また、図11に示した更新部17は、上述したようにして得られた達成度の変化分δに基づいて、上述したふるまいに対応するふるまい定義情報において、指示Dirで指定された目的に関する新たな期待度を算出する。更新部17は、上述した達成度の変化分δと、所定の係数kと、ふるまいの実行前の期待度XILbとに基づいて、例えば、次に示す式(5)で表される新たな期待度XILnを算出してもよい。
XILn=XILb+k×δ ・・・(5)
更新部17は、式(5)に示した係数kの値を適切に設定することにより、個々のふるまいを提示した際の利用者Uの反応に基づく学習結果を、対応する期待度に反映する程度を調節することができる。なお、更新部17は、上述した係数kの値としては比較的小さい値を設定し、個々のふるまいを実行した際に求めた達成度の変化分δによって、新たな期待度が前の期待度から過度に大きく変化しないように、また、日々のふれあいによって徐々に変動していくように調整することが望ましい。また、更新部17は、上述したようにして算出した新たな期待度XILnの値を、期待度としての値の範囲である数値「0」から数値「1」までの範囲に制限することが望ましい。
Further, the update unit 17 shown in FIG. 11 performs a new process related to the purpose specified by the instruction Dir in the behavior definition information corresponding to the behavior described above, based on the change δ in the achievement level obtained as described above. Calculate a high degree of expectation. Based on the above-described change δ of the achievement level, the predetermined coefficient k, and the expected level XILb before the execution of the behavior, the update unit 17 performs, for example, a new expectation expressed by the following equation (5) The degree XILn may be calculated.
XILn = XILb + k × δ (5)
The update unit 17 appropriately sets the value of the coefficient k shown in Equation (5), thereby reflecting the learning result based on the reaction of the user U when presenting each behavior in the corresponding expectation. The degree can be adjusted. Note that the update unit 17 sets a relatively small value as the value of the coefficient k described above, and the new expectation is changed to the previous expectation by the change δ of the achievement obtained when each behavior is executed. It is desirable to make adjustments so that it does not change excessively and gradually changes according to daily contact. Further, it is desirable that the updating unit 17 restricts the value of the new expected degree XILn calculated as described above to a range from a numerical value “0” to a numerical value “1” that is a range of values as the expected degree. .

また、更新部17は、上述したようにして算出した新たな期待度XILnを用いて、出力装置11によって出力されたふるまいについてデータベース13に登録されたふるまい定義情報に対して、指定された目的に対応する期待度を書き換える処理を行う。   In addition, the updating unit 17 uses the new expectation degree XILn calculated as described above, for the behavior specified for the behavior definition information registered in the database 13 for the behavior output by the output device 11. Performs processing to rewrite the corresponding expectation.

このようにして、更新部17は、ふるまいの出力の前後に解析部122によって得られる指標値の変化分δを反映する新たな期待度を算出し、この新たな期待度を用いて、データベース13内の情報を更新することで、期待度の最適化を図ることができる。   In this way, the update unit 17 calculates a new expectation level that reflects the change δ of the index value obtained by the analysis unit 122 before and after the behavior output, and uses this new expectation level to calculate the database 13. By updating the information, the degree of expectation can be optimized.

このように、利用者Uとの相互作用を積み重ねる過程で、個々のふるまいが利用者Uの各指標値の変化を引き出すことについての期待度を変化させることにより、検索部14および選択部15が指定された目的に応じて選択するふるまいの傾向もまた変化する。この変化は、検索部14および選択部15が、指定された目的を達成する上で、利用者Uにより有効に働くふるまいを選択する方向への変化である。つまり、上述したようにして、検知部12によって検知した状況の変化に応じて、更新部17が対応する期待度を更新することにより、検索部14および選択部15によって利用者Uにより有効に働くふるまいを選択させるための学習を実現することができる。   In this way, in the process of accumulating the interaction with the user U, the search unit 14 and the selection unit 15 change the expectation that each behavior leads to the change of each index value of the user U. The tendency of the behavior to select according to the designated purpose also changes. This change is a change in a direction in which the search unit 14 and the selection unit 15 select a behavior that works more effectively by the user U in achieving the specified purpose. That is, as described above, the search unit 14 and the selection unit 15 work more effectively on the user U by updating the expectation level corresponding to the update unit 17 according to the change in the situation detected by the detection unit 12. Learning for selecting the behavior can be realized.

つまり、図11に示した更新部17を有するインタラクション装置10によれば、利用者Uとのふれあいを継続する中で、この利用者Uの個性に適合するふるまいを選択するためのカスタマイズを実現することができる。   That is, according to the interaction device 10 having the updating unit 17 illustrated in FIG. 11, customization for selecting a behavior that suits the individuality of the user U is realized while continuing to interact with the user U. be able to.

図11に示した更新部17を有するインタラクション装置10によって実現可能なカスタマイズは、利用者Uが個別のふるまいに飽きてしまった場合などにも対処することが可能である。   The customization that can be realized by the interaction device 10 having the updating unit 17 shown in FIG. 11 can cope with the case where the user U gets bored with individual behavior.

なぜなら、利用者Uが、あるふるまいAに飽きてしまった場合に、この利用者Uが当該ふるまいAの提示の前後で示す反応に基づいて、解析部122によって得られる指標値の変化分δは、負の値を持っている可能性が高いからである。式(5)から明らかなように、変化分δが負の値である場合、新たな期待度XILnの値は、ふるまいAの実行前の期待度XILbよりも小さくなる。これにより、ふるまいAが再び選択される確率に比べて、他のふるまいが選択される確率が相対的に大きくなるので、利用者Uに対して新鮮な刺激を与えることが可能となる。   Because, when the user U gets bored with a certain behavior A, the change δ of the index value obtained by the analysis unit 122 based on the reaction that the user U shows before and after the presentation of the behavior A is This is because the possibility of having a negative value is high. As is apparent from the equation (5), when the change δ is a negative value, the value of the new expectation degree XILn is smaller than the expectation degree XILb before the behavior A is executed. Thereby, compared with the probability that the behavior A is selected again, the probability that the other behavior is selected becomes relatively large, and thus it is possible to give a fresh stimulus to the user U.

なお、更新部17が新たな期待度XILnを算出する手法は、式(5)に限らず、指標値の変化分δを新たな期待度に反映する手法であれば、他のどんな手法でもよい。例えば、上述した変化分δについて設けた複数の区分ごとに、期待度XILの更新の際に適用する期待度XILの増分を予め設定しておき、指標値の変化分δが属する区分に応じた期待度XILの増分を適用することで、新たな期待度XILnを算出してもよい。   The method by which the update unit 17 calculates the new expectation level XILn is not limited to the equation (5), and any other method may be used as long as the index value change δ is reflected in the new expectation level. . For example, for each of the plurality of sections provided for the change amount δ described above, an increment of the expectation degree XIL to be applied when the expectation degree XIL is updated is set in advance, and the change corresponding to the section to which the index value change amount δ belongs A new expectation degree XILn may be calculated by applying an increment of the expectation degree XIL.

このように、本件開示のインタラクション装置10は、相互作用の対象となる利用者Uごとの自動的なカスタマイズも容易に実現可能である。また、本件開示のインタラクション装置10は、データベース13に、適切な契機条件および各目的に対応する期待度を設定した新たなふるまい定義情報を追加することにより、利用者Uに対して提示可能なふるまいを容易に拡大することができる。これにより、ロボットCRを媒介とする相互作用に対して、利用者Uが飽きてしまう事態の発生をより高い確度で防ぐことができるので、長期間にわたって、安定的に相互作用を持続させることが可能である。   As described above, the interaction device 10 disclosed herein can easily realize automatic customization for each user U to be interacted with. In addition, the interaction device 10 disclosed herein adds a new behavior definition information in which an appropriate trigger condition and an expectation level corresponding to each purpose are set to the database 13, and can be presented to the user U. Can be easily expanded. As a result, it is possible to prevent the occurrence of a situation where the user U gets bored with higher accuracy with respect to the interaction via the robot CR, so that the interaction can be stably maintained over a long period of time. Is possible.

以上に説明した本件開示のインタラクション装置10は、例えば、パーソナルコンピュータなどのコンピュータ装置を用いて実現することができる。   The interaction device 10 disclosed herein can be realized by using a computer device such as a personal computer, for example.

図12は、画像処理装置10のハードウェア構成の一例を示している。なお、図12に示した構成要素のうち、図7に示した構成要素と同等のものについては、同一の符号を付して示し、その説明は省略する。   FIG. 12 shows an example of the hardware configuration of the image processing apparatus 10. Note that among the components shown in FIG. 12, components equivalent to those shown in FIG. 7 are denoted by the same reference numerals and description thereof is omitted.

コンピュータ装置20は、プロセッサ21と、メモリ22と、ハードディスク装置(HDD)23と、表示装置24と、入力装置25と、光学ドライブ装置26と、ネットワークインタフェース28とを含んでいる。更に、このコンピュータ装置20は、周辺機器インタフェース29と、ロボットインタフェース30とを含んでいる。また、図12において、インタラクション装置10は、プロセッサ21と、メモリ22と、ハードディスク装置23と、周辺機器インタフェース29と、ロボットインタフェース30と、ロボットCRとを含んでいる。   The computer device 20 includes a processor 21, a memory 22, a hard disk device (HDD) 23, a display device 24, an input device 25, an optical drive device 26, and a network interface 28. Further, the computer device 20 includes a peripheral device interface 29 and a robot interface 30. In FIG. 12, the interaction device 10 includes a processor 21, a memory 22, a hard disk device 23, a peripheral device interface 29, a robot interface 30, and a robot CR.

図12に例示したプロセッサ21と、メモリ22と、ハードディスク装置23と、表示装置24と、入力装置25と、光学ドライブ装置26と、ネットワークインタフェース28とは、バスを介して互いに接続されている。また、このプロセッサ21と、周辺機器インタフェース29と、ロボットインタフェース30とも、上述したバスを介して互いに接続されている。図12に示した周辺機器インタフェース29には、センサ部SDが接続されており、プロセッサ21は、このセンサ部SDで得られた計測結果を、周辺機器インタフェース29を介して取得する。また、図12に示したロボットインタフェース30は、クマ型のロボットCRに接続されており、プロセッサ21は、このロボットインタフェース30を介してロボットCRとの間で情報の授受を行う。   The processor 21, the memory 22, the hard disk device 23, the display device 24, the input device 25, the optical drive device 26, and the network interface 28 illustrated in FIG. 12 are connected to one another via a bus. Further, the processor 21, the peripheral device interface 29, and the robot interface 30 are also connected to each other via the bus described above. The sensor unit SD is connected to the peripheral device interface 29 illustrated in FIG. 12, and the processor 21 acquires the measurement result obtained by the sensor unit SD via the peripheral device interface 29. The robot interface 30 shown in FIG. 12 is connected to the bear-type robot CR, and the processor 21 exchanges information with the robot CR via the robot interface 30.

上述した光学ドライブ装置26は、光ディスクなどのリムーバブルディスク27を装着可能であり、装着したリムーバブルディスク27に記録された情報の読出および記録を行う。また、図12に例示した入力装置25は、例えば、キーボードやマウスなどである。インタラクション装置10の操作者は、入力装置25を操作することにより、インタラクション装置10に対して、例えば、利用者Uに対するふるまいの提示によって達成すべき目的を指定する指示などを入力することができる。なお、インタラクション装置10の操作者は、例えば、上述した利用者Uの見守りサービスを依頼した人物などである。このインタラクション装置10の操作者は、インタラクション装置10が設置された場所から離れた場所に居住していてもよい。インタラクション装置10から離れた場所にいる操作者は、例えば、ネットワークNWおよびネットワークインタフェース28を介して、インタラクション装置10に対する指示を入力してもよい。   The optical drive device 26 described above can be mounted with a removable disk 27 such as an optical disk, and reads and records information recorded on the mounted removable disk 27. Moreover, the input device 25 illustrated in FIG. 12 is, for example, a keyboard or a mouse. An operator of the interaction device 10 can input an instruction for specifying an object to be achieved by presenting behavior to the user U, for example, by operating the input device 25. Note that the operator of the interaction device 10 is, for example, a person who requests the above-described user U watching service. The operator of the interaction device 10 may live in a place away from the place where the interaction device 10 is installed. An operator who is away from the interaction device 10 may input an instruction to the interaction device 10 via the network NW and the network interface 28, for example.

図12に例示したメモリ22は、コンピュータ装置20のオペレーティングシステムとともに、プロセッサ21が上述したようにして利用者Uと相互作用を行うためのインタラクション処理を実行するためのアプリケーションプログラムを格納している。なお、インタラクション処理を実行するためのアプリケーションプログラムおよび図7に示したデータベース13を構築するための情報は、例えば、光ディスクなどのリムーバブルディスク27に記録して頒布することができる。そして、このリムーバブルディスク27を光学ドライブ装置26に装着して読み込み処理を行うことにより、インタラクション処理を実行するためのアプリケーションプログラムを、メモリ22およびハードディスク装置23に格納させてもよい。また、インタラクション処理を実行するためのアプリケーションプログラムのインストール作業とともに、上述したデータベース13を構築するための情報に基づいて、ハードディスク装置23内にデータベース13を生成してもよい。インタラクション処理を実行するためのアプリケーションプログラムおよびデータベース13を構築するための情報は、ネットワークインタフェース28を介して取得することもできる。   The memory 22 illustrated in FIG. 12 stores an application program for executing an interaction process for the processor 21 to interact with the user U as described above, together with the operating system of the computer device 20. Note that the application program for executing the interaction process and the information for constructing the database 13 shown in FIG. 7 can be recorded and distributed on, for example, a removable disk 27 such as an optical disk. Then, an application program for executing the interaction process may be stored in the memory 22 and the hard disk device 23 by loading the removable disk 27 in the optical drive device 26 and performing a reading process. The database 13 may be generated in the hard disk device 23 based on the information for constructing the database 13 described above together with the installation work of the application program for executing the interaction process. The application program for executing the interaction process and the information for constructing the database 13 can also be acquired via the network interface 28.

インタラクション処理のためのアプリケーションプログラムは、ロボットCRと利用者Uとの間の相互作用に関する状況を検知する処理をプロセッサ21に実行させるためのアプリケーションプログラムを含んでいる。   The application program for the interaction process includes an application program for causing the processor 21 to execute a process for detecting a situation related to the interaction between the robot CR and the user U.

プロセッサ21は、ロボットCRを介して利用者Uに対する働きかけを行っている期間に亘って、状況を検知する処理のためのアプリケーションプログラムを定期的に実行することによって、検知部12の機能を実現してもよい。   The processor 21 implements the function of the detection unit 12 by periodically executing an application program for processing for detecting the situation over a period in which the user U is acted on via the robot CR. May be.

図13は、状況を検知する処理のフローチャートの一例を示している。図13に示したステップ201〜ステップ205の各処理は、状況を検知する処理のためのアプリケーションプログラムをプロセッサ21が実行することによって実現することができる。   FIG. 13 shows an example of a flowchart of processing for detecting a situation. Each process of step 201 to step 205 illustrated in FIG. 13 can be realized by the processor 21 executing an application program for a process for detecting a situation.

プロセッサ21は、まず、図12に示したセンサ部SDおよびロボットCRに設けられた各種のセンサによって取得された計測値を収集する(ステップ201)。このステップ201で、プロセッサ21は、周辺機器インタフェース29を介して、センサ部SDで得られた明るさや気温など環境に関する各種の計測値を収集する。また、プロセッサ21は、ロボットインタフェース30を介して、ロボットCRに設けられたカメラやマイクロホンなどによって得られた利用者Uの反応を示す計測値を収集する。   First, the processor 21 collects measurement values acquired by various sensors provided in the sensor unit SD and the robot CR shown in FIG. 12 (step 201). In step 201, the processor 21 collects various measurement values related to the environment such as brightness and temperature obtained by the sensor unit SD via the peripheral device interface 29. Further, the processor 21 collects measurement values indicating the reaction of the user U obtained by a camera, a microphone, or the like provided in the robot CR via the robot interface 30.

次いで、プロセッサ21は、ステップ201の処理で得られた利用者Uの反応を示す計測値に基づいて、この利用者Uの状態を示す各指標値を算出する(ステップ202)。このステップ202において、プロセッサ21は、上述した特願2011−243573の技法を利用可能であることは、上述したとおりである。   Next, the processor 21 calculates each index value indicating the state of the user U based on the measured value indicating the reaction of the user U obtained in the process of step 201 (step 202). As described above, in this step 202, the processor 21 can use the technique of the above-mentioned Japanese Patent Application No. 2011-243573.

次に、プロセッサ21は、ステップ201で収集した環境に関する各種の計測値と、ステップ202で算出した各指標値とを含むインタラクション情報を、ハードディスク装置23などに設けた状況テーブル123に、現在時刻に対応して格納する(ステップ203)。   Next, the processor 21 stores the interaction information including various measured values related to the environment collected in step 201 and each index value calculated in step 202 in the status table 123 provided in the hard disk device 23 or the like at the current time. Store correspondingly (step 203).

次いで、プロセッサ21は、ステップ204において、次の検知タイミングまで待機した後に、例えば、図12に示した入力装置25を介してインタラクション処理を停止する指示が入力されたか否かを判定する(ステップ205)。インタラクション処理を停止する指示が入力されていない場合に、プロセッサ21は、ステップ205の否定判定ルートに従ってステップ201の処理に戻り、ステップ201〜ステップ205の処理を繰り返す。   Next, after waiting for the next detection timing in step 204, the processor 21 determines whether or not an instruction to stop the interaction processing is input via the input device 25 shown in FIG. 12, for example (step 205). ). When the instruction to stop the interaction process is not input, the processor 21 returns to the process of step 201 according to the negative determination route of step 205 and repeats the processes of step 201 to step 205.

このようにして、プロセッサ21は、ロボットCRと利用者Uとの間の相互作用に関する状況を所定期間ごとに検知し、この検知処理で得られるインタラクション情報を、ハードディスク装置23などに設けた状況テーブル123に保持させることができる。また、上述した状況を検知する処理の過程において、プロセッサ21が、ステップ202の処理を実行することにより、図7に示した解析部122の機能を実現することができる。これにより、プロセッサ21は、上述した状況テーブル123に、利用者Uの状態を示す各指標値を含むインタラクション情報を保持させることができる。   In this way, the processor 21 detects the situation related to the interaction between the robot CR and the user U every predetermined period, and the situation table in which the interaction information obtained by this detection processing is provided in the hard disk device 23 or the like. 123 can be held. In addition, in the process of detecting the above-described situation, the processor 21 executes the process of step 202, thereby realizing the function of the analysis unit 122 illustrated in FIG. Thereby, the processor 21 can hold the interaction information including the index values indicating the state of the user U in the situation table 123 described above.

なお、例えば、利用者Uが就寝したことが確認されたことなどをきっかけとして、インタラクション処理を終了する指示が入力されたときに、プロセッサ21は、上述したステップ205の肯定判定ルートに従って、状況を検知する処理を終了する。   Note that, for example, when an instruction to end the interaction process is input after the confirmation that the user U has gone to bed, the processor 21 changes the situation according to the affirmative determination route of step 205 described above. The detection process is terminated.

また、インタラクション処理のためのアプリケーションプログラムは、ロボットCRによって利用者Uに提示するふるまいを制御する処理をプロセッサ21に実行させるためのアプリケーションプログラムを含んでいる。   Further, the application program for the interaction process includes an application program for causing the processor 21 to execute a process for controlling the behavior presented to the user U by the robot CR.

図14は、ふるまいを制御する処理のフローチャートの一例を示している。図14に示したステップ301〜ステップ306の各処理は、ふるまいを制御する処理のためのアプリケーションプログラムに含まれる各アプリケーションプログラムをプロセッサ21が実行することによって実現することができる。   FIG. 14 shows an example of a flowchart of processing for controlling behavior. Each process of step 301 to step 306 shown in FIG. 14 can be realized by the processor 21 executing each application program included in the application program for the process for controlling the behavior.

ふるまいを制御する処理のためのアプリケーションプログラムは、インタラクションの目的を指定する指示に応じて、データベース13からふるまいを選択する処理をプロセッサ21に実行させるためのアプリケーションプログラムを含んでいる。図14に示したフローチャートにおいて、プロセッサ21は、ステップ301でインタラクションの目的を指定する指示を待ち受けた後に、ステップ302において、このアプリケーションプログラムを実行する。そして、このステップ302の処理により、ハードディスク装置23内に設けられたデータベース13から、ステップ301の処理で受け取った指示が指定する目的を達成可能なふるまいを選択する。つまり、プロセッサ21がステップ302の処理を実行することは、プロセッサ21と、メモリ22およびハードディスク装置23との協働によって、図1に例示した検索部14および選択部15を実現する手法の一例である。   The application program for the process for controlling the behavior includes an application program for causing the processor 21 to perform a process for selecting the behavior from the database 13 in accordance with an instruction for specifying the purpose of the interaction. In the flowchart shown in FIG. 14, the processor 21 waits for an instruction to specify the purpose of interaction in step 301, and then executes the application program in step 302. In step 302, a behavior that can achieve the purpose specified by the instruction received in step 301 is selected from the database 13 provided in the hard disk device 23. That is, the execution of the processing of step 302 by the processor 21 is an example of a technique for realizing the search unit 14 and the selection unit 15 illustrated in FIG. 1 by the cooperation of the processor 21, the memory 22, and the hard disk device 23. is there.

また、ふるまいを制御する処理のためのアプリケーションプログラムは、選択されたふるまいをロボットCRに設けられた機能を利用して利用者Uに対して提示する処理をプロセッサ21に実行させるためのアプリケーションプログラムを含んでいる。図14に示したフローチャートにおいて、プロセッサ21は、ステップ303において、このアプリケーションプログラムを実行する。そして、このステップ303の処理により、ステップ302の処理で選択したふるまいを、ロボットCRによって実現される出力装置11に実行させる。つまり、プロセッサ21がステップ303の処理を実行することは、プロセッサ21と、メモリ22およびハードディスク装置23との協働によって、図1に例示した制御部16を実現する手法の一例である。   Further, the application program for the process for controlling the behavior is an application program for causing the processor 21 to execute the process of presenting the selected behavior to the user U using the function provided in the robot CR. Contains. In the flowchart shown in FIG. 14, the processor 21 executes this application program in step 303. Then, the processing selected in step 302 causes the output device 11 realized by the robot CR to execute the behavior selected in step 302. That is, the execution of the process of step 303 by the processor 21 is an example of a technique for realizing the control unit 16 illustrated in FIG. 1 by the cooperation of the processor 21, the memory 22, and the hard disk device 23.

更に、ふるまいを制御する処理のためのアプリケーションプログラムは、検知された状況の変化に基づいて、出力されたふるまいの目的に対する期待度を更新する処理をプロセッサ21に実行させるためのアプリケーションプログラムを含んでもよい。図14に示したフローチャートのステップ304において、目的の指定があったと判定された場合に、プロセッサ21は、ステップ305において、このアプリケーションプログラムを実行する。そして、このステップ305の処理により、プロセッサ21は、メモリ22あるいはハードディスク装置23に設けた状況テーブル123内のインタラクション情報に基づいて、ステップ303の処理で実行されたふるまいが目的について持つ期待度を更新する。つまり、プロセッサ21がステップ305の処理を実行することは、プロセッサ21と、メモリ22およびハードディスク装置23との協働によって、図7に例示した更新部17を実現する手法の一例である。   Furthermore, the application program for the process for controlling the behavior may include an application program for causing the processor 21 to execute a process for updating the expected degree for the purpose of the outputted behavior based on the detected change in the situation. Good. If it is determined in step 304 of the flowchart shown in FIG. 14 that the purpose is specified, the processor 21 executes the application program in step 305. Then, by the processing in step 305, the processor 21 updates the expected degree of the purpose of the behavior executed in the processing in step 303 based on the interaction information in the status table 123 provided in the memory 22 or the hard disk device 23. To do. That is, the execution of the processing of step 305 by the processor 21 is an example of a technique for realizing the updating unit 17 illustrated in FIG. 7 by the cooperation of the processor 21, the memory 22, and the hard disk device 23.

また、図14に示したフローチャートのステップ306において、プロセッサ21は、例えば、図12に示した入力装置25を介してインタラクション処理を停止する指示が入力されたか否かを判定する。インタラクション処理を停止する指示が入力されていない場合に、プロセッサ21は、ステップ306の否定判定ルートに従ってステップ301の処理に戻り、ステップ301〜ステップ306の処理を繰り返す。このようにして、目的を指定する指示の有無にかかわらず、ロボットCRにより、利用者Uに対する働きかけを継続的に実行させることができる。そして、例えば、利用者Uが就寝したことが確認されたことなどをきっかけとして、インタラクション処理を終了する指示が入力されたときに、プロセッサ21は、ステップ306の肯定判定ルートに従って処理を終了する。   Further, in step 306 of the flowchart shown in FIG. 14, the processor 21 determines whether or not an instruction to stop the interaction processing is input through the input device 25 shown in FIG. 12, for example. When the instruction to stop the interaction process is not input, the processor 21 returns to the process of step 301 according to the negative determination route of step 306 and repeats the processes of step 301 to step 306. In this way, regardless of the presence / absence of an instruction for specifying a purpose, the robot CR can be continuously acted on the user U. Then, for example, when an instruction to end the interaction process is input, triggered by the confirmation that the user U has gone to bed, etc., the processor 21 ends the process according to the affirmative determination route of step 306.

次に、ロボットCRに実行させるふるまいを選択する処理について、図15のフローチャートを用いて説明する。   Next, the process of selecting the behavior to be executed by the robot CR will be described using the flowchart of FIG.

図15は、ふるまいを選択する処理のフローチャートの一例を示している。図15に示したステップ311〜ステップ317の各処理は、ふるまいを選択する処理のためのアプリケーションプログラムに含まれる処理の一例である。また、これらのステップ311〜ステップ317の各処理は、プロセッサ21によって実行される。   FIG. 15 shows an example of a flowchart of processing for selecting a behavior. Each process of step 311 to step 317 illustrated in FIG. 15 is an example of a process included in an application program for selecting a behavior. In addition, each processing of step 311 to step 317 is executed by the processor 21.

まず、プロセッサ21は、メモリ22あるいはハードディスク装置23に設けられた状況テーブル123を参照することにより、最新のインタラクション情報を取得する(ステップ311)。   First, the processor 21 obtains the latest interaction information by referring to the situation table 123 provided in the memory 22 or the hard disk device 23 (step 311).

次に、プロセッサ21は、ステップ311で取得した最新のインタラクション情報とデータベース13に登録された各ふるまい定義情報に含まれる契機条件とを照合することにより、契機条件が満たされているふるまいを抽出する(ステップ312)。上述したように、状況テーブル123に保持されるインタラクション情報は、利用者Uの状態を示す各指標値を含んでいる。したがって、プロセッサ21は、ステップ312の処理を実行することにより、利用者Uの状態に関する条件を含む契機条件に基づいて、抽出するふるまい定義情報を取捨選択することができる。   Next, the processor 21 extracts the behavior satisfying the trigger condition by collating the latest interaction information acquired in step 311 with the trigger condition included in each behavior definition information registered in the database 13. (Step 312). As described above, the interaction information held in the situation table 123 includes each index value indicating the state of the user U. Therefore, the processor 21 can select the behavior definition information to be extracted based on the trigger condition including the condition related to the state of the user U by executing the process of step 312.

次いで、プロセッサ21は、図14に示したステップ301の処理で目的を指定する指示が入力されたか否かを判定する(ステップ313)。   Next, the processor 21 determines whether or not an instruction for specifying a purpose is input in the process of step 301 shown in FIG. 14 (step 313).

インタラクション装置10の操作者によってインタラクションの目的を指定する指示が入力されている場合に、プロセッサ21は、ステップ313の肯定判定ルートに従って、ステップ314〜ステップ316の処理を実行する。   When an instruction to specify the purpose of the interaction is input by the operator of the interaction device 10, the processor 21 executes the processing of step 314 to step 316 according to the affirmative determination route of step 313.

ステップ314において、プロセッサ21は、ステップ312で抽出したふるまいの中から、指定された目的に対応する期待度がふるまい定義情報に設定されているか否かに基づいて、ふるまい候補を絞り込む。なお、複数の目的が指定されている場合に、プロセッサ21は、これらの目的の少なくとも一方についての期待度が設定されているふるまい定義情報に対応するふるまいをふるまい候補に含める。このように、プロセッサ21が、上述したステップ312に続いて、このステップ314の処理を実行することにより、図1に示した検索部14の機能を果たすことができる。   In step 314, the processor 21 narrows down the behavior candidates from the behavior extracted in step 312 based on whether or not the expectation level corresponding to the designated purpose is set in the behavior definition information. When a plurality of purposes are specified, the processor 21 includes the behavior corresponding to the behavior definition information in which the degree of expectation for at least one of these purposes is set as the behavior candidate. In this way, the processor 21 can perform the function of the search unit 14 shown in FIG. 1 by executing the processing of step 314 following step 312 described above.

次いで、プロセッサ21は、各ふるまい候補に対応するふるまい定義情報において、指定された目的に対応して設定された期待度に基づいて、上述した式(1)を用いて、個々のふるまい候補が選択される確率を算出する(ステップ315)。プロセッサ21が、このステップ315の処理を実行することにより、図4に示した算出部151の機能を果たすことができる。なお、図14に示したステップ301において、複数の目的を指定する指示が入力された場合に、プロセッサ21は、ステップ315の処理の過程で、上述した式(2)を用いて、これらの目的に対応する期待度に基づいて合成期待度を算出する。また、この場合に、プロセッサ21は、この合成期待度を用いて、式(4)で表される確率を算出する。   Next, the processor 21 selects individual behavior candidates using the above-described equation (1) based on the expectation degree set in correspondence with the designated purpose in the behavior definition information corresponding to each behavior candidate. The probability of being played is calculated (step 315). The processor 21 can perform the function of the calculation unit 151 illustrated in FIG. 4 by executing the processing of step 315. Note that, in the case where instructions for specifying a plurality of purposes are input in step 301 shown in FIG. 14, the processor 21 uses these equations (2) in the course of the processing in step 315 to determine these purposes. A composite expectation is calculated based on the expectation corresponding to. Further, in this case, the processor 21 calculates the probability represented by the equation (4) using this synthesis expectation.

そして、プロセッサ21は、個々のふるまいについて算出した確率に従って、これらのいずれかを選択することにより、ロボットCRに出力させるふるまいを決定する(ステップ316)。このステップ316の処理で、プロセッサ21は、図4に示した決定部152の機能を実現し、期待度を反映した確率に従って、複数のふるまい候補の中から選択するふるまいを決定する。これにより、目的を達成する可能性が高いふるまいが選択される可能性を大きくしつつ、ロボットCRが出力するふるまいの多様性を維持することができる。   Then, the processor 21 determines the behavior to be output to the robot CR by selecting one of them according to the probability calculated for each behavior (step 316). In the process of step 316, the processor 21 realizes the function of the determination unit 152 shown in FIG. 4, and determines a behavior to be selected from a plurality of behavior candidates according to the probability reflecting the expectation. Thereby, it is possible to maintain the diversity of behaviors output by the robot CR while increasing the possibility of selecting behaviors that are highly likely to achieve the purpose.

このように、ステップ313の肯定判定ルートでは、プロセッサ21が、ステップ314〜ステップ316の処理を実行することにより、指定された目的を達成するためにロボットCRに出力させるふるまいを選択することができる。   As described above, in the affirmative determination route of step 313, the processor 21 can select the behavior to be output to the robot CR in order to achieve the specified purpose by executing the processing of step 314 to step 316. .

一方、ステップ313の否定判定ルートにおいて、プロセッサ21は、ステップ312の処理で抽出した各ふるまいに対応する優先度を参照し、例えば、最も優先度の高いふるまいをロボットCRに出力させるふるまいとして選択する(ステップ317)。図2を用いて説明したように、各ふるまいに対応するふるまい定義情報は、そのふるまいの性質などに応じた優先度を含んでいる。ステップ317の処理において、プロセッサ21は、この優先度に応じてふるまいを選択することにより、例えば、呼吸動作のように継続的に実行されるふるまいよりも、利用者Uからの働きかけに反応するためのふるまいを優先的に選択する。   On the other hand, in the negative determination route in step 313, the processor 21 refers to the priority corresponding to each behavior extracted in the processing in step 312 and selects, for example, the behavior having the highest priority as the behavior to be output to the robot CR. (Step 317). As described with reference to FIG. 2, the behavior definition information corresponding to each behavior includes a priority according to the property of the behavior. In the process of step 317, the processor 21 responds to the action from the user U rather than the behavior that is continuously executed, for example, the breathing motion, by selecting the behavior according to the priority. Priority is given to the behavior.

このように、ステップ313の否定判定ルートでは、プロセッサ21が、ステップ317の処理を実行することにより、ロボットCRを生き物らしく見せるために、このロボットCRに実行させるふるまいを選択することができる。   As described above, in the negative determination route of step 313, the processor 21 can select the behavior to be executed by the robot CR in order to make the robot CR look like a living thing by executing the processing of step 317.

このようにして選択されたふるまいに対応するふるまい定義情報に基づいて、プロセッサ21は、図14に示したステップ303において、ロボットCRに選択されたふるまいを実行させる。このステップ303において、プロセッサ21は、ふるまい定義情報に含まれるふるまい内容を、図12に示したロボットインタフェース30を介してロボットCRに渡すことにより、このふるまい内容に基づくふるまいをロボットCRに実行させる。また、このステップ303において、プロセッサ21は、例えば、ロボットCRにふるまい内容を渡した時刻と、ロボットCRからふるまいの出力が完了した旨の通知を受けた時刻とを、このふるまいの実行前後の時刻としてメモリ22などに保持しておいてもよい。   Based on the behavior definition information corresponding to the behavior selected in this way, the processor 21 causes the robot CR to execute the behavior selected in step 303 shown in FIG. In step 303, the processor 21 passes the behavior content included in the behavior definition information to the robot CR via the robot interface 30 shown in FIG. 12, thereby causing the robot CR to execute the behavior based on the behavior content. In step 303, for example, the processor 21 sets the time before and after the execution of the behavior to the time when the behavior content is passed to the robot CR and the time when the notification of the completion of the behavior output is received from the robot CR. May be stored in the memory 22 or the like.

このステップ303でロボットCRに実行させたふるまいが、指定された目的を達成するためのふるまいである場合に、プロセッサ21は、ステップ304の肯定判定ルートに進み、ステップ305において、期待度を更新する処理を実行する。   When the behavior executed by the robot CR in step 303 is the behavior for achieving the specified purpose, the processor 21 proceeds to the affirmative determination route in step 304 and updates the expectation in step 305. Execute the process.

図16は、期待度を更新する処理のフローチャートの一例を示している。図16に示したステップ321〜ステップ324の各処理は、期待度を更新する処理のためのアプリケーションプログラムに含まれる処理の一例である。また、これらのステップ321〜ステップ324の各処理は、プロセッサ21によって実行される。   FIG. 16 shows an example of a flowchart of a process for updating the expectation degree. Each process of step 321 to step 324 illustrated in FIG. 16 is an example of a process included in the application program for the process of updating the expectation degree. In addition, each processing of step 321 to step 324 is executed by the processor 21.

まず、プロセッサ21は、上述した状況テーブル123を参照し、ふるまいの実行前後の時刻に対応して保持されたインタラクション情報をそれぞれ取得する(ステップ321)。ふるまい実行前後の時刻は、例えば、上述したステップ303の処理の過程でメモリ22などに保持しておくことで得られる。また、プロセッサ21は、ステップ303の処理で、指定された目的を達成するためのふるまいをロボットCRに実行させる際に、ふるまい内容の転送に先立って状況テーブル123を参照することで、ふるまいの実行前のインタラクション情報を取得してもよい。   First, the processor 21 refers to the situation table 123 described above, and acquires the interaction information held corresponding to the time before and after the execution of the behavior (step 321). The time before and after the execution of the behavior can be obtained by, for example, storing it in the memory 22 or the like in the process of step 303 described above. In addition, when the processor 21 causes the robot CR to execute the behavior for achieving the specified purpose in the processing of step 303, the processor 21 executes the behavior by referring to the status table 123 prior to the transfer of the behavior contents. The previous interaction information may be acquired.

次いで、プロセッサ21は、ふるまいの実行前後のインタラクション情報にそれぞれ含まれる指定された目的に対応する指標値を比較することにより、この指標値の変化分δで示される目的の達成度の変化分を算出する(ステップ322)。   Next, the processor 21 compares the index value corresponding to the designated purpose included in the interaction information before and after the execution of the behavior, thereby obtaining a change in the degree of achievement of the goal indicated by the change δ in the index value. Calculate (step 322).

次に、プロセッサ21は、ステップ322の処理で算出した指標値の変化分δと、当該指標値に対応する期待度とに基づいて、上述した式(5)を用いて、新たな期待度を算出する(ステップ323)。なお、このステップ323において、プロセッサ21が新たな期待度を算出する手法が、式(5)を用いる手法に限られないことは、上述したとおりである。   Next, the processor 21 calculates a new expectation level using the above-described formula (5) based on the change δ of the index value calculated in the process of step 322 and the expectation level corresponding to the index value. Calculate (step 323). As described above, the method in which the processor 21 calculates a new expectation in step 323 is not limited to the method using the equation (5).

そして、プロセッサ21は、ステップ323で算出した新たな期待度を用いて、ステップ303で実行されたふるまいに対応するふるまい定義情報について、このふるまい定義情報に含まれる期待度を書き換える処理を行う(ステップ324)。   Then, the processor 21 performs a process of rewriting the expectation included in the behavior definition information for the behavior definition information corresponding to the behavior executed in step 303 using the new expectation calculated in step 323 (step 324).

プロセッサ21が、上述したステップ321からステップ324の処理を実行することにより、図11に示した更新部17の機能を実現することができる。そして、上述したような期待度の更新処理を行うことにより、ロボットCRと利用者Uとの間の相互作用の過程において、利用者Uの個性に合わせたカスタマイズをインタラクション装置10に対して適用可能であることは、上述したとおりである。   The processor 21 executes the processing from step 321 to step 324 described above, thereby realizing the function of the updating unit 17 illustrated in FIG. Then, by performing the expectation level update process as described above, customization according to the individuality of the user U can be applied to the interaction device 10 in the course of the interaction between the robot CR and the user U. This is as described above.

以上に説明した各実施形態は、いずれも、本件開示のインタラクション装置の実施形態の一例であり、例えば、図4、図7および図11を用いて説明した個々の技術的要素を別の組み合わせで適用することで、更に別の実施形態とすることも可能である。   Each of the embodiments described above is an example of an embodiment of the interaction device disclosed herein. For example, the individual technical elements described with reference to FIGS. 4, 7, and 11 are combined in different combinations. By applying this, it is possible to make another embodiment.

例えば、データベース13に、利用者Uの状態に関する条件を含む契機条件が設定されたふるまい定義情報が登録されていない場合に、検知部12に設けた解析部122は、必ずしも定期的に利用者Uの状態に関する指標値を算出しなくてもよい。そして、例えば、更新部17あるいは制御部16からの要求に応じて、ふるまいの実行前後のタイミングで、利用者Uの状態に関する指標値の算出を行い、得られた指標値を更新部17に渡してもよい。   For example, when the behavior definition information in which the trigger condition including the condition related to the state of the user U is set is not registered in the database 13, the analysis unit 122 provided in the detection unit 12 does not always have the user U regularly. It is not necessary to calculate an index value related to the state of. Then, for example, in response to a request from the updating unit 17 or the control unit 16, an index value related to the state of the user U is calculated at timings before and after execution of the behavior, and the obtained index value is passed to the updating unit 17. May be.

以上の説明に関して、更に、以下の各項を開示する。
(付記1) 音声と動作との少なくとも一方を含む複数のふるまいを出力する出力装置と、
前記出力装置による働きかけを受ける人物と前記出力装置との間の相互作用に関する状況を検知する検知部と、
前記各ふるまいに対応して、当該ふるまいを前記出力装置に出力させる条件を示す契機条件と、当該ふるまいの出力によって引き出すことが可能な前記人物の状態変化の種類を示す種類情報とを含むふるまい定義情報を登録するデータベースと、
前記複数種類の状態変化の少なくとも一つの発生を前記人物に対する働きかけの目的として指定する指示に応じて、前記検知部で検知された状況によって前記契機条件が満たされているふるまい定義情報であって、かつ、前記指定された種類の状態変化を示す種類情報を含むふるまい定義情報を、ふるまい候補として前記データベースから検索する検索部と、
前記ふるまい候補の中から一つを選択する選択部と、
前記選択部によって選択された前記ふるまい定義情報に対応するふるまいを前記出力装置に実行させる制御部と
備えたことを特徴とするインタラクション装置。
(付記2) 付記1に記載のインタラクション装置において、
前記各ふるまいに対応するふるまい定義情報は、前記種類情報で示された各種類の状態変化を発生させる可能性の高さを示す期待度を含んでおり、
前記選択部は、
前記各ふるまい候補に対応するふるまい定義情報において、前記指示で指定された種類の状態変化についての期待度の高さに相関を持つ確率に従って、前記ふるまい候補の中から一つのふるまいを選択する
ことを特徴とするインタラクション装置。
(付記3) 付記2に記載のインタラクション装置において、
前記選択部は、前記各ふるまい定義情報に含まれる前記期待度に比例するように、前記各ふるまい定義情報が選択される確率を算出する
ことを特徴とするインタラクション装置。
(付記4) 付記2に記載のインタラクション装置において、
前記選択部は、
前記指示で複数の目的が指定された場合に、前記各ふるまい定義情報にそれぞれ含まれる前記複数の目的についての期待度を集計する集計部を有し、
前記集計部で得られた集計結果に比例するように、前記各ふるまい定義情報が選択される確率を算出する
ことを特徴とするインタラクション装置。
(付記5) 付記1から付記4のいずれか1つに記載のインタラクション装置において、
前記検知部は、
前記人物Uを観測することで得られる前記人物の反応を示す計測値を解析することにより、前記人物の状態を表す複数種類の指標値をそれぞれ求める解析部を有し、
前記解析部で得られた前記複数種類の指標値を、検知した状況を示す情報の一部として出力し、
前記各ふるまいに対応するふるまい定義情報は、前記契機条件の一部として、前記複数の指標値の少なくとも一つについて、当該指標値の値の範囲を示す情報を含む
ことを特徴とするインタラクション装置。
(付記6) 付記5に記載のインタラクション装置において、
前記ふるまいの出力の前後に前記解析部によって得られる指標値の変化に基づいて、前記ふるまいの出力に用いたふるまい定義情報について、前記指示において前記働きかけの目的として指定された種類の状態変化についての期待度を更新する更新部と
を備えたことを特徴とするインタラクション装置。
(付記7) 出力装置が音声と動作との少なくとも一方を含むふるまいを出力することによって行った働きかけを受ける人物と前記出力装置との間の相互作用に関する状況を検知し、
前記各ふるまいに対応して、当該ふるまいを前記出力装置に出力させる条件を示す契機条件と、当該ふるまいの出力によって引き出すことが可能な前記人物の状態変化の種類を示す種類情報とを含むふるまい定義情報を登録するデータベースから、
前記複数種類の状態変化の少なくとも一つの発生を前記人物に対する働きかけの目的として指定する指示に応じて、前記検知部で検知された状況によって前記契機条件が満たされているふるまい定義情報であって、かつ、前記指定された種類の状態変化を示す種類情報を含むふるまい定義情報を、ふるまい候補として前記データベースから検索し、
前記ふるまい候補の中から一つを選択し、
選択された前記ふるまい定義情報に対応するふるまいを前記出力装置に実行させる
処理を実行させることを特徴とするインタラクション制御プログラム。
(付記8) 付記7に記載のインタラクション制御プログラムにおいて、
前記ふるまいの出力に応じて検知された状況の変化に基づいて、前記ふるまいに対応するふるまい定義情報に含まれる前記指定された目的に関する期待度を更新する
処理を実行させることを特徴とするインタラクション制御プログラム。
Regarding the above description, the following items are further disclosed.
(Supplementary note 1) an output device that outputs a plurality of behaviors including at least one of voice and action;
A detection unit for detecting a situation related to an interaction between the person who is acted on by the output device and the output device;
Corresponding to each behavior, a behavior definition including a trigger condition indicating a condition for outputting the behavior to the output device, and type information indicating a type of state change of the person that can be extracted by the output of the behavior A database for registering information;
In response to an instruction designating at least one occurrence of the plurality of types of state changes as a purpose of acting on the person, behavior definition information in which the trigger condition is satisfied by a situation detected by the detection unit, And the search part which searches the behavior definition information including the type information indicating the state change of the specified type from the database as a behavior candidate,
A selection unit for selecting one of the behavior candidates;
An interaction device comprising: a control unit that causes the output device to execute a behavior corresponding to the behavior definition information selected by the selection unit.
(Appendix 2) In the interaction device described in Appendix 1,
The behavior definition information corresponding to each behavior includes a degree of expectation indicating a high possibility of causing a state change of each type indicated by the type information,
The selection unit includes:
In the behavior definition information corresponding to each of the behavior candidates, one behavior is selected from the behavior candidates according to the probability having a correlation with the high degree of expectation for the type of state change specified by the instruction. A featured interaction device.
(Appendix 3) In the interaction device described in Appendix 2,
The interaction device, wherein the selection unit calculates a probability that the behavior definition information is selected so as to be proportional to the expectation included in the behavior definition information.
(Appendix 4) In the interaction device described in Appendix 2,
The selection unit includes:
When a plurality of purposes are specified in the instruction, a totaling unit that totals the expectation degree for the plurality of purposes included in each of the behavior definition information,
An interaction device, characterized in that the probability that each of the behavior definition information is selected is calculated so as to be proportional to a total result obtained by the total unit.
(Appendix 5) In the interaction device according to any one of Appendix 1 to Appendix 4,
The detector is
An analysis unit that obtains each of a plurality of types of index values representing the state of the person by analyzing measurement values indicating the reaction of the person obtained by observing the person U;
The plurality of types of index values obtained by the analysis unit are output as a part of information indicating a detected situation,
The behavior definition information corresponding to each behavior includes, as a part of the trigger condition, information indicating a value range of the index value for at least one of the plurality of index values.
(Appendix 6) In the interaction device described in Appendix 5,
Based on the change of the index value obtained by the analysis unit before and after the output of the behavior, the behavior definition information used for the output of the behavior is about the type of state change designated as the purpose of the action in the instruction. An interaction device comprising: an update unit that updates an expectation degree.
(Supplementary note 7) Detecting a situation relating to an interaction between the output device and the person subjected to the action performed by the output device outputting behavior including at least one of sound and action,
Corresponding to each behavior, a behavior definition including a trigger condition indicating a condition for outputting the behavior to the output device, and type information indicating a type of state change of the person that can be extracted by the output of the behavior From the database to register information,
In response to an instruction designating at least one occurrence of the plurality of types of state changes as a purpose of acting on the person, behavior definition information in which the trigger condition is satisfied by a situation detected by the detection unit, And the behavior definition information including the type information indicating the state change of the specified type is searched from the database as a behavior candidate,
Select one of the behavior candidates,
An interaction control program for causing a process corresponding to the selected behavior definition information to be executed by the output device.
(Appendix 8) In the interaction control program described in Appendix 7,
An interaction control for executing a process of updating an expectation degree related to the designated purpose included in the behavior definition information corresponding to the behavior based on a change in a situation detected according to the output of the behavior; program.

10…インタラクション装置;11…出力装置;12…検知部;13…データベース;14…選択部;15…制御部;17…更新部;121…収集部;122…解析部;123…状況テーブル;151…算出部;152…決定部;153…集計部;20…コンピュータ装置;21…プロセッサ;22…メモリ;23…ハードディスク装置(HDD);24…表示装置;25…入力装置;26…光学ドライブ装置;27…リムーバブルディスク;28…ネットワークインタフェース;29…周辺機器インタフェース;30…ロボットインタフェース;31…駆動処理部;32…モータ;33…スピーカ;34…観測部;35…内部状態判定部;CR…ロボット;U…利用者;SD…センサ部;NW…ネットワーク

DESCRIPTION OF SYMBOLS 10 ... Interaction apparatus; 11 ... Output device; 12 ... Detection part; 13 ... Database; 14 ... Selection part; 15 ... Control part; 17 ... Update part; 121 ... Collection part; Calculating unit; 152 ... Determination unit; 153 ... Counting unit; 20 ... Computer device; 21 ... Processor; 22 ... Memory; 23 ... Hard disk device (HDD); 24 ... Display device; 25 ... Input device; 27 ... Removable disk; 28 ... Network interface; 29 ... Peripheral device interface; 30 ... Robot interface; 31 ... Drive processing unit; 32 ... Motor; 33 ... Speaker; 34 ... Observation unit; Robot; U ... User; SD ... Sensor part; NW ... Network

Claims (5)

音声と動作との少なくとも一方を含む複数のふるまいを出力する出力装置と、
前記出力装置による働きかけを受ける人物と前記出力装置との間の相互作用に関する状況を検知する検知部と、
前記各ふるまいに対応して、当該ふるまいを前記出力装置に出力させる条件を示す契機条件と、当該ふるまいの出力によって引き出すことが可能な前記人物の状態変化の種類を示す種類情報とを含むふるまい定義情報を登録するデータベースと、
前記複数種類の状態変化の少なくとも一つの発生を前記人物に対する働きかけの目的として指定する指示に応じて、前記検知部で検知された状況によって前記契機条件が満たされているふるまい定義情報であって、かつ、前記指定された種類の状態変化を示す種類情報を含むふるまい定義情報を、ふるまい候補として前記データベースから検索する検索部と、
前記ふるまい候補の中から一つを選択する選択部と、
前記選択部によって選択された前記ふるまい定義情報に対応するふるまいを前記出力装置に実行させる制御部と
備えたことを特徴とするインタラクション装置。
An output device that outputs a plurality of behaviors including at least one of sound and action;
A detection unit for detecting a situation related to an interaction between the person who is acted on by the output device and the output device;
Corresponding to each behavior, a behavior definition including a trigger condition indicating a condition for outputting the behavior to the output device, and type information indicating a type of state change of the person that can be extracted by the output of the behavior A database for registering information;
In response to an instruction designating at least one occurrence of the plurality of types of state changes as a purpose of acting on the person, behavior definition information in which the trigger condition is satisfied by a situation detected by the detection unit, And the search part which searches the behavior definition information including the type information indicating the state change of the specified type from the database as a behavior candidate,
A selection unit for selecting one of the behavior candidates;
An interaction device comprising: a control unit that causes the output device to execute a behavior corresponding to the behavior definition information selected by the selection unit.
請求項1に記載のインタラクション装置において、
前記各ふるまいに対応するふるまい定義情報は、前記種類情報で示された各種類の状態変化を発生させる可能性の高さを示す期待度を含んでおり、
前記選択部は、
前記各ふるまい候補に対応するふるまい定義情報において、前記指示で指定された種類の状態変化についての期待度の高さに相関を持つ確率に従って、前記ふるまい候補の中から一つのふるまいを選択する
ことを特徴とするインタラクション装置。
The interaction device according to claim 1,
The behavior definition information corresponding to each behavior includes a degree of expectation indicating a high possibility of causing a state change of each type indicated by the type information,
The selection unit includes:
In the behavior definition information corresponding to each of the behavior candidates, one behavior is selected from the behavior candidates according to the probability having a correlation with the high degree of expectation for the type of state change specified by the instruction. A featured interaction device.
請求項1又は請求項2に記載のインタラクション装置において、
前記検知部は、
前記人物を観測することで得られる前記人物の反応を示す計測値を解析することにより、前記人物の状態を表す複数種類の指標値をそれぞれ求める解析部を有し、
前記解析部で得られた前記複数種類の指標値を、検知した状況を示す情報の一部として出力し、
前記各ふるまいに対応するふるまい定義情報は、前記契機条件の一部として、前記複数の指標値の少なくとも一つについて、当該指標値の値の範囲を示す情報を含む
ことを特徴とするインタラクション装置。
The interaction device according to claim 1 or 2,
The detector is
By analyzing a measurement value indicating the reaction of the person obtained by observing the person, an analysis unit for obtaining each of a plurality of types of index values representing the state of the person,
The plurality of types of index values obtained by the analysis unit are output as a part of information indicating a detected situation,
The behavior definition information corresponding to each behavior includes, as a part of the trigger condition, information indicating a value range of the index value for at least one of the plurality of index values.
請求項3に記載のインタラクション装置において、
前記ふるまいの出力の前後に前記解析部によって得られる指標値の変化に基づいて、前記ふるまいの出力に用いたふるまい定義情報について、前記指示において前記働きかけの目的として指定された種類の状態変化についての期待度を更新する更新部と
を備えたことを特徴とするインタラクション装置。
The interaction device according to claim 3,
Based on the change of the index value obtained by the analysis unit before and after the output of the behavior, the behavior definition information used for the output of the behavior is about the type of state change designated as the purpose of the action in the instruction. An interaction device comprising: an update unit that updates an expectation degree.
出力装置が音声と動作との少なくとも一方を含むふるまいを出力することによって行った働きかけを受ける人物と、前記出力装置との間の相互作用に関する状況を検知し、
前記出力装置によって出力可能な各ふるまいに対応して、当該ふるまいを前記出力装置に出力させる条件を示す契機条件と、当該ふるまいの出力によって引き出すことが可能な前記人物の状態変化の種類を示す種類情報とを含むふるまい定義情報を登録するデータベースから、
前記複数種類の状態変化の少なくとも一つの発生を前記人物に対する働きかけの目的として指定する指示に応じて、前記検知部で検知された状況によって前記契機条件が満たされているふるまい定義情報であって、かつ、前記指定された種類の状態変化を示す種類情報を含むふるまい定義情報を検索し、
検索結果として得られたふるまい定義情報の中から一つを選択し、
選択した前記ふるまい定義情報に対応するふるまいを前記出力装置に実行させる
処理をコンピュータに実行させることを特徴とするインタラクション制御プログラム。
Detecting the situation regarding the interaction between the person who receives the action performed by the output device outputting the behavior including at least one of voice and action, and the output device;
Corresponding to each behavior that can be output by the output device, a trigger condition that indicates a condition for causing the output device to output the behavior, and a type that indicates the type of state change of the person that can be extracted by the output of the behavior From the database that registers the behavior definition information including information,
In response to an instruction designating at least one occurrence of the plurality of types of state changes as a purpose of acting on the person, behavior definition information in which the trigger condition is satisfied by a situation detected by the detection unit, And the behavior definition information including the type information indicating the state change of the specified type is searched,
Select one of the behavior definition information obtained as a search result,
An interaction control program for causing a computer to execute a process for causing the output device to execute a behavior corresponding to the selected behavior definition information.
JP2012080610A 2012-03-30 2012-03-30 Interaction device and interaction control program Active JP5910249B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012080610A JP5910249B2 (en) 2012-03-30 2012-03-30 Interaction device and interaction control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012080610A JP5910249B2 (en) 2012-03-30 2012-03-30 Interaction device and interaction control program

Publications (2)

Publication Number Publication Date
JP2013208681A true JP2013208681A (en) 2013-10-10
JP5910249B2 JP5910249B2 (en) 2016-04-27

Family

ID=49527063

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012080610A Active JP5910249B2 (en) 2012-03-30 2012-03-30 Interaction device and interaction control program

Country Status (1)

Country Link
JP (1) JP5910249B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016198843A (en) * 2015-04-09 2016-12-01 富士通株式会社 Control method, control apparatus, and program
JP2019191968A (en) * 2018-04-25 2019-10-31 株式会社日立製作所 Service providing system, information processing device, and service providing system control method
WO2019220733A1 (en) * 2018-05-15 2019-11-21 ソニー株式会社 Control device, control method, and program
WO2021090704A1 (en) * 2019-11-07 2021-05-14 ソニー株式会社 Autonomous mobile body, information processing method, program, and information processing device

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107174829A (en) * 2017-06-14 2017-09-19 郝允志 A kind of programmable intelligent building blocks robot with independent learning ability

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001121455A (en) * 1999-10-29 2001-05-08 Sony Corp Charge system of and charge control method for mobile robot, charge station, mobile robot and its control method
JP2002120174A (en) * 2000-10-11 2002-04-23 Sony Corp Authoring system, authoring method and storage medium
JP2003225228A (en) * 2002-01-31 2003-08-12 Sanyo Electric Co Ltd Health management terminal device, computer program and recording medium
JP2004291228A (en) * 2003-03-11 2004-10-21 Sony Corp Robot device, action control method of robot device and computer program
JP2007050461A (en) * 2005-08-17 2007-03-01 Nec Corp Robot control system, robot device, and robot control method
JP2009136967A (en) * 2007-12-06 2009-06-25 Honda Motor Co Ltd Communication robot

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001121455A (en) * 1999-10-29 2001-05-08 Sony Corp Charge system of and charge control method for mobile robot, charge station, mobile robot and its control method
JP2002120174A (en) * 2000-10-11 2002-04-23 Sony Corp Authoring system, authoring method and storage medium
JP2003225228A (en) * 2002-01-31 2003-08-12 Sanyo Electric Co Ltd Health management terminal device, computer program and recording medium
JP2004291228A (en) * 2003-03-11 2004-10-21 Sony Corp Robot device, action control method of robot device and computer program
JP2007050461A (en) * 2005-08-17 2007-03-01 Nec Corp Robot control system, robot device, and robot control method
JP2009136967A (en) * 2007-12-06 2009-06-25 Honda Motor Co Ltd Communication robot

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016198843A (en) * 2015-04-09 2016-12-01 富士通株式会社 Control method, control apparatus, and program
JP2019191968A (en) * 2018-04-25 2019-10-31 株式会社日立製作所 Service providing system, information processing device, and service providing system control method
JP7051556B2 (en) 2018-04-25 2022-04-11 株式会社日立製作所 Service provision system, information processing device, and control method of service provision system
WO2019220733A1 (en) * 2018-05-15 2019-11-21 ソニー株式会社 Control device, control method, and program
JP7327391B2 (en) 2018-05-15 2023-08-16 ソニーグループ株式会社 Control device, control method and program
WO2021090704A1 (en) * 2019-11-07 2021-05-14 ソニー株式会社 Autonomous mobile body, information processing method, program, and information processing device

Also Published As

Publication number Publication date
JP5910249B2 (en) 2016-04-27

Similar Documents

Publication Publication Date Title
US11089985B2 (en) Systems and methods for using mobile and wearable video capture and feedback plat-forms for therapy of mental disorders
JP5910249B2 (en) Interaction device and interaction control program
KR20180072978A (en) Operation Method for activation of Home robot device and Home robot device supporting the same
CN104520849A (en) Search user interface using outward physical expressions
CN109765991A (en) Social interaction system is used to help system and non-transitory computer-readable storage media that user carries out social interaction
WO2018168369A1 (en) Machine learning device and machine learning program
US10836044B2 (en) Robot control device and robot control method
JP6930277B2 (en) Presentation device, presentation method, communication control device, communication control method and communication control system
JP6969859B2 (en) Motion identification using motion detectors connected to associate memory
JP6886651B2 (en) Action command generation system, response system and action command generation method
JP2019185201A (en) Reinforcement learning system
JP7071717B2 (en) Event sequence extraction device, event sequence extraction method and event extraction program
CN106951433A (en) A kind of search method and device
JP7306152B2 (en) Emotion estimation device, emotion estimation method, program, information presentation device, information presentation method, and emotion estimation system
JP6667766B1 (en) Information processing system and information processing method
JP2004280673A (en) Information providing device
WO2019084007A1 (en) Systems and methods for automatic activity tracking
JP2018055232A (en) Content providing device, content providing method, and program
Nour et al. Real-time detection of eating activity in elderly people with dementia using face alignment and facial landmarks
KR102643720B1 (en) Artificial intelligence interface system for robot
JP5858228B2 (en) Identification apparatus, identification method, and identification program
Faiyaz et al. Dominance of Deep LSTM in Smartphone Sensor based Human Activity Classification
JP2022113073A (en) Program for determining sign of depression
KR20230071053A (en) Method for analyzing personality or aptitude based on metaverse
JP6202882B2 (en) Facial expression detection system and facial expression detection method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150106

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151201

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160301

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160314

R150 Certificate of patent or registration of utility model

Ref document number: 5910249

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150