JP2013208681A - Interaction device and interaction control program - Google Patents
Interaction device and interaction control program Download PDFInfo
- Publication number
- JP2013208681A JP2013208681A JP2012080610A JP2012080610A JP2013208681A JP 2013208681 A JP2013208681 A JP 2013208681A JP 2012080610 A JP2012080610 A JP 2012080610A JP 2012080610 A JP2012080610 A JP 2012080610A JP 2013208681 A JP2013208681 A JP 2013208681A
- Authority
- JP
- Japan
- Prior art keywords
- behavior
- interaction
- definition information
- unit
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本件開示は、人物との間で言語および非言語によるコミュニケーションを行うインタラクション装置およびインタラクション制御プログラムに関する。 The present disclosure relates to an interaction device and an interaction control program that perform communication in a language and non-language with a person.
インタラクション装置の一つであるコミュニケーションロボットは、音声と身振りなどのジェスチャーとの少なくとも一方を含む様々なふるまいを実行することにより、人物との間でコミュニケーションを行う機能を有する。このようなコミュニケーションロボットを、例えば、高齢者などの見守りに利用する技術が提案されている。 A communication robot, which is one of interaction devices, has a function of performing communication with a person by executing various behaviors including at least one of voice and gestures such as gestures. Techniques have been proposed in which such communication robots are used for watching, for example, elderly people.
コミュニケーションロボットが人物との交流を進める過程で、時々刻々と変化する状況に合ったふるまいを実行させる手法として、例えば、様々な状況を想定したシナリオに従って、複数のふるまいを組み合わせる手法が提案されている(特許文献1参照)。 In the process of communication robots interacting with people, a method that combines multiple behaviors according to scenarios that assume various situations, for example, has been proposed as a way to execute behaviors that match the situation that changes from moment to moment. (See Patent Document 1).
上述した特許文献1の技法によれば、生き物の形態を模したコミュニケーションロボットに、生き物らしいふるまいをさせながら、見守り対象の人物に対して目的を持った働きかけをするインタラクションサービスのためのシナリオを作成することが可能である。
According to the technique of
しかしながら、予め作成されたシナリオに基づいてコミュニケーションロボットが動作する場合には、互いに類似した状況において、互いに類似したサービスを実行させようとすれば、コミュニケーションロボットが実行するふるまいは同じになってしまう。コミュニケーションロボットが、このような画一化したふるまいを繰り返すと、コミュニケーションロボット自体が、見守り対象の人物に飽きられてしまう可能性がある。そして、その場合には、見守り対象の人物とコミュニケーションロボットとのインタラクションである相互作用が成り立たなくなってしまうおそれがある。 However, when the communication robot operates based on a scenario created in advance, the behavior executed by the communication robot will be the same if an attempt is made to execute services similar to each other in a situation similar to each other. If the communication robot repeats such uniform behavior, the communication robot itself may be bored with the person being watched over. In that case, there is a possibility that the interaction that is the interaction between the person to be watched over and the communication robot may not be realized.
類似した複数の状況を互いに区別するとともにコミュニケーションロボットが実行するふるまいに変化を持たせるために、膨大な場合分けを含む緻密なシナリオを予め作成しておけば、上述したような画一化を避けることが可能である。しかしながら、そのような緻密なシナリオを作成することは非常に困難である。 In order to distinguish multiple similar situations from each other and to change the behavior performed by the communication robot, if a precise scenario including a huge number of cases is created in advance, the above-mentioned uniformization is avoided. It is possible. However, it is very difficult to create such a detailed scenario.
本件開示は、固定したシナリオを用いることなく、人物との交流の雰囲気を維持しながら目的を持った働きかけを継続的に実現可能なインタラクション装置およびインタラクション制御プログラムを提供することを目的とする。 An object of the present disclosure is to provide an interaction device and an interaction control program capable of continuously realizing a purposeful action while maintaining an atmosphere of interaction with a person without using a fixed scenario.
一つの観点によるインタラクション装置は、音声と動作との少なくとも一方を含む複数のふるまいを出力する出力装置と、前記出力装置による働きかけを受ける人物と前記出力装置との間の相互作用に関する状況を検知する検知部と、前記各ふるまいに対応して、当該ふるまいを前記出力装置に出力させる条件を示す契機条件と、当該ふるまいの出力によって引き出すことが可能な前記人物の状態変化の種類を示す種類情報とを含むふるまい定義情報を登録するデータベースと、前記複数種類の状態変化の少なくとも一つの発生を前記人物に対する働きかけの目的として指定する指示に応じて、前記検知部で検知された状況によって前記契機条件が満たされているふるまい定義情報であって、かつ、前記指定された種類の状態変化を示す種類情報を含むふるまい定義情報を、ふるまい候補として前記データベースから検索する検索部と、前記ふるまい候補の中から一つを選択する選択部と、前記選択部によって選択された前記ふるまい定義情報に対応するふるまいを前記出力装置に実行させる制御部とを備える。 An interaction device according to one aspect detects an output device that outputs a plurality of behaviors including at least one of sound and action, and a situation related to an interaction between a person who is acted on by the output device and the output device. Corresponding to each behavior, a trigger condition that indicates a condition for causing the output device to output the behavior, and type information that indicates a type of state change of the person that can be extracted by the output of the behavior The trigger condition is determined according to a situation detected by the detection unit in response to an instruction that specifies at least one occurrence of the plurality of types of state changes as a purpose of acting on the person. The type of behavior definition information that is satisfied and that indicates the state change of the specified type A search unit that searches the database for behavior definition information including information, a selection unit that selects one of the behavior candidates, and a behavior corresponding to the behavior definition information selected by the selection unit And a control unit that causes the output device to execute.
また、別の観点によるインタラクション制御プログラムは、出力装置が音声と動作との少なくとも一方を含むふるまいを出力することによって行った働きかけを受ける人物と、前記出力装置との間の相互作用に関する状況を検知し、前記出力装置によって出力可能な各ふるまいに対応して、当該ふるまいを前記出力装置に出力させる条件を示す契機条件と、当該ふるまいの出力によって引き出すことが可能な前記人物の状態変化の種類を示す種類情報とを含むふるまい定義情報を登録するデータベースから、前記複数種類の状態変化の少なくとも一つの発生を前記人物に対する働きかけの目的として指定する指示に応じて、前記検知部で検知された状況によって前記契機条件が満たされているふるまい定義情報であって、かつ、前記指定された種類の状態変化を示す種類情報を含むふるまい定義情報を検索し、検索結果として得られたふるまい定義情報の中から一つを選択し、選択した前記ふるまい定義情報に対応するふるまいを前記出力装置に実行させる処理をコンピュータに実行させる。 An interaction control program according to another aspect detects a situation related to an interaction between an output device and a person subjected to an action performed by outputting a behavior including at least one of voice and action. Then, corresponding to each behavior that can be output by the output device, the trigger condition indicating the condition for causing the output device to output the behavior, and the type of state change of the person that can be extracted by the output of the behavior From the database for registering the behavior definition information including the type information to be indicated, depending on the situation detected by the detection unit in response to an instruction specifying at least one occurrence of the plurality of types of state changes as the purpose of acting on the person Behavior definition information that satisfies the trigger condition, and the specified information Search the behavior definition information including the type information indicating the status change of the type, select one of the behavior definition information obtained as a search result, and send the behavior corresponding to the selected behavior definition information to the output device. Causes the computer to execute the process to be executed.
本件開示のインタラクション装置およびインタラクション制御プログラムによれば、固定したシナリオを用いることなく、人物との交流の雰囲気を維持しながら目的を持った働きかけを継続的に実現することができる。 According to the interaction device and the interaction control program of the present disclosure, it is possible to continuously achieve a purposeful action while maintaining an atmosphere of exchange with a person without using a fixed scenario.
以下、図面に基づいて、本発明の実施形態について詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
図1は、インタラクション装置の一実施形態を示している。図1に例示したインタラクション装置10は、別の場所にあるコンピュータ装置などの上位装置(図示せず)から受け取った指示Dirに応じて、利用者Uに対する働きかけを行う。
FIG. 1 shows an embodiment of an interaction device. The
このインタラクション装置10は、出力装置11と、検知部12と、データベース13と、検索部14と、選択部15と、制御部16とを含んでいる。検索部14は、指示Dirで指定された目的と、検知部12が後述するようにして検知する状況とに基づいて、データベース13を検索する。検索によって検索部14が得たふるまいは、インタラクション装置10と利用者Uとの間のインタラクションのために、インタラクション装置10が利用者Uに対する働きかけとして実行するふるまいの候補となる。選択部15は、検索部14によって得られたふるまい候補の中から一つを選択し、制御部16を介して出力装置11に、選択したふるまいを出力させる。
The
また、図1に示したセンサ部SDは、例えば、温度センサや湿度センサおよび明るさセンサを含んでいる。このセンサ部SDは、出力装置11および利用者Uの周囲の気温や湿度、明るさなど、出力装置11と利用者Uとの相互作用がどのような環境において行われているかを示す様々な要素に関する計測値を取得する。
The sensor unit SD illustrated in FIG. 1 includes, for example, a temperature sensor, a humidity sensor, and a brightness sensor. The sensor unit SD includes various elements that indicate in which environment the interaction between the
出力装置11は、音声と動作との少なくとも一方を含む複数のふるまいを、利用者Uに対する働きかけとして出力する機能を有する。この出力装置11は、例えば、熊などの生き物の形態を模したコミュニケーションロボットのように、利用者Uによって、自律的な個体として認識される存在であることが望ましい。また、出力装置11は、CG(Computer Graphics)キャラクタなどを表示する表示装置でもよい。なお、以下の説明では、コミュニケーションロボットを単にロボットと称する。また、出力装置11がロボットである場合に、出力装置11は、働きかけの相手である利用者Uの様子を観測するための観測機器として、カメラやマイクロホンおよび接触センサなどを搭載していることが望ましい。
The
検知部12は、出力装置11と利用者Uとの間の相互作用に関する状況を検知する。検知部12は、相互作用に関する状況を表すインタラクション情報の一部として、例えば、出力装置11に搭載された観測機器で得られた利用者Uの状況に関する計測値とともに、上述したセンサ部SDで得られた各計測値を取得する。また、検知部12は、インタラクション情報の一部として、出力装置11から、この出力装置11の内部状態を示す情報を取得する。出力装置11の内部状態とは、出力装置11が個々のふるまいを実行する過程で集積されるパラメータの集まりで表される。例えば、出力装置11が生き物を模したロボットである場合に、出力装置11の内部状態は、このロボットの感情や利用者Uへのなつき度合いなど、このロボットの個性や自律性を示すパラメータ群によって表すことができる。
The
データベース13は、出力装置11によって出力可能な各ふるまいを定義するふるまい定義情報を、例えば、個々のふるまいに与えた識別番号に対応して登録している。各ふるまい定義情報は、当該ふるまいを出力装置11に出力させる条件を示す契機条件を含んでいる。また、各ふるまい定義情報は、ふるまいの出力によって引き出すことが可能な利用者Uの状態変化の種類を示す種類情報と、各状態変化が発生する可能性の高さを示す期待度を含んでいる。
The
ここで、利用者Uの状態は、例えば、他者に対して興味を持っている度合いを示す興味度や、利用者Uが活動的である度合いを示す活動度や、利用者Uの感情表現の豊かさを示す情動度などを含む複数の指標値によって表すことが可能である。また、利用者Uが他者に対して示す興味度は、例えば、利用者Uが出力装置11として機能するロボットに対してどの程度興味を持っているかに基づいて推定することが可能である。そして、利用者Uの状態変化は、例えば、これらの指標値の少なくとも一つの値が変化することとして表れる。つまり、上述した興味度、活動度、情動度を含む各指標値の変化は、それぞれ利用者Uの状態変化の一例である。
Here, the state of the user U is, for example, an interest level indicating a degree of interest in another person, an activity level indicating a level of the user U being active, or an emotional expression of the user U. It can be expressed by a plurality of index values including the emotional level indicating the richness of the image. In addition, the degree of interest that the user U shows to others can be estimated based on, for example, how much the user U is interested in the robot functioning as the
また、出力装置11によって実行させる個々のふるまいを設計する設計者は、それぞれのふるまいの実行により、上述した指標値の少なくとも一つについて、好ましい方向への変化を起こさせることを狙って、個々のふるまいを設定することもできる。なお、指標値の好ましい方向への変化とは、例えば、上述した活動度、興味度および情動度では、これらの指標値の値を上昇させる方向の変化である。したがって、ふるまいの設計者は、個々のふるまいをデータベース13に登録する際に、当該ふるまいによって変化することが期待できる指標値の種類を示す指標値名を、当該ふるまいの種類情報として、対応するふるまい定義情報に設定してもよい。
In addition, the designer who designs each behavior to be executed by the
なお、データベース13への種類情報の設定は、後述するような実験結果に基づいて行うこともできる。例えば、個々のふるまいによる働きかけを様々な人物に対して行った際に、例えば、上述した興味度、活動度および情動度を上昇させるような変化が発生した回数や、各指標値の上昇幅などを調べる実験を行うことにより、各ふるまいによって変化することが期待できる指標値を高い精度で特定することができる。また、このような実験結果に基づいて、個々のふるまいの実行によって利用者Uに働きかけを行った際に、各指標値が上昇する可能性の高さを見積もることができる。各ふるまい定義情報において、種類情報ごとに設定される期待度の値は、上述したような実験結果に基づいて例えば数値「0」〜数値「1」の範囲で特定してもよいし、また、ふるまいの設計者が経験に基づいて予想した値を設定してもよい。
The setting of the type information in the
また、各ふるまい定義情報において、利用者Uの状態を示す各指標値に対応して、当該ふるまいの実行によって各指標値を変化させる可能性の高さを示す期待度を設定してもよい。この場合に、期待度が「0」である場合は、対応する指標値を変化させる可能性がないことを示し、期待度が数値「1」に近づくほど、対応する指標値が高い確度で変化することを示す。 Further, in each behavior definition information, an expectation level indicating a high possibility of changing each index value by executing the behavior may be set corresponding to each index value indicating the state of the user U. In this case, when the degree of expectation is “0”, it indicates that there is no possibility of changing the corresponding index value, and as the degree of expectation approaches the numerical value “1”, the corresponding index value changes with higher accuracy. Indicates to do.
また、上述した指示Dirによって指定された目的が、上述した興味度、活動度および情動度を含む各指標値の好ましい方向への変化で示される利用者Uの状態変化である場合に、上述した種類情報は、個々のふるまいが達成可能な目的を示している。また、各ふるまい定義情報において、各指標値に対応する期待度は、当該ふるまいを実行することによって、それぞれの指標値についての目的が達成される度合いを示している。 Further, when the purpose specified by the above-described instruction Dir is a change in the state of the user U indicated by a change in each index value including the degree of interest, the degree of activity, and the degree of emotion described above in a preferable direction, the above-described case is described. The type information indicates the purpose that the individual behavior can achieve. In each behavior definition information, the expectation level corresponding to each index value indicates the degree to which the purpose for each index value is achieved by executing the behavior.
図2は、ふるまい定義情報の一例を示している。図2に例示したふるまい定義情報は、識別番号「13」およびふるまい名「さわやかな挨拶」で特定されるふるまいについてのふるまい定義情報である。 FIG. 2 shows an example of behavior definition information. The behavior definition information illustrated in FIG. 2 is behavior definition information regarding the behavior specified by the identification number “13” and the behavior name “fresh greeting”.
このふるまい定義情報は、ふるまい「さわやかな挨拶」として、図1に示した出力装置11が出力する音声メッセージや動作を示すふるまい内容「Def13」を含んでいる。ふるまい内容「Def13」は、例えば、音声メッセージの内容あるいは音声データのファイル名や、身振りを実現するための個々の動作を記述した情報を含んでいる。
This behavior definition information includes a behavior message “Def13” indicating the voice message output by the
また、ふるまい定義情報は、ふるまい「さわやかな挨拶」を出力する契機を指定する契機条件「C1 AND C2 AND C3」を含んでいる。なお、図2に示した符号C1,C2,C3のそれぞれは、例えば、図1に示した検知部12によって検知可能なパラメータの値の範囲を示し、演算子「AND」は、論理積演算を示している。このように、各ふるまいに対応する契機条件は、一つのパラメータの範囲あるいは複数のパラメータの範囲相互についての関係を示す論理式として示すことができる。このような論理式により、例えば、「利用者Uが出力装置11からの働きかけが可能な位置におり、気温および湿度から算出される不快指数が閾値以下であり、周囲の明るさが閾値以上である」ときのように、複雑な契機条件を示すことができる。
Further, the behavior definition information includes a trigger condition “C1 AND C2 AND C3” that specifies a trigger for outputting the behavior “refreshing greeting”. Each of the symbols C1, C2, and C3 shown in FIG. 2 indicates, for example, a range of parameter values that can be detected by the
更に、図2に示したふるまい定義情報は、ふるまい「さわやかな挨拶」によって引き出すことが可能な利用者Uの状態変化の種類と、それぞれに対応する期待度を含んでいる。図2において、符号AILは、状態変化「利用者Uの活動度を上昇させる」の達成についての期待度を示し、符号EILは、状態変化「利用者Uの情動度を上昇させる」の達成についての期待度を示す。また、符号IILは、状態変化「利用者Uの興味度を上昇させる」の達成についての期待度を示している。 Furthermore, the behavior definition information shown in FIG. 2 includes the types of state changes of the user U that can be extracted by the behavior “refreshing greeting” and the expectation level corresponding to each. In FIG. 2, symbol AIL indicates the degree of expectation for achievement of the state change “increases the activity level of the user U”, and symbol EIL indicates the achievement of the state change “increase the emotion level of the user U”. Indicates the expected degree of. Reference numeral IIL indicates the degree of expectation for achieving the state change “increase the degree of interest of the user U”.
各ふるまい定義情報は、上述した3種類の期待度AIL,EIL,IILに加えて、他の種類の状態変化についての期待度を含んでいてもよい。各目的についての期待度の値は、例えば、個々のふるまいをデータベース13に登録する際などに、数値「0」〜数値「1」の範囲内でそれぞれ設定することができる。なお、以下の説明において、3種類の期待度AIL,EIL,IILを含む各種の期待度を互いに区別しない場合は、期待度XILと称する。
Each behavior definition information may include an expectation degree regarding other kinds of state changes in addition to the above three kinds of expectation degrees AIL, EIL, and IIL. The value of the expectation degree for each purpose can be set within the range of numerical value “0” to numerical value “1”, for example, when each behavior is registered in the
図2に示したふるまい「さわやかな挨拶」は、利用者Uの活動度、情動度および興味度をそれぞれ変化させる可能性を持っているので、期待度AIL,EIL,IILについてそれぞれ数値「0」以外の値「0.3」、「0.5」、「0.3」が設定されている。データベース13は、図2の例のように、複数の目的についての期待度として「0」以外の値が設定されるふるまいを含む一方で、全ての目的についての期待度が「0」であるふるまいを含んでいてもよい。また、データベース13は、一部又は全ての目的について期待度が設定されていないふるまい定義情報を含んでいてもよい。なお、ふるまい定義情報において、一部又は全ての目的について期待度が設定されていない場合は、それらの目的についての期待度が値「0」であるとして扱うことができる。
The behavior “refreshing greeting” shown in FIG. 2 has the possibility of changing the activity level, emotion level, and interest level of the user U, and therefore the numerical value “0” for each of the expectations AIL, EIL, and IIL. Values other than “0.3”, “0.5”, and “0.3” are set. The
また、各ふるまい定義情報は、図2に示すように、個々のふるまいの実行についての優先度を含んでいてもよい。優先度は、例えば、個々のふるまいをデータベース13に登録する際に、ふるまいそれぞれの性質などに応じて、複数段階の優先度の一つを設定すればよい。例えば、呼吸動作のように、継続的に実行されるふるまいについては、他のふるまいを優先的に実行させるために、低い優先度を設定することが望ましい。逆に、利用者Uからの働きかけに反応するためのふるまいについては高い優先度を設定することにより、継続的なふるまいよりも優先して実行されるようにすることが望ましい。なお、図2の例では、ふるまい「さわやかな挨拶」について、3段階の優先度「高」、「中」、「低」のうち、中程度の優先度「中」が設定されている。
Each behavior definition information may include a priority for execution of each behavior as shown in FIG. For example, when each behavior is registered in the
図1に示したインタラクション装置10において、検索部14は、上述したような各ふるまいが登録されたデータベース13から、次に述べるようにして、ふるまい候補を検索する。
In the
検索部14は、例えば、検知部12で収集されたインタラクション情報と、各ふるまいに対応してデータベース13に登録されたふるまい定義情報に含まれる契機条件とを照合することで、契機条件が満たされているふるまいを判別する。このようにして判別されたふるまいは、いずれも、検知部12で収集されたインタラクション条件で示される現在の状況において、出力装置11が実行することがふさわしいふるまいである。更に、検索部14は、このようにして判別した各ふるまいに対応するふるまい定義情報を参照し、指示Dirで目的として指定された状態変化の種類を示す指標値名に対応して数値「0」以外の値を持つ期待度が設定されているふるまいを検出する。例えば、検索部14は、指示Dirで状態変化「興味度を上昇させる」が働きかけの目的として指定された場合に、照合結果に基づいて判別された各ふるまいのふるまい定義情報の興味度に対応する期待度を参照する。そして、検索部14は、数値「0」以外の値を持つ期待度が設定されているふるまい定義情報に対応するふるまいを、ふるまい候補の一つとして抽出する。なお、検索部14は、ふるまい候補を抽出する際に、指示Dirで指定された指標値に対応する期待度について所定の閾値を設定し、期待度がこの閾値以上であることを抽出の条件としてもよい。また、検索部14は、指示Dirで指定された目的に対応する期待度に基づく抽出を先に行い、この抽出で得られた各ふるまいに対応するふるまい定義情報に設定された契機条件と、上述したインタラクション情報との照合に基づく抽出を行ってもよい。
For example, the
図1に示した選択部15は、このようにしてデータベース13から検索されたふるまい候補の中から一つを選択する。選択部15は、複数のふるまい候補の中からランダムに一つのふるまい候補を選択してもよいし、また、ラウンドロビンなどの手法を用いて選択するふるまい候補を決定してもよい。なお、選択部15において、複数のふるまい候補から一つを選択する手法として、より好適な例については後述する。また、選択部15は、このようにして選択したふるまいを示す識別番号を制御部16に渡すことにより、選択結果を通知する。
The
図1に示した制御部16は、選択部15から通知された識別番号に基づいて、データベース13にこの識別番号に対応して登録されたふるまい定義情報を参照し、このふるまい定義情報に含まれるふるまい内容を取得する。そして、制御部16は、このふるまい内容を出力装置11に渡すとともに、このふるまい内容の実行を出力装置11に対して指示することにより、選択部15が選択したふるまいを出力装置11に実行させる。なお、制御部16は、利用者Uへの働きかけのためのふるまいのほかに、例えば、生き物らしさを演出するための呼吸動作などを継続的に出力装置11が出力するための制御を行ってもよい。
The
ここで、上述した検索部14で得られらふるまい候補は、ふるまい定義情報に含まれる契機条件が検知部12によって取得された現在の状況に適合しており、かつ、指示Dirで指定された目的の達成に有用なふるまいである。つまり、これらのふるまい候補のどれが選択された場合でも、選択されたふるまいは、現在の状況に適合しており、指示Dirで指定された目的の達成に有用である。したがって、選択部15によって選択されるふるまいは、それまでに出力装置11が実行した利用者Uに対する働きかけによって築かれた交流の雰囲気を継承しつつ、指定された目的を達成可能なふるまいである。
Here, the behavior candidate obtained by the
選択部15に渡されるふるまい候補の数は、検知部12によって検知された状況によって増減があるものの、多くの場合には複数である。例えば、出力装置11としてロボットを用いる場合に、多数のふるまいに対応するふるまい定義情報に、このロボットと利用者Uとの視線が合っていることが契機条件として設定されている。そして、契機条件「ロボットと利用者Uの視線が合っている」がふるまい定義情報に設定されているふるまいの中から、各指標値を変化させる目的の達成に寄与するふるまいとして、検索部14は、図3に示すように、それぞれ複数個ずつのふるまい候補を抽出可能である。
Although the number of behavior candidates passed to the
図3は、目的の達成に寄与するふるまいの例を示している。なお、図3に示した要素のうち、図2に示した要素と同等のものについては、同一の符号を付して示し、その説明は省略する。 FIG. 3 shows an example of behavior that contributes to the achievement of the objective. Note that among the elements shown in FIG. 3, the same elements as those shown in FIG. 2 are denoted by the same reference numerals, and description thereof is omitted.
図3に例示した目的「利用者Uの興味度を上昇させる」の達成に寄与するふるまいの集合は、識別番号13のふるまい「さわやかな挨拶」と、識別番号15のふるまい「地味にかまって欲しがる」とを含んでいる。更に、目的「利用者Uの興味度を上昇させる」の達成に寄与するふるまいの集合は、識別番号22のふるまい「派手にかまって欲しがる」と、識別番号11のふるまい「はしゃいで喜ぶ」とを含んでいる。なお、図3の例は、ふるまい「さわやかな挨拶」のふるまい定義情報に、上述した目的に対応して期待度IIL=0.3が設定されていることを示している。同様に、この例は、ふるまい「地味にかまって欲しがる」のふるまい定義情報に、上述した目的に対応して期待度IIL=0.2が設定されていることを示している。また、この例は、ふるまい「派手にかまって欲しがる」のふるまい定義情報に、上述した目的に対応して期待度IIL=0.6が設定されていることを示している。同様に、この例は、ふるまい「はしゃいで喜ぶ」のふるまい定義情報に、上述した目的に対応して期待度IIL=0.7が設定されていることを示している。
The set of behaviors that contribute to the achievement of the purpose “increase the interest level of the user U” illustrated in FIG. 3 includes the behavior “refreshing greeting” with the
また、図3に例示した目的「利用者Uの活動度を上昇させる」の達成に寄与するふるまいの集合は、識別番号13のふるまい「さわやかな挨拶」と、識別番号8のふるまい「手を振る」とを含んでいる。更に、目的「利用者Uの活動度を上昇させる」の達成に寄与するふるまいの集合は、識別番号11のふるまい「はしゃいで喜ぶ」と、識別番号34のふるまい「くしゃみをする」とを含んでいる。なお、図3の例は、ふるまい「さわやかな挨拶」のふるまい定義情報に、上述した目的に対応して期待度AIL=0.3が設定されていることを示している。同様に、この例は、ふるまい「手を振る」のふるまい定義情報に、上述した目的に対応して期待度AIL=0.5が設定されていることを示している。また、この例は、ふるまい「はしゃいで喜ぶ」のふるまい定義情報に、上述した目的に対応して期待度AIL=0.8が設定されていることを示している。同様に、この例は、ふるまい「くしゃみをする」のふるまい定義情報に、上述した目的に対応して期待度AIL=0.8が設定されていることを示している。
Also, the set of behaviors that contributes to the achievement of the purpose “increasing the activity level of the user U” illustrated in FIG. 3 includes the behavior “Refreshing Greeting” with the
また、図3に例示した目的「利用者Uの情動度を上昇させる」の達成に寄与するふるまいの集合は、識別番号13のふるまい「さわやかな挨拶」と、識別番号35のふるまい「ゲップをする」とを含んでいる。更に、目的「利用者Uの情動度を上昇させる」の達成に寄与するふるまいの集合は、識別番号11のふるまい「はしゃいで喜ぶ」と、識別番号121のふるまい「ギャグを言う」と、識別番号8のふるまい「手を振る」とを含んでいる。なお、図3の例は、ふるまい「さわやかな挨拶」のふるまい定義情報に、上述した目的に対応して期待度EIL=0.5が設定されていることを示している。同様に、この例は、ふるまい「ゲップをする」のふるまい定義情報に、上述した目的に対応して期待度EIL=0.8が設定されていることを示している。また、この例は、ふるまい「はしゃいで喜ぶ」のふるまい定義情報に、上述した目的に対応して期待度EIL=0.9が設定されていることを示している。同様に、この例は、ふるまい「ギャグを言う」のふるまい定義情報に、上述した目的に対応して期待度EIL=0.7が設定されていることを示している。更に、この例は、ふるまい「手を振る」のふるまい定義情報に、上述した目的に対応して期待度EIL=0.6が設定されていることを示している。
In addition, the set of behaviors that contribute to the achievement of the purpose “increase the emotion of the user U” illustrated in FIG. 3 includes the behavior “refreshing greeting” of the
なお、図3に示した符号UILは、利用者Uの状態を表す指標値の一つであるロボットに対する興味度を示している。また、符号UALは、利用者Uの状態を表す指標値の一つである活動度を示し、符号UELは、同じく情動度を示している。これらの各指標値については、後述する。 Note that the symbol UIL shown in FIG. 3 indicates the degree of interest with respect to the robot, which is one of the index values representing the state of the user U. Moreover, the code | symbol UAL shows the activity level which is one of the index values showing the state of the user U, and the code | symbol UEL shows the emotion level similarly. Each of these index values will be described later.
図3に示した例から分かるように、現在の状況によって契機条件が満たされており、かつ、指定された目的の達成に寄与することを条件として抽出されたふるまい候補の集合は、利用者Uに対して多様な働きかけを実行する複数のふるまいを含んでいる。したがって、選択部15によって選択されるふるまいは、検知部12によって検知された状況および指示Dirで指定された目的が同じであっても、一つのふるまいに固定されることはなく、ふるまい候補の集合の中でばらつきを持つ。
As can be seen from the example shown in FIG. 3, the set of behavior candidates extracted under the condition that the trigger condition is satisfied by the current situation and contributes to the achievement of the specified purpose is the user U It includes multiple behaviors that perform various actions against the. Therefore, the behavior selected by the
つまり、上述したような選択部15によって選択されたふるまいを、制御部16が出力装置11に実行させることにより、同一の状況においても、出力装置11が実行するふるまいに変化を持たせることができる。選択部15は、単に、複数のふるまい候補の中から一つを選択すればよいので、複雑に分岐したシナリオを必要としない。その一方で、選択部15によって選択されるふるまいは、それまでに出力装置11が実行した利用者Uに対する働きかけによって築かれた交流の雰囲気を継承しつつ、指定された目的を達成可能なふるまいであることは上述したとおりである。故に、この検索部14および選択部15を有するインタラクション装置10は、利用者Uと出力装置11との間の相互作用の雰囲気を損なうことなく、指定された目的を達成可能な多様なふるまいを出力装置11によって出力させることができる。
That is, by causing the
このように、本件開示のインタラクション装置10によれば、固定したシナリオを用いることなく、利用者Uに対する働きかけによって築かれた交流の雰囲気を継承しながら目的を持った働きかけを継続的に実現することができる。なぜなら、このようなインタラクション装置10は、互いに類似した状況において互いに類似した目的が指示された場合であっても、利用者Uに対して多様な働きかけを提示することにより、利用者Uを飽きさせるおそれが少ないからである。したがって、本件開示のインタラクション装置10によれば、利用者Uと出力装置11との間で自然な交流を持続させることが可能である。
As described above, according to the
本件開示のインタラクション装置10は、例えば、出力装置11として生き物の形態を模したロボットを用いて、利用者Uに癒しの感覚を与えるサービスを提供しつつ、この利用者Uの見守りに有用な目的を達成するサービスの実現において有用である。
The
例えば、各ふるまいについて、このロボットが模している生き物の生態を反映した契機条件や個々のロボットに特有の性格を反映した契機条件を設定しておくことにより、生き物らしい自律的な個体として、利用者Uに対して、より自然に働きかけることができる。 For example, for each behavior, by setting an opportunity condition that reflects the ecology of the creature imitated by this robot and an opportunity condition that reflects the characteristics that are unique to each robot, It is possible to work on the user U more naturally.
図4は、インタラクション装置10の別実施形態を示している。なお、図4に示した構成要素のうち、図1に示した構成要素と同等のものについては、同一の符号を付して示し、その説明は省略する。
FIG. 4 shows another embodiment of the
図4に示した選択部15は、算出部151と、決定部152とを含んでいる。図4に示した算出部151は、検索部14によってデータベース13から抽出されたふるまい候補ごとに、指示Dirで指定された種類の状態変化についての期待度の高さに相関を持つ確率を算出する。また、決定部152は、算出部151で各ふるまい候補について求めた確率に従って、ふるまい候補の中から選択するふるまいを決定する。このように、算出部151と決定部152とにより、期待度で重み付けした確率に従って複数のふるまい候補の一つを選択する、重み付きランダム選択を実現してもよい。
The
算出部151は、例えば、N個のふるまい候補の中でj番目のふるまい候補が選択される確率Pjとして、各ふるまい候補について設定された目的に対応する期待度XIL(j)を、これらの期待度の総和Sで除算した値として算出してもよい。この場合に、確率Pjは、各ふるまい候補の指定された目的についての期待度XIL(j)を用いて、式(1)のように表すことができる。
For example, as the probability Pj that the j-th behavior candidate is selected from the N behavior candidates, the
図4に示した決定部152は、例えば、所定の範囲の乱数を発生させるような確率的試行を実行し、得られた乱数の値と、上述したようにして決定した確率とに基づいて、ふるまい候補の中から選択するふるまいを決定する。決定部152は、上述した乱数の範囲を、各ふるまい候補について得られた確率の大きさに対応する幅を持つN個の区分に分割しておき、発生させた乱数がどの区分に含まれるかによって、選択するふるまいを決定してもよい。
For example, the
上述した算出部151と決定部152とを有する選択部15は、ふるまい候補の中から、各ふるまいによって指示Dirで指定された目的が達成される可能性の高さである期待度の高さを反映した重み付きランダム選択により、実行するふるまいを選択する。したがって、図4に示した選択部15による選択結果は、検索部14による検索で得られたふるまい候補の範囲内での多様性を保ちながらも、指示Dirで指定された目的の達成に関する期待度の高さを反映している。
The
このような選択部15を有するインタラクション装置10によれば、出力装置11によって出力されるふるまいの多様性を保ちつつ、指示Dirで指定された目的を達成する可能性が高いふるまいを優先的に出力させることができる。これにより、出力装置11が利用者Uに対して実行する働きかけが画一化することを避けながら、出力装置11により、目的を達成する可能性の高い働きかけを実行することができる。
According to the
なお、本件開示のインタラクション装置10は、図5に示すような選択部15を設けることにより、指示Dirにより、複数の目的が指定された場合にも対応することができる。
Note that the
図5は、インタラクション装置10の別実施形態を示している。なお、図5に示した構成要素のうち、図4に示した構成要素と同等のものについては、同一の符号を付して示し、その説明は省略する。
FIG. 5 shows another embodiment of the
図5に示した選択部15は、図4と同様の算出部151および決定部152に加えて、集計部153を有している。
The
図5に示した集計部153は、データベース13を参照することにより、検索部14による検索結果として得られた各ふるまい候補に対応するふるまい定義情報において、指示Dirで指定されたM個の目的それぞれに対応する期待度を取得する。また、集計部153は、各ふるまい候補について取得した各目的に対応する期待度を集計することにより、各ふるまい候補が、上述したM個の目的の達成に寄与する度合いを示す合成期待度を算出する。
The totaling
集計部153は、例えば、式(2)を用いて、N個のふるまい候補の中のj番目のふるまい候補についての合成期待度XILs(j)を算出してもよい。なお、式(2)において、合成期待度XILs(j)は、m番目の目的に対応する期待度XIL(m,j)と、m番目の目的について指定された重みc(m)との積の総和である。
For example, the totaling
例えば、指示Dirで指定された2つの目的「興味度を上昇させる」および「情動度を上昇させる」に応じて、図2に示したふるまい「さわやかな挨拶」がj番目のふるまい候補として抽出されたときの合成期待度XILs(j)は、式(3)のように求めることができる。
XILs(j)=0.3×0.5+0.5×0.5=0.4 ・・・(3)
なお、式(3)の例は、集計部153において、上述した二つの目的に同一の重み0.5を設定した場合を示している。また、式(3)は、式(2)において、目的の数M=2とし、第1の目的の期待度XIL(1,j)および第2の目的の期待度XIL(2、j)として、ふるまい「さわやかな挨拶」の期待度IIL=0.3および期待度EIL=0.5を設定した例である。
For example, the behavior “Refreshing Greeting” shown in FIG. 2 is extracted as the jth behavior candidate in accordance with the two purposes “increased interest” and “increased emotion” specified by the instruction Dir. The synthesis expectation degree XILs (j) at this time can be obtained as shown in Expression (3).
XILs (j) = 0.3 × 0.5 + 0.5 × 0.5 = 0.4 (3)
In addition, the example of Formula (3) has shown the case where the same weight 0.5 is set in the totaling
同様にして、図3において、上述した2つの目的の達成にそれぞれに寄与するふるまいの例として挙げた各ふるまいがふるまい候補として抽出された場合に、各ふるまいについて集計部153が算出する合成期待度を、図6に示す。
Similarly, in FIG. 3, when each behavior listed as an example of behavior that contributes to the achievement of the above-described two purposes is extracted as a behavior candidate, the combined expectation degree calculated by the
図6は、各ふるまい候補について算出される合成期待度の例を示している。なお、図6に示した各要素のうち、図3と同等のものについては、同一の符号を付して示し、その説明は省略する。 FIG. 6 shows an example of the synthesis expected degree calculated for each behavior candidate. 6 that are the same as those in FIG. 3 are denoted by the same reference numerals and description thereof is omitted.
図6の例では、ふるまい「地味にかまって欲しがる」に対応する合成期待度は、このふるまいのふるまい定義情報において、興味度に対応して設定された期待度IIL=0.2に重み0.5を乗じた値0.1となる。同様に、ふるまい「派手にかまって欲しがる」に対応する合成期待度は、このふるまいのふるまい定義情報において、興味度に対応して設定された期待度IIL=0.6に重み0.5を乗じた値0.3となる。一方、ふるまい「はしゃいで喜ぶ」に対応する合成期待度は、このふるまいのふるまい定義情報において、興味度および情動度に対応してそれぞれ設定された期待度IIL=0.7、EIL=0.9にそれそれ重み0.5を乗じて加算した値0.8となる。また、ふるまい「ゲップをする」に対応する合成期待度は、このふるまいのふるまい定義情報において、情動度に対応して設定された期待度EIL=0.8に重み0.5を乗じた値0.4となる。同様に、ふるまい「ギャグを言う」に対応する合成期待度は、このふるまいのふるまい定義情報において、情動度に対応して設定された期待度EIL=0.7に重み0.5を乗じた値0.35となる。そして、ふるまい「手を振る」に対応する合成期待度は、このふるまいのふるまい定義情報において、情動度に対応して設定された期待度EIL=0.6に重み0.5を乗じて得られる値0.3となる。 In the example of FIG. 6, the composite expectation level corresponding to the behavior “I want you to be quiet” weights the expectation level IIL = 0.2 set corresponding to the interest level in the behavior definition information of this behavior. A value of 0.1 multiplied by 0.5 is obtained. Similarly, the combined expectation degree corresponding to the behavior “I want to be flashy” is a weight 0.5 to the expectation degree IIL = 0.6 set corresponding to the interest degree in the behavior definition information of this behavior. Multiplied by the value 0.3. On the other hand, the synthesis expectation level corresponding to the behavior “Happy and happy” is the expectation levels IIL = 0.7 and EIL = 0.9 respectively set according to the interest level and the emotion level in the behavior definition information of the behavior. The result is 0.8, which is obtained by multiplying each by a weight of 0.5. Further, the synthesis expectation level corresponding to the behavior “Gep is” is a value obtained by multiplying the expectation level EIL = 0.8 set corresponding to the emotion level by the weight 0.5 in the behavior definition information of the behavior. .4. Similarly, the synthesis expected degree corresponding to the behavior “say gag” is a value obtained by multiplying the expectation degree EIL = 0.7 set corresponding to the emotion degree by the weight 0.5 in the behavior definition information of the behavior. 0.35. The synthesis expectation level corresponding to the behavior “waving hand” is obtained by multiplying the expectation level EIL = 0.6 set corresponding to the emotion level by the weight 0.5 in the behavior definition information of the behavior. The value is 0.3.
このようにして得られた合成期待度XILs(j)に基づいて、算出部151は、上述した式(1)に含まれる期待度X(j)を、上述した合成期待度XILs(j)で置き換えた式(4)を用いることにより、各ふるまい候補が選択される確率Pjを算出する。
Based on the composite expectation degree XILs (j) obtained in this way, the
ところで、図3に例示したふるまいの中には、ふるまいの実行による効果が、インタラクション装置10から働きかけを受ける利用者Uの状態に依存して変化するものが含まれている。例えば、ふるまい「はしゃいで喜ぶ」のように、出力装置11として機能するロボットの派手な動きを伴うふるまいの効果は、利用者Uがこのロボットとの相互作用に乗り気になっているときには、大きな効果を発揮する。このため、このような派手な動きをロボットに実行させるふるまいのふるまい定義情報には、利用者Uの状態に関する各指標値を上昇させる目的に対応して、比較的大きい値を持つ期待度が設定される場合が多い。したがって、期待度を反映した確率に従って、ロボットが実行するふるまいを選択する場合には、上述したような派手な動きを伴うふるまいが、他のふるまいよりも高い確率で選択される。しかしながら、利用者Uがロボットに対してあまり興味を示していないときに、ふるまい「はしゃいで喜ぶ」のような派手な動きを伴うふるまいを実行すると、期待した効果が得られず、かえって逆効果になる場合もある。
By the way, the behavior illustrated in FIG. 3 includes one in which the effect due to the execution of the behavior changes depending on the state of the user U who is challenged by the
したがって、インタラクション装置10は、働きかけを行う相手である利用者Uの状態に応じて、働きかけとして出力するふるまいの選択を制御する仕組みを有することが望ましい。
Therefore, it is desirable that the
図7は、インタラクション装置10の別実施形態を示している。なお、図7に示した構成要素のうち、図4に示した構成要素と同等のものについては、同一の符号を付して示し、その説明は省略する。
FIG. 7 shows another embodiment of the
図7に示したインタラクション装置10は、熊の形態を模したロボットCRの機能の一部を利用することによって、出力装置11を実現する形態の一例である。
The
図7に示した出力装置11は、ロボットCRに含まれるモータ部31とスピーカ32と駆動処理部33とを含んでいる。駆動処理部33は、制御部15から受け取ったふるまい内容に基づいて、モータ部31に含まれる複数のモータをそれぞれ駆動し、ロボットCRの手足や首などの稼動部分を動かすことにより、ふるまい内容で定義された動作をさせる。また、駆動処理部33は、制御部15から受け取ったふるまい内容で指定された音声をスピーカ32に出力させることにより、ふるまい内容で定義された音声メッセージを利用者Uに提示する。
The
図7に示したロボットCRは、上述したモータ部31とスピーカ32と駆動処理部33とに加えて、更に、観測部34と、内部状態判定部35とを含んでいる。
The robot CR shown in FIG. 7 includes an
この観測部34は、例えば、カメラやマイクロホン、接触センサなどを含んでおり、利用者Uを含む周囲の映像や利用者Uの音声と、利用者UからロボットCRへの物理的な接触に関する情報とを、利用者Uからの反応を表す情報として取得する。また、観測部34は、例えば、カメラで得られた映像から、利用者Uの体の動きや表情の変化の大きさを示す計測値を取得してもよい。同様に、観測部34は、例えば、マイクロホンで得られた音声から、利用者Uの声の大きさや声の変動の大きさなどを示す計測値を取得してもよい。また、観測部34は、接触センサで得られた情報から、利用者UがロボットCRに物理的に接触した回数や強さなどを示す計測値を取得してもよい。
The
内部状態判定部35は、駆動処理部33が制御部15から受け取ったふるまい内容と観測部34で得られる情報とに基づいて、ロボットCRの内部状態を示す各パラメータを算出する。内部状態判定部35は、例えば、制御部15から受け取った個々のふるまい内容に基づいて、ロボットCRの短期的な感情を示すパラメータを、ロボットCRの内部状態を示すパラメータの一つとして求めてもよい。なお、内部状態判定部35は、ロボットCRの短期的な感情を示すパラメータは、観測部34で得られる利用者Uからの反応に基づいて調整してもよい。例えば、内部状態判定部35は、接触センサによって利用者UがロボットCRを撫でたことを検知したときにうれしい感情を示すパラメータの値を上昇させ、たたかれたことを検知したときに悲しい感情を示すパラメータを上昇させるなどの調整を行ってもよい。また、内部状態判定部35は、例えば、時系列に従って受け取った複数のふるまい内容の履歴などに基づいて、上述したような感情の蓄積によって変化するロボットCRの機嫌や利用者Uに対するなつき度合いを示すパラメータを求めてもよい。更に、内部状態判定部35は、例えば、観測部34から受け取った利用者Uの映像に基づいて、利用者UとロボットCRとが目と目とを合わせたアイコンタクト状態であるか否かを示すパラメータを求めてもよい。
The internal
図7に示した検知部12は、上述した観測部34および内部状態判定部35に加えて、収集部121と、解析部122と、状況テーブル123とを含んでいる。
The
収集部121は、例えば、センサ部SDに含まれる温度センサ、湿度センサや明るさセンサなどによって得られる計測値を定期的に収集する。また、収集部121は、収集した計測値を出力装置11および利用者Uの周囲の環境に関する状況を示す環境情報として状況テーブル123に保持させる。
The
また、解析部122は、観測部34で得られた計測値を解析することにより、図3に示した活動度UAL、情動度UELおよび興味度UILを含む、利用者Uの状態を示す各指標値を算出する。解析部122は、活動度UAL、情動度UELおよび興味度UILを算出する処理に、例えば、本出願人により先に出願された特願2011−243573「非言語情報解析装置および非言語情報解析プログラム並びに非言語情報解析方法」の技法を用いてもよい。この技法は、観測部34に含まれるカメラや接触センサから得られる情報から、利用者Uが表出する非言語反応の強さを示す複数の計測値を取得し、これらの計測値の時間変化を解析することにより、活動度UAL,興味度UILおよび情動度UELを算出する。
Further, the
解析部122は、観測部34から利用者Uの動きの大きさや動きの頻度および利用者Uの表情の変化を示す計測値を受け取り、これらの計測値に対して上述した技法に基づく解析処理を行う。解析部122は、例えば、上述した解析処理を所定の時間間隔で行うことにより、活動度UAL、情動度UELおよび興味度UILを含む各指標値を、これらの指標値の算出に用いた計測値をサンプリングした時刻ごとに算出してもよい。また、解析部122は、各サンプリング時刻において得られた計測値からそれぞれ算出した各指標値を、利用者Uの状態を示すユーザ情報として、状況テーブル123にサンプリング時刻に対応して保持させてもよい。
The
状況テーブル123は、例えば、図8に示すように、収集部121から受け取った環境情報と内部状態判定部35から受け取ったロボットCRの内部状態を示すロボット情報とを、上述したユーザ情報とともに、それぞれを取得した時刻に対応して格納する。
For example, as shown in FIG. 8, the situation table 123 includes environment information received from the
図8は、状況テーブル123の例を示している。なお、図8に示した要素のうち、図3に示した要素と同等のものについては、同一の符号を付して示し、その説明は省略する。 FIG. 8 shows an example of the situation table 123. Of the elements shown in FIG. 8, the same elements as those shown in FIG. 3 are designated by the same reference numerals, and the description thereof is omitted.
図8に示した状況テーブル123は、時刻Tiに対応して、明るさセンサによる計測値Liを含む環境情報を格納しており、時刻Tjに対応して、明るさセンサによる計測値Ljを含む環境情報を格納している。また、この状況テーブル123は、時刻Tpに対応して、同様に、明るさセンサによる計測値Lpを含む環境情報を格納している。 The situation table 123 shown in FIG. 8 stores environment information including the measurement value Li measured by the brightness sensor corresponding to the time Ti, and includes the measurement value Lj measured by the brightness sensor corresponding to the time Tj. Stores environmental information. In addition, this situation table 123 similarly stores environment information including the measurement value Lp by the brightness sensor corresponding to the time Tp.
また、この状況テーブル123は、時刻Tiに対応して、アイコンタクト「あり」および機嫌「上機嫌」を含むロボット情報を格納しており、また、時刻Tjに対応して、アイコンタクト「あり」および機嫌「ごきげん」を含むロボット情報を格納している。一方、この状況テーブル123は、時刻Tpに対応して、アイコンタクト「なし」および機嫌「ぼんやり」を含むロボット情報を格納している。 In addition, the situation table 123 stores robot information including eye contact “Yes” and mood “Good mood” corresponding to time Ti, and eye contact “Yes” and “Yes” corresponding to time Tj. Stores robot information including the mood “Gokugen”. On the other hand, this situation table 123 stores robot information including eye contact “none” and mood “blaze” corresponding to the time Tp.
また、図8に示した状況テーブル123は、時刻Tiに対応して、興味度UIL(i)、活動度UAL(i)、情動度UEL(i)を含むユーザ情報を格納している。この状況テーブル123は、時刻Tjに対応して、興味度UIL(j)、活動度UAL(j)、情動度UEL(j)を含むユーザ情報を格納している。なお、図5に示した状況テーブル123において、時刻Tpに対応するユーザ情報の欄に示した符号「−」は、時刻Tpにおいて、解析部122が、興味度、活動度および情動度の算出を行わなかったことを示している。
Further, the situation table 123 shown in FIG. 8 stores user information including an interest level UIL (i), an activity level UAL (i), and an emotion level UEL (i) corresponding to the time Ti. The situation table 123 stores user information including an interest level UIL (j), an activity level UAL (j), and an emotion level UEL (j) corresponding to the time Tj. In the situation table 123 shown in FIG. 5, the sign “−” shown in the user information column corresponding to the time Tp indicates that the
ここで、特願2011−243573の技法は、利用者Uの状態を忠実に反映する興味度、活動度および情動度を算出するために、ロボットCRが利用者Uとの間でアイコンタクトを確立している状態で得られる高い精度の計測値を利用することを前提としている。したがって、図8において、時刻Tpに対応するロボット情報で示したように、アイコンタクトが確立されていない場合には、特願2011−243573の技法によって算出した興味度、活動度および情動度は不確かな値となる可能性がある。このような不確かな値を格納する代わりに、解析部122は、図8に示した例のように、興味度、活動度および情動度の算出を行わなかったことを示す符号「−」を格納してもよい。
Here, in the technique of Japanese Patent Application No. 2011-243573, the robot CR establishes eye contact with the user U in order to calculate the degree of interest, the degree of activity, and the degree of emotion that faithfully reflects the state of the user U. It is assumed that high-accuracy measurement values obtained in the state of use are used. Therefore, as shown by the robot information corresponding to the time Tp in FIG. 8, when the eye contact is not established, the interest level, the activity level, and the emotion level calculated by the technique of Japanese Patent Application No. 2011-243573 are uncertain. May be a negative value. Instead of storing such an uncertain value, the
なお、状況テーブル123は、図8に示した例に限らず、最新の環境情報と最新のロボット情報と最新のユーザ情報とを、出力装置11と利用者Uとの間の相互作用に関する状況を表す最新のインタラクション情報として保持してもよい。
The status table 123 is not limited to the example illustrated in FIG. 8, and the latest environment information, the latest robot information, and the latest user information are displayed on the status regarding the interaction between the
上述したように、図7に示した解析部122を有する検知部12によれば、利用者Uの状態を示す各指標値を、出力装置11と利用者Uとの間の相互作用に関する状況を表すインタラクション情報の一部として、検索部14に渡すことができる。
As described above, according to the
また、上述した解析部122を含む検知部12を有するインタラクション装置10においては、各ふるまい定義情報に、利用者Uの状態を示す各指標値の範囲を示す条件を含む契機条件を設定してもよい。
Further, in the
図9は、ふるまい定義情報の別例を示している。なお、図9に示した要素のうち、図2に示した要素と同等のものについては、同一の符号を付して示し、その説明は省略する。 FIG. 9 shows another example of behavior definition information. Note that, among the elements shown in FIG. 9, elements equivalent to those shown in FIG. 2 are denoted by the same reference numerals, and description thereof is omitted.
図9に例示したふるまい定義情報は、識別番号「11」およびふるまい名「はしゃいで喜ぶ」で特定されるふるまいについてのふるまい定義情報である。 The behavior definition information illustrated in FIG. 9 is behavior definition information regarding the behavior specified by the identification number “11” and the behavior name “Happy and happy”.
このふるまい定義情報は、図7に示した出力装置11が、ふるまい「はしゃいでよろこぶ」として出力する音声メッセージや動作を示すふるまい内容「Def11」を含んでいる。このふるまい内容「Def11」は、例えば、図7に示したロボットCRの手足を大きくしかも激しく動かすことや、くだけた調子の音声メッセージを大きな音量で出力することを記述している。
This behavior definition information includes a behavior message “Def11” indicating a voice message and an operation output by the
利用者UがロボットCRとの相互作用に乗り気になっているときに、このような派手なふるまいをロボットCRが実行すれば、高い確率で、利用者Uの興味度、活動度および情動度を上昇させることができることは上述したとおりである。このため、図9に示したふるまい定義情報は、利用者Uの活動度、情動度および興味度をそれぞれ変化させることの期待度AIL,EIL,IILとして、それぞれ値「0.8」、「0.9」、「0.7」のように最大値「1」に近い値を含んでいる。 If the user CR is eager to interact with the robot CR and the robot CR executes such a flashy behavior, the user U's degree of interest, activity and emotion can be estimated with high probability. As described above, it can be raised. For this reason, the behavior definition information shown in FIG. 9 has values “0.8” and “0” as the expected degrees AIL, EIL, and IIL of changing the activity level, emotion level, and interest level of the user U, respectively. .9 ”,“ 0.7 ”, etc., which are close to the maximum value“ 1 ”.
その反面、利用者UがロボットCRとの相互作用にあまり乗り気になっていないときに、ロボットCRが上述したような派手なふるまいによる働きかけを利用者Uに対して実行すると、相互作用の継続を困難にさせるリスクがあることも上述したとおりである。 On the other hand, when the user U is not very interested in the interaction with the robot CR, when the robot CR executes the action by the flashy behavior as described above to the user U, the interaction is continued. As mentioned above, there is a risk of making it difficult.
図9に示したふるまい定義情報は、このようなリスクが想定されるケースにおいて当該ふるまいの出力を抑止するために、契機条件の一部として、利用者Uの状態を示す指標の一つである興味度UILについての範囲を示す条件を含んでいる。 The behavior definition information shown in FIG. 9 is one of indices indicating the state of the user U as a part of the trigger condition in order to suppress the output of the behavior in a case where such a risk is assumed. A condition indicating a range for the interest level UIL is included.
図9に示したふるまい定義情報に設定された契機条件「C1 AND C4」において、条件C4は、図7に示した解析部122によって得られる利用者Uの興味度UILの範囲を示す条件を示している。図9の例では、この条件C4は、利用者UのロボットCRに対する興味度UILが数値「0.8」を超えていることである。
In the trigger condition “C1 AND C4” set in the behavior definition information shown in FIG. 9, the condition C4 indicates a condition indicating the range of the interest degree UIL of the user U obtained by the
このような契機条件に基づいて、図7に示した検索部14がふるまい候補の検索を行うことにより、利用者UがロボットCRとの相互作用に大きな関心を示しているときに限って、ふるまい「はしゃいで喜ぶ」をふるまい候補の一つとして抽出することが可能である。
Based on such a trigger condition, the
上述したように、図7に示した検索部14は、状況テーブル123に含まれる最新のインタラクション情報と、データベース13内の各ふるまい定義情報に含まれる契機条件とを照合することにより、まず、契機条件が満たされているふるまいを抽出する。次いで、検索部14は、このようにして抽出したふるまいそれぞれについて、指示Dirで指定された目的に対応する期待度として、「0」以外の値が設定されているか否かによって、目的の達成に有効なふるまいをふるまい候補として判別する。
As described above, the
したがって、検索部14がふるまい候補として抽出するふるまいは、利用者Uの状態を示す各指標値を含む最新のインタラクション情報によって契機条件が満たされているふるまいに限られている。つまり、図9に示した契機条件が設定されたふるまい「はしゃいで喜ぶ」は、状況テーブル123に保持された最新のインタラクション情報により、利用者Uの興味度が数値「0.8」を超えたことが示されない限り、ふるまい候補として抽出されることはない。
Therefore, the behavior extracted as a behavior candidate by the
ここで、利用者UのロボットCRに対する興味度UILを含む各指標値は、例えば、図10に示すように、ロボットCRからの働きかけの積み重ねなどに応じて時間的に変化する。 Here, each index value including the degree of interest UIL of the user U with respect to the robot CR varies with time in accordance with, for example, accumulation of actions from the robot CR as shown in FIG.
図10は、興味度UILの時間変化の例を示している。なお、図10に示した要素のうち、図8に示した要素と同等のものについては、同一の符号を付して示し、その説明は省略する。 FIG. 10 shows an example of the temporal change in the degree of interest UIL. Note that among the elements shown in FIG. 10, elements equivalent to those shown in FIG. 8 are denoted by the same reference numerals, and description thereof is omitted.
図10に示した例では、利用者UのロボットCRに対する興味度UILは、概ね時間の経過に従って上昇している。この興味度UILのグラフにおいて、時刻Ti,Tjにおける興味度UILの値は、いずれも数値「0.8」未満であるが、その後の時刻Tkにおいて、興味度UILの値は数値「0.8」に到達している。 In the example illustrated in FIG. 10, the degree of interest UIL of the user U with respect to the robot CR generally increases with time. In this interest degree UIL graph, the values of the interest degree UIL at the times Ti and Tj are both less than the numerical value “0.8”. At the subsequent time Tk, the value of the interest degree UIL is the numerical value “0.8”. Has been reached.
このような指標値の変化に応じて、検索部14がデータベース13から検索するふるまい候補に、ふるまい「はしゃいで喜ぶ」のようなリスクを持つふるまいが含まれるか否かが変わってくる。例えば、目的「活動度を上昇させる」に寄与するふるまいの例として図3に示した各ふるまいの契機条件が、利用者Uの興味度UILに関する条件を除いて全て満たされている場合に、ふるまい候補は、興味度UILの変化に応じて次のように変化する。
In accordance with such a change in the index value, whether or not the behavior candidate searched by the
利用者UのロボットCRに対する興味度UILが図10に示したように変動する場合に、上述したふるまい「はしゃいで喜ぶ」の契機条件は、時刻Tk以前の時刻Tiおよび時刻Tjにおいては満たされない。 When the degree of interest UIL of the user U with respect to the robot CR varies as shown in FIG. 10, the trigger condition for the behavior “pleasantly pleased” described above is not satisfied at time Ti and time Tj before time Tk.
したがって、例えば、時刻Tiにおいて、指示Dirで指定された目的がふるまい「はしゃいで喜ぶ」が寄与する目的であっても、図7に示した検索部14が、ふるまい「はしゃいで喜ぶ」をふるまい候補として抽出することはない。なぜなら、インタラクション情報と各ふるまい定義情報内の契機条件を照合する過程で、検索部14は、ふるまい「はしゃいで喜ぶ」は契機条件が満たされていないと判断し、ふるまい候補から除外するからである。この場合に、目的「活動度を上昇させる」を指定する指示Dirに応じて検索部14が抽出するふるまい候補は、ふるまい「さわやかな挨拶」、ふるまい「手を振る」およびふるまい「くしゃみをする」の3つである。
Therefore, for example, even at the time Ti, even if the purpose specified by the instruction Dir is the purpose contributed by the behavior “Happy and happy”, the
一方、図10に示した時刻Tk以降に、ふるまい「はしゃいで喜ぶ」が寄与する目的の一つを指定する指示Dirが入力されれば、図7に示した検索部14は、ふるまい「はしゃいで喜ぶ」をふるまい候補の一つとして抽出する。したがって、時刻Tk以降に、目的「活動度を上昇させる」を指定する指示Dirに応じて検索部14が抽出するふるまい候補は、上述した3つのふるまいに、ふるまい「はしゃいで喜ぶ」を加えた4つである。
On the other hand, if an instruction Dir that designates one of the purposes to which the behavior “joyful” is input after time Tk shown in FIG. 10, the
このように、図7に示したインタラクション装置10によれば、緻密に構築された固定的なシナリオによらずに、相互作用の対象となる利用者Uの状態を含めたインタラクション状況の変化に応じて、多彩に変化する働きかけを実行することができる。これにより、ふるまい「はしゃいで喜ぶ」のようなふるまいのために、利用者UにとってロボットCRが煩わしい存在となるリスクを低減し、ロボットCRと利用者Uとの相互作用を安定的に継続させることができる。
As described above, according to the
なお、データベース13に登録する各ふるまいが、上述したようなリスクを持つふるまいであるか否かは、様々な状況において、個々のふるまいを様々な人物に対して提示した際に得られる反応を集積する実験などによって予め見極めることができる。また、当該ふるまいの効果を左右する要因についても、同様の実験結果に基づいて、予め判別することができる。
Whether or not each behavior registered in the
そして、上述したふるまい「はしゃいで喜ぶ」と同様に、上述したようにして見極めたリスクを持つふるまいについて、目的達成の効果を左右する利用者Uの状態を示す指標値についての条件を含む契機条件を設定することができる。これにより、これらのふるまいが利用者Uに対して効果的に働く場面に限って、これらのふるまいをふるまい候補に含めることができるので、上述したようなふるまいをロボットCRによって出力させる際のリスクを避けることができる。 And the behavior having the risk determined as described above, as well as the behavior described above, the trigger condition including the condition for the index value indicating the state of the user U that determines the effect of achieving the objective. Can be set. As a result, since these behaviors can be included in the behavior candidates only in situations where these behaviors work effectively for the user U, the risk of outputting the behaviors as described above by the robot CR is reduced. Can be avoided.
このように、図7に示したインタラクション装置10によれば、利用者Uの状態に関する条件を含む契機条件を一部のふるまいについて設定することにより、ロボットCRと利用者Uとの相互作用を高い確度で継続させつつ、目的に応じた働きかけを実現できる。
As described above, according to the
ところで、指示Dirで利用者Uへの働きかけの目的として指定される状態変化は、いずれも、上述した興味度UIL,活動度UAL,情動度UELを含む各指標値の変化として表れる。したがって、指示Dirで指定された指標値の変化を引き出すためにロボットCRがあるふるまいを実行した後に、解析部122の解析結果として得られる当該指標値は、そのまま目的の達成度を示している。したがって、解析部122によって得られる各指標値の変化に基づいて、その指標値に関する目的の指定に応じて、出力装置11が利用者Uに対して提示したふるまいの効果を評価し、評価結果に基づいて期待度を最適化することが可能である。
By the way, all the state changes specified as the purpose of acting on the user U by the instruction Dir appear as changes in the respective index values including the interest degree UIL, the activity degree UAL, and the emotion degree UEL. Therefore, the index value obtained as an analysis result of the
図11は、インタラクション装置10の別実施形態を示している。なお、図11に示した構成要素のうち、図7に示した構成要素と同等のものについては、同一の符号を付して示し、その説明は省略する。
FIG. 11 shows another embodiment of the
図11に示したインタラクション装置10は、図7に示した出力装置11、検知部12、データベース13、検索部14、選択部15、制御部16に加えて、更新部17を含んでいる。
The
更新部17は、ふるまいの出力の前後に解析部122によって得られる指標値の変化に基づいて、ロボットCRが出力したふるまいに対応するふるまい定義情報について、指示Dirで働きかけの目的として指定された種類の状態変化についての期待度を更新する。
The
例えば、更新部17は、まず、指示Dirに応じて選択されたふるまいを出力装置11が出力する前後のタイミングにおいて状況テーブル123を参照することで、指定された目的に対応する達成度を示す指標値を、ふるまいの出力前後についてそれぞれ取得する。次いで、更新部17は、上述したふるまいの出力後に対応して取得した達成度から、ふるまいの出力前に対応して取得した達成度を差し引くことにより、このふるまいを出力したことによる達成度の変化分δを求める。なお、更新部17は、例えば、指示Dirに応じて選択されたふるまいを出力装置11が出力する前後のタイミングを示す通知を制御部15から受け取り、この通知に応じて、状況テーブル123を参照してもよい。
For example, the
例えば、図10に示したように興味度UILが変化した場合に、時刻Tiから時刻Tjの期間に提示されたふるまいについて、更新部17は、目的「興味度を上昇させる」の達成度の変化分として、上述した期間における興味度UILの変化分δを得る。
For example, when the degree of interest UIL changes as shown in FIG. 10, for the behavior presented during the period from time Ti to time Tj, the
また、図11に示した更新部17は、上述したようにして得られた達成度の変化分δに基づいて、上述したふるまいに対応するふるまい定義情報において、指示Dirで指定された目的に関する新たな期待度を算出する。更新部17は、上述した達成度の変化分δと、所定の係数kと、ふるまいの実行前の期待度XILbとに基づいて、例えば、次に示す式(5)で表される新たな期待度XILnを算出してもよい。
XILn=XILb+k×δ ・・・(5)
更新部17は、式(5)に示した係数kの値を適切に設定することにより、個々のふるまいを提示した際の利用者Uの反応に基づく学習結果を、対応する期待度に反映する程度を調節することができる。なお、更新部17は、上述した係数kの値としては比較的小さい値を設定し、個々のふるまいを実行した際に求めた達成度の変化分δによって、新たな期待度が前の期待度から過度に大きく変化しないように、また、日々のふれあいによって徐々に変動していくように調整することが望ましい。また、更新部17は、上述したようにして算出した新たな期待度XILnの値を、期待度としての値の範囲である数値「0」から数値「1」までの範囲に制限することが望ましい。
Further, the
XILn = XILb + k × δ (5)
The
また、更新部17は、上述したようにして算出した新たな期待度XILnを用いて、出力装置11によって出力されたふるまいについてデータベース13に登録されたふるまい定義情報に対して、指定された目的に対応する期待度を書き換える処理を行う。
In addition, the updating
このようにして、更新部17は、ふるまいの出力の前後に解析部122によって得られる指標値の変化分δを反映する新たな期待度を算出し、この新たな期待度を用いて、データベース13内の情報を更新することで、期待度の最適化を図ることができる。
In this way, the
このように、利用者Uとの相互作用を積み重ねる過程で、個々のふるまいが利用者Uの各指標値の変化を引き出すことについての期待度を変化させることにより、検索部14および選択部15が指定された目的に応じて選択するふるまいの傾向もまた変化する。この変化は、検索部14および選択部15が、指定された目的を達成する上で、利用者Uにより有効に働くふるまいを選択する方向への変化である。つまり、上述したようにして、検知部12によって検知した状況の変化に応じて、更新部17が対応する期待度を更新することにより、検索部14および選択部15によって利用者Uにより有効に働くふるまいを選択させるための学習を実現することができる。
In this way, in the process of accumulating the interaction with the user U, the
つまり、図11に示した更新部17を有するインタラクション装置10によれば、利用者Uとのふれあいを継続する中で、この利用者Uの個性に適合するふるまいを選択するためのカスタマイズを実現することができる。
That is, according to the
図11に示した更新部17を有するインタラクション装置10によって実現可能なカスタマイズは、利用者Uが個別のふるまいに飽きてしまった場合などにも対処することが可能である。
The customization that can be realized by the
なぜなら、利用者Uが、あるふるまいAに飽きてしまった場合に、この利用者Uが当該ふるまいAの提示の前後で示す反応に基づいて、解析部122によって得られる指標値の変化分δは、負の値を持っている可能性が高いからである。式(5)から明らかなように、変化分δが負の値である場合、新たな期待度XILnの値は、ふるまいAの実行前の期待度XILbよりも小さくなる。これにより、ふるまいAが再び選択される確率に比べて、他のふるまいが選択される確率が相対的に大きくなるので、利用者Uに対して新鮮な刺激を与えることが可能となる。
Because, when the user U gets bored with a certain behavior A, the change δ of the index value obtained by the
なお、更新部17が新たな期待度XILnを算出する手法は、式(5)に限らず、指標値の変化分δを新たな期待度に反映する手法であれば、他のどんな手法でもよい。例えば、上述した変化分δについて設けた複数の区分ごとに、期待度XILの更新の際に適用する期待度XILの増分を予め設定しておき、指標値の変化分δが属する区分に応じた期待度XILの増分を適用することで、新たな期待度XILnを算出してもよい。
The method by which the
このように、本件開示のインタラクション装置10は、相互作用の対象となる利用者Uごとの自動的なカスタマイズも容易に実現可能である。また、本件開示のインタラクション装置10は、データベース13に、適切な契機条件および各目的に対応する期待度を設定した新たなふるまい定義情報を追加することにより、利用者Uに対して提示可能なふるまいを容易に拡大することができる。これにより、ロボットCRを媒介とする相互作用に対して、利用者Uが飽きてしまう事態の発生をより高い確度で防ぐことができるので、長期間にわたって、安定的に相互作用を持続させることが可能である。
As described above, the
以上に説明した本件開示のインタラクション装置10は、例えば、パーソナルコンピュータなどのコンピュータ装置を用いて実現することができる。
The
図12は、画像処理装置10のハードウェア構成の一例を示している。なお、図12に示した構成要素のうち、図7に示した構成要素と同等のものについては、同一の符号を付して示し、その説明は省略する。
FIG. 12 shows an example of the hardware configuration of the
コンピュータ装置20は、プロセッサ21と、メモリ22と、ハードディスク装置(HDD)23と、表示装置24と、入力装置25と、光学ドライブ装置26と、ネットワークインタフェース28とを含んでいる。更に、このコンピュータ装置20は、周辺機器インタフェース29と、ロボットインタフェース30とを含んでいる。また、図12において、インタラクション装置10は、プロセッサ21と、メモリ22と、ハードディスク装置23と、周辺機器インタフェース29と、ロボットインタフェース30と、ロボットCRとを含んでいる。
The
図12に例示したプロセッサ21と、メモリ22と、ハードディスク装置23と、表示装置24と、入力装置25と、光学ドライブ装置26と、ネットワークインタフェース28とは、バスを介して互いに接続されている。また、このプロセッサ21と、周辺機器インタフェース29と、ロボットインタフェース30とも、上述したバスを介して互いに接続されている。図12に示した周辺機器インタフェース29には、センサ部SDが接続されており、プロセッサ21は、このセンサ部SDで得られた計測結果を、周辺機器インタフェース29を介して取得する。また、図12に示したロボットインタフェース30は、クマ型のロボットCRに接続されており、プロセッサ21は、このロボットインタフェース30を介してロボットCRとの間で情報の授受を行う。
The
上述した光学ドライブ装置26は、光ディスクなどのリムーバブルディスク27を装着可能であり、装着したリムーバブルディスク27に記録された情報の読出および記録を行う。また、図12に例示した入力装置25は、例えば、キーボードやマウスなどである。インタラクション装置10の操作者は、入力装置25を操作することにより、インタラクション装置10に対して、例えば、利用者Uに対するふるまいの提示によって達成すべき目的を指定する指示などを入力することができる。なお、インタラクション装置10の操作者は、例えば、上述した利用者Uの見守りサービスを依頼した人物などである。このインタラクション装置10の操作者は、インタラクション装置10が設置された場所から離れた場所に居住していてもよい。インタラクション装置10から離れた場所にいる操作者は、例えば、ネットワークNWおよびネットワークインタフェース28を介して、インタラクション装置10に対する指示を入力してもよい。
The
図12に例示したメモリ22は、コンピュータ装置20のオペレーティングシステムとともに、プロセッサ21が上述したようにして利用者Uと相互作用を行うためのインタラクション処理を実行するためのアプリケーションプログラムを格納している。なお、インタラクション処理を実行するためのアプリケーションプログラムおよび図7に示したデータベース13を構築するための情報は、例えば、光ディスクなどのリムーバブルディスク27に記録して頒布することができる。そして、このリムーバブルディスク27を光学ドライブ装置26に装着して読み込み処理を行うことにより、インタラクション処理を実行するためのアプリケーションプログラムを、メモリ22およびハードディスク装置23に格納させてもよい。また、インタラクション処理を実行するためのアプリケーションプログラムのインストール作業とともに、上述したデータベース13を構築するための情報に基づいて、ハードディスク装置23内にデータベース13を生成してもよい。インタラクション処理を実行するためのアプリケーションプログラムおよびデータベース13を構築するための情報は、ネットワークインタフェース28を介して取得することもできる。
The
インタラクション処理のためのアプリケーションプログラムは、ロボットCRと利用者Uとの間の相互作用に関する状況を検知する処理をプロセッサ21に実行させるためのアプリケーションプログラムを含んでいる。
The application program for the interaction process includes an application program for causing the
プロセッサ21は、ロボットCRを介して利用者Uに対する働きかけを行っている期間に亘って、状況を検知する処理のためのアプリケーションプログラムを定期的に実行することによって、検知部12の機能を実現してもよい。
The
図13は、状況を検知する処理のフローチャートの一例を示している。図13に示したステップ201〜ステップ205の各処理は、状況を検知する処理のためのアプリケーションプログラムをプロセッサ21が実行することによって実現することができる。
FIG. 13 shows an example of a flowchart of processing for detecting a situation. Each process of
プロセッサ21は、まず、図12に示したセンサ部SDおよびロボットCRに設けられた各種のセンサによって取得された計測値を収集する(ステップ201)。このステップ201で、プロセッサ21は、周辺機器インタフェース29を介して、センサ部SDで得られた明るさや気温など環境に関する各種の計測値を収集する。また、プロセッサ21は、ロボットインタフェース30を介して、ロボットCRに設けられたカメラやマイクロホンなどによって得られた利用者Uの反応を示す計測値を収集する。
First, the
次いで、プロセッサ21は、ステップ201の処理で得られた利用者Uの反応を示す計測値に基づいて、この利用者Uの状態を示す各指標値を算出する(ステップ202)。このステップ202において、プロセッサ21は、上述した特願2011−243573の技法を利用可能であることは、上述したとおりである。
Next, the
次に、プロセッサ21は、ステップ201で収集した環境に関する各種の計測値と、ステップ202で算出した各指標値とを含むインタラクション情報を、ハードディスク装置23などに設けた状況テーブル123に、現在時刻に対応して格納する(ステップ203)。
Next, the
次いで、プロセッサ21は、ステップ204において、次の検知タイミングまで待機した後に、例えば、図12に示した入力装置25を介してインタラクション処理を停止する指示が入力されたか否かを判定する(ステップ205)。インタラクション処理を停止する指示が入力されていない場合に、プロセッサ21は、ステップ205の否定判定ルートに従ってステップ201の処理に戻り、ステップ201〜ステップ205の処理を繰り返す。
Next, after waiting for the next detection timing in
このようにして、プロセッサ21は、ロボットCRと利用者Uとの間の相互作用に関する状況を所定期間ごとに検知し、この検知処理で得られるインタラクション情報を、ハードディスク装置23などに設けた状況テーブル123に保持させることができる。また、上述した状況を検知する処理の過程において、プロセッサ21が、ステップ202の処理を実行することにより、図7に示した解析部122の機能を実現することができる。これにより、プロセッサ21は、上述した状況テーブル123に、利用者Uの状態を示す各指標値を含むインタラクション情報を保持させることができる。
In this way, the
なお、例えば、利用者Uが就寝したことが確認されたことなどをきっかけとして、インタラクション処理を終了する指示が入力されたときに、プロセッサ21は、上述したステップ205の肯定判定ルートに従って、状況を検知する処理を終了する。
Note that, for example, when an instruction to end the interaction process is input after the confirmation that the user U has gone to bed, the
また、インタラクション処理のためのアプリケーションプログラムは、ロボットCRによって利用者Uに提示するふるまいを制御する処理をプロセッサ21に実行させるためのアプリケーションプログラムを含んでいる。
Further, the application program for the interaction process includes an application program for causing the
図14は、ふるまいを制御する処理のフローチャートの一例を示している。図14に示したステップ301〜ステップ306の各処理は、ふるまいを制御する処理のためのアプリケーションプログラムに含まれる各アプリケーションプログラムをプロセッサ21が実行することによって実現することができる。
FIG. 14 shows an example of a flowchart of processing for controlling behavior. Each process of
ふるまいを制御する処理のためのアプリケーションプログラムは、インタラクションの目的を指定する指示に応じて、データベース13からふるまいを選択する処理をプロセッサ21に実行させるためのアプリケーションプログラムを含んでいる。図14に示したフローチャートにおいて、プロセッサ21は、ステップ301でインタラクションの目的を指定する指示を待ち受けた後に、ステップ302において、このアプリケーションプログラムを実行する。そして、このステップ302の処理により、ハードディスク装置23内に設けられたデータベース13から、ステップ301の処理で受け取った指示が指定する目的を達成可能なふるまいを選択する。つまり、プロセッサ21がステップ302の処理を実行することは、プロセッサ21と、メモリ22およびハードディスク装置23との協働によって、図1に例示した検索部14および選択部15を実現する手法の一例である。
The application program for the process for controlling the behavior includes an application program for causing the
また、ふるまいを制御する処理のためのアプリケーションプログラムは、選択されたふるまいをロボットCRに設けられた機能を利用して利用者Uに対して提示する処理をプロセッサ21に実行させるためのアプリケーションプログラムを含んでいる。図14に示したフローチャートにおいて、プロセッサ21は、ステップ303において、このアプリケーションプログラムを実行する。そして、このステップ303の処理により、ステップ302の処理で選択したふるまいを、ロボットCRによって実現される出力装置11に実行させる。つまり、プロセッサ21がステップ303の処理を実行することは、プロセッサ21と、メモリ22およびハードディスク装置23との協働によって、図1に例示した制御部16を実現する手法の一例である。
Further, the application program for the process for controlling the behavior is an application program for causing the
更に、ふるまいを制御する処理のためのアプリケーションプログラムは、検知された状況の変化に基づいて、出力されたふるまいの目的に対する期待度を更新する処理をプロセッサ21に実行させるためのアプリケーションプログラムを含んでもよい。図14に示したフローチャートのステップ304において、目的の指定があったと判定された場合に、プロセッサ21は、ステップ305において、このアプリケーションプログラムを実行する。そして、このステップ305の処理により、プロセッサ21は、メモリ22あるいはハードディスク装置23に設けた状況テーブル123内のインタラクション情報に基づいて、ステップ303の処理で実行されたふるまいが目的について持つ期待度を更新する。つまり、プロセッサ21がステップ305の処理を実行することは、プロセッサ21と、メモリ22およびハードディスク装置23との協働によって、図7に例示した更新部17を実現する手法の一例である。
Furthermore, the application program for the process for controlling the behavior may include an application program for causing the
また、図14に示したフローチャートのステップ306において、プロセッサ21は、例えば、図12に示した入力装置25を介してインタラクション処理を停止する指示が入力されたか否かを判定する。インタラクション処理を停止する指示が入力されていない場合に、プロセッサ21は、ステップ306の否定判定ルートに従ってステップ301の処理に戻り、ステップ301〜ステップ306の処理を繰り返す。このようにして、目的を指定する指示の有無にかかわらず、ロボットCRにより、利用者Uに対する働きかけを継続的に実行させることができる。そして、例えば、利用者Uが就寝したことが確認されたことなどをきっかけとして、インタラクション処理を終了する指示が入力されたときに、プロセッサ21は、ステップ306の肯定判定ルートに従って処理を終了する。
Further, in
次に、ロボットCRに実行させるふるまいを選択する処理について、図15のフローチャートを用いて説明する。 Next, the process of selecting the behavior to be executed by the robot CR will be described using the flowchart of FIG.
図15は、ふるまいを選択する処理のフローチャートの一例を示している。図15に示したステップ311〜ステップ317の各処理は、ふるまいを選択する処理のためのアプリケーションプログラムに含まれる処理の一例である。また、これらのステップ311〜ステップ317の各処理は、プロセッサ21によって実行される。
FIG. 15 shows an example of a flowchart of processing for selecting a behavior. Each process of
まず、プロセッサ21は、メモリ22あるいはハードディスク装置23に設けられた状況テーブル123を参照することにより、最新のインタラクション情報を取得する(ステップ311)。
First, the
次に、プロセッサ21は、ステップ311で取得した最新のインタラクション情報とデータベース13に登録された各ふるまい定義情報に含まれる契機条件とを照合することにより、契機条件が満たされているふるまいを抽出する(ステップ312)。上述したように、状況テーブル123に保持されるインタラクション情報は、利用者Uの状態を示す各指標値を含んでいる。したがって、プロセッサ21は、ステップ312の処理を実行することにより、利用者Uの状態に関する条件を含む契機条件に基づいて、抽出するふるまい定義情報を取捨選択することができる。
Next, the
次いで、プロセッサ21は、図14に示したステップ301の処理で目的を指定する指示が入力されたか否かを判定する(ステップ313)。
Next, the
インタラクション装置10の操作者によってインタラクションの目的を指定する指示が入力されている場合に、プロセッサ21は、ステップ313の肯定判定ルートに従って、ステップ314〜ステップ316の処理を実行する。
When an instruction to specify the purpose of the interaction is input by the operator of the
ステップ314において、プロセッサ21は、ステップ312で抽出したふるまいの中から、指定された目的に対応する期待度がふるまい定義情報に設定されているか否かに基づいて、ふるまい候補を絞り込む。なお、複数の目的が指定されている場合に、プロセッサ21は、これらの目的の少なくとも一方についての期待度が設定されているふるまい定義情報に対応するふるまいをふるまい候補に含める。このように、プロセッサ21が、上述したステップ312に続いて、このステップ314の処理を実行することにより、図1に示した検索部14の機能を果たすことができる。
In
次いで、プロセッサ21は、各ふるまい候補に対応するふるまい定義情報において、指定された目的に対応して設定された期待度に基づいて、上述した式(1)を用いて、個々のふるまい候補が選択される確率を算出する(ステップ315)。プロセッサ21が、このステップ315の処理を実行することにより、図4に示した算出部151の機能を果たすことができる。なお、図14に示したステップ301において、複数の目的を指定する指示が入力された場合に、プロセッサ21は、ステップ315の処理の過程で、上述した式(2)を用いて、これらの目的に対応する期待度に基づいて合成期待度を算出する。また、この場合に、プロセッサ21は、この合成期待度を用いて、式(4)で表される確率を算出する。
Next, the
そして、プロセッサ21は、個々のふるまいについて算出した確率に従って、これらのいずれかを選択することにより、ロボットCRに出力させるふるまいを決定する(ステップ316)。このステップ316の処理で、プロセッサ21は、図4に示した決定部152の機能を実現し、期待度を反映した確率に従って、複数のふるまい候補の中から選択するふるまいを決定する。これにより、目的を達成する可能性が高いふるまいが選択される可能性を大きくしつつ、ロボットCRが出力するふるまいの多様性を維持することができる。
Then, the
このように、ステップ313の肯定判定ルートでは、プロセッサ21が、ステップ314〜ステップ316の処理を実行することにより、指定された目的を達成するためにロボットCRに出力させるふるまいを選択することができる。
As described above, in the affirmative determination route of
一方、ステップ313の否定判定ルートにおいて、プロセッサ21は、ステップ312の処理で抽出した各ふるまいに対応する優先度を参照し、例えば、最も優先度の高いふるまいをロボットCRに出力させるふるまいとして選択する(ステップ317)。図2を用いて説明したように、各ふるまいに対応するふるまい定義情報は、そのふるまいの性質などに応じた優先度を含んでいる。ステップ317の処理において、プロセッサ21は、この優先度に応じてふるまいを選択することにより、例えば、呼吸動作のように継続的に実行されるふるまいよりも、利用者Uからの働きかけに反応するためのふるまいを優先的に選択する。
On the other hand, in the negative determination route in
このように、ステップ313の否定判定ルートでは、プロセッサ21が、ステップ317の処理を実行することにより、ロボットCRを生き物らしく見せるために、このロボットCRに実行させるふるまいを選択することができる。
As described above, in the negative determination route of
このようにして選択されたふるまいに対応するふるまい定義情報に基づいて、プロセッサ21は、図14に示したステップ303において、ロボットCRに選択されたふるまいを実行させる。このステップ303において、プロセッサ21は、ふるまい定義情報に含まれるふるまい内容を、図12に示したロボットインタフェース30を介してロボットCRに渡すことにより、このふるまい内容に基づくふるまいをロボットCRに実行させる。また、このステップ303において、プロセッサ21は、例えば、ロボットCRにふるまい内容を渡した時刻と、ロボットCRからふるまいの出力が完了した旨の通知を受けた時刻とを、このふるまいの実行前後の時刻としてメモリ22などに保持しておいてもよい。
Based on the behavior definition information corresponding to the behavior selected in this way, the
このステップ303でロボットCRに実行させたふるまいが、指定された目的を達成するためのふるまいである場合に、プロセッサ21は、ステップ304の肯定判定ルートに進み、ステップ305において、期待度を更新する処理を実行する。
When the behavior executed by the robot CR in
図16は、期待度を更新する処理のフローチャートの一例を示している。図16に示したステップ321〜ステップ324の各処理は、期待度を更新する処理のためのアプリケーションプログラムに含まれる処理の一例である。また、これらのステップ321〜ステップ324の各処理は、プロセッサ21によって実行される。
FIG. 16 shows an example of a flowchart of a process for updating the expectation degree. Each process of
まず、プロセッサ21は、上述した状況テーブル123を参照し、ふるまいの実行前後の時刻に対応して保持されたインタラクション情報をそれぞれ取得する(ステップ321)。ふるまい実行前後の時刻は、例えば、上述したステップ303の処理の過程でメモリ22などに保持しておくことで得られる。また、プロセッサ21は、ステップ303の処理で、指定された目的を達成するためのふるまいをロボットCRに実行させる際に、ふるまい内容の転送に先立って状況テーブル123を参照することで、ふるまいの実行前のインタラクション情報を取得してもよい。
First, the
次いで、プロセッサ21は、ふるまいの実行前後のインタラクション情報にそれぞれ含まれる指定された目的に対応する指標値を比較することにより、この指標値の変化分δで示される目的の達成度の変化分を算出する(ステップ322)。
Next, the
次に、プロセッサ21は、ステップ322の処理で算出した指標値の変化分δと、当該指標値に対応する期待度とに基づいて、上述した式(5)を用いて、新たな期待度を算出する(ステップ323)。なお、このステップ323において、プロセッサ21が新たな期待度を算出する手法が、式(5)を用いる手法に限られないことは、上述したとおりである。
Next, the
そして、プロセッサ21は、ステップ323で算出した新たな期待度を用いて、ステップ303で実行されたふるまいに対応するふるまい定義情報について、このふるまい定義情報に含まれる期待度を書き換える処理を行う(ステップ324)。
Then, the
プロセッサ21が、上述したステップ321からステップ324の処理を実行することにより、図11に示した更新部17の機能を実現することができる。そして、上述したような期待度の更新処理を行うことにより、ロボットCRと利用者Uとの間の相互作用の過程において、利用者Uの個性に合わせたカスタマイズをインタラクション装置10に対して適用可能であることは、上述したとおりである。
The
以上に説明した各実施形態は、いずれも、本件開示のインタラクション装置の実施形態の一例であり、例えば、図4、図7および図11を用いて説明した個々の技術的要素を別の組み合わせで適用することで、更に別の実施形態とすることも可能である。 Each of the embodiments described above is an example of an embodiment of the interaction device disclosed herein. For example, the individual technical elements described with reference to FIGS. 4, 7, and 11 are combined in different combinations. By applying this, it is possible to make another embodiment.
例えば、データベース13に、利用者Uの状態に関する条件を含む契機条件が設定されたふるまい定義情報が登録されていない場合に、検知部12に設けた解析部122は、必ずしも定期的に利用者Uの状態に関する指標値を算出しなくてもよい。そして、例えば、更新部17あるいは制御部16からの要求に応じて、ふるまいの実行前後のタイミングで、利用者Uの状態に関する指標値の算出を行い、得られた指標値を更新部17に渡してもよい。
For example, when the behavior definition information in which the trigger condition including the condition related to the state of the user U is set is not registered in the
以上の説明に関して、更に、以下の各項を開示する。
(付記1) 音声と動作との少なくとも一方を含む複数のふるまいを出力する出力装置と、
前記出力装置による働きかけを受ける人物と前記出力装置との間の相互作用に関する状況を検知する検知部と、
前記各ふるまいに対応して、当該ふるまいを前記出力装置に出力させる条件を示す契機条件と、当該ふるまいの出力によって引き出すことが可能な前記人物の状態変化の種類を示す種類情報とを含むふるまい定義情報を登録するデータベースと、
前記複数種類の状態変化の少なくとも一つの発生を前記人物に対する働きかけの目的として指定する指示に応じて、前記検知部で検知された状況によって前記契機条件が満たされているふるまい定義情報であって、かつ、前記指定された種類の状態変化を示す種類情報を含むふるまい定義情報を、ふるまい候補として前記データベースから検索する検索部と、
前記ふるまい候補の中から一つを選択する選択部と、
前記選択部によって選択された前記ふるまい定義情報に対応するふるまいを前記出力装置に実行させる制御部と
備えたことを特徴とするインタラクション装置。
(付記2) 付記1に記載のインタラクション装置において、
前記各ふるまいに対応するふるまい定義情報は、前記種類情報で示された各種類の状態変化を発生させる可能性の高さを示す期待度を含んでおり、
前記選択部は、
前記各ふるまい候補に対応するふるまい定義情報において、前記指示で指定された種類の状態変化についての期待度の高さに相関を持つ確率に従って、前記ふるまい候補の中から一つのふるまいを選択する
ことを特徴とするインタラクション装置。
(付記3) 付記2に記載のインタラクション装置において、
前記選択部は、前記各ふるまい定義情報に含まれる前記期待度に比例するように、前記各ふるまい定義情報が選択される確率を算出する
ことを特徴とするインタラクション装置。
(付記4) 付記2に記載のインタラクション装置において、
前記選択部は、
前記指示で複数の目的が指定された場合に、前記各ふるまい定義情報にそれぞれ含まれる前記複数の目的についての期待度を集計する集計部を有し、
前記集計部で得られた集計結果に比例するように、前記各ふるまい定義情報が選択される確率を算出する
ことを特徴とするインタラクション装置。
(付記5) 付記1から付記4のいずれか1つに記載のインタラクション装置において、
前記検知部は、
前記人物Uを観測することで得られる前記人物の反応を示す計測値を解析することにより、前記人物の状態を表す複数種類の指標値をそれぞれ求める解析部を有し、
前記解析部で得られた前記複数種類の指標値を、検知した状況を示す情報の一部として出力し、
前記各ふるまいに対応するふるまい定義情報は、前記契機条件の一部として、前記複数の指標値の少なくとも一つについて、当該指標値の値の範囲を示す情報を含む
ことを特徴とするインタラクション装置。
(付記6) 付記5に記載のインタラクション装置において、
前記ふるまいの出力の前後に前記解析部によって得られる指標値の変化に基づいて、前記ふるまいの出力に用いたふるまい定義情報について、前記指示において前記働きかけの目的として指定された種類の状態変化についての期待度を更新する更新部と
を備えたことを特徴とするインタラクション装置。
(付記7) 出力装置が音声と動作との少なくとも一方を含むふるまいを出力することによって行った働きかけを受ける人物と前記出力装置との間の相互作用に関する状況を検知し、
前記各ふるまいに対応して、当該ふるまいを前記出力装置に出力させる条件を示す契機条件と、当該ふるまいの出力によって引き出すことが可能な前記人物の状態変化の種類を示す種類情報とを含むふるまい定義情報を登録するデータベースから、
前記複数種類の状態変化の少なくとも一つの発生を前記人物に対する働きかけの目的として指定する指示に応じて、前記検知部で検知された状況によって前記契機条件が満たされているふるまい定義情報であって、かつ、前記指定された種類の状態変化を示す種類情報を含むふるまい定義情報を、ふるまい候補として前記データベースから検索し、
前記ふるまい候補の中から一つを選択し、
選択された前記ふるまい定義情報に対応するふるまいを前記出力装置に実行させる
処理を実行させることを特徴とするインタラクション制御プログラム。
(付記8) 付記7に記載のインタラクション制御プログラムにおいて、
前記ふるまいの出力に応じて検知された状況の変化に基づいて、前記ふるまいに対応するふるまい定義情報に含まれる前記指定された目的に関する期待度を更新する
処理を実行させることを特徴とするインタラクション制御プログラム。
Regarding the above description, the following items are further disclosed.
(Supplementary note 1) an output device that outputs a plurality of behaviors including at least one of voice and action;
A detection unit for detecting a situation related to an interaction between the person who is acted on by the output device and the output device;
Corresponding to each behavior, a behavior definition including a trigger condition indicating a condition for outputting the behavior to the output device, and type information indicating a type of state change of the person that can be extracted by the output of the behavior A database for registering information;
In response to an instruction designating at least one occurrence of the plurality of types of state changes as a purpose of acting on the person, behavior definition information in which the trigger condition is satisfied by a situation detected by the detection unit, And the search part which searches the behavior definition information including the type information indicating the state change of the specified type from the database as a behavior candidate,
A selection unit for selecting one of the behavior candidates;
An interaction device comprising: a control unit that causes the output device to execute a behavior corresponding to the behavior definition information selected by the selection unit.
(Appendix 2) In the interaction device described in
The behavior definition information corresponding to each behavior includes a degree of expectation indicating a high possibility of causing a state change of each type indicated by the type information,
The selection unit includes:
In the behavior definition information corresponding to each of the behavior candidates, one behavior is selected from the behavior candidates according to the probability having a correlation with the high degree of expectation for the type of state change specified by the instruction. A featured interaction device.
(Appendix 3) In the interaction device described in Appendix 2,
The interaction device, wherein the selection unit calculates a probability that the behavior definition information is selected so as to be proportional to the expectation included in the behavior definition information.
(Appendix 4) In the interaction device described in Appendix 2,
The selection unit includes:
When a plurality of purposes are specified in the instruction, a totaling unit that totals the expectation degree for the plurality of purposes included in each of the behavior definition information,
An interaction device, characterized in that the probability that each of the behavior definition information is selected is calculated so as to be proportional to a total result obtained by the total unit.
(Appendix 5) In the interaction device according to any one of
The detector is
An analysis unit that obtains each of a plurality of types of index values representing the state of the person by analyzing measurement values indicating the reaction of the person obtained by observing the person U;
The plurality of types of index values obtained by the analysis unit are output as a part of information indicating a detected situation,
The behavior definition information corresponding to each behavior includes, as a part of the trigger condition, information indicating a value range of the index value for at least one of the plurality of index values.
(Appendix 6) In the interaction device described in Appendix 5,
Based on the change of the index value obtained by the analysis unit before and after the output of the behavior, the behavior definition information used for the output of the behavior is about the type of state change designated as the purpose of the action in the instruction. An interaction device comprising: an update unit that updates an expectation degree.
(Supplementary note 7) Detecting a situation relating to an interaction between the output device and the person subjected to the action performed by the output device outputting behavior including at least one of sound and action,
Corresponding to each behavior, a behavior definition including a trigger condition indicating a condition for outputting the behavior to the output device, and type information indicating a type of state change of the person that can be extracted by the output of the behavior From the database to register information,
In response to an instruction designating at least one occurrence of the plurality of types of state changes as a purpose of acting on the person, behavior definition information in which the trigger condition is satisfied by a situation detected by the detection unit, And the behavior definition information including the type information indicating the state change of the specified type is searched from the database as a behavior candidate,
Select one of the behavior candidates,
An interaction control program for causing a process corresponding to the selected behavior definition information to be executed by the output device.
(Appendix 8) In the interaction control program described in Appendix 7,
An interaction control for executing a process of updating an expectation degree related to the designated purpose included in the behavior definition information corresponding to the behavior based on a change in a situation detected according to the output of the behavior; program.
10…インタラクション装置;11…出力装置;12…検知部;13…データベース;14…選択部;15…制御部;17…更新部;121…収集部;122…解析部;123…状況テーブル;151…算出部;152…決定部;153…集計部;20…コンピュータ装置;21…プロセッサ;22…メモリ;23…ハードディスク装置(HDD);24…表示装置;25…入力装置;26…光学ドライブ装置;27…リムーバブルディスク;28…ネットワークインタフェース;29…周辺機器インタフェース;30…ロボットインタフェース;31…駆動処理部;32…モータ;33…スピーカ;34…観測部;35…内部状態判定部;CR…ロボット;U…利用者;SD…センサ部;NW…ネットワーク
DESCRIPTION OF
Claims (5)
前記出力装置による働きかけを受ける人物と前記出力装置との間の相互作用に関する状況を検知する検知部と、
前記各ふるまいに対応して、当該ふるまいを前記出力装置に出力させる条件を示す契機条件と、当該ふるまいの出力によって引き出すことが可能な前記人物の状態変化の種類を示す種類情報とを含むふるまい定義情報を登録するデータベースと、
前記複数種類の状態変化の少なくとも一つの発生を前記人物に対する働きかけの目的として指定する指示に応じて、前記検知部で検知された状況によって前記契機条件が満たされているふるまい定義情報であって、かつ、前記指定された種類の状態変化を示す種類情報を含むふるまい定義情報を、ふるまい候補として前記データベースから検索する検索部と、
前記ふるまい候補の中から一つを選択する選択部と、
前記選択部によって選択された前記ふるまい定義情報に対応するふるまいを前記出力装置に実行させる制御部と
備えたことを特徴とするインタラクション装置。 An output device that outputs a plurality of behaviors including at least one of sound and action;
A detection unit for detecting a situation related to an interaction between the person who is acted on by the output device and the output device;
Corresponding to each behavior, a behavior definition including a trigger condition indicating a condition for outputting the behavior to the output device, and type information indicating a type of state change of the person that can be extracted by the output of the behavior A database for registering information;
In response to an instruction designating at least one occurrence of the plurality of types of state changes as a purpose of acting on the person, behavior definition information in which the trigger condition is satisfied by a situation detected by the detection unit, And the search part which searches the behavior definition information including the type information indicating the state change of the specified type from the database as a behavior candidate,
A selection unit for selecting one of the behavior candidates;
An interaction device comprising: a control unit that causes the output device to execute a behavior corresponding to the behavior definition information selected by the selection unit.
前記各ふるまいに対応するふるまい定義情報は、前記種類情報で示された各種類の状態変化を発生させる可能性の高さを示す期待度を含んでおり、
前記選択部は、
前記各ふるまい候補に対応するふるまい定義情報において、前記指示で指定された種類の状態変化についての期待度の高さに相関を持つ確率に従って、前記ふるまい候補の中から一つのふるまいを選択する
ことを特徴とするインタラクション装置。 The interaction device according to claim 1,
The behavior definition information corresponding to each behavior includes a degree of expectation indicating a high possibility of causing a state change of each type indicated by the type information,
The selection unit includes:
In the behavior definition information corresponding to each of the behavior candidates, one behavior is selected from the behavior candidates according to the probability having a correlation with the high degree of expectation for the type of state change specified by the instruction. A featured interaction device.
前記検知部は、
前記人物を観測することで得られる前記人物の反応を示す計測値を解析することにより、前記人物の状態を表す複数種類の指標値をそれぞれ求める解析部を有し、
前記解析部で得られた前記複数種類の指標値を、検知した状況を示す情報の一部として出力し、
前記各ふるまいに対応するふるまい定義情報は、前記契機条件の一部として、前記複数の指標値の少なくとも一つについて、当該指標値の値の範囲を示す情報を含む
ことを特徴とするインタラクション装置。 The interaction device according to claim 1 or 2,
The detector is
By analyzing a measurement value indicating the reaction of the person obtained by observing the person, an analysis unit for obtaining each of a plurality of types of index values representing the state of the person,
The plurality of types of index values obtained by the analysis unit are output as a part of information indicating a detected situation,
The behavior definition information corresponding to each behavior includes, as a part of the trigger condition, information indicating a value range of the index value for at least one of the plurality of index values.
前記ふるまいの出力の前後に前記解析部によって得られる指標値の変化に基づいて、前記ふるまいの出力に用いたふるまい定義情報について、前記指示において前記働きかけの目的として指定された種類の状態変化についての期待度を更新する更新部と
を備えたことを特徴とするインタラクション装置。 The interaction device according to claim 3,
Based on the change of the index value obtained by the analysis unit before and after the output of the behavior, the behavior definition information used for the output of the behavior is about the type of state change designated as the purpose of the action in the instruction. An interaction device comprising: an update unit that updates an expectation degree.
前記出力装置によって出力可能な各ふるまいに対応して、当該ふるまいを前記出力装置に出力させる条件を示す契機条件と、当該ふるまいの出力によって引き出すことが可能な前記人物の状態変化の種類を示す種類情報とを含むふるまい定義情報を登録するデータベースから、
前記複数種類の状態変化の少なくとも一つの発生を前記人物に対する働きかけの目的として指定する指示に応じて、前記検知部で検知された状況によって前記契機条件が満たされているふるまい定義情報であって、かつ、前記指定された種類の状態変化を示す種類情報を含むふるまい定義情報を検索し、
検索結果として得られたふるまい定義情報の中から一つを選択し、
選択した前記ふるまい定義情報に対応するふるまいを前記出力装置に実行させる
処理をコンピュータに実行させることを特徴とするインタラクション制御プログラム。 Detecting the situation regarding the interaction between the person who receives the action performed by the output device outputting the behavior including at least one of voice and action, and the output device;
Corresponding to each behavior that can be output by the output device, a trigger condition that indicates a condition for causing the output device to output the behavior, and a type that indicates the type of state change of the person that can be extracted by the output of the behavior From the database that registers the behavior definition information including information,
In response to an instruction designating at least one occurrence of the plurality of types of state changes as a purpose of acting on the person, behavior definition information in which the trigger condition is satisfied by a situation detected by the detection unit, And the behavior definition information including the type information indicating the state change of the specified type is searched,
Select one of the behavior definition information obtained as a search result,
An interaction control program for causing a computer to execute a process for causing the output device to execute a behavior corresponding to the selected behavior definition information.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012080610A JP5910249B2 (en) | 2012-03-30 | 2012-03-30 | Interaction device and interaction control program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012080610A JP5910249B2 (en) | 2012-03-30 | 2012-03-30 | Interaction device and interaction control program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013208681A true JP2013208681A (en) | 2013-10-10 |
JP5910249B2 JP5910249B2 (en) | 2016-04-27 |
Family
ID=49527063
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012080610A Active JP5910249B2 (en) | 2012-03-30 | 2012-03-30 | Interaction device and interaction control program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5910249B2 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016198843A (en) * | 2015-04-09 | 2016-12-01 | 富士通株式会社 | Control method, control apparatus, and program |
JP2019191968A (en) * | 2018-04-25 | 2019-10-31 | 株式会社日立製作所 | Service providing system, information processing device, and service providing system control method |
WO2019220733A1 (en) * | 2018-05-15 | 2019-11-21 | ソニー株式会社 | Control device, control method, and program |
WO2021090704A1 (en) * | 2019-11-07 | 2021-05-14 | ソニー株式会社 | Autonomous mobile body, information processing method, program, and information processing device |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107174829A (en) * | 2017-06-14 | 2017-09-19 | 郝允志 | A kind of programmable intelligent building blocks robot with independent learning ability |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001121455A (en) * | 1999-10-29 | 2001-05-08 | Sony Corp | Charge system of and charge control method for mobile robot, charge station, mobile robot and its control method |
JP2002120174A (en) * | 2000-10-11 | 2002-04-23 | Sony Corp | Authoring system, authoring method and storage medium |
JP2003225228A (en) * | 2002-01-31 | 2003-08-12 | Sanyo Electric Co Ltd | Health management terminal device, computer program and recording medium |
JP2004291228A (en) * | 2003-03-11 | 2004-10-21 | Sony Corp | Robot device, action control method of robot device and computer program |
JP2007050461A (en) * | 2005-08-17 | 2007-03-01 | Nec Corp | Robot control system, robot device, and robot control method |
JP2009136967A (en) * | 2007-12-06 | 2009-06-25 | Honda Motor Co Ltd | Communication robot |
-
2012
- 2012-03-30 JP JP2012080610A patent/JP5910249B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001121455A (en) * | 1999-10-29 | 2001-05-08 | Sony Corp | Charge system of and charge control method for mobile robot, charge station, mobile robot and its control method |
JP2002120174A (en) * | 2000-10-11 | 2002-04-23 | Sony Corp | Authoring system, authoring method and storage medium |
JP2003225228A (en) * | 2002-01-31 | 2003-08-12 | Sanyo Electric Co Ltd | Health management terminal device, computer program and recording medium |
JP2004291228A (en) * | 2003-03-11 | 2004-10-21 | Sony Corp | Robot device, action control method of robot device and computer program |
JP2007050461A (en) * | 2005-08-17 | 2007-03-01 | Nec Corp | Robot control system, robot device, and robot control method |
JP2009136967A (en) * | 2007-12-06 | 2009-06-25 | Honda Motor Co Ltd | Communication robot |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016198843A (en) * | 2015-04-09 | 2016-12-01 | 富士通株式会社 | Control method, control apparatus, and program |
JP2019191968A (en) * | 2018-04-25 | 2019-10-31 | 株式会社日立製作所 | Service providing system, information processing device, and service providing system control method |
JP7051556B2 (en) | 2018-04-25 | 2022-04-11 | 株式会社日立製作所 | Service provision system, information processing device, and control method of service provision system |
WO2019220733A1 (en) * | 2018-05-15 | 2019-11-21 | ソニー株式会社 | Control device, control method, and program |
JP7327391B2 (en) | 2018-05-15 | 2023-08-16 | ソニーグループ株式会社 | Control device, control method and program |
WO2021090704A1 (en) * | 2019-11-07 | 2021-05-14 | ソニー株式会社 | Autonomous mobile body, information processing method, program, and information processing device |
Also Published As
Publication number | Publication date |
---|---|
JP5910249B2 (en) | 2016-04-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11089985B2 (en) | Systems and methods for using mobile and wearable video capture and feedback plat-forms for therapy of mental disorders | |
JP5910249B2 (en) | Interaction device and interaction control program | |
KR20180072978A (en) | Operation Method for activation of Home robot device and Home robot device supporting the same | |
CN104520849A (en) | Search user interface using outward physical expressions | |
CN109765991A (en) | Social interaction system is used to help system and non-transitory computer-readable storage media that user carries out social interaction | |
WO2018168369A1 (en) | Machine learning device and machine learning program | |
US10836044B2 (en) | Robot control device and robot control method | |
JP6930277B2 (en) | Presentation device, presentation method, communication control device, communication control method and communication control system | |
JP6969859B2 (en) | Motion identification using motion detectors connected to associate memory | |
JP6886651B2 (en) | Action command generation system, response system and action command generation method | |
JP2019185201A (en) | Reinforcement learning system | |
JP7071717B2 (en) | Event sequence extraction device, event sequence extraction method and event extraction program | |
CN106951433A (en) | A kind of search method and device | |
JP7306152B2 (en) | Emotion estimation device, emotion estimation method, program, information presentation device, information presentation method, and emotion estimation system | |
JP6667766B1 (en) | Information processing system and information processing method | |
JP2004280673A (en) | Information providing device | |
WO2019084007A1 (en) | Systems and methods for automatic activity tracking | |
JP2018055232A (en) | Content providing device, content providing method, and program | |
Nour et al. | Real-time detection of eating activity in elderly people with dementia using face alignment and facial landmarks | |
KR102643720B1 (en) | Artificial intelligence interface system for robot | |
JP5858228B2 (en) | Identification apparatus, identification method, and identification program | |
Faiyaz et al. | Dominance of Deep LSTM in Smartphone Sensor based Human Activity Classification | |
JP2022113073A (en) | Program for determining sign of depression | |
KR20230071053A (en) | Method for analyzing personality or aptitude based on metaverse | |
JP6202882B2 (en) | Facial expression detection system and facial expression detection method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150106 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20151127 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20151201 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160121 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160301 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160314 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5910249 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |