JP5921507B2 - Dialog tendency scoring device, method and program - Google Patents
Dialog tendency scoring device, method and program Download PDFInfo
- Publication number
- JP5921507B2 JP5921507B2 JP2013199559A JP2013199559A JP5921507B2 JP 5921507 B2 JP5921507 B2 JP 5921507B2 JP 2013199559 A JP2013199559 A JP 2013199559A JP 2013199559 A JP2013199559 A JP 2013199559A JP 5921507 B2 JP5921507 B2 JP 5921507B2
- Authority
- JP
- Japan
- Prior art keywords
- person
- group
- individual
- index
- personal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
この発明は、対話者間の傾向を表す指標を計算する技術に関する。 The present invention relates to a technique for calculating an index representing a tendency between interlocutors.
非特許文献1には、共感、反感、どちらでもない等の二者間の対話状態である共感解釈を推定し、推定した共感解釈を表示する技術が記載されている。
Non-Patent
しかしながら、非特許文献1では、共感解釈以外の他の、対話者間の傾向を表す指標は計算されていなかった。
However, in
この発明は、共感解釈を用いて、共感解釈以外の他の、対話者間の傾向を表す指標を計算する対話傾向得点化装置、方法及びプログラムを提供することを目的とする。 It is an object of the present invention to provide a dialog tendency scoring apparatus, method, and program for calculating an index that represents a tendency between interlocutors other than the sympathy interpretation using the sympathy interpretation.
この発明の一態様による対話傾向得点化装置は、時刻tにおける人物iと人物jとの間の共感状態がeである確率を表す指標P(et (i,j)=e)を求める対話状態推定装置と、C1,C2,C3',C4',X 2,X 3 を所定の定数とし、a 2 ,a 3 を所定の実数の定数とし、w e (e=1,2,…,N e ),w e '(e=1,2,…,N e )を所定の定数とし、Nを人物の総数とし、Tを各指標を計算するために考慮する共感状態のデータの所定の時間長とし、Neを取り得る共感状態の総数として、ある人物iについての個人バイアスを以下の式により定義されるMiとし、
ある人物iについての個人明確度を以下の式により定義されるAiとし、
ある人物iについての個人人物選択度を以下の式により定義されるSiとし、
ある人物iについての個人活発度を以下の式により定義されるEiとして、
求まった指標P(et (i,j)=e)を用いて、個人バイアス、個人明確度、個人人物選択度及び個人活発度の中の2個の指標のそれぞれをある人物について計算する個人指標計算部と、計算された人物についての2個の指標に基づいて、その人物を所定のタイプに分類する個人分類部と、人物についての2個の指標を軸とした表に個人分類部による分類結果を表示する表示部と、を備えている。
The dialogue tendency scoring device according to one aspect of the present invention obtains an index P (e t (i, j) = e) representing a probability that the empathy state between the person i and the person j at time t is e. A state estimation device, and C 1 , C 2 , C 3 ′, C 4 ′ , X 2 , X 3 are predetermined constants, a 2 , a 3 are predetermined real constants, and w e (e = 1, 2, ..., N e ), w e '(e = 1,2, ..., N e ) are given constants, N is the total number of people, and T is the sympathetic state to consider for calculating each index. a predetermined time length of the data, as the total number of empathy possible states of N e, and M i is defined an individual bias for certain persons i by the following equation,
Let the individual clarity for a person i be A i defined by the following formula:
Let the individual person selectivity for a person i be S i defined by the following formula:
The individual activity level for a person i is defined as E i defined as
An individual who calculates each of the two indicators among individual bias, individual clarity, individual person selectivity and individual activity using the obtained index P (e t (i, j) = e) An index calculation unit, a personal classification unit that classifies the person into a predetermined type based on the two indexes for the calculated person, and a table centered on the two indexes for the person. And a display unit for displaying the classification result.
この発明の一態様による対話傾向得点化装置は、時刻tにおける人物iと人物jとの間の共感状態がeである確率を表す指標P(et (i,j)=e)を求める対話状態推定装置と、C1,C2,C3',C4',X 2,X 3 を所定の定数とし、a 2 ,a 3 を所定の実数の定数とし、w e (e=1,2,…,N e ),w e '(e=1,2,…,N e )を所定の定数とし、Nを人物の総数とし、Tを各指標を計算するために考慮する共感状態のデータの所定の時間長とし、Neを取り得る共感状態の総数として、ある人物iについての個人バイアスを以下の式により定義されるMiとし、
ある人物iについての個人明確度を以下の式により定義されるAiとし、
ある人物iについての個人人物選択度を以下の式により定義されるSiとし、
ある人物iについての個人活発度を以下の式により定義されるEiとして、
求まった指標P(et (i,j)=e)を用いて、個人バイアス、個人明確度、個人人物選択度及び個人活発度の中の2個の指標のそれぞれをある人物について計算する個人指標計算部と、C5,C 6 ,C7,C8,X7を所定の定数として、あるグループについてのグループバイアスを以下の式により定義されるMとして、
あるグループについてのグループ明確度を以下の式により定義されるAとして、
あるグループについてのグループ人物選択度を以下の式により定義されるSとして、
あるグループについてのグループ活発度を以下の式により定義されるEとして、
個人指標計算部で計算された2個の指標に基づいて、グループバイアス、グループ明確度、グループ人物選択度及びグループ活発度の中の2個の指標のそれぞれをあるグループについて計算するグループ指標計算部と、計算されたグループについての2個の指標に基づいて、そのグループを所定のタイプに分類するグループ分類部と、グループについての2個の指標を軸とした表にグループ分類部による分類結果を表示する表示部と、を備えている。
The dialogue tendency scoring device according to one aspect of the present invention obtains an index P (e t (i, j) = e) representing a probability that the empathy state between the person i and the person j at time t is e. A state estimation device, and C 1 , C 2 , C 3 ′, C 4 ′ , X 2 , X 3 are predetermined constants, a 2 , a 3 are predetermined real constants, and w e (e = 1, 2, ..., N e ), w e '(e = 1,2, ..., N e ) are given constants, N is the total number of people, and T is the sympathetic state to consider for calculating each index. a predetermined time length of the data, as the total number of empathy possible states of N e, and M i is defined an individual bias for certain persons i by the following equation,
Let the individual clarity for a person i be A i defined by the following formula:
Let the individual person selectivity for a person i be S i defined by the following formula:
The individual activity level for a person i is defined as E i defined as
An individual who calculates each of the two indicators among individual bias, individual clarity, individual person selectivity and individual activity using the obtained index P (e t (i, j) = e) The index calculator and C 5 , C 6 , C 7 , C 8 , X 7 as predetermined constants, and the group bias for a group as M defined by the following equation:
The group clarity for a group is defined as A defined by the following formula:
The group person selectivity for a group is defined as S defined by the following formula:
The group activity for a group is defined as E defined by the following formula:
A group index calculation unit that calculates each of the two indexes among group bias, group clarity, group person selectivity, and group activity based on the two indexes calculated by the individual index calculation unit. Based on the two indices for the calculated group, a group classification section for classifying the group into a predetermined type, and a classification result by the group classification section in a table centered on the two indices for the group A display unit for displaying.
共感解釈以外の他の、対話者間の傾向を表す指標を計算することができる。 Other than the sympathetic interpretation, it is possible to calculate an index representing the tendency among the interlocutors.
以下、図面を参照して、対話傾向得点化装置及び方法の各実施形態を説明する。 Hereinafter, each embodiment of a dialogue trend scoring apparatus and method will be described with reference to the drawings.
[第一実施形態]
第一実施形態の対話傾向得点化装置は、図1に示すように、個人指標計算部701、個人分類部702及び表示部703を例えば備えている。
第一実施形態の対話傾向得点化方法は、対話傾向得点化装置が図6の各ステップの処理を例えば行うことにより実現される。
[First embodiment]
As shown in FIG. 1, the dialogue tendency scoring device of the first embodiment includes, for example, a personal
The dialog tendency scoring method of the first embodiment is realized by the dialog tendency scoring device performing, for example, the processing of each step in FIG.
<個人指標計算部>
個人指標計算部701は、個人バイアス、個人明確度、個人人物選択度及び個人活発度の中の少なくとも2個の指標のそれぞれをある人物について計算する(ステップS1)。計算された指標は、個人分類部702に提供される。
<Individual index calculator>
The personal
個人指標計算部701は、後述する対話状態推定装置1が求めた共感解釈、具体的には後述する確率P(et (i,j)=e)に基づいて、個人指標を計算する。
The personal
以下、個人バイアス、個人明確度、個人人物選択度及び個人活発度について説明する。以下の説明において、Nは、人物の総数であり、所定の正の整数である。言い換えれば、Nは、対象としている人物iの対話相手の数+1である。i,jは人物を表すインデックスである。 Hereinafter, individual bias, individual clarity, individual person selection, and individual activity will be described. In the following description, N is the total number of persons and is a predetermined positive integer. In other words, N is the number of conversation partners of the subject person i + 1. i, j is an index representing a person.
また、Tは、各指標を計算するために考慮する共感状態のデータの時間長であり、所定の正の整数である。以下の例では、時刻t=1から時刻t=Tまでの共感状態のデータに基づいて各指標が計算されている。
また、Neは、取り得る共感状態の総数である。例えば、共感状態として、共感(e=1)、中立(e=2)及び反感(e=3)という3個の状態を取り得るとする。このとき、Ne=3となる。
また、P(et (i,j)=e)は、時刻tにおける人物iと人物jとの間の共感状態がeである確率を表す指標である。
T is the time length of the data of the sympathy state to be considered for calculating each index, and is a predetermined positive integer. In the following example, each index is calculated based on the data of the sympathy state from time t = 1 to time t = T.
N e is the total number of sympathetic states that can be taken. For example, it is assumed that three states of empathy (e = 1), neutrality (e = 2), and counterfeit (e = 3) can be taken as the empathy states. At this time, N e = 3.
P (e t (i, j) = e) is an index representing the probability that the empathy state between the person i and the person j at time t is e.
<<個人バイアス>>
ある人物についての個人バイアスとはその人物が共感/反感/どちらでもないを表す状態の少なくとも2個の何れになりやすいかを表す指標である。例えば、ある人物についての個人バイアスとはその人物が共感/反感のどちらになりやすいかを表す指標であるとする。この場合、人物iについての個人バイアスMiは例えば以下のように定義される。
weは、所定の定数である。例えば、w1=1、w2=0、w3=-1とする。
<< Personal bias >>
The individual bias with respect to a certain person is an index that indicates which of the two states in which the person is likely to be in the state of empathy / antisense / neither. For example, it is assumed that the personal bias for a certain person is an index that indicates whether the person is likely to be empathetic / antisense. In this case, individual bias M i for person i is defined as follows, for example.
w e is a predetermined constant. For example, w 1 = 1, w 2 = 0, and w 3 = −1.
なお、共感解釈が、確率P(et (i,j)=e)ではなく、-1(反感)から1(共感)までの数値である強度で与えられている場合には、個人指標計算部701は、強度を確率に変換し、この変換された確率に基づいて個人バイアスを計算してもよい。例えば以下のように強度を確率に変換することができる。
If the sympathy interpretation is given by an intensity that is a numerical value from -1 (antisense) to 1 (sympathy) instead of the probability P (e t (i, j) = e), the personal index calculation The
強度≧0の場合、P(et (i,j)=1)=強度とし、P(et (i,j)=2)=1-強度とし、P(et (i,j)=3)=0とする。また、強度<0の場合、P(et (i,j)=1)=0とし、P(et (i,j)=2)=1-強度とし、P(et (i,j)=3)=強度とする。 If intensity ≧ 0, P (e t (i, j) = 1) = intensity, P (e t (i, j) = 2) = 1−intensity, and P (e t (i, j) = 3) Set to 0. When the intensity is less than 0, P (e t (i, j) = 1) = 0, P (e t (i, j) = 2) = 1−intensity, and P (e t (i, j ) = 3) = Strength.
<<個人明確度>>
ある人物についての個人明確度とはその人物の共感解釈の集中のしやすさを表す指標である。言い換えれば、その人物が共感や反感などのある1つの解釈にどれほど集中しやすいかを表す指標である。人物iについての個人明確度Aiは例えば以下のように定義される。
Individual clarity for a person is an index that represents the ease with which the person's empathy interpretation is concentrated. In other words, it is an index that indicates how easy the person is to concentrate on one interpretation with empathy and dislike. Personal clear of A i for person i is defined as follows, for example.
Aiが大きいほどその人物iの共感状態が集中のしやすいことを示すようにする場合には、C2,a2,X2を例えば以下のように定義する。
C2,a2,X2を例えば以下のように定義してもよい。
maxVarは、要素数がNe個で和が1のデータ集合の分散の最大値であり、例えば以下の値を取る。
<<個人人物選択度>>
ある人物についての個人人物選択度とはその人物が共感又は反感しやすい人物の集中のしやすさを表す指標である。言い換えれば、ある人物が、特定の人物と共感又は反感になりやすいかを表す指標である。個人人物選択度を計算する際にはN≧3であるとする。人物iについての個人人物選択度Siは例えば以下のように定義される。
The individual person selection degree for a certain person is an index representing the ease of concentration of persons who are likely to sympathize with or dislike. In other words, it is an index that indicates whether a certain person is likely to feel empathy or disagreement with a specific person. It is assumed that N ≧ 3 when calculating the individual person selectivity. The individual person selectivity S i for the person i is defined as follows, for example.
ここで、E(i,j)は例えば以下のように定義される。
C3’は所定の定数である。例えばC3’は0<C3’≦1の実数である。a3は所定の実数の定数である。
Here, E (i, j) is defined as follows, for example.
C 3 'is a predetermined constant. For example, C 3 ′ is a real number with 0 <C 3 ′ ≦ 1. a 3 is a predetermined real number constant.
Siが大きいほどその人物が共感又は反感しやすい人物が集中しやすいことを示すようにする場合には、C3’,a3,Xを例えば以下のように定義する。
C3’,a3,Xを例えば以下のように定義してもよい。
<<個人活発度>>
ある人物についての個人活発度とは、その人物の共感及び反感になりやすさを表す指標である。人物iについての個人活発度Eiは、例えば以下のように定義される。
The personal activity level for a certain person is an index that represents the likelihood of the person's empathy and dislike. Personal activity level E i for person i, for example, is defined as follows.
E’(i,j)は、人物iと人物jとの間で共感又は反感の状態になった頻度であり、例えば以下のように定義される。
<個人分類部>
個人分類部702は、個人指標計算部701により計算された人物についての少なくとも2個の指標に基づいて、その人物を所定のタイプに分類する(ステップS2)。分類結果は、表示部703に提供される。
<Personal Classification Department>
The
例えば、各指標が複数の範囲に分割されているとする。個人指標計算部701により計算された各指標が含まれる範囲に基づいて、その人物を所定のタイプに分類する。以下、図10を参照して、各指標が含まれる範囲に基づくタイプの分類の例を説明する。
For example, assume that each index is divided into a plurality of ranges. Based on the range in which each index calculated by the personal
例えば、個人バイアスが、「共感になりやすい」「バランス」「反感になりやすい」という3個の範囲に分割されているとする。Mc1,Mc2をMc1<Mc2の関係を満たす所定の実数であるとする。このとき、Mc2≦Miであれば人物iの個人バイアスは「共感になりやすい」という範囲に含まれるとし、Mc1≦Mi<Mc2であれば人物iの個人バイアスは「バランス」という範囲に含まれるとし、Mi<Mc1であれば人物iの個人バイアスは「反感になりやすい」という範囲に含まれるとする。 For example, it is assumed that the personal bias is divided into three ranges of “easily sympathetic”, “balance”, and “prone to counterfeit”. Let M c1 and M c2 be predetermined real numbers that satisfy the relationship of M c1 <M c2 . At this time, if M c2 ≦ M i , the personal bias of the person i is included in the range of “easily sympathetic”, and if M c1 ≦ M i <M c2 , the personal bias of the person i is “balance”. Suppose that M i <M c1 , the personal bias of person i is included in the range of “prone to discomfort”.
また、個人人物選択度が、「高い」「低い」という2個の範囲に分割されているとする。Sc1を所定の実数であるとする。このとき、Sc1<Siであれば人物iの個人人物選択度は「高い」という範囲に含まれるとし、Si≦Sc1であれば人物iの個人人物選択度は「低い」という範囲に含まれるとする。 Further, it is assumed that the individual person selectivity is divided into two ranges of “high” and “low”. Let S c1 be a predetermined real number. At this time, if S c1 <S i , the personal person selectivity of person i is included in the range of “high”, and if S i ≦ S c1 , the personal person selectivity of person i is in the range of “low”. Included in
このとき、図10に例示するように、(1)個人バイアスが「共感になりやすい」であり個人人物選択度が「低い」である場合には人物iは「八方美人」というタイプに分類され、(2)個人バイアスが「バランス」であり個人人物選択度が「低い」である場合には人物iは「バランス/気配り」というタイプに分類され、(3)個人バイアスが「反感になりやすい」であり個人人物選択度が「低い」である場合には人物iは「批評家」というタイプに分類され、(4)個人人物選択度が「高い」である場合には人物iは「選り好み」というタイプに分類されるとする。 At this time, as illustrated in FIG. 10, (1) when the personal bias is “easily sympathetic” and the individual person selectivity is “low”, the person i is classified into the type “Happo Beauty”. (2) When the personal bias is “balance” and the individual person selectivity is “low”, the person i is classified into a type of “balance / attentiveness”, and (3) the personal bias tends to be “disgusting”. ”And the individual person selectivity is“ low ”, the person i is classified as a“ critic ”type. (4) When the individual person selectivity is“ high ”, the person i is“ preferred ”. ”.
ここで、分割する範囲の数及び分類するタイプの数は任意である。また、図10の例では、個人バイアスと個人人物選択度の2個の指標に基づいて、人物を所定のタイプに分類したが、他の2個の指標に基づく分類又は3個以上の指標に基づく分類をしても構わない。 Here, the number of ranges to be divided and the number of types to be classified are arbitrary. In the example of FIG. 10, the person is classified into a predetermined type based on the two indicators of individual bias and individual person selectivity. However, the classification is based on the other two indicators or three or more indicators. You may make a classification based on it.
<表示部>
表示部703は、個人分類部702による分類結果を表示する(ステップS3)。表示部703は、例えば、CRT、液晶ディスプレイ等の表示装置である。表示部703は、例えば図10に示した表を表示する。
<Display section>
The
このように、共感解釈に基づく指標を計算し表示することにより、各人物のコミュニケーションの傾向及び特性を把握することができる。 Thus, by calculating and displaying the index based on the sympathy interpretation, it is possible to grasp the communication tendency and characteristics of each person.
[第二実施形態]
第一実施形態の対話傾向得点化装置は、図2に示すように、個人指標計算部701、表示部703、グループ指標計算部704及びグループ分類部705を例えば備えている。
[Second Embodiment]
As shown in FIG. 2, the dialogue trend scoring device of the first embodiment includes, for example, a personal
第二実施形態の対話傾向得点化方法は、対話傾向得点化装置が図7の各ステップの処理を例えば行うことにより実現される。 The dialog tendency scoring method according to the second embodiment is realized by the dialog tendency scoring device performing, for example, each step of FIG.
以下、第一実施形態と異なる部分を中心に説明する。第一実施形態と同様の部分については同じ符号を付けて重複説明を省略する。 Hereinafter, a description will be given centering on differences from the first embodiment. The same parts as those in the first embodiment are denoted by the same reference numerals, and redundant description is omitted.
<個人指標計算部>
個人指標計算部701は、第一実施形態と同様に、個人バイアス、個人明確度、個人人物選択度及び個人活発度の中の少なくとも2個の指標のそれぞれをグループに含まれる各人物について計算する(ステップS1)。計算された指標は、グループ指標計算部704に提供される。
<Individual index calculator>
Similar to the first embodiment, the personal
<グループ指標計算部>
グループ指標計算部704は、個人指標計算部701が計算した指標に基づいて、グループバイアス、グループ明確度、グループ人物選択度及びグループ活発度の中の少なくとも2個の指標のそれぞれをあるグループについて計算する(ステップS4)。計算された指標は、グループ分類部705に提供される。
<Group index calculation department>
Based on the index calculated by the personal
以下、グループバイアス、グループ明確度、グループ人物選択度及びグループ活発度について説明する。 Hereinafter, group bias, group clarity, group person selection, and group activity will be described.
<<グループバイアス>>
あるグループについてのグループバイアスとはそのグループに含まれる人物が共感/反感/どちらでもないを表す状態の少なくとも2個の何れになりやすいかを表す指標である。例えば、ある人物についてのグループバイアスとはその人物が共感/反感のどちらになりやすいかを表す指標であるとする。この場合、グループがN人の人物から構成されるとき、グループバイアスは例えば以下のように定義される。Nは、所定の2以上の整数である。
The group bias with respect to a certain group is an index representing whether the person included in the group is likely to be at least two of the states representing empathy / antisense / neither. For example, it is assumed that the group bias for a certain person is an index indicating whether the person is likely to be empathetic / antisense. In this case, when the group is composed of N persons, the group bias is defined as follows, for example. N is a predetermined integer of 2 or more.
<<グループ明確度>>
あるグループについてのグループ明確度とはそのグループに含まれる人物の共感解釈の集中のしやすさを表す指標である。言い換えれば、そのグループに含まれる人物が共感や反感などのある1つの解釈にどれほど集中しやすいかを表す指標である。グループがN人の人物から構成される場合、グループ明確度は例えば以下のように定義される。
The group clarity for a certain group is an index representing the ease of concentration of empathy interpretation of the persons included in the group. In other words, it is an index that indicates how easy a person included in the group is to concentrate on one interpretation, such as empathy or antipathy. When a group is composed of N persons, the group clarity is defined as follows, for example.
<<グループ人物選択度>>
あるグループについてのグループ人物選択度とはそのグループに含まれる人物が共感又は反感しやすい人物の集中のしやすさを表す指標である。グループがN人の人物から構成される場合、グループ人物選択度Sは例えば以下のように定義される。
The group person selectivity for a certain group is an index representing the ease of concentration of persons who are likely to sympathize or dislike the persons included in the group. When the group is composed of N persons, the group person selectivity S is defined as follows, for example.
C7は所定の定数である。例えばC7は0<C7≦1の実数である。Sが大きいほどそのグループに含まれる人物が共感又は反感しやすい人物が集中しやすいことを示すようにする場合には、C7,X7を例えば以下のように定義する。
C7,X7を例えば以下のように定義してもよい。
<<グループ活発度>>
あるグループについてのグループ明確度とはそのグループに含まれる人物の共感及び反感になりやすさを表す指標である。グループがN人の人物から構成される場合、グループ活発度は例えば以下のように定義される。
The group clarity for a certain group is an index that represents the likelihood of empathy and dissatisfaction of the persons included in the group. When the group is composed of N persons, the group activity is defined as follows, for example.
<グループ分類部>
グループ分類部705は、計算された上記グループについての少なくとも2個の指標に基づいて、そのグループを所定のタイプに分類する(ステップS5)。分類結果は、表示部703に提供される。
<Group classification part>
The
例えば、各指標が複数の範囲に分割されているとする。グループ指標計算部704により計算された各指標が含まれる範囲に基づいて、そのグループを所定のタイプに分類する。以下、図11を参照して、各指標が含まれる範囲に基づくタイプの分類の例を説明する。
For example, assume that each index is divided into a plurality of ranges. Based on the range in which each index calculated by the group
例えば、グループバイアスが、「共感になりやすい」「バランス」「反感になりやすい」という3個の範囲に分割されているとする。Mc1’,Mc2’をMc1’<Mc2’の関係を満たす所定の実数であるとする。このとき、Mc2’≦Mであればグループバイアスは「共感になりやすい」という範囲に含まれるとし、Mc1’≦M<Mc2’であればグループバイアスは「バランス」という範囲に含まれるとし、M<Mc1’であればグループバイアスは「反感になりやすい」という範囲に含まれるとする。 For example, it is assumed that the group bias is divided into three ranges of “easily sympathetic”, “balance”, and “prone to antisense”. Let M c1 ′ and M c2 ′ be predetermined real numbers that satisfy the relationship of M c1 ′ <M c2 ′. At this time, if M c2 ′ ≦ M, the group bias is included in the range of “easily sympathetic”, and if M c1 ′ ≦ M <M c2 ′, the group bias is included in the range of “balance”. If M <M c1 ′, the group bias is included in the range of “prone to counterfeit”.
また、グループ人物選択度が、「高い」「低い」という2個の範囲に分割されているとする。Sc1’を所定の実数であるとする。このとき、Sc1’<Siであればグループ人物選択度は「高い」という範囲に含まれるとし、Si≦Sc1’であればグループ人物選択度は「低い」という範囲に含まれるとする。 Further, it is assumed that the group person selectivity is divided into two ranges of “high” and “low”. Let S c1 'be a predetermined real number. At this time, if S c1 ′ <S i , the group person selectivity is included in the range of “high”, and if S i ≦ S c1 ′, the group person selectivity is included in the range of “low”. To do.
このとき、図11に例示するように、(1)グループバイアスが「共感になりやすい」でありグループ人物選択度が「低い」である場合にはそのグループは「協調的対話」というタイプに分類され、(2)グループバイアスが「バランス」でありグループ人物選択度が「低い」である場合にはそのグループは「全員参加型対話」というタイプに分類され、(3)グループバイアスが「反感になりやすい」でありグループ人物選択度が「低い」である場合にはそのグループは「競合的対話」というタイプに分類され、(4)グループ人物選択度が「高い」である場合にはそのグループは「リーダー型対話」というタイプに分類されるとする。 At this time, as illustrated in FIG. 11, (1) when the group bias is “easily sympathetic” and the group person selectivity is “low”, the group is classified into a type of “collaborative dialogue”. (2) When the group bias is “balance” and the group person selectivity is “low”, the group is classified into a type of “all-participatory dialogue”, and (3) the group bias is If the group person selectivity is “low”, the group is classified into a type of “competitive dialogue”. (4) If the group person selectivity is “high”, the group Is classified into a type of “leader-type dialogue”.
ここで、分割する範囲の数及び分類するタイプの数は任意である。また、図11の例では、グループバイアスとグループ人物選択度の2個の指標に基づいて、人物を所定のタイプに分類したが、他の2個の指標に基づく分類又は3個以上の指標に基づく分類をしても構わない。 Here, the number of ranges to be divided and the number of types to be classified are arbitrary. Further, in the example of FIG. 11, the person is classified into a predetermined type based on the two indicators of group bias and group person selectivity. However, the classification is based on the other two indicators or three or more indicators. You may make a classification based on it.
<表示部>
表示部703は、グループ分類部705による分類結果を表示する(ステップS3)。表示部703は、例えば図11に示した表を表示する。
<Display section>
The
なお、第二実施形態の対話傾向得点化装置は、図3に示すように個人分類部702を更に備えていてもよい。
Note that the dialogue tendency scoring device of the second embodiment may further include a
この場合、個人分類部702は、第一実施形態と同様にして、個人指標計算部701により計算された人物についての少なくとも2個の指標に基づいて、その人物を所定のタイプに分類する(ステップS2)。分類結果は、表示部703に提供される。
In this case, as in the first embodiment, the
この結果、表示部703には、グループ分類部705による分類結果のみならず、個人分類部702による分類結果も表示される。
As a result, the
このように、共感解釈に基づく指標を計算し表示することにより、各人物及び/又はグループ全体のコミュニケーションの傾向及び特性を把握することができる。 Thus, by calculating and displaying the index based on the empathy interpretation, it is possible to grasp the communication tendency and characteristics of each person and / or the entire group.
[第三実施形態]
第三実施形態の対話傾向得点化装置は、図4に示すように、個人指標計算部701及び表示部703を例えば備えている。
[Third embodiment]
The dialogue tendency scoring device of the third embodiment includes, for example, a personal
第三実施形態の対話傾向得点化方法は、対話傾向得点化装置が図8の各ステップの処理を例えば行うことにより実現される。 The dialog tendency scoring method of the third embodiment is realized by the dialog tendency scoring device performing, for example, the processing of each step in FIG.
以下、第一実施形態と異なる部分を中心に説明する。第一実施形態と同様の部分については同じ符号を付けて重複説明を省略する。 Hereinafter, a description will be given centering on differences from the first embodiment. The same parts as those in the first embodiment are denoted by the same reference numerals, and redundant description is omitted.
<個人指標計算部>
個人指標計算部701は、第一実施形態と同様に、個人バイアス、個人明確度、個人人物選択度及び個人活発度の中の少なくとも2個の指標のそれぞれをある人物について計算する(ステップS1)。計算された指標は、表示部703に提供される。
<Individual index calculator>
As in the first embodiment, the personal
<表示部>
表示部703は、個人指標計算部701により計算された人物についての少なくとも2個の指標をレーダーチャートとして表示する(ステップS3)。例えば、表示部703は、図12に例示するように、各指標をレーダーチャートとして表示する。
<Display section>
The
このように、共感解釈に基づく指標を計算し表示することにより、各人物のコミュニケーションの傾向及び特性を把握することができる。 Thus, by calculating and displaying the index based on the sympathy interpretation, it is possible to grasp the communication tendency and characteristics of each person.
[第四実施形態]
第四実施形態の対話傾向得点化装置は、図5に示すように、個人指標計算部701、グループ指標計算部704及び表示部703を例えば備えている。
[Fourth embodiment]
As shown in FIG. 5, the dialog tendency scoring device of the fourth embodiment includes, for example, a personal
第四実施形態の対話傾向得点化方法は、対話傾向得点化装置が図9の各ステップの処理を例えば行うことにより実現される。 The dialog tendency scoring method of the fourth embodiment is realized by the dialog tendency scoring device performing, for example, the processing of each step in FIG.
以下、第二実施形態と異なる部分を中心に説明する。第二実施形態と同様の部分については同じ符号を付けて重複説明を省略する。 Hereinafter, a description will be given centering on differences from the second embodiment. The same parts as those in the second embodiment are denoted by the same reference numerals, and redundant description is omitted.
<個人指標計算部>
個人指標計算部701は、第二実施形態と同様に、個人バイアス、個人明確度、個人人物選択度及び個人活発度の中の少なくとも2個の指標のそれぞれをグループに含まれる各人物について計算する(ステップS1)。計算された指標は、グループ指標計算部704に提供される。
<Individual index calculator>
Similar to the second embodiment, the personal
<グループ指標計算部>
グループ指標計算部704は、第二実施形態と同様に、個人指標計算部701が計算した指標に基づいて、グループバイアス、グループ明確度、グループ人物選択度及びグループ活発度の中の少なくとも2個の指標のそれぞれをあるグループについて計算する(ステップS4)。計算された指標は、表示部703に提供される。
<Group index calculation department>
Similar to the second embodiment, the group
<表示部>
表示部703は、グループ指標計算部704により計算されたグループについての少なくとも2個の指標をレーダーチャートとして表示する。例えば、表示部703は、図13に例示するように、各指標をレーダーチャートとして表示する。
<Display section>
The
なお、図5に破線で示すように、個人指標計算部701で計算された指標が、表示部703に提供されてもよい。
Note that, as indicated by a broken line in FIG. 5, the index calculated by the personal
この場合、表示部703は、グループ指標計算部704で計算された各指標をレーダーチャートとして表示するのみならず、個人指標計算部701で計算された各指標をレーダーチャートとして表示する。
In this case, the
このように、共感解釈に基づく指標を計算し表示することにより、各人物及び又はグループ全体のコミュニケーションの傾向及び特性を把握することができる。 Thus, by calculating and displaying the index based on the sympathy interpretation, it is possible to grasp the communication tendency and characteristics of each person and / or the entire group.
[変形例]
上記の処理は、記載の順にしたがって時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。
[Modification]
The above processes are not only executed in time series in the order described, but may be executed in parallel or individually as required by the processing capability of the apparatus that executes the processes or as necessary.
また、対話傾向得点化装置における各処理をコンピュータによって実現する場合、その装置が有すべき機能の処理内容はプログラムによって記述される。そして、このプログラムをコンピュータで実行することにより、その各処理がコンピュータ上で実現される。 Further, when each process in the dialog tendency scoring device is realized by a computer, the processing contents of the functions that the device should have are described by a program. Then, by executing this program on a computer, each process is realized on the computer.
この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、例えば、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリ等どのようなものでもよい。 The program describing the processing contents can be recorded on a computer-readable recording medium. As the computer-readable recording medium, for example, any recording medium such as a magnetic recording device, an optical disk, a magneto-optical recording medium, and a semiconductor memory may be used.
また、各処理手段は、コンピュータ上で所定のプログラムを実行させることにより構成することにしてもよいし、これらの処理内容の少なくとも一部をハードウェア的に実現することとしてもよい。 Each processing means may be configured by executing a predetermined program on a computer, or at least a part of these processing contents may be realized by hardware.
その他、この発明の趣旨を逸脱しない範囲で適宜変更が可能であることはいうまでもない。 Needless to say, other modifications are possible without departing from the spirit of the present invention.
[対話状態推定装置]
以下、共感解釈を求める対話状態推定装置の例について説明する。共感解釈は、例えば、図14に記載された対話状態推定装置1により求められる。
[Conversation state estimation device]
Hereinafter, an example of a dialog state estimation apparatus that seeks empathy interpretation will be described. The sympathy interpretation is obtained, for example, by the dialogue
<構成>
図14を参照して、この実施形態の対話状態推定装置1の構成例について説明する。対話状態推定装置1は入力部10と行動認識部20と共感解釈付与部30とパラメタ学習部40学習用映像記憶部70とモデルパラメタ記憶部74とを備える。学習用映像記憶部70は、例えば、RAM(Random Access Memory)などの主記憶装置、ハードディスクや光ディスクもしくはフラッシュメモリなどの半導体メモリ素子により構成される補助記憶装置、などにより構成することができる。モデルパラメタ記憶部74は、学習用映像記憶部70と同様に構成してもよいし、リレーショナルデータベースやキーバリューストアなどのミドルウェア、などにより構成してもよい。
<Configuration>
With reference to FIG. 14, the structural example of the dialog
図15を参照して、この実施形態のパラメタ学習部40の構成例について説明する。パラメタ学習部40は事前分布学習部42とタイミングモデル学習部44と静的モデル学習部46とを備える。
With reference to FIG. 15, the structural example of the
<学習フェーズ>
図11を参照して、対話状態推定装置1の学習フェーズにおける動作例を説明する。
<Learning phase>
With reference to FIG. 11, the operation example in the learning phase of the dialog
入力部10へ学習用映像が入力される(ステップS11)。学習用映像は、複数の人物が対話する状況を撮影した映像であり、少なくとも対話者の頭部が撮影されていなければならない。学習用映像の撮影は、各対話者について一台のカメラを用意して、複数のカメラにより撮影した映像を多重化した映像でもよいし、魚眼レンズを用いるなどした全方位カメラ一台で対話者全員を撮影した映像であってもよい。入力された学習用映像は学習用映像記憶部70に記憶される。
A learning video is input to the input unit 10 (step S11). The learning video is a video that captures a situation where a plurality of persons interact, and at least the head of the dialog must be captured. The video for learning can be taken by preparing one camera for each conversation person and multiplexing the pictures taken by multiple cameras, or by using a fisheye lens, etc. It may be a video of shooting. The input learning video is stored in the learning
行動認識部20は学習用映像記憶部70に記憶されている学習用映像を入力として、学習用映像に撮影された各対話者の行動として、表情、視線、頭部ジェスチャ、発話有無などを検出し、その結果生成された対話者の行動の時系列を出力する(ステップS21)。この実施形態では、表情、視線、頭部ジェスチャ、および発話有無の4つの行動チャネルを認識対象とする。行動チャネルとは、行動の形態のことである。表情は、感情を表す主要な経路である。この実施形態では、無表情/微笑/哄笑/苦笑/思考中/その他、の6状態を表情の認識対象とする。視線は、感情を誰に伝えようとしているのかということと、他者の行動を観察していることとの少なくとも一方などを表している。この実施形態では、他者のうちの誰か一人を見ておりその相手が誰である/誰も見ていない(という状態)、を視線の認識対象としている。すなわち、状態数は対話者の数となる。ここで、対話者とは、視線を測定している対象者を含む対話に参加している全員を指す。表情と視線の認識方法は、「特開2012−185727号公報(参考文献1)」又は非特許文献1に記載の方法を用いればよい。
The
頭部ジェスチャは、しばしば他者の意見に対する態度の表明として表出される。この実施形態では、なし/頷き/首ふり/傾げ/これらの組み合わせ、の4状態を頭部ジェスチャの認識対象とする。頭部ジェスチャの認識方法は、周知のいかなる方法も用いることができる。例えば「江尻康, 小林哲則, “対話中における頭部ジェスチャの認識”, 電子情報通信学会技術研究報告, PRMU2002-61, pp.31-36, Jul.2002.(参考文献2)」に記載の方法を用いればよい。発話有無は、話し手/聞き手という対話役割の主要な指標となる。この実施形態では、発話/沈黙、の2状態を発話有無の認識対象とする。発話有無の認識方法は、映像中の音声パワーを検出してあらかじめ定めた閾値を超えた場合に発話していると判断すればよい。もしくは映像中の対話者の口元の動きを検出することで発話の有無を検出してもよい。それぞれの行動は一台の装置ですべて認識してもよいし、行動ごとに別々の装置を用いて認識しても構わない。例えば、表情の認識であれば、行動認識装置の一例として「特許4942197号公報(参考文献3)」を使用すればよい。なお、行動認識部20は、共感解釈付与部30と同様に人手によるラベル付けを行い、その結果を出力するとしても構わない。
Head gestures are often expressed as an expression of attitude to the opinions of others. In this embodiment, four states of none / whit / neck / tilt / a combination thereof are recognized as head gesture recognition targets. Any known method can be used as a method for recognizing a head gesture. For example, described in "Ejiri Yasushi, Kobayashi Tetsunori," Recognition of Head Gestures During Dialogue ", IEICE Technical Report, PRMU2002-61, pp.31-36, Jul.2002. (Reference 2) This method may be used. The presence or absence of utterance is a major indicator of the conversation role of the speaker / listener. In this embodiment, two states of utterance / silence are recognized as utterance presence / absence recognition targets. As a method for recognizing the presence or absence of utterance, it may be determined that the utterance is made when the audio power in the video is detected and a predetermined threshold is exceeded. Alternatively, the presence or absence of an utterance may be detected by detecting the movement of the conversation person's mouth in the video. Each action may be recognized by a single device, or may be recognized by using a separate device for each action. For example, in the case of facial expression recognition, “Patent No. 4942197 (Reference 3)” may be used as an example of an action recognition device. The
また、表情や頭部ジェスチャに関しては、「強度」を推定して出力するとしてもよい。表情の強度は、対象とする表情である確率により求めることができる。また、頭部ジェスチャの強度は、振幅の最大値(頷きであれば、頷く角度の最大値)に対する取得された動作の振幅の値の割合により求めることができる。 For facial expressions and head gestures, “strength” may be estimated and output. The intensity of the facial expression can be obtained from the probability that the facial expression is the target. Further, the strength of the head gesture can be obtained from the ratio of the value of the amplitude of the acquired motion to the maximum value of the amplitude (the maximum value of the scooping angle if it is whispered).
共感解釈付与部30は学習用映像記憶部70に記憶されている学習用映像に基づいて複数の外部観察者が共感解釈をラベル付けした学習用共感解釈時系列を出力する(ステップS30)。学習用共感解釈時系列は、学習用映像を複数の外部観察者に提示して、各時刻における対話二者間の共感解釈を外部観察者が人手によりラベル付けした時系列である。この実施形態では、二者間の対話状態として、共感/反感/どちらでもない、の3状態を対象とする。二者間の対話状態とは、同調圧力(自分とは異なる同じ意見を大勢の他者が持っているときにそれに従わなければならないと感じること)に深く関わり、合意形成や人間関係を構築する上での基本要素である。また、外部観察者が解釈するこれらの状態のことをまとめて共感解釈と呼ぶ。すなわち、この実施形態における対話状態解釈とは共感解釈である。
The empathy
行動認識部20の出力する学習用行動時系列と共感解釈付与部30の出力する学習用共感解釈時系列とはパラメタ学習部40に入力される。パラメタ学習部40は、外部観察者の共感解釈と対話者の行動とを関連付けるモデルパラメタを学習する。モデルパラメタは、対話者間の共感解釈の事前分布と、対話者間の行動の時間差と対話者間の行動の一致性とに基づく共感解釈の尤度を表すタイミングモデルと、対話者間の行動の共起性に基づく共感解釈の尤度を表す静的モデルとを含む。
The learning action time series output from the
パラメタ学習部40の備える事前分布学習部42は、学習用共感解釈時系列を用いて事前分布を学習する(ステップS42)。パラメタ学習部40の備えるタイミングモデル学習部44は、学習用行動時系列と学習用共感解釈時系列とを用いてタイミングモデルを学習する(ステップS44)。パラメタ学習部40の備える静的モデル学習部46は、学習用行動時系列と学習用共感解釈時系列とを用いて静的モデルを学習する(ステップS46)。得られたモデルパラメタはモデルパラメタ記憶部74に記憶される。
The prior
<<モデルの概要>>
この実施形態のモデルについて詳述する。この実施形態では、外部観察者が与える共感解釈は対話二者の組み合わせ毎に独立であることを仮定する。よって、以下では対話者が二人のみの場合を想定する。なお、対話者が三人以上の場合には、それぞれの対話二者の組み合わせのみに注目して学習を行えばよい。
<< Overview of model >>
The model of this embodiment will be described in detail. In this embodiment, it is assumed that the empathy interpretation given by the external observer is independent for each combination of two dialogues. Therefore, in the following, it is assumed that there are only two participants. Note that when there are three or more interlocutors, it is only necessary to learn by focusing only on the combination of the two interrogators.
この実施形態では、対話者の行動の時系列Bが与えられたときの各時刻tでの外部観察者の共感解釈eの事後確率分布P(et|B)を、ナイーブベイズモデルを用いてモデル化し、その推定を行う。ナイーブベイズモデルは従属変数(ここでは共感解釈)と各説明変数(ここでは各対話者の行動)との間の確率的依存関係が説明変数間で独立であることを仮定する。ナイーブベイズモデルはシンプルであるにも関わらず多くの分野で高い推定性能を示すことが確認された優れたモデルである。この発明においてナイーブベイズモデルを用いる利点は二つある。一つは、行動チャネル間の全ての共起(例えば、表情、視線、頭部ジェスチャ、および発話有無の全てが同時に発生した状態)をモデル化しないため、過学習を避けやすいという点である。これは、対象とする変数空間に対して学習サンプルが少ない場合に特に有効である。もう一つは、観測情報としての行動チャネルの追加や削除が容易という点である。 In this embodiment, the posterior probability distribution P (e t | B) of the sympathetic interpretation e of the external observer at each time t given the time series B of the conversation person's behavior is expressed using a naive Bayes model. Model and estimate. The naive Bayes model assumes that the stochastic dependence between the dependent variables (here, empathy interpretation) and each explanatory variable (here, the actions of each interactor) is independent among the explanatory variables. The Naive Bayes model is an excellent model that has been confirmed to show high estimation performance in many fields despite being simple. There are two advantages of using the naive Bayes model in this invention. One is that it is easy to avoid over-learning because it does not model all co-occurrence between behavioral channels (for example, a state in which all of facial expressions, gaze, head gestures, and utterances occur simultaneously). This is particularly effective when there are few learning samples for the target variable space. The other is that it is easy to add or delete action channels as observation information.
この実施形態におけるナイーブベイズモデルでは、事後確率分布P(et|B)は式(1)のように定義される。
<<タイミングモデル>>
この実施形態における行動チャネルbについてのタイミングモデルは式(2)のように定義される。
The timing model for the action channel b in this embodiment is defined as shown in Equation (2).
式(2)から明らかなように、このタイミングモデルは、対話二者の行動間の時間差がdtでありその一致性がcであるときの共感解釈eの尤度を表す時間差関数P( d~tt b|ct b,et)と、その相互作用の近辺で共感解釈eがどのタイミングで変化するかを表す変化タイミング関数πtから構成されている。d~tt bは、外部観察者の共感解釈の時系列をヒストグラム化した際のビン番号である。ビンサイズについては例えば200ミリ秒とする。 As is clear from equation (2), this timing model is based on the time difference function P (d ~) representing the likelihood of the empathy interpretation e when the time difference between the actions of the two conversations is dt and the coincidence is c. t t b | c t b , e t ) and a change timing function π t representing the timing at which the sympathetic interpretation e changes in the vicinity of the interaction. d to t t b are bin numbers when the time series of the external observer's empathy interpretation is converted into a histogram. For example, the bin size is 200 milliseconds.
なお、この実施形態では、それぞれの行動チャネルについてその行動チャネル内で二者間のタイミングモデルを構築したが、行動チャネル間のモデルを構築しても構わない。例えば、表情と頭部ジェスチャとの間の時間差dtと一致性cと、共感解釈eとの関係をモデル化することができる。ただしこの場合は、一致性cを決める際に各行動チャネルについて、例えば、肯定的/中立的/否定的といった、異なる行動チャネルの間でも一致性cを判断できるカテゴリ群を新たに導入する必要がある。これらのカテゴリについては、映像から行動チャネルを検出する際に認識してもよいし、一旦行動チャネルごとに異なるカテゴリ群で認識しておいて、表情が微小なら肯定的といったようにそれらのラベルを後から肯定的/中立的/否定的に分類し直しても構わない。 In this embodiment, for each behavior channel, a timing model between two parties is constructed within the behavior channel, but a model between behavior channels may be constructed. For example, the relationship between the time difference dt between the facial expression and the head gesture, the consistency c, and the empathy interpretation e can be modeled. However, in this case, when determining the consistency c, it is necessary to introduce a new category group that can determine the consistency c even between different behavior channels such as positive / neutral / negative, for example. is there. These categories may be recognized when the action channel is detected from the video, or once they are recognized by different category groups for each action channel, and their labels are affirmed if the facial expression is small. You may reclassify later as positive / neutral / negative.
<<時間差関数>>
時間差関数P(d~tt b|ct b,et)は、対話二者間の行動が行動チャネルbにおいて一致しているか否かを示す一致性cとその時間差dtによって共感解釈eがどの種類となりやすいかの尤度を表す。この実施形態では、外部観察者の共感解釈の時系列をヒストグラム化した際のビン番号d~tt bを使用している。ビンサイズについては例えば200ミリ秒とする。
<< Time difference function >>
The time difference function P (d ~ t t b | c t b , e t ) indicates that the sympathetic interpretation e is based on the coincidence c indicating whether or not the actions between the two parties are matched in the action channel b and the time difference dt. The likelihood of which type is likely to be represented. In this embodiment, bin numbers d to t t b when the time series of the sympathy interpretation of the external observer are converted into a histogram are used. For example, the bin size is 200 milliseconds.
図18にこの実施形態の時間差関数の一例を表す。時間差関数P(d~tt b|ct b,et)は対話者の行動の一致性cと時間差のビン番号d~tt bとにより共感解釈eの尤度を決定する。図18(A)は対話者間の行動が一致する場合の時間差関数の一例であり、図18(B)は対話者間の行動が不一致の場合の時間差関数の一例である。例えば、対話者間の行動が一致する場合に、与え手の行動表出から受け手の反応表出の時間差が500ミリ秒であった場合には、共感解釈eが「共感」である尤度が約0.3、「どちらでもない」である尤度が約0.2、「反感」である尤度が約0.5となる。時間差関数は外部観察者がラベル付けした共感解釈の時系列を時間差ビン単位で集計し、共感解釈eのカテゴリ毎にすべての時間差ビンにおける尤度の総和が1となるように正規化することで求める。 FIG. 18 shows an example of the time difference function of this embodiment. Time difference function P (d ~ t t b | c t b, e t) determines the likelihood of sympathetic interpretation e by the bin number d ~ t t b Consistency c and time difference of behavior of the interlocutor. FIG. 18A is an example of a time difference function when the actions between the interlocutors match, and FIG. 18B is an example of the time difference function when the actions between the interlocutors do not match. For example, if the behaviors of the interlocutors match, and the time difference between the giver's action expression and the receiver's reaction expression is 500 milliseconds, the likelihood that the empathy interpretation e is "sympathy" The likelihood of about 0.3, “Neither” is about 0.2, and the likelihood of “antisense” is about 0.5. The time difference function calculates the time series of empathy interpretations labeled by external observers in units of time difference bins, and normalizes the sum of likelihood in all time difference bins to be 1 for each category of empathy interpretation e. Ask.
<<変化タイミング関数>>
変化タイミング関数πはどのタイミングで共感解釈eが変化するかを表す。別の見方をすると、変化タイミング関数πは時間差関数がどの範囲にわたってどの程度の強さで式(1)における共感解釈eの推定に寄与するかを決定する。
<< Change timing function >>
The change timing function π represents at which timing the empathy interpretation e changes. Viewed another way, the change timing function π determines to what extent the time difference function contributes to the estimation of the empathy interpretation e in equation (1) over which range.
この実施形態では変化タイミング関数を式(3)のようにモデル化する。
π=0は、式(1)で表される事後確率分布P(et|B)において、タイミングモデルP(dtt b|ct b,et)が全く寄与しないことを表す。π=1は、事後確率分布P(et|B)において、タイミングモデルP(dtt b|ct b,et)が完全に寄与することを表す。 π = 0 represents that the timing model P (dt t b | c t b , e t ) does not contribute at all in the posterior probability distribution P (e t | B) represented by the equation (1). π = 1 represents that the timing model P (dt t b | c t b , e t ) contributes completely in the posterior probability distribution P (e t | B).
条件dt>Lは、与え手の行動表出に対して受け手の反応表出が遅すぎることを表す。例えば、この実施形態では閾値Lを2秒とする。これは、話し手の語彙的に重要なフレーズに対する聞き手の表情表出がおよそ500〜2,500ミリ秒の範囲で起こるという研究結果を参考にした値であり、どの行動チャネルにおいても概ねこの範囲に収まるという仮定に基づく。上記の研究結果についての詳細は、「G. R. Jonsdottir, J. Gratch, E. Fast, and K. R. Thorisson, “Fluid semantic back-channel feedback in dialogue: Challenges & progress”, International Conference Intelligent Virtual Agents (IVA), pp. 154-160, 2007.(参考文献5)」を参照されたい。 The condition dt> L represents that the response expression of the receiver is too late with respect to the action expression of the giver. For example, in this embodiment, the threshold value L is 2 seconds. This is a value based on the research results that the expression of the listener's facial expression for the vocabulary important phrase of the speaker occurs in the range of about 500 to 2,500 milliseconds, and it is generally within this range in any action channel. Based on assumptions. For details on the above research results, see “GR Jonsdottir, J. Gratch, E. Fast, and KR Thorisson,“ Fluid semantic back-channel feedback in dialogue: Challenges & progress ”, International Conference Intelligent Virtual Agents (IVA), pp. 154-160, 2007. (Reference 5).
条件t-ta>Wは、時刻tがそれ以前の直近で表出された与え手の表情表出からの時間経過が長いことを意味する。対話二者間でお互いに行動を表出して相互作用が行われると、それから一定の間は外部観察者の共感解釈がそのタイミングに影響を受けるが、その後しばらく次の相互作用が行われなければその影響はなくなるということをモデル化したものである。閾値Wは正の値であればどのような値でもよく、二者対話のように対象の二者間で絶えず相互作用が発生する場合には無限大としても問題無い。しかし、大人数での対話で主に一人が話しているといった状況で、その中のある二人の聞き手の間での相互作用といったように、必ずしも相互作用が頻繁とは限らない場合には閾値Wが長すぎる場合も考えられる。この実施形態では経験的に閾値Wを4秒とする。これは、閾値Wを4秒付近に設定した場合に推定精度が最も高くなったという実験結果に基づくものである。 The condition tt a > W means that the time elapses from the expression of the facial expression of the giving hand that was most recently expressed before time t. When interaction is performed by expressing actions between the two parties, the sympathy interpretation of the external observer is affected by the timing for a certain period of time, but if the next interaction does not occur for a while after that, It is modeled that the effect disappears. The threshold value W may be any value as long as it is a positive value, and there is no problem even if the threshold value W is infinite when interaction between the two parties is continuously generated as in a two-party dialogue. However, in a situation where one person is mainly speaking in a dialogue with a large number of people and the interaction is not always frequent, such as an interaction between two listeners, a threshold is set. It is also possible that W is too long. In this embodiment, the threshold value W is empirically set to 4 seconds. This is based on the experimental result that the estimation accuracy is the highest when the threshold W is set to around 4 seconds.
図19に共感解釈、与え手の行動表出、および受け手の反応表出の一例を示す。図19の塗りつぶしパターンは行動もしくは共感解釈のカテゴリの違いを表す。αとβの値については例えばα=0.2、β=0.8と設定する。これらの値は、式(3)の変化タイミング関数πが累積確率を最も近似するように定めたものである。 FIG. 19 shows an example of sympathy interpretation, behavioral expression of the giver, and response expression of the receiver. The filled pattern in FIG. 19 represents a difference in category of behavior or empathy interpretation. For the values of α and β, for example, α = 0.2 and β = 0.8 are set. These values are determined so that the change timing function π of Equation (3) approximates the cumulative probability most.
図20に変化タイミング関数πの一例を示す。グラフ上にプロットした点は、実際に女性4名の対話グループ4つ(計16名)の対話データに対して計9名の外部観察者が与えた共感解釈のラベルおいて、そのラベルが相対時刻t'中のどこで変化したかの累積確率を表す。この変化タイミング関数によってよく近似できていることが見て取れる。但し、αとβはこの値に限らなくてもよく、α+β=1、0≦α≦1、0≦β≦1を満たすようにする。簡単な設定としては,「α=0、β=1」でもかまわない。 FIG. 20 shows an example of the change timing function π. The points plotted on the graph are actually the empathetic interpretation labels given by nine external observers to the dialogue data of four dialogue groups of four women (16 people in total). This represents the cumulative probability of the change at time t ′. It can be seen that this change timing function can be approximated well. However, α and β are not limited to these values, and α + β = 1, 0 ≦ α ≦ 1, and 0 ≦ β ≦ 1 are satisfied. As a simple setting, “α = 0, β = 1” may be used.
図21及び図22は変化タイミング関数の有効範囲の一例を模式的に表した図である。黒の塗りつぶしは行動が検出されていない状態、白の塗りつぶしと斜めのハッチングは行動のカテゴリを表している。共感解釈の縦のハッチングは共感であること、横のハッチングは反感であることを表している。図21(A)は対話者間の行動が一致した場合についての有効範囲を表している。与え手の行動と受け手の反応が一致しているため「共感」が閾値Wの間だけ継続している。図21(B)は対話者間の行動が不一致であった場合についての有効範囲を表している。与え手の行動と受け手の反応が不一致であるため「反感」が閾値Wの間だけ継続している。図21(C)は与え手の行動表出に対して受け手の反応表出が遅すぎる、すなわちdt>Lであるために変化タイミング関数が有効範囲外となっている状況を表している。この場合は全体を通して「どちらでもない」状態が継続している。図22は対話二者が交互に行動を表出したときの有効範囲である。基本的な考え方は図21(A)から図21(C)と同様である。 21 and 22 are diagrams schematically showing an example of the effective range of the change timing function. A black fill indicates a state in which no action is detected, and a white fill and diagonal hatching indicate a category of action. The vertical hatching of the sympathy interpretation indicates empathy, and the horizontal hatching indicates counteraction. FIG. 21A shows an effective range in the case where actions between the interlocutors match. Since the behavior of the giver and the response of the recipient match, “sympathy” continues only during the threshold W. FIG. 21B shows an effective range in the case where the behaviors between the interlocutors are inconsistent. Since the behavior of the giver and the response of the recipient are inconsistent, “disgust” continues only during the threshold W. FIG. 21C shows a situation where the response expression of the receiver is too late with respect to the action expression of the giver, that is, the change timing function is out of the effective range because dt> L. In this case, the “neither” state continues throughout. FIG. 22 shows the effective range when the two dialogues alternately express their actions. The basic concept is the same as in FIGS. 21A to 21C.
<<静的モデル>>
静的モデルP(bt|et)は、時刻tに行動チャネルbについて対話二者間で特定の行動が共起した場合に、共感解釈eがどの程度の尤度で生成されるかをモデル化したものである。
<< Static model >>
The static model P (b t | e t ) shows the likelihood that the sympathetic interpretation e is generated when a specific action co-occurs between two parties for the action channel b at time t. Modeled.
モデル化の方法は、表情と視線については特許文献1および非特許文献1にて提案されているため、これらの文献の記載に従えばよく、対話二者間の視線状態のモデルと、その視線状態毎の表情の状態との共起のモデルとを組み合わせればよい。ここで、二者間の視線状態とは、例えば、相互凝視/片側凝視/相互そらし、の3状態が考えられる。
The modeling method has been proposed in
頭部ジェスチャについての静的モデルはP(g|e)で表される。ここで、gは二者間での頭部ジェスチャの組み合わせ状態を表す。対象とする頭部ジェスチャの状態数をNgとすると、二者間での頭部ジェスチャの組み合わせの状態数はNg×Ngとなる。カテゴリとして任意の種類と数を対象としても構わないが、数が多すぎると学習サンプル数が少ない場合に過学習に陥りやすい。その場合は、最初に用意したカテゴリをさらにクラスタリングによりグルーピングしても構わない。例えば、その方法の一つとしてSequential Backward Selection (SBS)が挙げられる。例えば頭部ジェスチャのカテゴリを対象とする場合、頭部ジェスチャのみを用いた推定、すなわち事後確率をP(e|B):=P(e)P(g'|e)として、すべてのカテゴリから推定精度が最高になるように選択した二つのカテゴリを統合して一つにまとめる。これを推定精度が悪化する直前まで繰り返すことで一つずつカテゴリ数を減らしていけばよい。ここで、g’はグルーピング後における二者間での頭部ジェスチャの組み合わせ状態である。発話有無についても頭部ジェスチャと同様に二者間の共起をモデル化する。 The static model for head gestures is represented by P (g | e). Here, g represents a combination state of head gestures between two parties. When the number of states of the head gestures of interest and N g, the number of states of combinations of head gestures between two parties becomes N g × N g. Arbitrary types and numbers may be targeted as categories, but if the number is too large, overlearning tends to occur when the number of learning samples is small. In that case, the categories prepared first may be further grouped by clustering. For example, Sequential Backward Selection (SBS) is one of the methods. For example, when targeting the category of head gesture, the estimation using only the head gesture, that is, the posterior probability P (e | B): = P (e) P (g '| e) The two categories selected for the best estimation accuracy are integrated into one. It is sufficient to reduce the number of categories one by one by repeating this until just before the estimation accuracy deteriorates. Here, g ′ is a combined state of the head gesture between the two after grouping. As for the presence or absence of utterance, the co-occurrence between two parties is modeled in the same way as the head gesture.
<<モデルの学習方法>>
この実施形態では、いずれのモデルについても離散状態として記述されているため、学習フェーズではその離散状態が学習サンプル中に何回出現したかの頻度を取り、最後にその頻度を正規化(確率化)すればよい。
<< Model learning method >>
In this embodiment, since any model is described as a discrete state, in the learning phase, the frequency of how many times the discrete state appears in the learning sample is taken, and finally the frequency is normalized (probabilized). )do it.
このとき、モデルを準備する方針として、モデルパラメタの学習に使用する学習用映像に撮影された対話者の集団と、対話状態を推定したい推定用映像に撮影された対話者の集団が同一であれば、対話二者毎にそれぞれ独立にパラメタを学習し、ある対話二者についての推定にはその対話二者のデータから学習したパラメタを用いるとすればよい。他方、学習用映像に撮影された対話者の集団と、推定用映像に撮影された対話者の集団が異なる場合には、対話二者を区別せずに一つのモデルを学習し、その一つのモデルを使用して推定したい対話二者についての推定を行えばよい。 At this time, as a policy to prepare the model, if the group of conversations captured in the learning video used to learn the model parameters is the same as the group of conversations captured in the estimation video for which the conversation state is to be estimated. For example, the parameters are learned independently for each of the two conversations, and the parameters learned from the data of the two conversations may be used for estimation of the two conversations. On the other hand, if the group of interrogators captured in the video for learning differs from the group of interrogators captured in the video for estimation, one model is learned without distinguishing between the two conversations, It is only necessary to make an estimation about two parties who want to estimate using the model.
<推定フェーズ>
図17を参照して、対話状態推定装置1の推定フェーズにおける動作例を説明する。
<Estimation phase>
With reference to FIG. 17, the operation example in the estimation phase of the dialog
入力部10へ推定用映像が入力される(ステップS12)。推定用映像は、複数の人物が対話する状況を撮影した映像であり、少なくとも対話者の頭部が撮影されていなければならない。また、推定用映像は学習用映像とは異なる未知の映像である。推定用映像の撮影方法は上述の学習フェーズにおける学習用映像の撮影方法と同様である。入力された推定用映像は推定用映像記憶部72に記憶される。
The estimation video is input to the input unit 10 (step S12). The estimation video is a video that captures a situation in which a plurality of persons interact, and at least the conversation person's head must be captured. The estimation video is an unknown video different from the learning video. The estimation video capturing method is the same as the learning video capturing method in the learning phase described above. The input estimation video is stored in the estimation
行動認識部20は推定用映像記憶部72に記憶されている推定用映像を入力として、推定用映像に撮影された各対話者の行動として、表情、視線、頭部ジェスチャ、発話有無などを検出し、その結果生成された対話者の行動の時系列Bを出力する(ステップS22)。行動の認識方法は上述の学習フェーズにおける行動の認識方法と同様であるので、ここでは説明を省略する。
The
行動認識部20の出力する推定用行動時系列Bは事後確率推定部50に入力される。事後確率推定部50は、モデルパラメタ記憶部74に記憶されているモデルパラメタを用いて、推定用行動時系列Bから時刻tにおける対話者間の共感解釈の事後確率分布P(et|B)を推定する(ステップS50)。事後確率推定部50は、推定用映像に基づいて生成された対話者の行動の時系列Bと、パラメタ学習部40で学習した事前分布とタイミングモデルと静的モデルの各パラメタを含むモデルパラメタとを入力として、上記の式(1)に従って、時刻tにおける共感解釈eの事後確率分布P(et|B)を計算する。
The estimation action time series B output from the
出力部60は、対話者間の共感解釈eの事後確率分布P(et|B)を出力する(ステップS60)。共感解釈の推定結果を確率分布ではなく一つの種類として出力する必要がある場合には、事後確率が最も高い共感解釈の種類、すなわちe~t=argmax e_t P(et|B)を対話状態値e~tとして併せて出力すればよい。
The
また、事後確率が最も高い共感解釈の種類に加え、その事後確率が最も高い共感解釈の強度を出力してもよい。例えば、強度は、共感であれば、強度=共感の確率−反感の確率という式から、反感であれば、強度=反感の確率―共感の確率という式により求めることができる。この場合、強度は、-1から1の間の数値で表される。 Further, in addition to the type of sympathy interpretation having the highest posterior probability, the strength of the sympathy interpretation having the highest posterior probability may be output. For example, in the case of empathy, the strength can be obtained from the equation strength = sympathy probability−anti-probability, and in the case of anti-sensation, the strength = probability of probability−sympathy probability. In this case, the intensity is represented by a numerical value between -1 and 1.
701 個人指標計算部
702 個人分類部
703 表示部
704 グループ指標計算部
705 グループ分類部
701 Individual
Claims (7)
C1,C2,C3',C4',X 2,X 3 を所定の定数とし、a 2 ,a 3 を所定の実数の定数とし、w e (e=1,2,…,N e ),w e '(e=1,2,…,N e )を所定の定数とし、Nを人物の総数とし、Tを各指標を計算するために考慮する共感状態のデータの所定の時間長とし、Neを取り得る共感状態の総数として、
ある人物iについての個人バイアスを以下の式により定義されるMiとし、
ある人物iについての個人明確度を以下の式により定義されるAiとし、
ある人物iについての個人人物選択度を以下の式により定義されるSiとし、
ある人物iについての個人活発度を以下の式により定義されるEiとして、
上記求まった指標P(et (i,j)=e)を用いて、上記個人バイアス、上記個人明確度、上記個人人物選択度及び上記個人活発度の中の2個の指標のそれぞれをある人物について計算する個人指標計算部と、
上記計算された上記人物についての2個の指標に基づいて、その人物を所定のタイプに分類する個人分類部と、
上記人物についての2個の指標を軸とした表に上記個人分類部による分類結果を表示する表示部と、
を含む対話傾向得点化装置。 A dialog state estimation device for obtaining an index P (e t (i, j) = e) representing a probability that the empathy state between the person i and the person j at time t is e,
C 1, C 2, C 3 ', C 4', the X 2, X 3 and predetermined constant, and the a 2, a 3 and a predetermined real constant, w e (e = 1,2, ..., N e ), w e '(e = 1,2, ..., N e ) is a predetermined constant, N is the total number of persons, and T is a predetermined time of the data of the sympathetic state to be considered for calculating each index ChoToshi, as the total number of empathy possible states of N e,
Let M i be the personal bias for a person i defined by
Let the individual clarity for a person i be A i defined by the following formula:
Let the individual person selectivity for a person i be S i defined by the following formula:
The individual activity level for a person i is defined as E i defined as
Using the obtained index P (e t (i, j) = e), there are two indices among the individual bias, the individual clarity, the individual person selectivity and the individual activity. A personal index calculation unit for calculating a person,
A personal classifying unit for classifying the person into a predetermined type based on the calculated two indices for the person;
A display unit for displaying the result of classification by the personal classification unit in a table centered on two indicators for the person;
Interactive trend scoring device including
C1,C2,C3',C4',X 2,X 3 を所定の定数とし、a 2 ,a 3 を所定の実数の定数とし、w e (e=1,2,…,N e ),w e '(e=1,2,…,N e )を所定の定数とし、Nを人物の総数とし、Tを各指標を計算するために考慮する共感状態のデータの所定の時間長とし、Neを取り得る共感状態の総数として、
ある人物iについての個人バイアスを以下の式により定義されるMiとし、
ある人物iについての個人明確度を以下の式により定義されるAiとし、
ある人物iについての個人人物選択度を以下の式により定義されるSiとし、
ある人物iについての個人活発度を以下の式により定義されるEiとして、
上記求まった指標P(et (i,j)=e)を用いて、上記個人バイアス、上記個人明確度、上記個人人物選択度及び上記個人活発度の中の2個の指標のそれぞれをある人物について計算する個人指標計算部と、
C5,C 6 ,C7,C8,X7を所定の定数として、
あるグループについてのグループバイアスを以下の式により定義されるMとして、
あるグループについてのグループ明確度を以下の式により定義されるAとして、
あるグループについてのグループ人物選択度を以下の式により定義されるSとして、
あるグループについてのグループ活発度を以下の式により定義されるEとして、
上記個人指標計算部で計算された2個の指標に基づいて、上記グループバイアス、上記グループ明確度、上記グループ人物選択度及び上記グループ活発度の中の2個の指標のそれぞれをあるグループについて計算するグループ指標計算部と、
上記計算された上記グループについての2個の指標に基づいて、そのグループを所定のタイプに分類するグループ分類部と、
上記グループについての2個の指標を軸とした表に上記グループ分類部による分類結果を表示する表示部と、
を含む対話傾向得点化装置。 A dialog state estimation device for obtaining an index P (e t (i, j) = e) representing a probability that the empathy state between the person i and the person j at time t is e,
C 1, C 2, C 3 ', C 4', the X 2, X 3 and predetermined constant, and the a 2, a 3 and a predetermined real constant, w e (e = 1,2, ..., N e ), w e '(e = 1,2, ..., N e ) is a predetermined constant, N is the total number of persons, and T is a predetermined time of the data of the sympathetic state to be considered for calculating each index ChoToshi, as the total number of empathy possible states of N e,
Let M i be the personal bias for a person i defined by
Let the individual clarity for a person i be A i defined by the following formula:
Let the individual person selectivity for a person i be S i defined by the following formula:
The individual activity level for a person i is defined as E i defined as
Using the obtained index P (e t (i, j) = e), there are two indices among the individual bias, the individual clarity, the individual person selectivity and the individual activity. A personal index calculation unit for calculating a person,
C 5 , C 6 , C 7 , C 8 , X 7 are given constants,
Let the group bias for a group be M defined by
The group clarity for a group is defined as A defined by the following formula:
The group person selectivity for a group is defined as S defined by the following formula:
The group activity for a group is defined as E defined by the following formula:
Based on the two indicators calculated by the individual indicator calculator, each of the two indicators of the group bias, the group clarity, the group person selectivity, and the group activity is calculated for a group. A group index calculation unit,
A group classifying unit for classifying the group into a predetermined type based on the two indexes for the group calculated;
A display unit for displaying a classification result by the group classification unit in a table centered on two indicators for the group;
Interactive trend scoring device including
上記個人指標計算部で計算された上記人物についての2個の指標に基づいて、その人物を所定のタイプに分類する個人分類部を更に含み、
上記表示部は、上記人物についての2個の指標を軸とした表に上記個人分類部による分類結果を更に表示する、
対話傾向得点化装置。 In the dialog tendency scoring device of claim 2,
A personal classification unit for classifying the person into a predetermined type based on the two indexes for the person calculated by the personal index calculation unit;
The display unit further displays the classification result by the personal classification unit in a table centered on two indicators for the person.
Interactive trend scoring device.
C1,C2,C3',C4',X 2,X 3 を所定の定数とし、a 2 ,a 3 を所定の実数の定数とし、w e (e=1,2,…,N e ),w e '(e=1,2,…,N e )を所定の定数とし、Nを人物の総数とし、Tを各指標を計算するために考慮する共感状態のデータの所定の時間長とし、Neを取り得る共感状態の総数として、
ある人物iについての個人バイアスを以下の式により定義されるMiとし、
ある人物iについての個人明確度を以下の式により定義されるAiとし、
ある人物iについての個人人物選択度を以下の式により定義されるSiとし、
ある人物iについての個人活発度を以下の式により定義されるEiとして、
個人指標計算部が、上記求まった指標P(et (i,j)=e)を用いて、上記個人バイアス、上記個人明確度、上記個人人物選択度及び上記個人活発度の中の2個の指標のそれぞれをある人物について計算する個人指標計算ステップと、
個人分類部が、上記計算された上記人物についての2個の指標に基づいて、その人物を所定のタイプに分類する個人分類ステップと、
表示部が、上記人物についての2個の指標を軸とした表に上記個人分類部による分類結果を表示する表示ステップと、
を含む対話傾向得点化方法。 A dialogue state estimation step in which the dialogue state estimation device obtains an index P (e t (i, j) = e) representing the probability that the empathy state between the person i and the person j at the time t is e;
C 1, C 2, C 3 ', C 4', the X 2, X 3 and predetermined constant, and the a 2, a 3 and a predetermined real constant, w e (e = 1,2, ..., N e ), w e '(e = 1,2, ..., N e ) is a predetermined constant, N is the total number of persons, and T is a predetermined time of the data of the sympathetic state to be considered for calculating each index ChoToshi, as the total number of empathy possible states of N e,
Let M i be the personal bias for a person i defined by
Let the individual clarity for a person i be A i defined by the following formula:
Let the individual person selectivity for a person i be S i defined by the following formula:
The individual activity level for a person i is defined as E i defined as
Using the index P (e t (i, j) = e) obtained by the individual index calculation unit, two of the individual bias, the individual clarity, the individual person selectivity, and the individual activity A personal indicator calculation step for calculating each of the indicators for a person,
A personal classifying step in which the personal classifying unit classifies the person into a predetermined type based on the two indexes for the calculated person;
A display step in which the display unit displays the classification result by the personal classification unit in a table centered on two indicators for the person;
Dialogue trend scoring method including
C1,C2,C3',C4',X 2,X 3 を所定の定数とし、a 2 ,a 3 を所定の実数の定数とし、w e (e=1,2,…,N e ),w e '(e=1,2,…,N e )を所定の定数とし、Nを人物の総数とし、Tを各指標を計算するために考慮する共感状態のデータの所定の時間長とし、Neを取り得る共感状態の総数として、
ある人物iについての個人バイアスを以下の式により定義されるMiとし、
ある人物iについての個人明確度を以下の式により定義されるAiとし、
ある人物iについての個人人物選択度を以下の式により定義されるSiとし、
ある人物iについての個人活発度を以下の式により定義されるEiとして、
個人指標計算部が、上記求まった指標P(et (i,j)=e)を用いて、上記個人バイアス、上記個人明確度、上記個人人物選択度及び上記個人活発度の中の2個の指標のそれぞれをある人物について計算する個人指標計算ステップと、
C5,C 6 ,C7,C8,X7を所定の定数として、
あるグループについてのグループバイアスを以下の式により定義されるMとして、
あるグループについてのグループ明確度を以下の式により定義されるAとして、
あるグループについてのグループ人物選択度を以下の式により定義されるSとして、
あるグループについてのグループ活発度を以下の式により定義されるEとして、
グループ指標計算部が、上記個人指標計算ステップで計算された2個の指標に基づいて、上記グループバイアス、上記グループ明確度、上記グループ人物選択度及び上記グループ活発度の中の2個の指標のそれぞれをあるグループについて計算するグループ指標計算ステップと、
グループ分類部が、上記計算された上記グループについての2個の指標に基づいて、そのグループを所定のタイプに分類するグループ分類ステップと、
表示部が、上記グループについての2個の指標を軸とした表に上記グループ分類部による分類結果を表示する表示ステップと、
を含む対話傾向得点化方法。 A dialogue state estimation step in which the dialogue state estimation device obtains an index P (e t (i, j) = e) representing the probability that the empathy state between the person i and the person j at the time t is e;
C 1, C 2, C 3 ', C 4', the X 2, X 3 and predetermined constant, and the a 2, a 3 and a predetermined real constant, w e (e = 1,2, ..., N e ), w e '(e = 1,2, ..., N e ) is a predetermined constant, N is the total number of persons, and T is a predetermined time of the data of the sympathetic state to be considered for calculating each index ChoToshi, as the total number of empathy possible states of N e,
Let M i be the personal bias for a person i defined by
Let the individual clarity for a person i be A i defined by the following formula:
Let the individual person selectivity for a person i be S i defined by the following formula:
The individual activity level for a person i is defined as E i defined as
Using the index P (e t (i, j) = e) obtained by the individual index calculation unit, two of the individual bias, the individual clarity, the individual person selectivity, and the individual activity A personal indicator calculation step for calculating each of the indicators for a person,
C 5 , C 6 , C 7 , C 8 , X 7 are given constants,
Let the group bias for a group be M defined by
The group clarity for a group is defined as A defined by the following formula:
The group person selectivity for a group is defined as S defined by the following formula:
The group activity for a group is defined as E defined by the following formula:
Based on the two indices calculated in the individual index calculation step, the group index calculation unit calculates two indices among the group bias, the group clarity, the group person selectivity, and the group activity. A group index calculation step for calculating each for a group,
A group classification step in which a group classification unit classifies the group into a predetermined type based on the two indexes for the group calculated;
A display step in which the display unit displays the classification result by the group classification unit in a table centered on two indicators for the group;
Dialogue trend scoring method including
個人分類部が、上記個人指標計算ステップで計算された上記人物についての2個の指標に基づいて、その人物を所定のタイプに分類する個人分類ステップを更に含み、
上記表示部は、上記人物についての2個の指標を軸とした表に上記個人分類ステップによる分類結果を更に表示する、
対話傾向得点化方法。 In the dialog tendency scoring method of claim 5,
The personal classification unit further includes a personal classification step of classifying the person into a predetermined type based on the two indices for the person calculated in the personal index calculation step.
The display unit further displays the classification result of the individual classification step in a table centered on two indicators for the person;
Dialogue trend scoring method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013199559A JP5921507B2 (en) | 2013-09-26 | 2013-09-26 | Dialog tendency scoring device, method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013199559A JP5921507B2 (en) | 2013-09-26 | 2013-09-26 | Dialog tendency scoring device, method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015064828A JP2015064828A (en) | 2015-04-09 |
JP5921507B2 true JP5921507B2 (en) | 2016-05-24 |
Family
ID=52832633
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013199559A Active JP5921507B2 (en) | 2013-09-26 | 2013-09-26 | Dialog tendency scoring device, method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5921507B2 (en) |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0546583A (en) * | 1991-08-15 | 1993-02-26 | Nippon Telegr & Teleph Corp <Ntt> | Confirmation device for moving body action |
JPH10260959A (en) * | 1997-03-19 | 1998-09-29 | Sanei Gen F F I Inc | Organic function evaluation system |
JP2002015115A (en) * | 2000-06-30 | 2002-01-18 | Mediaato:Kk | Marketing system using history information or the like |
JP2005237668A (en) * | 2004-02-26 | 2005-09-08 | Kazuya Mera | Interactive device considering emotion in computer network |
US8195460B2 (en) * | 2008-06-17 | 2012-06-05 | Voicesense Ltd. | Speaker characterization through speech analysis |
JP5437297B2 (en) * | 2011-03-07 | 2014-03-12 | 日本電信電話株式会社 | Dialog state estimation apparatus, method, and program |
JP5914054B2 (en) * | 2012-03-05 | 2016-05-11 | 日本放送協会 | Language model creation device, speech recognition device, and program thereof |
-
2013
- 2013-09-26 JP JP2013199559A patent/JP5921507B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2015064828A (en) | 2015-04-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6023685B2 (en) | Emotion information display control device, method and program thereof | |
Kollias et al. | Exploiting multi-cnn features in cnn-rnn based dimensional emotion recognition on the omg in-the-wild dataset | |
US11551804B2 (en) | Assisting psychological cure in automated chatting | |
Gupta et al. | Facial emotion recognition based real-time learner engagement detection system in online learning context using deep learning models | |
JP5437297B2 (en) | Dialog state estimation apparatus, method, and program | |
US11113890B2 (en) | Artificial intelligence enabled mixed reality system and method | |
Kim et al. | ISLA: Temporal segmentation and labeling for audio-visual emotion recognition | |
Palmero et al. | Chalearn LAP challenges on self-reported personality recognition and non-verbal behavior forecasting during social dyadic interactions: Dataset, design, and results | |
JP2018032164A (en) | Interview system | |
Sun et al. | Personality assessment based on multimodal attention network learning with category-based mean square error | |
US10915819B2 (en) | Automatic real-time identification and presentation of analogies to clarify a concept | |
JP5840186B2 (en) | Emotion search device, method and program | |
Agrawal et al. | Multimodal personality recognition using cross-attention transformer and behaviour encoding | |
Sun et al. | In your eyes: Modality disentangling for personality analysis in short video | |
JP6023684B2 (en) | Emotion information display control device, method and program thereof | |
JP5921507B2 (en) | Dialog tendency scoring device, method and program | |
JP5909472B2 (en) | Empathy interpretation estimation apparatus, method, and program | |
JP2015075906A (en) | Emotion information display control device, method of the same, and program | |
JP5931021B2 (en) | Personal recognition tendency model learning device, personal recognition state estimation device, personal recognition tendency model learning method, personal recognition state estimation method, and program | |
Ryumina et al. | Impact of Visual Modalities in Multimodal Personality and Affective Computing | |
JP2014102606A (en) | Dialogue state estimation device, dialogue state estimation method and program | |
Kanchana et al. | Analysis of social media images to predict user personality assessment | |
JP7152825B1 (en) | VIDEO SESSION EVALUATION TERMINAL, VIDEO SESSION EVALUATION SYSTEM AND VIDEO SESSION EVALUATION PROGRAM | |
Schuller et al. | Computational Charisma--A Brick by Brick Blueprint for Building Charismatic Artificial Intelligence | |
Majumder | Multimodal sentiment analysis in social media using deep learning with convolutional neural networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150925 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20151020 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20151218 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160126 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160310 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160405 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160412 |
|
R150 | Certificate of patent (=grant) or registration of utility model |
Ref document number: 5921507 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |