JP5150583B2 - Interviewer evaluation device, Interviewer evaluation method, Interviewer evaluation program - Google Patents

Interviewer evaluation device, Interviewer evaluation method, Interviewer evaluation program Download PDF

Info

Publication number
JP5150583B2
JP5150583B2 JP2009192875A JP2009192875A JP5150583B2 JP 5150583 B2 JP5150583 B2 JP 5150583B2 JP 2009192875 A JP2009192875 A JP 2009192875A JP 2009192875 A JP2009192875 A JP 2009192875A JP 5150583 B2 JP5150583 B2 JP 5150583B2
Authority
JP
Japan
Prior art keywords
dialogue
data
interviewer
hidden markov
chat
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009192875A
Other languages
Japanese (ja)
Other versions
JP2011044060A (en
Inventor
豊美 目黒
竜一郎 東中
浩二 堂坂
泰浩 南
秀樹 磯崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2009192875A priority Critical patent/JP5150583B2/en
Publication of JP2011044060A publication Critical patent/JP2011044060A/en
Application granted granted Critical
Publication of JP5150583B2 publication Critical patent/JP5150583B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、対話システムの評価技術、特に、対話システムにおける聞き役の対話を評価する技術に関する。   The present invention relates to a dialogue system evaluation technique, and more particularly to a technique for evaluating a listener's dialogue in a dialogue system.

対話システムを開発する上で、性能評価は重要な技術のひとつである。   In developing a dialogue system, performance evaluation is one of the important technologies.

従来、切符購入や、スケジュール予約といった目的を達成するために自動的にコンピュータが応答を行うタスク指向型の対話システムが盛んに研究されてきた。このような対話システムを評価する手法として、特許文献1などに開示された対話システム評価方法及びシステムが挙げられる。   Conventionally, a task-oriented dialogue system in which a computer automatically responds to achieve the purpose such as ticket purchase and schedule reservation has been actively studied. As a method for evaluating such a dialog system, there is a dialog system evaluation method and system disclosed in Patent Document 1 and the like.

そして、最近では、チャットのようなより柔軟な対話(より、タスク指向ではない対話、つまり非タスク指向型対話)を行うシステムの社会性やエンターテイメント性が注目され、研究が進められてきている。   Recently, attention has been paid to the sociality and entertainment of a system that performs a more flexible dialogue such as chat (more non-task-oriented dialogue, that is, non-task-oriented dialogue).

このような達成すべき目的をもたない非タスク指向型の対話の評価においては、タスクを達成するまでの時間や、達成率などで評価を行うことが適切でなく、前述の特許文献1の手法では十分ではない。   In the evaluation of such a non-task-oriented dialog having no purpose to be achieved, it is not appropriate to perform evaluation based on the time until the task is achieved or the achievement rate. The method is not enough.

この問題を解決するための非タスク指向型対話システムの評価手法として、特許文献2に開示された対話システム評価方法がある。この方法は、タグ付けされた雑談対話から隠れマルコフモデルを作成し、このモデルに基づき対話システムの対話の自然さを評価するものである。   As a method for evaluating a non-task-oriented dialog system for solving this problem, there is a dialog system evaluation method disclosed in Patent Document 2. This method creates a hidden Markov model from tagged chat conversations, and evaluates the naturalness of dialog system dialogue based on this model.

特開2004−272740号公報JP 2004-272740 A 特開2008−262523号公報JP 2008-262523 A

Dan Jurafsky,Liz Shriberg,and Debra Biasca,“Switchboard SWBD−DAMSL Shallow−Discourse−Function Annotation Coders Manual”,August 1,1997.Dan Jurafsky, Liz Shriberg, and Debra Biasca, “Switchboard SWBD-DAMSL Shallow-Discovery-Function Anoders Manual”, August 1. Allen E.Ivey and Mary Bradford Ivey,“Intentional Interviewing and Counseling:Facilitating Client Development in a Multicultural Society”,Brooks/Cole Publishing Company,2002.Allen E.M. Ivey and Mary Bradford Ivey, “Intentional Interviewing and Counseling: Facility Client Development in a Multicultural Society”, Brooks / ColePub.

対話システムにおいては、話者が聞き役と話し役にわかれ、聞き役は積極的に話し役の話を聞く対話のことを「聞き役対話」と呼ぶ。   In the dialogue system, a speaker is divided into a listener and a speaker, and the listener hears the talk of the speaker positively.

従来、特許文献2の対話評価システムように雑談から作成した隠れマルコフモデルを用いて対話を評価する方法はあった。しかし、聞き役対話に注目したものはなかった。傾聴ボランティアやカウンセリングが重要視される中、聞き役対話らしさを評価することは重要な課題である。   Conventionally, there has been a method for evaluating a dialog using a hidden Markov model created from chatting as in the dialog evaluation system of Patent Document 2. However, there was nothing that paid attention to the listener dialogue. While listening volunteers and counseling are regarded as important, it is an important issue to evaluate the level of dialogue among listeners.

また、特許文献2は、雑談から作成した単一の隠れマルコフモデルのみを用いて対話の評価を行っている。しかし、聞き役対話のような相手の話を聞くという行為は、雑談の中にも現れる。ゆえに、聞き役対話のデータからのみ作成した隠れマルコフモデルで聞き役対話らしさを評価すると、雑談らしさと聞き役らしさの混じったものを評価することになる。これでは、聞き役らしさそのものを評価できているとはいえない。   Further, Patent Document 2 evaluates a dialog using only a single hidden Markov model created from chat. However, the act of listening to the other party's story, such as a dialogue with the audience, also appears in the chat. Therefore, if you evaluate the likelihood of a dialogue with a hidden Markov model created only from the data of a dialogue with a dialogue, you will evaluate a mix of chatty and familiarity. In this, it cannot be said that the audibility itself is evaluated.

そこで、本発明は、予め収集した聞き役対話データと雑談データに基づき聞き役対話と雑談の隠れマルコフモデルを作成し、この両者のモデルからの評価対象の対話行為のデータ列の出力確率を比較することで、前記対話行為の聞き役対話らしさを評価する。   Therefore, the present invention creates a hidden Markov model of the interviewer dialogue and chat based on the interviewer conversation data and chat data collected in advance, and compares the output probabilities of the data strings of the dialogue actions to be evaluated from both models. Then, the likelihood of the dialogue of the dialogue act is evaluated.

本発明の聞き役対話評価装置の態様としては、対話システムにおける聞き役対話を評価する聞き役対話評価装置であって、対話システムにおいて予め収録した聞き役対話データの遷移状態をモデル化した聞き役対話の隠れマルコフモデルを作成する共に当該対話システムにおいて予め収録した雑談データの遷移状態をモデル化した雑談の隠れマルコフモデルを作成するモデル学習手段と、評価対象の対話データを前記聞き役対話の隠れマルコフモデルと前記雑談の隠れマルコフモデルとに適用して当該各モデルからの前記対話データのデータ列の出力確率を算出してこの両者の出力確率を比較することで前記評価対象の対話の聞き役対話らしさを評価する評価手段を備える。   As an aspect of the listening dialogue evaluation apparatus of the present invention, there is a listening dialogue evaluation device for evaluating a listening dialogue in a dialogue system, which is a hidden Markov model of a listening dialogue that models a transition state of listening dialogue data recorded in the dialogue system in advance. Model learning means for creating a hidden Markov model of chat that models the transition state of the chat data recorded in advance in the dialogue system, and the dialogue data to be evaluated for the hidden Markov model of the interviewer dialogue and the chat Evaluation means for applying to a hidden Markov model to calculate the output probability of the data string of the dialogue data from each model and comparing the output probabilities of the two to evaluate the likelihood of the dialogue of the dialogue to be evaluated Is provided.

また、本発明の聞き役対話評価方法の態様としては、対話システムにおける聞き役対話を評価する聞き役対話評価方法であって、モデル学習手段が対話システムにおいて予め収録した聞き役対話データの遷移状態をモデル化した聞き役対話の隠れマルコフモデルを作成する共に当該対話システムにおいて予め収録した雑談データの遷移状態をモデル化した雑談の隠れマルコフモデルを作成するステップと、評価手段が評価対象の対話データを前記聞き役対話の隠れマルコフモデルと前記雑談の隠れマルコフモデルとに適用して当該各モデルからの前記対話データのデータ列の出力確率を算出してこの両者の出力確率を比較することで前記評価対象の対話の聞き役対話らしさを評価するステップを有する。   In addition, as an aspect of the method for evaluating a listener dialogue according to the present invention, a method for evaluating a listener dialogue in a dialogue system, in which a model learning means models a transition state of listener dialogue data recorded in advance in the dialogue system. Creating a hidden Markov model of the interviewer dialogue and creating a hidden Markov model of the chat that models the transition state of the chat data pre-recorded in the dialogue system; Applying to the hidden Markov model and the hidden Markov model of the chat, calculating the output probability of the data string of the dialogue data from each model and comparing the output probabilities of the two, the listener of the dialogue of the evaluation target A step of evaluating the likelihood of interaction.

本発明は、前記聞き役対話評価装置を構成する各手段としてコンピュータを機能させる聞き役性能評価プログラムの態様とすることができる。   The present invention may be an aspect of a program for evaluating a listener's performance that causes a computer to function as each means constituting the listener's dialog evaluation apparatus.

したがって、以上の発明によれば、対話システムにおける聞き役らしさを客観的かつ定量的に評価できる。また、人同士の対話における聞き役らしさを評価にも利用することができるので、例えば、カウンセラーや傾聴ボランティアの技能評価に利用することができる。   Therefore, according to the above invention, it is possible to objectively and quantitatively evaluate the level of hearing in the dialogue system. In addition, since the ability to hear in dialogue between people can also be used for evaluation, it can be used for skill evaluation of counselors and listening volunteers, for example.

発明の実施形態に係る聞き役対話評価装置の概略構成図。BRIEF DESCRIPTION OF THE DRAWINGS The schematic block diagram of the listener dialog evaluation apparatus which concerns on embodiment of invention. 発明の実施形態に係る聞き役対話評価の手順を示したフローチャート。The flowchart which showed the procedure of the interviewer dialogue evaluation which concerns on embodiment of invention. 聞き役と話し役との対話から抜粋された対話行為の事例を示す図。The figure which shows the example of the dialogue act extracted from the dialogue between a listener and a speaker. 発明に係る聞き役対話評価装置の実施例によって算出された聞き役対話の隠れマルコフモデルの一例を示した図。The figure which showed an example of the hidden Markov model of the hearer dialog calculated by the Example of the hearer dialog evaluation apparatus which concerns on invention. 発明に係る聞き役対話評価装置の実施例によって算出された雑談の隠れマルコフモデルの一例を示した図。The figure which showed an example of the hidden Markov model of the chat calculated by the Example of the listener interaction evaluation apparatus which concerns on invention. 発明に係る聞き役対話評価装置の実施例による聞き役対話評価実行結果。The listening dialogue evaluation execution result by the Example of the listening dialogue evaluation apparatus which concerns on invention. 聞き役対話評価実行結果(図6の続き)。Listening dialogue evaluation execution result (continuation of FIG. 6). 聞き役対話評価実行結果(図7の続き)。Listening dialogue evaluation execution result (continuation of FIG. 7).

以下、図面を参照しながら発明の実施形態について説明する。   Hereinafter, embodiments of the invention will be described with reference to the drawings.

図1に示された発明の実施形態に係る聞き役対話評価装置1は、音声またはテキストの入力により与えられた対話ログに一連の処理を行い、その対話の聞き役対話らしさを判定する。聞き役対話評価装置1は予め聞き役対話と雑談とを収集したデータに対話行為のタグ付けを行い、聞き役対話と雑談の対話を隠れマルコフモデル(Hidden Markov Model:以下、HMMと称する)によりモデル化する。そして、聞き役対話から作成したHMMと雑談から作成したHMMのそれぞれから評価対象の対話行為のタグが出力される確率(出力確率)を比較することで、聞き役対話らしさを判定する。聞き役対話は雑談の要素を含んでいるため、聞き役対話から作成したHMMだけ使う手法では聞き役対話らしさを判定することは難しいが、聞き役対話と雑談のそれぞれのHMMを使うことによって、雑談と聞き役対話の差異を明確に判定することができる。これにより、対話システムにおける客観的な聞き役の対話性能の評価が実現する。   The listener dialogue evaluation apparatus 1 according to the embodiment of the invention shown in FIG. 1 performs a series of processing on a dialogue log given by voice or text input, and determines the likelihood of the dialogue as a listener dialogue. The interviewer dialogue evaluation apparatus 1 tags dialogue data to collected data of interviewer dialogues and chats in advance, and models the interviewer dialogues and chat dialogues using a hidden Markov model (hereinafter referred to as HMM). . Then, by comparing the probabilities (output probabilities) that the tag of the dialogue act to be evaluated is output from each of the HMM created from the conversation and the HMM created from the chat, the likelihood of the hearing dialogue is determined. Since the interviewer dialogue contains elements of chat, it is difficult to determine the likelihood of the interviewer dialogue with the method using only the HMM created from the interviewer dialogue. Can be clearly determined. As a result, the evaluation of the dialogue performance of the objective listener in the dialogue system is realized.

聞き役対話評価装置1はHMM学習部30と聞き役対話評価部60とを備えている。HMM学習部30及び聞き役対話評価部60は少なくともHMMの主要アルゴリズム(Viterbiアルゴリズム、前向きアルゴリズム、Baum−Welchアルゴリズム等)に基づく演算機能を有している。   The listening dialogue evaluation device 1 includes an HMM learning unit 30 and a listening dialogue evaluation unit 60. The HMM learning unit 30 and the listener interaction evaluation unit 60 have at least a calculation function based on HMM main algorithms (Viterbi algorithm, forward algorithm, Baum-Welch algorithm, etc.).

HMM学習部30は対話システムにおいて予め収録した聞き役対話データ10の遷移状態をモデル化した聞き役対話HMM40を作成する共に当該対話システムにおいて予め収録した雑談データ20の遷移状態をモデル化した雑談HMM50を作成する。   The HMM learning unit 30 creates a talker dialogue HMM 40 that models the transition state of the interviewer dialogue data 10 recorded in advance in the dialogue system, and creates a chat HMM 50 that models the transition state of the chat data 20 recorded in advance in the dialogue system. To do.

また、聞き役対話データ10及び雑談データ20はデータ列毎に対話行為を示すタグが付与されることで、対話行為が反映された聞き役対話HMM40及び雑談HMM50がHMM学習部30によって生成される。   Further, the HMM learning unit 30 generates a listener dialogue HMM 40 and a chat HMM 50 reflecting the dialogue action by attaching a tag indicating the dialogue action to each data string in the listener dialogue data 10 and the chat data 20.

すなわち、HMM学習部30は、予め収録した一方が聞き役となって進行する対話(以下、聞き役対話)と聞き役・話し役を分けずに進行する対話(以下、雑談)について対話の段階毎に対話行為を示すタグとして「対話行為タグ」がラベル付けされた学習データ(聞き役対話データ10、雑談対話データ20)の入力を受ける。そして、各対話行為の状態へ遷移する確率をHMMによってモデル化した聞き役HMM40と雑談HMM50を生成する。HMM40,50の生成には前記主要アルゴリズムの一つであるEMアルゴリズム(Baum−Welchアルゴリズム)が適用される。   In other words, the HMM learning unit 30 performs dialogue for each stage of dialogue that proceeds with one recorded in advance as a listener (hereinafter referred to as “listener dialogue”) and a dialogue that proceeds without dividing the listener / speaker (hereinafter referred to as “chat”). The learning data (listener dialogue data 10 and chat dialogue data 20) labeled with “dialogue action tag” as an action tag is received. Then, a hearing person HMM 40 and a chat HMM 50 in which the probability of transition to the state of each dialogue action is modeled by the HMM are generated. An EM algorithm (Baum-Welch algorithm), which is one of the main algorithms, is applied to the generation of the HMMs 40 and 50.

「聞き役対話」及び「雑談」は、発話の形態が音声である場合には、周知の自動音声認識技術や人手による書き起こしによって、予めテキスト化しておく。   When the utterance form is speech, the “listener dialogue” and “chat” are preliminarily converted into text by a well-known automatic speech recognition technique or human transcription.

「対話行為タグ」としては、例えば、以下に定義される「自己開示」、「情報提供」、「相槌」、「質問、「共感」、「挨拶」等が挙げられる。   Examples of the “dialogue action tag” include “self-disclosure”, “information provision”, “conformity”, “question,“ sympathy ”,“ greeting ”and the like defined below.

自己開示:嗜好や感情を開示している発話。(例)私は映画を見るのが好きなんです。   Self-disclosure: Utterances that disclose preferences and emotions. (Example) I like watching movies.

情報提供:客観的な情報を伝えている発話。(例)レッドクリフにはトニーレオンがでてますよ。   Information provision: An utterance that conveys objective information. (Example) Tony Leon appears in Redcliffe.

相槌:対話相手の発話を促す。(例)うんうん。   Aiso: Encourage dialogue partners to speak. (Example) Yeah.

質問:相手の返答を期待した発話。(例)他にどんな映画が好きなんですか?。   Question: An utterance that expects the other's response. (Example) What other movies do you like? .

共感:共感した発話や、相手への励ましなど。(例)私もトニーレオンが大好きなんです。   Empathy: sympathetic utterances, encouragement of others, etc. (Example) I also love Tony Leon.

挨拶:対話の最初と最後に見られる社会的な発話。(例)こんにちは。   Greeting: Social utterances seen at the beginning and end of the dialogue. (Example) Hello.

対話の段階毎の「対話行為タグ」のタグ付けの方法は手入力によるものまたは自動的なものがある。自動的な方法としては、例えば、CRF(Conditional Random Fields)などの系列ラベリングの手法を用いることである程度の学習データからラベル付を自動化する方法がある。以上のタグ付けの方法は聞き役対話評価部60に供される対話ログデータ70への対話行為タグの付与にも適用すればよい。   The tagging method of “dialogue action tag” for each stage of dialogue may be manual input or automatic. As an automatic method, for example, there is a method of automating labeling from a certain amount of learning data by using a sequence labeling method such as CRF (Conditional Random Fields). The above tagging method may be applied to the addition of a dialogue action tag to the dialogue log data 70 provided to the listener dialogue evaluation unit 60.

聞き役対話評価部60は、評価対象である被評価対話90の対話ログデータ70を聞き役対話HMM40と雑談HMM50とに適用してHMM40,50からの対話ログデータ70のデータ列の出力確率を算出してこの両者の出力確率を比較することで被評価対話90の聞き役対話らしさを評価する。   The interviewer dialogue evaluation unit 60 calculates the output probability of the data string of the dialogue log data 70 from the HMMs 40 and 50 by applying the dialogue log data 70 of the evaluated dialogue 90 to be evaluated to the interviewer dialogue HMM 40 and the chat HMM 50. By comparing the output probabilities of the two, the likelihood of the dialogue of the evaluated dialogue 90 is evaluated.

また、対話ログデータ70は聞き役対話データ10及び雑談データ20と同様にデータ列毎に対話行為を示すタグが付与されることで、対話行為が反映された被評価対話90の聞き役対話らしさの評価が聞き役対評価部60によって実行される。対話ログデータ70はデータ10,20と同様に対話の音声またはテキストから得られたものである。データ70の元となる発話が音声である場合には前記インスタントメッセンジャー機能によってテキスト化される。   In addition, the dialogue log data 70 is provided with a tag indicating a dialogue action for each data string in the same manner as the interviewer dialogue data 10 and the chat data 20, thereby evaluating the likelihood of the dialogue of the evaluated dialogue 90 reflecting the dialogue act. Is executed by the listener pair evaluation unit 60. The dialog log data 70 is obtained from the voice or text of the dialog as in the data 10 and 20. When the utterance that is the basis of the data 70 is voice, it is converted into text by the instant messenger function.

すなわち、聞き役対話評価部60は、評価したい対話ログデータ70の対話行為タグの系列を、HMM学習部30で生成した聞き役HMM40と雑談HMM50の各モデルに適用する。そして、その対話行為タグの系列が聞き役HMM40と雑談HMM50のそれぞれから出力される確率を算出する。これらの確率の算出には前記主要アルゴリズムであるViterbiアルゴリズム、前向きアルゴリズムが適用される。そして、この算出した聞き役対話HMMにおける出力確率Pkと雑談HMMにおける出力確率Pzとから「聞き役らしさ」の指標を表すスコアSである聞き役対話スコア80をS=log(Pk)−log(Pz)の演算によって算出して出力する。 That is, the interviewer dialogue evaluation unit 60 applies the series of dialogue action tags of the dialogue log data 70 to be evaluated to the models of the interviewer HMM 40 and the chat HMM 50 generated by the HMM learning unit 30. Then, the probability that the series of dialogue action tags is output from each of the interviewer HMM 40 and the chat HMM 50 is calculated. For the calculation of these probabilities, the Viterbi algorithm and the forward algorithm, which are the main algorithms, are applied. Then, based on the calculated output probability P k in the hearer dialogue HMM and output probability P z in the chat HMM, a hearer dialogue score 80 which is a score S representing an index of “hearing likelihood” is set as S = log (P k ) −log ( Pz ) is calculated and output.

図2のフローチャートを参照しながら本実施形態に係る聞き役対話の評価手順と各手順の具体的な実施例について説明する。   With reference to the flowchart of FIG. 2, a hearing dialogue evaluation procedure according to this embodiment and specific examples of each procedure will be described.

S1:聞き役対話の評価に先立ち、聞き役対話と雑談が収録され、聞き役対話データ10と雑談データ20が予め作成される。   S1: Prior to evaluation of the interviewer dialogue, the interviewer dialogue and chat are recorded, and the interviewer dialogue data 10 and chat data 20 are created in advance.

S1の実施例では次のような流れによりデータを収録した。本実施例のデータ収集参加者は計16人として、8人を聞き役とし、残り8人を話し役とした。男女比は半々とし、年齢は、21〜29歳であった。それぞれの実験参加者には最初に2対話雑談を行い、その後2対話聞き役対話を行い、計4対話行ってもらった。全部で32対話収集した。   In the embodiment of S1, data was recorded according to the following flow. A total of 16 participants in the data collection of this example, 8 were listening and the remaining 8 were speaking. The male-female ratio was halved, and the age was 21-29 years old. Each experiment participant first had two dialogue chats, then two dialogue listener dialogues, for a total of four dialogues. A total of 32 dialogues were collected.

雑談を収録する際には、その後に割り振られる役割について実験参加者には知らせていない。雑談収録後にそれぞれの役割について知らせている。また、収録前、収録中を通して、実験参加者は対話の相手とは顔を合わせることはないように、聞き役と話し役は別々の部屋で収録を行った。   When recording the chat, the participants are not informed about the roles assigned to them afterwards. After the chat recording, we inform each role. Before and during the recording, the listener and the speaker were recorded in separate rooms so that the participants did not face each other.

聞き役対話の例として図3に示したような対話が収録された。図3では聞き役(L)が話し役(S)に繰り返し質問をすることで話し役の自己開示を促している。   The dialogue shown in Fig. 3 was recorded as an example of the interviewer dialogue. In FIG. 3, the speaker (L) repeatedly asks the speaker (S) questions to encourage self-disclosure of the speaker.

また、実験開始前に、実験者が用意した複数のトピックの中から好きなトピックを選んでもらい、それぞれの実験参加者が好きなトピックについて、30分間チャットを行った。トピックは、食べ物、旅行、映画、音楽、芸能人、スポーツ、健康、家事および育児、パソコンおよびインターネット、動物、ファッション、ゲームとした。   Prior to the start of the experiment, a favorite topic was selected from a plurality of topics prepared by the experimenter, and each experiment participant chatted for 30 minutes on the favorite topic. Topics included food, travel, movies, music, entertainers, sports, health, housework and childcare, computers and the Internet, animals, fashion, and games.

表1は収集した対話数、発話数、一発話あたりの聞き役と話し役の平均単語数を示している。聞き役対話での発話は雑談発話より長く話している。実験参加者が自分自身を理解してもらうためにより詳しく自分自身について述べているためと思われる。   Table 1 shows the number of conversations collected, the number of utterances, and the average number of listeners and spoken words per utterance. The utterances in the listener dialogue are longer than the chat utterances. This seems to be because the participants in the experiment described themselves more in detail to help them understand themselves.

Figure 0005150583
Figure 0005150583

また、それぞれの対話の後には、実験参加者にはアンケートに答えてもらい、対話の満足度や対話の相手に対してどの程度自分のことを話すことができたかなどを、10段階のリッカート尺度で測った。このアンケート結果によると、聞き役対話では話し役は雑談にくらべて、満足度を下げることなく、「聞いてもらえている」という感覚を得ることができていた(Welch’s pairwise t−test;p=0.016)。これは、実験参加者が、聞き役としての役割を行えていることとともに、収集した聞き役対話の特徴を分析することには意味があるということを示している。   In addition, after each dialogue, the experiment participants were asked to answer a questionnaire, and the satisfaction level of the dialogue and how much they were able to speak to the other party of the dialogue, etc. Measured at. According to the results of this questionnaire, the speaker was able to get a feeling of “being heard” without lowering the level of satisfaction compared to the chat (Welch's pairwise t-test; p = 0.016). This indicates that it is meaningful to analyze the characteristics of the collected interviewer dialogues as well as the role of the participants in the experiment.

S2:S1で収集した聞き役対話データ10と雑談データ20の対話ログに対して対話行為タグとして前記定義された「自己開示」「情報提供」「相槌」「質問」「共感」「挨拶」のいずれかが対話ログの一文ずつに付与される。一文とは、基本的に読点、若しくは一発話終了時を切れ目としたものであり、一文と思われるものの途中で発話が終了している場合や、読点が適切に挿入されていない場合は、アノテータ(タグ付与者)に適切な文区切りを決定してもらった。   S2: Any of “self-disclosure”, “information provision”, “conformity”, “question”, “sympathy”, and “greeting” defined as dialogue action tags for the dialogue logs of the interviewer dialogue data 10 and chat data 20 collected in S1. Is added to each sentence of the dialogue log. A single sentence is basically a punctuation mark or a break at the end of a single utterance. If the utterance has ended in the middle of a single sentence, or a punctuation mark has not been inserted properly, an annotator (Tag giver) decided the appropriate sentence break.

これらのタグは、一般的な対話のタグ付を行うために作られたDAMSLタグセット(非特許文献1)と、セラピー対話用のタグセット(非特許文献2)を参考にした。   For these tags, a DAMSL tag set (Non-patent Document 1) created for tagging a general dialog and a tag set for therapy dialog (Non-patent Document 2) were referred to.

アノテータがそれぞれの発話文に7つのタグ(6つの対話行為タグと“その他”タグ)をつけた。結果として、1177個のタグが聞き役対話に、1312個のタグが雑談に付与された。タグの数と発話数が一致しないのは、テキスト対話であるという性質上一発話が長いため、一文毎にタグをつけたためである。   The annotator added seven tags (six dialog act tags and "other" tag) to each utterance. As a result, 1177 tags were assigned to the listener dialogue and 1312 tags were assigned to the chat. The reason why the number of tags and the number of utterances do not match is that a tag is attached to each sentence because one utterance is long due to the nature of text dialogue.

S3:HMM学習部30はS2で対話行為タグが付与された聞き役対話データ10及び雑談データ20を用いてHMMを学習することにより、聞き役対話データ10から聞き役対話HMM40を、雑談データ20から雑談HMM50を作成する。   S3: The HMM learning unit 30 learns the HMM by using the interviewer dialogue data 10 and the chat data 20 to which the dialogue action tag is assigned in S2, so that the interviewer dialogue HMM 40 is obtained from the interviewer dialogue data 10, and the chat HMM 50 is obtained from the chat data 20. Create

S3の実施例では対話行為タグの系列を学習データとし、前記主要アルゴリズムとしてEMアルゴリズムを用いてHMMの学習を行った。最も状態数が少なく最適なHMMを見つけるために、状態数を1〜10個と変動させ、それぞれの状態数で100個のHMM、計1000個のHMMを学習した。これは、HMMは初期確率に依存して学習結果が変わるためである。この1000個のHMMからMDL(Minimum Description Length)尺度を用いて最適なHMMを1つ選ぶ。7つの発話行為タグを聞き役と話し役それぞれを別の観測値として考え、計14個の観測値を用いて、モデリングした。具体的には、観測値は次の14個である。
(0)聞き役_自己開示
(1)聞き役_情報提供
(2)聞き役_相槌
(3)聞き役_質問
(4)聞き役_共感
(5)聞き役_挨拶
(6)聞き役_その他
(7)話し役_自己開示
(8)話し役_情報提供
(9)話し役_相槌
(10)話し役_質問
(11)話し役_共感
(12)話し役_挨拶
(13)話し役_その他
2つの方法を用いてHMMの分析を行った。すなわち、状態の半分は、話し手の談話行為タグしか出力せず、残り半分は聞き手の談話行為タグしか出力しないようにし、状態の遷移はすべての状態へ可能として学習した。
In the embodiment of S3, a series of dialogue action tags is used as learning data, and HMM learning is performed using an EM algorithm as the main algorithm. In order to find the optimum HMM with the fewest number of states, the number of states was varied from 1 to 10, and 100 HMMs in each state number, a total of 1000 HMMs, were learned. This is because the learning result of the HMM changes depending on the initial probability. One optimal HMM is selected from the 1000 HMMs using an MDL (Minimum Description Length) scale. Seven utterance action tags were modeled using a total of 14 observations, considering the listener and the speaker as separate observations. Specifically, the observed values are the following 14 items.
(0) Interviewer_Self Disclosure (1) Interviewer_Information Provision (2) Interviewer_Aoi (3) Interviewer_Question (4) Interviewer_Empathy (5) Interviewer_Greeting (6) Interviewer_Other (7) Talker_ Self-disclosure (8) Talking _ Information provision (9) Talking _ Aoi (10) Talking _ Question (11) Talking _ Empathy (12) Talking _ Greeting (13) Talking _ Other Use two methods HMM was analyzed. That is, only half of the state outputs only the speaker's discourse act tag, and the other half outputs only the listener's discourse act tag, and learning is made that state transition is possible to all states.

S3での学習結果である聞き役対話HMM、雑談HMMを図4、図5にそれぞれ示した。   Listening dialogue HMM and chat HMM, which are learning results in S3, are shown in FIGS. 4 and 5, respectively.

図4、図5において、楕円型モデルで示した状態(1)〜(6)には、発話者とその発話行為及びその観測確率が記載されており、“発話者:発話行為タグ:確率”の順で示されている。Lは「聞き役」、Sは「話し役」、Greetingは「挨拶」、Self−disclosureは「自己開示」、Questionは「質問」、Ackは「相槌」を表している。また、図4、図5に記載の矢印に付された数値は同一状態での遷移確率または二つの異なる状態の間での遷移確率を示す。観測確率と遷移確率は0.1以上のもののみを示している。例えば、図4に示された状態(1)における“L:Greeting:0.888”は聞き役の「挨拶」の観測確率が0.888であることを表している。   4 and 5, states (1) to (6) indicated by the elliptic model describe the speaker, the speech action thereof, and the observation probability thereof, and “speaker: speech action tag: probability”. It is shown in order. L represents "listener", S represents "speaker", Greeting represents "greeting", Self-disclosure represents "self-disclosure", Question represents "question", and Ack represents "confidence". Moreover, the numerical value attached | subjected to the arrow of FIG. 4, FIG. 5 shows the transition probability in the same state, or the transition probability between two different states. Only the observation probability and transition probability are 0.1 or more. For example, “L: Greeting: 0.888” in the state (1) shown in FIG. 4 indicates that the observation probability of the “greeting” of the listener is 0.888.

S4:評価対象の対話90を収録し、一文ずつにS2の対話行為タグと同様のタグを付与し、タグ系列の対話ログデータ80が作成される。S4の実施例でのタグ付けは手入力で行った。   S4: The dialogue 90 to be evaluated is recorded, a tag similar to the dialogue act tag of S2 is assigned to each sentence, and tag series dialogue log data 80 is created. Tagging in the example of S4 was performed manually.

S5:聞き役対話評価部60は、対話ログデータ70のタグ系列が出力される確率を聞き役対話HMM40、雑談HMM50のそれぞれから算出し、これらの算出された確率を下記式による演算に供して聞き役対話スコア80を算出する。   S5: The interviewer dialogue evaluation unit 60 calculates the probability that the tag sequence of the dialogue log data 70 is output from each of the interviewer dialogue HMM 40 and the chat HMM 50, and uses these calculated probabilities for the calculation according to the following formula. Score 80 is calculated.

S=log(Pk)−log(Pz
S:聞き役対話スコア80
k:聞き役対話HMM40から算出された対話ログデータ70のタグ系列の出力確率
z:雑談HMM50から算出された対話ログデータ70のタグ系列の出力確率
上記算出された聞き役対話スコア80が大きければ大きいほど、「聞き役対話らしい」と判定される。逆に、小さければ小さいほど、「雑談に近い」と判定される。
S = log (P k ) −log (P z )
S: Interviewer score 80
P k : Output probability of the tag sequence of the dialogue log data 70 calculated from the interviewer dialogue HMM 40 P z : Output probability of the tag sequence of the dialogue log data 70 calculated from the chat HMM 50 If the calculated interviewer dialogue score 80 is large, The larger it is, the more likely it is to be “listening dialogue”. On the contrary, it is determined that the smaller the value is, the closer to chat.

S5の実施例である演算実行結果(聞き役対話識別実行結果)を図6〜図8に示した。ここでは、聞き役対話8つ、雑談8つから作成したHMMに、聞き役対話8つ、雑談対話8つの出力確率を算出し、聞き役スコアSを計算している。   FIG. 6 to FIG. 8 show the calculation execution result (listening dialogue identification execution result) which is the embodiment of S5. Here, the output probabilities of 8 interview dialogues and 8 chat dialogues are calculated for the HMM created from 8 interview dialogues and 8 chats, and the interviewer score S is calculated.

図6〜図8において、「seq」の行から「kikiyaku ratio」の行までが、ひとつの対話の識別結果を示しており、「seq」は、1対話の開始時から終了時までのタグの系列を表しており、HMM学習時に用いた14個の観測値を数値として表現している。図示された実行結果内の「0」〜「13」は手順S3の観測値(0)〜(13)にそれぞれ対応する。「kikiyaku prob」は聞き役対話HMMからの出力確率、「zatudan prob」は雑談HMMからの出力確率である。また、「kikiyaku ratio」は聞き役スコアSを表している。   6 to 8, the line from “seq” to “kikiyaku ratio” shows the identification result of one dialogue, and “seq” is the tag from the start to the end of one dialogue. A series is represented, and 14 observation values used at the time of HMM learning are expressed as numerical values. “0” to “13” in the illustrated execution result correspond to the observation values (0) to (13) in step S3, respectively. “Kikiyaku prob” is the output probability from the listener dialogue HMM, and “zatadan prob” is the output probability from the chat HMM. Further, “kikiyaku ratio” represents a hearing score S.

聞き役対話には0以上の値、雑談には0以下の値が算出されており、それぞれの特徴を評価した判別が行えているといえる。   A value greater than or equal to 0 is calculated for the interviewer dialogue, and a value of 0 or less is calculated for the chat.

人は聞いてもらうことで、話したいという欲求を満足され、心的状態が良好に保つことができる。以上の説明から明らかなように本発明に係る聞き役対話評価装置1は、聞き役対話スコアが高いほど聞き役らしい対話を行えていると評価しているので、人同士の対話が聞き役対話らしいであるかどうかの判別が行える。   By listening, people are satisfied with their desire to speak and can maintain a good mental state. As is clear from the above description, the listener dialogue evaluation apparatus 1 according to the present invention evaluates that the dialogue that seems to be a hearer can be performed as the hearer dialogue score is high. Can be determined.

したがって、聞き役対話の客観的な評価が行える。また、カウンセラーや傾聴ボランティアを行う人々の技能向上に役に立つ。さらに、聞き役となるシステムを開発する場合、評価コストの削減ができる。   Therefore, an objective evaluation of the interviewer dialogue can be performed. It is also useful for improving the skills of counselors and listening volunteers. Furthermore, when developing a system to be a listener, the evaluation cost can be reduced.

以上の聞き役対話評価装置1を構成する機能手段30,60は、コンピュータのハードウェアリソース、例えばCPU、メモリ(RAM)、ハードディスク装置、通信デバイス等によって構成できる。すなわち、機能手段30,60はCPUとプログラムとの協働によって実現できる。また、データ10,20,70,80はハードディスク装置やサーバ装置に例示される記録手段に一時的に格納すればよい。機能手段30から出力されるデータや機能手段60から出力されるデータは表示装置を介して適宜に出力表示される。   The functional means 30 and 60 that constitute the above-described hearing aid evaluation apparatus 1 can be constituted by computer hardware resources such as a CPU, a memory (RAM), a hard disk device, and a communication device. That is, the functional units 30 and 60 can be realized by cooperation between the CPU and the program. The data 10, 20, 70, 80 may be temporarily stored in a recording unit exemplified by a hard disk device or a server device. The data output from the function unit 30 and the data output from the function unit 60 are appropriately output and displayed via the display device.

また、本発明は機能手段30,60をコンピュータに実現させる文書格納プログラムまたはこれを記録したコンピュータ読み取り可能な記録媒体の態様としてコンピュータのCPU(MPU)が当該プログラムを読み出し実行することで実現できる。この場合、記録媒体から読み出されたプログラム自体が上述した実施の形態の機能を実現することになり、そのプログラムを記憶した記録媒体、例えばCD−ROM、DVD−ROM、CD−R、MO、HDD等は本発明を構成する。   Further, the present invention can be realized by a computer CPU (MPU) reading and executing the program as a document storage program for causing the computer to realize the functional units 30 and 60 or a computer-readable recording medium recording the program. In this case, the program itself read from the recording medium realizes the functions of the above-described embodiment, and the recording medium storing the program, for example, a CD-ROM, DVD-ROM, CD-R, MO, An HDD or the like constitutes the present invention.

1…聞き役対話評価装置
10…聞き役対話データ
20…雑談データ
30…HMM(隠れマルコフモデル)学習部(モデル学習手段)
40…聞き役対話HMM
50…雑談HMM
60…聞き役対話評価部(評価手段)
70…対話ログデータ
80…聞き役対話スコア
DESCRIPTION OF SYMBOLS 1 ... Interviewer evaluation apparatus 10 ... Interviewer data 20 ... Chat data 30 ... HMM (Hidden Markov Model) learning part (model learning means)
40 ... HMM
50 ... Chat HMM
60 ... Interviewer evaluation section (evaluation means)
70 ... Dialogue log data 80 ... Interviewer dialogue score

Claims (9)

対話システムにおける聞き役対話を評価する聞き役対話評価装置であって、
対話システムにおいて予め収録した聞き役対話データの遷移状態をモデル化した聞き役対話の隠れマルコフモデルを作成する共に当該対話システムにおいて予め収録した雑談データの遷移状態をモデル化した雑談の隠れマルコフモデルを作成するモデル学習手段と、
評価対象の対話データを前記聞き役対話の隠れマルコフモデルと前記雑談の隠れマルコフモデルとに適用して当該各モデルからの前記対話データのデータ列の出力確率を算出してこの両者の出力確率を比較することで前記評価対象の対話の聞き役対話らしさを評価する評価手段と
を備えたこと
特徴とする聞き役対話評価装置。
A listener dialogue evaluation apparatus for evaluating a listener dialogue in a dialogue system,
Create a hidden Markov model of the interviewer model that models the transition state of the interviewer conversation data recorded in advance in the dialog system and create a hidden Markov model of the chat model that models the transition state of the chat data recorded in the dialog system in advance Model learning means,
The dialogue data to be evaluated is applied to the hidden Markov model of the interviewer dialogue and the hidden Markov model of the chat to calculate the output probability of the data string of the dialogue data from each model and compare the output probabilities of the two And an evaluation means for evaluating the likelihood of the dialog of the dialogue to be evaluated.
前記評価手段は、前記両者の出力確率の対数差に基づき前記聞き役対話らしさを評価すること
を特徴とする請求項1に記載の聞き役対話評価装置。
2. The apparatus for evaluating a listener interaction according to claim 1, wherein the evaluation unit evaluates the likelihood of the speaker interaction based on a logarithmic difference between the output probabilities of the two.
前記モデル学習手段は、前記聞き役対話データのデータ列毎に対話行為を示すタグが付与されたものに基づき前記聞き役対話の隠れマルコフモデルを作成すると共に、前記雑談データのデータ列毎に対話行為を示すタグが付与されたものに基づき前記雑談の隠れマルコフモデルを作成すること
を特徴とする請求項1または2に記載の聞き役対話評価装置。
The model learning means creates a hidden Markov model of the interviewer dialogue based on a tag that indicates an interaction act for each data sequence of the interviewer dialogue data, and performs an interaction act for each data sequence of the chat data. The listening dialogue evaluation apparatus according to claim 1 or 2, wherein a hidden Markov model of the chat is created based on a tag to which the tag is indicated.
前記評価手段は、評価対象の対話データのデータ列毎に対話行為を示すタグが付与されたものを前記聞き役対話の隠れマルコフモデルと前記雑談の隠れマルコフモデルとに適用して当該各モデルからの前記対話データのデータ列の出力確率を算出すること
を特徴とする請求項3に記載の聞き役対話評価装置。
The evaluation means applies a tag that indicates a dialogue action for each data string of dialogue data to be evaluated to the hidden Markov model of the interviewer dialogue and the hidden Markov model of the chat, from each model. The listening dialogue evaluation apparatus according to claim 3, wherein an output probability of a data string of the dialogue data is calculated.
対話システムにおける聞き役対話を評価する聞き役対話評価方法であって、
モデル学習手段が対話システムにおいて予め収録した聞き役対話データの遷移状態をモデル化した聞き役対話の隠れマルコフモデルを作成する共に当該対話システムにおいて予め収録した雑談データの遷移状態をモデル化した雑談の隠れマルコフモデルを作成するステップと、
評価手段が評価対象の対話データを前記聞き役対話の隠れマルコフモデルと前記雑談の隠れマルコフモデルとに適用して当該各モデルからの前記対話データのデータ列の出力確率を算出してこの両者の出力確率を比較することで前記評価対象の対話の聞き役対話らしさを評価するステップと
を有すること
特徴とする聞き役対話評価方法。
A listener dialogue evaluation method for evaluating a listener dialogue in a dialogue system,
Hidden Markov model of conversational conversation modeled by the model learning means modeled transition state of conversational conversation data pre-recorded in the interactive system while creating a hidden Markov model of conversational conversation modeled in advance Creating a model,
The evaluation means applies the dialogue data to be evaluated to the hidden Markov model of the interviewer dialogue and the hidden Markov model of the chat to calculate the output probability of the data string of the dialogue data from each model, and outputs both And evaluating the likelihood of the dialogue of the dialogue to be evaluated by comparing the probabilities.
前記評価のステップでは、前記両者の出力確率の対数差に基づき前記聞き役対話らしさを評価すること
を特徴とする請求項5に記載の聞き役対話評価方法。
6. The method for evaluating a listener interaction according to claim 5, wherein, in the step of evaluating, the likelihood of the speaker interaction is evaluated based on a logarithmic difference between the output probabilities of the two.
前記聞き役対話の隠れマルコフモデルと前記雑談の隠れマルコフモデルとを作成するステップでは、前記聞き役対話データのデータ列毎に対話行為を示すタグが付与されたものに基づき前記聞き役対話の隠れマルコフモデルを作成する共に、前記雑談データのデータ列毎に対話行為を示すタグが付与されたものに基づき前記雑談の隠れマルコフモデルを作成すること
を特徴とする請求項5または6に記載の聞き役対話評価方法。
In the step of creating the hidden Markov model of the interviewer dialogue and the hidden Markov model of the chat, the hidden Markov model of the interviewer dialogue is generated based on a tag indicating a dialogue action for each data string of the interviewer dialogue data. 7. The method for evaluating a listener's dialogue according to claim 5 or 6, wherein a hidden Markov model for the chat is created based on the chat data having a tag indicating a dialogue action for each data string of the chat data. .
前記評価のステップでは、評価対象の対話データのデータ列毎に対話行為を示すタグが付与されたものを前記聞き役対話の隠れマルコフモデルと前記雑談の隠れマルコフモデルとに適用して当該各モデルからの前記対話データのデータ列の出力確率を算出すること
を特徴とする請求項7に記載の聞き役対話評価方法。
In the evaluation step, each of the data strings of the interaction data to be evaluated is applied with a hidden Markov model of the interviewer dialogue and a hidden Markov model of the chat by applying a tag indicating a dialogue action. 8. The method for evaluating a listener dialogue according to claim 7, wherein an output probability of a data string of the dialogue data is calculated.
請求項1から4のいずれか1項に記載の聞き役対話評価装置を構成する各手段としてコンピュータを機能させる聞き役対話評価プログラム。   A program for evaluating a dialogue with a listener for causing a computer to function as each means constituting the apparatus for evaluating a dialogue with a listener according to any one of claims 1 to 4.
JP2009192875A 2009-08-24 2009-08-24 Interviewer evaluation device, Interviewer evaluation method, Interviewer evaluation program Active JP5150583B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009192875A JP5150583B2 (en) 2009-08-24 2009-08-24 Interviewer evaluation device, Interviewer evaluation method, Interviewer evaluation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009192875A JP5150583B2 (en) 2009-08-24 2009-08-24 Interviewer evaluation device, Interviewer evaluation method, Interviewer evaluation program

Publications (2)

Publication Number Publication Date
JP2011044060A JP2011044060A (en) 2011-03-03
JP5150583B2 true JP5150583B2 (en) 2013-02-20

Family

ID=43831437

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009192875A Active JP5150583B2 (en) 2009-08-24 2009-08-24 Interviewer evaluation device, Interviewer evaluation method, Interviewer evaluation program

Country Status (1)

Country Link
JP (1) JP5150583B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200401794A1 (en) 2018-02-16 2020-12-24 Nippon Telegraph And Telephone Corporation Nonverbal information generation apparatus, nonverbal information generation model learning apparatus, methods, and programs

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004272740A (en) * 2003-03-11 2004-09-30 Fujitsu Ltd Interactive system evaluation method and system
JP2008262523A (en) * 2007-04-11 2008-10-30 Univ Nagoya Interactive system evaluation method
EP2012304B1 (en) * 2007-07-06 2012-09-05 Zero To One Technology Methods for electronically analysing a dialogue and corresponding systems

Also Published As

Publication number Publication date
JP2011044060A (en) 2011-03-03

Similar Documents

Publication Publication Date Title
US20230031521A1 (en) Automated assistants that accommodate multiple age groups and/or vocabulary levels
McFarland et al. Making the connection: Social bonding in courtship situations
Meguro et al. Learning to control listening-oriented dialogue using partially observable markov decision processes
US9900436B2 (en) Coordinating voice calls between representatives and customers to influence an outcome of the call
Babel Dialect divergence and convergence in New Zealand English
Manson et al. Convergence of speech rate in conversation predicts cooperation
JP5286062B2 (en) Dialogue device, dialogue method, dialogue program, and recording medium
Lamerichs et al. Reflecting on your own talk: The discursive action method at work
Moisio et al. Lahjoita puhetta: a large-scale corpus of spoken Finnish with some benchmarks
Fox et al. An evaluation of expedited transcription methods for school-age children's narrative language: automatic speech recognition and real-time transcription
Southwell et al. Challenges and Feasibility of Automatic Speech Recognition for Modeling Student Collaborative Discourse in Classrooms.
Schmitt et al. Towards adaptive spoken dialog systems
Chukharev‐Hudilainen et al. The development and evaluation of interactional competence elicitor for oral language assessments
Sørensen Affiliating in second position: response tokens with rising pitch in Danish
Wada et al. The use of structural priming and focused recasts to facilitate the production of subject-and object-focused relative clauses by school-age children with and without developmental language disorder
JP6570465B2 (en) Program, apparatus, and method capable of estimating participant's contribution by key words
Penry Williams Appeals to Semiotic Registers in Ethno‐Metapragmatic Accounts of Variation
Ward et al. A study in responsiveness in spoken dialog
Meguro et al. Analysis of listening-oriented dialogue for building listening agents
Saito et al. STUDIES: Corpus of Japanese empathetic dialogue speech towards friendly voice agent
JP5281527B2 (en) Interactive personality feature determination apparatus and method, and program
Finlay et al. " Actually I Was the Star": Managing Attributions in Conversation
Le Bigot et al. Investigating memory constraints on recall of options in interactive voice response system messages
JP5150583B2 (en) Interviewer evaluation device, Interviewer evaluation method, Interviewer evaluation program
Onishi et al. Modeling japanese praising behavior by analyzing audio and visual behaviors

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110830

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121127

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121203

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5150583

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151207

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350