JP2010186237A - Thought-evoking multi-party dialogue device, thought-evoking multi-party dialogue method, thought-evoking multi-party dialogue program, and computer-readable recording medium with the program recorded thereon - Google Patents

Thought-evoking multi-party dialogue device, thought-evoking multi-party dialogue method, thought-evoking multi-party dialogue program, and computer-readable recording medium with the program recorded thereon Download PDF

Info

Publication number
JP2010186237A
JP2010186237A JP2009028605A JP2009028605A JP2010186237A JP 2010186237 A JP2010186237 A JP 2010186237A JP 2009028605 A JP2009028605 A JP 2009028605A JP 2009028605 A JP2009028605 A JP 2009028605A JP 2010186237 A JP2010186237 A JP 2010186237A
Authority
JP
Japan
Prior art keywords
dialogue
agent
speech
user
answer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009028605A
Other languages
Japanese (ja)
Other versions
JP5128514B2 (en
Inventor
Koji Dosaka
浩二 堂坂
Yasuhiro Minami
泰浩 南
Ryuichiro Higashinaka
竜一郎 東中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2009028605A priority Critical patent/JP5128514B2/en
Publication of JP2010186237A publication Critical patent/JP2010186237A/en
Application granted granted Critical
Publication of JP5128514B2 publication Critical patent/JP5128514B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a thought-evoking multi-party dialogue device determining the content or timing of the statement of an agent according to the situation of a dialog. <P>SOLUTION: The thought-evoking multi-party dialogue device includes: a user statement comprehension part 2 for storing a dialog control rule for selecting a dialog act of the agent according to a dialog situation and a statement generation rule for selecting the statement expressions of the agent according to the dialog situations, converting the user statement into the dialog act, and writing the dialog act in an statement queue 6 and a dialog state 5; a dialog control part 3 for selecting the dialog act related to the agent by applying the dialog control rule by referring to the history of the dialog act at the beginning of the statement queue 6 and the history of dialog act stored in the dialog state 5, sending the selected dialog act to the agent statement generation part 4, and removing the dialog act at the beginning of the statement queue 6; and an agent statement generation part 4 for generating the statement expressions of the agent based on the statement generation rule by referring to the history of the dialog act when acquiring the dialog act, presenting the generated statement expressions of the agent to a user, storing the dialog act into the dialog state 5, and adding the dialog act to the statement queue 6. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、複数のユーザ(人間)と対話エージェントがテキストあるいは音声などの入出力手段により自然言語で会話する多人数対話システムの技術に関する。   The present invention relates to a technique for a multi-person dialogue system in which a plurality of users (humans) and a dialogue agent have a conversation in a natural language using input / output means such as text or voice.

対話エージェント(エージェント)とは、テキストあるいは音声などの入出力手段を用いて、自然言語を使って自律的に人間とコミュニケーションを行うコンピュータプログラムである。本発明は、複数のユーザ(人間)と複数の対話エージェントとの間の多人数対話の制御に関するものである。   A dialogue agent (agent) is a computer program that communicates with humans autonomously using natural language using input / output means such as text or speech. The present invention relates to control of a multi-person dialogue between a plurality of users (humans) and a plurality of dialogue agents.

複数のユーザが参加する多人数対話では、1名のユーザのみが参加する対話とは異なり、人間であるユーザ同士のやり取りを含むコミュニケーションが活性化することが期待できる。さらに、複数のユーザが参加する多人数対話におけるコミュニケーションの活性化は、人間同士のつながりや親近感や連帯感を強める効果が期待できる。   In a multi-person dialogue in which a plurality of users participate, unlike a dialogue in which only one user participates, it can be expected that communication including interaction between human users is activated. Furthermore, the activation of communication in a multi-person dialogue in which a plurality of users participate can be expected to have an effect of strengthening human connections, closeness and solidarity.

対話におけるコミュニケーションを活性化する手段として、第一に、思考喚起型対話がある。思考喚起型対話とは、ユーザとの対話を通して、ユーザに情報を直接に与えるのではなく、ユーザの思考や連想を喚起させることにより、ユーザが自ら思考や連想を働かせて情報に辿り着くように動機づける対話である。思考喚起型対話は、ユーザの対話参加意欲を高めるという効果をもち、コミュニケーションを活性化させることが期待できる。思考喚起型対話の一例として、クイズ形式の思考喚起型対話が知られている(非特許文献1,2参照)。   As a means for activating communication in dialogue, firstly, there is a thought-inducing dialogue. Thinking-inducing conversations do not give information directly to the user through dialogue with the user, but encourage the user's thoughts and associations so that the user can use the thoughts and associations to reach the information. It is a motivational dialogue. The thought-inducing dialogue has the effect of increasing the user's willingness to participate in dialogue and can be expected to activate communication. As an example of a thought-inducing conversation, a quiz-style thinking-inducing conversation is known (see Non-Patent Documents 1 and 2).

クイズ形式の思考喚起型対話では、システムが人物当てクイズや地名当てクイズをユーザに対して出題し、ヒントを順に提示する。非特許文献1に記載の技術では、ユーザが正解に容易に辿り着かないように、ヒントを難しい順に自動的に並び替え、提示する。これに対して、ユーザは正解だと思う人物や地名を答える。この一連の対話を通して、ユーザは、ヒントから正解を自ら見つけようとする思考プロセスを体験することとなり、ユーザが対話へ参加しようとする意欲が増すこととなる。結果として、人物や地名に関する事実をユーザに対して読みあげる場合と比べて、それらの事実をヒントとして提示するクイズ形式の思考喚起型対話の方が、ユーザの理解が向上することが知られている(非特許文献2参照)。   In a quiz-style thought-inducing dialogue, the system presents a person quiz or place name quiz to the user and presents hints in order. In the technique described in Non-Patent Document 1, hints are automatically rearranged and presented in order of difficulty so that the user does not easily reach the correct answer. In response, the user answers the person or place name that he thinks is correct. Through this series of dialogues, the user experiences a thought process that tries to find the correct answer from the hint, and the user's willingness to participate in the dialogue increases. As a result, it is known that the user's understanding is improved in the quiz-style thought-inducing dialogue that presents these facts as hints compared to reading the facts about a person or place name to the user. (See Non-Patent Document 2).

このように、非特許文献1,2に記載のクイズ形式の思考喚起型対話は、ユーザの思考を喚起し、ユーザの対話参加意欲を向上させる効果をもつことが実証されている。ところが、これら従来のクイズ形式の思考喚起型対話は、ユーザ1名とクイズを出題する対話エージェント1体との間の1対1の対話にとどまっている。こうした1対1の対話では、人間は1人しか参加していないので、対話の中で人間同士のコミュニケーションは生じない。もし、複数の人間が対話に参加することができれば、人間同士のやり取りも含めたコミュニケーションが生じる可能性があり、コミュニケーションがより活性化することが期待される。また、仮に、クイズを出題する対話エージェント以外に、人間であるユーザと同様の立場で対話に参加する別の対話エージェントが存在すれば、その対話エージェントの介入により人間の対話参加意欲がより高まり、コミュニケーションがより活性化することが期待できる。   As described above, it has been proved that the quiz-type thought-inducing dialogue described in Non-Patent Documents 1 and 2 has an effect of stimulating the user's thought and improving the user's willingness to participate in the dialogue. However, these conventional quiz-style thought-stimulating dialogues are limited to one-to-one dialogues between one user and one dialogue agent that questions the quiz. In such a one-to-one dialogue, only one person participates, so no human communication occurs in the dialogue. If a plurality of people can participate in the dialogue, there is a possibility that communication including exchanges between people may occur, and it is expected that the communication will be further activated. In addition, if there is another dialogue agent that participates in the dialogue in the same position as a human user other than the dialogue agent that questions the quiz, the intervention of the dialogue agent increases the willingness to participate in the dialogue, Communication can be expected to become more active.

複数ユーザが参加する難読ゲームに対話エージェント(ロボット)が介入することによって、人間同士のコミュニケーションを活性化することを狙いとした研究が知られている(非特許文献3参照)。この従来の複数ユーザと対話エージェントとが参加する難読ゲームは、読み方の難しい漢字の読み方に関して、ユーザが自らの思考を働かせることで正解に辿り着くという意味で、思考喚起型の多人数対話の一例と捉えることができる。非特許文献3の技術では、複数のユーザと対話エージェントとが非同期に自由なタイミングで発言することが可能である。このように、複数のユーザと対話エージェントとが非同期に自由なタイミングで発言する場合、対話エージェントの特定のユーザに対する発言が意図した効果をもたらすためには、対話の進行とともに刻々と変化する対話の状況に応じて、エージェントの発言の適切な内容とタイミングを決定する必要がある。しかし、非特許文献3の技術では、多人数の対話において、対話エージェントによる特定のユーザに対する発言が意図した効果をもたらすことを保証するように、対話の状況に応じて発言の適切な内容とタイミングを決定する機能を備えていない。また、この従来技術では、次に述べるような対話エージェントによる感情的な発言については考慮されておらず、対話エージェントによる感情的な発言によってコミュニケーションを活性化させる機能は備えていない。   There has been known research aimed at activating communication between humans through the intervention of a dialogue agent (robot) in an obfuscated game in which multiple users participate (see Non-Patent Document 3). This conventional obfuscated game involving multiple users and dialogue agents is an example of a thought-promoting multi-person dialogue in the sense that users can reach the correct answer by using their own thoughts on how to read kanji that are difficult to read Can be considered. In the technique of Non-Patent Document 3, a plurality of users and the dialogue agent can speak at a free timing asynchronously. In this way, when multiple users and the conversation agent speak asynchronously at free timing, in order for the conversation agent to speak to a specific user to have the intended effect, the conversation of the conversation that changes as the conversation progresses Depending on the situation, it is necessary to determine the appropriate content and timing of the agent's remarks. However, in the technology of Non-Patent Document 3, in a dialogue with a large number of people, appropriate content and timing of the speech according to the situation of the dialogue so as to ensure that the speech to the specific user by the dialogue agent has the intended effect. Does not have a function to determine. In addition, this conventional technology does not consider the emotional remarks by the dialogue agent as described below, and does not have a function for activating communication by the emotional remarks by the dialogue agent.

対話におけるコミュニケーションを活性化する手段として、第二に、対話エージェントによる感情的な発言により、ユーザの心理状態に影響を与え、コミュニケーションを括性化させるという手段がある。感情的な発言には、感情が他者に向かうのか、自分に向かうのかによって、共感的発言と自己中心的発言に分類できる。共感的発言は、他者の状況に対して思いやりを示す感情的な発言であり、自己中心的発言は自分の状況に対して成される感情的な発言である。例えば、非特許文献4には、ユーザとブラックジャックゲームを行うシステムにおいて、ユーザと同じ立場でゲームに参加するコンピュータエージェントを作成し、エージェントがユーザに対して共感的発言を行うと、ユーザがエージェントに対して感じる“ケアされているという感覚”や好感度が増し、エージェントが自己中心的発言を行うと、“ケアされているという感覚”は増さないが、好感度は増すという実験結果が示されている。また、非特許文献5には、ユーザが英語のイディオムを学習することを支援するシステムにおいて、ユーザと同じ立場のコンピュータエージェントの共感的発言がユーザの学習効果を改善することを報告した研究が示されている。   Secondly, as means for activating communication in dialogue, there is means for influencing the user's psychological state by emotional remarks by the dialogue agent and making the communication more comprehensive. Emotional utterances can be classified into empathic utterances and self-centered utterances depending on whether the emotions are toward others or to themselves. The empathic speech is an emotional speech that shows compassion for the other person's situation, and the self-centered speech is an emotional speech made for the situation. For example, in Non-Patent Document 4, in a system for playing a blackjack game with a user, a computer agent that participates in the game from the same standpoint as the user is created. When the agent feels “care is being treated” and favorable feelings, and the agent makes a self-centered statement, the “sensation of being care” does not increase, but the experimental results show that favorable feelings increase. It is shown. Non-Patent Document 5 shows a study that reports that empathetic speech from computer agents in the same position as the user improves the user's learning effect in a system that supports the user's learning of English idioms. Has been.

これら非特許文献4、5には、エージェントの感情的発言によって、ユーザが感じるエージェントヘの印象を改善させたり、ユーザの意欲が増したりする場合があることを示しており、非特許文献4、5に開示された技術を用いれば、結果としてコミュニケーションの活性化につながることが期待できる。しかし、非特許文献4、5では、そもそも、複数のユーザが参加する多人数対話への適用する場合を直接的には想定しておらず、しかも、ユーザやエージェントが発言するタイミングは固定的である。したがって、非特許文献4、5に開示されたシステムを、複数ユーザが参加する多人数対話に適用したとしても、対話の中で複数のユーザが非同期に自由なタイミングで発言することにより刻々と変化していく対話の状況に合わせて、エージェントが発言の適切な内容とタイミングを選択する仕組みが提供されることはない。例えば、非特許文献4に開示されたブラックジャックゲームに参加するエージェントは、ブラックジャックの1つの手の勝ち負けが決まったときのみに発言し、ユーザはブラックジャックゲームに参加するのみで、自然言語で発言することはない。また、非特許文献5に開示されたユーザの英語イディオムの学習を支援するシステムでは、ユーザは、エージェントである先生からの質問への回答を行う固定的なタイミングでのみ発言が可能である。   These Non-Patent Documents 4 and 5 indicate that the agent's emotional remarks may improve the impression of the agent felt by the user or increase the user's willingness. 5 can be expected to lead to activation of communication as a result. However, in Non-Patent Documents 4 and 5, in the first place, it is not directly assumed to be applied to a multi-person dialogue in which a plurality of users participate, and the timing at which a user or agent speaks is fixed. is there. Therefore, even if the systems disclosed in Non-Patent Documents 4 and 5 are applied to a multi-person dialogue in which a plurality of users participate, the changes are made every time a plurality of users speak asynchronously and freely in the dialogue. There is no provision for the agent to select the appropriate content and timing of the speech according to the situation of the conversation. For example, an agent who participates in the blackjack game disclosed in Non-Patent Document 4 speaks only when one hand of blackjack is determined to win or lose, and the user only participates in the blackjack game. Never speak. Further, in the system that supports the learning of the user's English idiom disclosed in Non-Patent Document 5, the user can speak only at a fixed timing of answering the question from the teacher as an agent.

Ryuichiro Higashinaka, Kohji Dohsaka, and Hideki Isozaki, “Learning to Rank Definitions to Generate Quizzes for Interactive Information Presentation”, Proceedings of the ACL-2007 (Poster Presentation), p.117-120, 2007Ryuichiro Higashinaka, Kohji Dohsaka, and Hideki Isozaki, “Learning to Rank Definitions to Generate Quizzes for Interactive Information Presentation”, Proceedings of the ACL-2007 (Poster Presentation), p.117-120, 2007 Ryuichiro Higashinaka, Kohji Dohsaka, Shigeaki Amano and Hideki Isozaki, ”Effects of Quiz-style Information Presentation on User Understanding”, in Proceedings of Interspeech, p.2725-2728, 2007Ryuichiro Higashinaka, Kohji Dohsaka, Shigeaki Amano and Hideki Isozaki, “Effects of Quiz-style Information Presentation on User Understanding”, in Proceedings of Interspeech, p.2725-2728, 2007 松山洋一、谷山輝、藤江真也、小林哲則:人−人コミュニケーション活性化支援ロボットの開発、人工知能学会研究会資料SIG-SLUD-A801-03, p.15-22, 2008Yoichi Matsuyama, Teru Taniyama, Shinya Fujie, Tetsunori Kobayashi: Development of robots for activating human-human communication, SIG-SLUD-A801-03, p.15-22, 2008 Scott Brave, Clifford Nass and Kevin Hutchinson, “Computers that care :investigating the effects of orientation of emotion exhibited by an embodied computer agent”, Internationa1 Journal of Human-Computer Studies, Volume 62, Issue 2, p.161-178, 2005Scott Brave, Clifford Nass and Kevin Hutchinson, “Computers that care: investigating the effects of orientation of emotion represented by an embodied computer agent”, Internationa1 Journal of Human-Computer Studies, Volume 62, Issue 2, p.161-178, 2005 Heidy Maldonado, Jong-Eun Roselyn Lee, Scott Brave, Cliff Nass, Hiroshi Nakajima, Ryota Yamada, Kimihiko Iwamura and Yasunori Morishima, ”We learn better together : enhancing eLearning with emotional characters”, in Proceedings of 2005 conference on Computer support for collaborative learning, p.408-417, 2005Heidy Maldonado, Jong-Eun Roselyn Lee, Scott Brave, Cliff Nass, Hiroshi Nakajima, Ryota Yamada, Kimihiko Iwamura and Yasunori Morishima, `` We learn better together: enhancing eLearning with emotional characters '', in Proceedings of 2005 conference on Computer support for collaborative learning, p.408-417, 2005

第一に、複数のユーザと複数の対話エージェントがテキストあるいは音声などの入出力手段により自然言語で会話する多人数の思考喚起型対話において、ユーザと対話エージェントが非同期に自由なタイミングで発言することが許される場合に、従来の方法では、対話エージェントの共感的発言や自己中心的発言などによって、ユーザが感じる対話の満足度、エージェントに対する親近感、好感度、エージェントにケアされている感覚などを向上させることができず、対話エージェントの共感的発言や自己中心的発言によりコミュニケーションの量を増加させることもできないという課題がある。   First, in a multi-person thought-stimulated conversation in which multiple users and multiple conversation agents talk in natural language using input means such as text or voice, the users and the conversation agents can speak asynchronously and freely. In the conventional method, the satisfaction level of the dialogue that the user feels, the familiarity with the agent, the favorable feeling, the sense of care by the agent, etc. There is a problem that it cannot be improved and the amount of communication cannot be increased by empathic speech or self-centered speech of the dialogue agent.

第二に、複数のユーザと複数の対話エージェントがテキストあるいは音声などの入出力手段により自然言語で会話する多人数の思考喚起型対話において、従来の方法では、対話エージェントの発言が意図した効果をもたらすことを保証するように、対話の状況に応じて、対話エージェントの発言の適切な内容やタイミングを決定する機能をもたないために、複数のユーザと対話エージェントが非同期に自由なタイミングで発言を行うと、エージェントの発言内容が誤解されて伝わる場合や、意図した効果をユーザにもたらすことができない場合があるという課題がある。   Secondly, in a multi-person thought-stimulated dialogue in which multiple users and multiple conversation agents talk in natural language using input means such as text or speech, the conventional method has the intended effect of the conversation agent speaking. As there is no function to determine the appropriate content and timing of the dialogue agent's utterance according to the situation of the dialogue so that it can be guaranteed, multiple users and dialogue agents can speak asynchronously and freely. If there is a problem, the content of the agent's speech may be misunderstood and transmitted, or the intended effect may not be provided to the user.

第一の課題について説明する。
背景技術で述べたように、多人数の思考喚起型対話に関する従来の方法である非特許文献3の技術においては、対話エージェントによる共感的発言や自己中心的発言といった感情的な発言を行うことにより、コミュニケーションの量を増加させる機能を備えていない。非特許文献3の技術において、対話エージェントが行う発言のレパートリーの中に、共感的発言や自己中心的発言を加えたとしても、非特許文献3の技術は、対話エージェントの発言が意図した効果をもたらすことを保証するように、対話の状況に応じてエージェントの発言の適切な内容やタイミングを決定する機能をもたないために、次に説明する第二の課題は解決できない。したがって、非特許文献3の技術では、対話エージェントの共感的発言や自己中心的発言によって、意図した効果をユーザにもたらすことは充分にはできず、ユーザが感じる対話の満足度や、エージェントに対する親近感や好感度、エージェントにケアされているという感覚などを向上させることができず、対話エージェントの共感的発言や自己中心的発言によって、コミュニケーションの量を増加させることもできない。
The first problem will be described.
As described in the background art, in the technique of Non-Patent Document 3, which is a conventional method related to a large number of thought-stimulating dialogues, by performing emotional utterances such as empathic utterances and self-centered utterances by dialogue agents. Does not have the ability to increase the amount of communication. In the technology of Non-Patent Document 3, even if sympathetic speech or self-centered speech is added to the repertoire of speech made by the dialogue agent, the technology of Non-Patent Literature 3 has the effect that the speech of the dialogue agent intended. The second problem described below cannot be solved because it does not have the function of determining the appropriate content and timing of the agent's remarks according to the situation of the dialogue so as to ensure that it is brought about. Therefore, in the technology of Non-Patent Document 3, the intended effect cannot be sufficiently brought to the user by the sympathetic utterance or the self-centered utterance of the dialogue agent. It cannot improve the feelings, likability, and the feeling of being cared for by the agent, and the amount of communication cannot be increased by the sympathetic or self-centered statements of the dialogue agent.

第二の課題について説明する。
ここでは、対話例1〜5を通して具体的に説明する。これらは、クイズ形式の多人数の思考喚起型対話の例である。ユーザとして花子、良子の2名が参加し、対話エージェントとして、人物当てクイズの問題を出題し、ヒントを提示する出題エージェント「ふーふー」と、ユーザと同じ立場で対話に参加する回答エージェント「きのこ」の2体のエージェントが参加している。なお、対話例1、2では、回答エージェント「きのこ」の発言は出現していない。まず、次の対話例1について考える。
The second problem will be described.
Here, it demonstrates concretely through the conversation examples 1-5. These are examples of quiz-style multi-person thought-inducing dialogues. Hanako and Ryoko participate as users, and as a dialogue agent, the question agent "Foo-Foo" presents questions related to person quiz and presents hints, and the answer agent participates in the dialogue from the same position as the user Two mushroom agents are participating. In the dialogue examples 1 and 2, the reply agent “mushroom” does not appear. First, consider the following dialogue example 1.

<対話例1>
(1.1)ふーふー:人物当てクイズを出題します。
(1.2)ふーふー:本能寺の変で亡くなった人です。
(1.3)花子 :織田
(1.3)良子 :豊臣
(1.5)ふーふー:惜しいです。
(1.6)花子 :豊臣秀吉
(1.7)ふーふー:全然違います。
<Dialogue Example 1>
(1.1) Fu-Foo: The question is a person quiz.
(1.2) Fu-Foo: A person who died due to a change in Honnoji.
(1.3) Hanako: Oda (1.3) Ryoko: Toyotomi (1.5) Hoohu: I'm sorry.
(1.6) Hanako: Toyotomi Hideyoshi (1.7) Fu-Foo: Not at all.

この人物当てクイズの問題の正解は織田信長である。(1.2)で出題エージェント「ふーふー」がヒントを提示している。それに対して、(1.3)、(1.4)でそれぞれ花子と良子が回答をしている。ユーザはいつでも回答が行えるので、どういう順番でいつユーザの回答がなされるかは事前には分からない。この場合は、たまたま、花子と良子が、(1.5)で「ふーふー」が回答に対する応対を行う前に、続けざまに回答の発言を行った。実は、「ふーふー」の(1.5)の発言「惜しいです」は、(1.3)の花子の発言に対するものであったが、単に「惜しいです」と発言しただけであるので、(1.3)の花子の発言に対して応対したのか、(1.4)の良子の発言に対して応対したのか判別できない。このため、花子は、「ふーふー」は、(1.4)の良子の発言「豊臣」に対して「惜しいです」と発言したと誤解したため、(1.6)で「豊臣秀吉」と誤った方向に思考を働かせて発言を行っている。「ふーふー」が(1.5)で誤解を生じないように発言するためには、単に「惜しいです」と発言するのではなく、「織田ですか。惜しいです」、あるいは、「花子さん、惜しいです」といったように、発言の内容を調整する必要がある。すなわち、出題エージェント「ふーふー」は、次の対話例2の(2.5)のように発言内容を調整する必要があったと言える。   The correct answer to this person quiz question is Nobunaga Oda. In (1.2), the questioning agent “Foo-Foo” presents hints. On the other hand, Hanako and Ryoko answered in (1.3) and (1.4), respectively. Since the user can reply at any time, it is not known in advance in what order and when the user answers. In this case, Hanako and Ryoko happened to make a series of responses before “Foo-Foo” responded to the response in (1.5). Actually, the statement (1.5) of “Foo-Foo” was in response to Hanako ’s statement of (1.3), but it was just “Sad”. It is not possible to determine whether it responded to Hanako's utterance (1.3) or Yoshiko (1.4). For this reason, Hanako misunderstood that “Foo-Foo” remarked that it was regrettable to Ryoko's statement “Toyotomi” in (1.4). He made his speech in the wrong direction. In order to make “Foo-Foo” not to be misunderstood in (1.5), instead of simply saying “I ’m regrettable”, “Is it Oda? It is necessary to adjust the content of the remarks. In other words, it can be said that the questioning agent “Foo-Foo” had to adjust the content of the statement as in (2.5) of the following dialogue example 2.

<対話例2>
(2.1)ふーふー:人物当てクイズを出題します。
(2.2)ふーふー:本能寺の変で亡くなった人です。
(2.3)花子 :織田
(2.4)良子 :豊臣
(2.5)ふーふー:織田ですか。惜しいです。/花子さん、惜しいです。
(2.6)花子 :織田信長かな
(2.7)ふーふー:あたり。正解は織田信長です。
<Dialogue example 2>
(2.1) Fu-Foo: A question quiz for people.
(2.2) Fu-Foo: A person who died due to a change in Honnoji.
(2.3) Hanako: Oda (2.4) Ryoko: Toyotomi (2.5) Fu-Foo: Is it Oda? I'm sorry. / Hanako-san is regrettable.
(2.6) Hanako: Oda Nobunaga Kana (2.7) Foo: Per. The correct answer is Oda Nobunaga.

出題エージェント「ふーふー」が、常に、「織田ですか。惜しいです。」、「花子さん、惜しいです。」といった冗長な発言をすれば、誤解を生じることはなくなるが、対話自体が不必要に冗長となり、ユーザの感じる満足度やコミュニケーションの活性を損なう可能性がある。このように、対話エージェントは、対話の状況に応じて、発言の適切な内容を決定しなければならないという課題がある。従来の技術における多人数の思考喚起型対話の例である非特許文献3の技術では、この課題に対処できていない。   If the questioning agent "Foo-Foo" always makes redundant statements such as "Is it Oda? I'm regrettable" or "Hanako-san, I'm regrettable", there will be no misunderstandings, but the dialogue itself is not good. It becomes necessary and redundant, and there is a possibility of impairing satisfaction and communication activity felt by the user. As described above, there is a problem that the dialogue agent must determine an appropriate content of the speech according to the situation of the dialogue. The technology of Non-Patent Document 3, which is an example of a multi-person thought-stimulating dialogue in the conventional technology, cannot cope with this problem.

次に、多人数の思考喚起型対話において対話エージェントが共感的あるいは自己中心的な発言を行う場合を例にとる。   Next, a case where a dialogue agent makes a sympathetic or self-centered speech in a dialogue with many people is considered as an example.

以下に示す対話例3では、2人のユーザ花子と良子が、それぞれ(3.2)と(3.3)で「思いつかないよ」、「分からないよね」と発言し、問題を難しいと感じているという状況を受けて、回答エージェント「きのこ」が、それに対して共感する発言(3.4)「難しいよね」を行っている。エージェントの共感的発言は、ユーザが感じるエージェントにケアされている感覚を増すという実験結果は、非特許文献4に記載されている。   In dialogue example 3 shown below, two users Hanako and Ryoko said “I do n’t know” and “I do n’t know” in (3.2) and (3.3), respectively, and I feel that the problem is difficult. In response to this situation, the reply agent “Mushroom” makes a remark (3.4) “It's difficult”. Non-patent document 4 describes the experimental result that the agent's sympathetic remarks increase the sense of care of the agent that the user feels.

<対話例3>
(3.1)ふーふー:1534年に生まれました。
(3.2)花子 :思いつかないよ。
(3.3)良子 :分からないよね。
(3.4)きのこ :難しいよね。
<Dialogue example 3>
(3.1) Fu-Foo: Born in 1534.
(3.2) Hanako: I can't think of it.
(3.3) Ryoko: I don't know.
(3.4) Mushrooms: That's difficult.

次の対話例4では、ユーザである花子と良子は問題が簡単であると感じているにもかかわらず、回答エージェント「きのこ」は、自分にとっては難しい問題であると感じているので、その自分の状況に対して自己中心的な発言(4.4)「難しいなあ」を行っている。ここで、自己中心的発言とは、他者の状況にではなく、自分の状況に対して向けられる感情的発言のことをいう。エージェントの自己中心的発言は、ユーザが感じるエージェントに対する好感度を増すという実験結果は、非特許文献4に記載されている。   In the following dialogue example 4, although the users Hanako and Ryoko feel that the problem is simple, the answer agent “Mushrooms” feels a difficult problem for them. Self-centered remarks (4.4) “It's difficult”. Here, self-centered speech refers to emotional speech directed to one's own situation, not to the other's situation. Non-patent document 4 describes the experimental result that the agent's self-centered remark increases the user's perception of the agent.

<対話例4>
(4.1)ふーふー:安土城を築きました。
(4.2)花子 :簡単だ。
(4.3)良子 :織田なんとかだよね。
(4.4)きのこ :難しいなあ。
<Dialog example 4>
(4.1) Fu-fu: I built Azuchi Castle.
(4.2) Hanako: It's easy.
(4.3) Ryoko: It ’s Oda somehow.
(4.4) Mushrooms: It ’s difficult.

このような対話エージェントによる共感的発言や自己中心的発言は、ユーザが感じる、“ケアされているという感覚”やエージェントに対する好感度を増し、結果として、多人数対話におけるコミュニケーションを活性化することに役立つことが期待される。しかし、既に述べたように、従来の非特許文献3に記載の技術では、対話エージェントによる共感的発言や自己中心的発言を行わないため、対話エージェントの感情的発言によってコミュニケーションの活性化を図ることはできない。   Such sympathetic or self-centered statements by dialogue agents increase the user's feeling of “care being felt” and the likability of the agents, resulting in the activation of communication in multi-party dialogues. Expected to be useful. However, as already mentioned, the technology described in the conventional non-patent document 3 does not make sympathetic speech or self-centered speech by the dialogue agent, so that communication is activated by emotional speech of the dialogue agent. I can't.

非特許文献3に記載の技術において対話エージェントの発言のレパートリーに共感的発言や自己中心的発言を加えるという方法も考えられるが、対話エージェントによる共感的発言や自己中心的発言を無条件で行えばよいというものではない。次の対話例5では、回答エージェント「きのこ」は、対話例3と同様に、問題が難しいと感じており、その自分の状況に対して自己中心的な発言(5.4)「難しいなあ」を行っている。しかし、ユーザ花子や良子も問題を難しく感じていることを(5.2)、(5.3)で発言しているので、「きのこ」の発言(5.4)「難しいなあ」が自己中心的な発言ではなく、花子や良子も問題を難しく感じていることに対する共感的発言と受け取られる可能性があるという問題がある。   In the technique described in Non-Patent Document 3, a method of adding sympathetic speech or self-centered speech to the repertoire of speech of the dialog agent can be considered, but if the empathetic speech or self-centered speech by the dialog agent is unconditionally performed, It's not good. In the following dialogue example 5, the answer agent “mushroom” feels that the problem is difficult as in the dialogue example 3, and the self-centered remarks about his / her situation (5.4) “It is difficult”. It is carried out. However, since the users Hanako and Ryoko have said that the problem is difficult in (5.2) and (5.3), “Mushroom” (5.4) “It ’s difficult” is self-centered. There is a problem that Hanako and Ryoko may be regarded as sympathetic remarks for feeling that the problem is difficult.

<対話例5>
(5.1)ふーふー:1534年に生まれました。
(5.2)花子 :思いつかないよ。
(5.3)良子 :分からないよね。
(5.4)きのこ :難しいなあ。
<Dialogue example 5>
(5.1) Fu-Foo: Born in 1534.
(5.2) Hanako: I can't think of it.
(5.3) Ryoko: I don't know.
(5.4) Mushrooms: It ’s difficult.

ユーザが感じる好感度は、エージェントが共感的発言と自己中心的発言の双方を行うときに最も高くなるという知見(非特許文献4参照)の下に、システムの設計者は、対話例5の(5.4)において、「きのこ」に共感的発言ではなく、自己中心的発言を行わせることを意図していたとしても、「きのこ」の発言(5.4)は共感的発言と受け取られてしまい、「きのこ」の自己中心的発言の効果がもたらされない可能性があるという問題が生じる。回答エージェントに自己中心的発言を行わせたいのであれば、回答エージェントに(5.4)のタイミングで「難しいなあ」という発言を行わせてはならない。このように、対話エージェントの共感的発言、自己中心的発言が意図した効果をもたらすことを保証するように、対話の状況に応じて対話エージェントの発言の適切なタイミングを決定する必要があるという課題がある。   Based on the knowledge (see Non-Patent Document 4) that the user feels the best likability when the agent makes both sympathetic and self-centered utterances, the system designer ( In 5.4), “Mushroom” (5.4) is recognized as a sympathetic utterance even if it is intended to make “mushroom” a self-centered utterance rather than a sympathetic utterance. Therefore, there arises a problem that the effect of the self-centered remark of “mushroom” may not be brought about. If you want the answering agent to make a self-centered statement, you must not let the answering agent say “It's difficult” at the timing of (5.4). In this way, it is necessary to determine the appropriate timing of the dialogue agent's speech according to the situation of the dialogue so as to guarantee that the dialogue agent's sympathetic speech and self-centered speech have the intended effect. There is.

そこで、本発明では、前記した問題を解決し、多人数の思考喚起型対話において、対話の状況に応じてエージェントの発言の内容やタイミングを決定できる技術を提供することを目的とする。   Therefore, an object of the present invention is to solve the above-described problems and provide a technique capable of determining the content and timing of an agent's utterance in accordance with the state of dialogue in a multi-person thought-inducing dialogue.

本発明は、前記目的を達成するために創案されたものであり、本発明に係る多人数思考喚起型対話装置は、人間である複数のユーザとコンピュータで実現される複数のエージェントとによる多人数対話において、前記エージェントの発言によって前記ユーザの思考を喚起させる多人数思考喚起型対話装置であって、前記多人数対話の状況として、前記エージェントが発言するタイミングを規定する時間パラメータと、前記各エージェントの発言を共感的発言または自己中心的発言に規定する感情条件を設定する感情パラメータとを記憶する状況データベース記憶手段と、前記多人数対話の参加者の発言内容の種類ごとに前記各エージェントから前記ユーザに提示される発言の内部構造を記述した第1対話行為情報を、前記多人数対話の状況に応じて選択する規則を記述した対話制御ルールを記憶した対話制御ルール記憶手段と、前記エージェントから前記ユーザに提示される発言の表現を、前記各エージェントの発言内容の種類と前記感情条件と前記多人数対話の状況とに応じて選択する規則を記述した発言生成ルールを記憶した発言生成ルール記憶手段と、前記第1対話行為情報と、前記ユーザの発言の内部構造を記述した第2対話行為情報とを記憶するキュー記憶手段と、前記多人数対話の参加者による対話の履歴として、前記ユーザに既に提示された発言に関する前記第1対話行為情報と、前記第2対話行為情報の履歴とを記憶する対話状態記憶手段と、前記各ユーザの発言を示すテキストデータまたは音声データを受け付けて、当該ユーザの前記第2対話行為情報に変換し、前記キュー記憶手段の最後尾に追加すると共に、前記対話状態記憶手段に書き込むユーザ発言理解手段と、前記キュー記憶手段の先頭にある前記第1または第2対話行為情報と、前記対話状態記憶手段に記憶された第1および第2対話行為情報の履歴を参照し、前記対話制御ルールを適用することにより、前記エージェントから前記ユーザに次に提示される発言に関する第1対話行為情報を選択し、前記キュー記憶手段の先頭にある前記第1または第2対話行為情報を取り除く対話制御手段と、前記対話制御手段で選択された第1対話行為情報を取得したときに、前記対話状態記憶手段に記憶された第1および第2対話行為情報の履歴を参照し、前記発言生成ルールに基づいて、前記取得した第1対話行為情報に対応して次に発言を行う前記エージェントの発言表現を生成し、前記生成した発言表現を前記ユーザに提示し、当該発言表現を代入した第1対話行為情報を前記対話状態記憶手段に格納すると共に、前記キュー記憶手段の最後尾に追加するエージェント発言生成手段と、を備えることを特徴とする。   The present invention was devised to achieve the above object, and the multi-person thought-inducing interactive apparatus according to the present invention is a multi-person system comprising a plurality of human users and a plurality of agents implemented by computers. In a dialogue, a multi-person thought-inducing interactive device that arouses the user's thoughts by the agent's remarks, and a time parameter that defines a timing at which the agent speaks as a situation of the multi-person dialogue, and each agent A situation database storage means for storing emotion parameters for setting emotional conditions that prescribe utterances as sympathetic or self-centered utterances, and from each agent for each type of utterance content of participants in the multi-person dialogue The first dialogue action information describing the internal structure of the speech presented to the user is converted into the multi-person dialogue situation. A dialogue control rule storage means storing a dialogue control rule describing a rule to be selected, a representation of a statement presented from the agent to the user, a type of the content of each agent, the emotion condition, and the multiple Utterance generation rule storage means storing a utterance generation rule describing a rule to be selected according to the situation of the number of people dialog, the first dialog action information, and the second dialog action information describing the internal structure of the user's utterance And storing the first dialogue action information relating to the speech already presented to the user and the history of the second dialogue action information as a history of dialogue by the participants of the multi-person dialogue. And receiving text data or voice data indicating the remarks of each user, and converting them into the second interactive action information of the user. User speech understanding means that is added to the tail of the queue storage means and written to the dialogue state storage means, the first or second dialogue action information at the head of the queue storage means, and the dialogue state storage means By referring to the history of the stored first and second dialogue action information, and applying the dialogue control rule, the first dialogue action information related to the speech next presented to the user from the agent is selected, and The dialog control means for removing the first or second dialog action information at the head of the queue storage means and the first dialog action information selected by the dialog control means are acquired and stored in the dialog state storage means. Referring to the history of the first and second dialogue action information, and making a statement next to the acquired first dialogue action information based on the statement generation rule The agent's speech expression is generated, the generated speech expression is presented to the user, the first dialogue action information into which the speech expression is substituted is stored in the dialog state storage means, and at the end of the queue storage means And agent remark generation means to be added.

また、前記課題を解決するため、本発明に係る多人数思考喚起型対話方法は、ユーザ発言理解手段と、対話制御手段と、エージェント発言生成手段と、記憶手段とを備え、人間である複数のユーザとコンピュータで実現される複数のエージェントとによる多人数対話において、前記エージェントの発言によって前記ユーザの思考を喚起させる多人数思考喚起型対話装置による多人数思考喚起型対話方法であって、前記記憶手段には、前記多人数対話の状況として、前記エージェントが発言するタイミングを規定する時間パラメータと、前記各エージェントの発言を共感的発言または自己中心的発言に規定する感情条件を設定する感情パラメータとを記憶する状況データベースと、前記多人数対話の参加者の発言内容の種類ごとに前記各エージェントから前記ユーザに提示される発言の内部構造を記述した第1対話行為情報を、前記多人数対話の状況に応じて選択する規則を記述した対話制御ルールと、前記エージェントから前記ユーザに提示される発言の表現を、前記各エージェントの発言内容の種類と前記感情条件と前記多人数対話の状況とに応じて選択する規則を記述した発言生成ルールと、が事前に記憶されており、前記ユーザ発言理解手段にて、前記各ユーザの発言を示すテキストデータまたは音声データを受け付けるステップと、受け付けた発言を当該ユーザの発言の内部構造を記述した第2対話行為情報に変換するステップと、前記第2対話行為情報をキュー記憶手段の最後尾に追加するステップと、前記多人数対話の参加者による対話の履歴として、前記ユーザに既に提示された発言に関する前記第1対話行為情報と、前記第2対話行為情報の履歴とを記憶する対話状態記憶手段に対して、前記受け付けた発言の前記第2対話行為情報を書き込むステップと、前記対話制御手段にて、前記キュー記憶手段の先頭にある前記第1または第2対話行為情報と、前記対話状態記憶手段に記憶された第1および第2対話行為情報の履歴を参照し、前記対話制御ルールを適用することにより、前記エージェントから前記ユーザに次に提示される発言に関する第1対話行為情報を選択するステップと、前記選択した第1対話行為情報を前記エージェント発言生成手段に送るステップと、前記キュー記憶手段の先頭にある前記第1または第2対話行為情報を取り除くステップと、前記エージェント発言生成手段にて、前記対話制御手段で選択された第1対話行為情報を取得するステップと、前記対話状態記憶手段に記憶された第1および第2対話行為情報の履歴を参照し、前記発言生成ルールに基づいて、前記取得した第1対話行為情報に対応して次に発言を行う前記エージェントの発言表現を生成するステップと、前記生成した発言表現を前記ユーザに提示するステップと、当該発言表現を代入した第1対話行為情報を前記対話状態記憶手段に格納すると共に、前記キュー記憶手段の最後尾に追加するステップと、を含んで実行することを特徴とする。   In order to solve the above-mentioned problem, a multi-person thought-inducing dialogue method according to the present invention includes a user speech understanding unit, a dialogue control unit, an agent speech generation unit, and a storage unit, and includes a plurality of humans. In a multi-person dialogue between a user and a plurality of agents realized by a computer, a multi-person thought-stimulating dialogue method by a multi-person thought-stimulating dialogue device that arouses the user's thoughts by the remarks of the agent, the memory The means includes a time parameter that defines a timing at which the agent speaks, and an emotion parameter that sets an emotion condition that defines the speech of each agent as a sympathetic speech or a self-centered speech as the situation of the multi-person dialogue. A status database for storing information, and each age for each type of remarks of participants of the multi-person dialogue A dialogue control rule describing a rule for selecting the first dialogue action information describing the internal structure of the speech presented to the user from the agent according to the situation of the multi-person dialogue, and the agent presenting the user to the user. A speech generation rule that describes a rule for selecting an expression of a speech according to the type of speech content of each agent, the emotion condition, and the situation of the multi-person dialogue, and is stored in advance. A step of accepting text data or voice data indicating the speech of each user, a step of converting the accepted speech into second interactive action information describing an internal structure of the user's speech, in speech understanding means; (2) adding dialogue action information to the tail of the queue storage means, and as a history of dialogues by participants of the multi-person dialogue, Writing the second dialogue action information of the accepted utterance into the dialogue state storage means for storing the first dialogue action information regarding the presented utterance and the history of the second dialogue action information; The dialog control means refers to the first or second dialog action information at the head of the queue storage means and the history of the first and second dialog action information stored in the dialog state storage means, and the dialog Selecting first dialogue action information relating to a statement to be presented next to the user from the agent by applying a control rule; and sending the selected first dialogue action information to the agent statement generation means; Removing the first or second dialogue action information at the head of the queue storage means; and the agent message generation means, Obtaining the first dialogue action information selected by the speech control means, referring to the history of the first and second dialogue action information stored in the dialogue state storage means, and based on the statement generation rule, A step of generating a speech expression of the agent to speak next in response to the acquired first dialogue action information; a step of presenting the generated speech expression to the user; and a first dialog in which the speech expression is substituted And storing the action information in the dialogue state storage means and adding the action information to the tail of the queue storage means.

かかる構成の多人数思考喚起型対話装置、または、かかる手順の多人数思考喚起型対話方法によれば、多人数思考喚起型対話装置は、エージェントが共感的発言または自己中心的発言を出力できるように設定可能であり、多人数対話の状況に応じてどの第1対話行為情報を選択するかという規則を記述した対話制御ルールと、各エージェントの発言内容の種類と感情条件と多人数対話の状況とに応じて各エージェントに対してどの発言表現を選択するかという規則を記述した発言生成ルールとを予め記憶している。この対話制御ルールには、エージェントの自己中心的発言や無感情発言が、ユーザに対して共感する効果をもたらさないことを保証するように、発言のタイミングを決定するルールが予め記述されている。また、発言生成ルールには、対話の状況に応じて、エージェントの発言の内容が誤解なく伝わることを保証するように、発言の内容を決定するルールが予め記述されている。   According to the multi-person thought-inducing interactive device having such a configuration, or the multi-person thought-inducing interactive device having such a procedure, the multi-person thought inviting interactive device can enable the agent to output a sympathetic speech or a self-centered speech. The dialogue control rules that describe the rules for selecting which first dialogue action information to select according to the situation of the multi-person dialogue, the types and emotional conditions of each agent's remarks, and the situation of the multi-party dialogue Utterance generation rules describing rules for selecting which utterance expression to select for each agent according to the above. In the dialogue control rule, a rule for determining the timing of the speech is described in advance so as to ensure that the self-centered speech and the emotionless speech of the agent do not have the effect of empathizing the user. Further, in the message generation rule, a rule for determining the content of the message is described in advance so as to ensure that the content of the agent's message is transmitted without misunderstanding according to the situation of the conversation.

そして、多人数思考喚起型対話装置は、エージェントの発言については、対話制御手段によって、対話制御ルールに則って、エージェントの次の発言の第1対話行為情報を選択し、エージェント発言生成手段によって、この第1対話行為情報に対応する発言表現を発言生成ルールに基づいて生成し、ユーザに提示する。また、多人数思考喚起型対話装置は、ユーザの発言については、ユーザ発言理解手段によって、ユーザの発言を、エージェントの発言と同様な第2対話行為情報に変換する。この多人数思考喚起型対話装置は、対話制御ルールと発言生成ルールを使って、対話の状況に応じてエージェントの発言の内容とタイミングを決定することによって、ユーザとエージェントが非同期に自由なタイミングで発言することが許される場合であっても、対話の状況に応じて適切な内容とタイミングでエージェントの共感的発言と自己中的発言を出力することが可能となる。   Then, the multi-person thought arousing dialogue apparatus selects the first dialogue action information of the next utterance of the agent according to the dialogue control rule by the dialogue control means for the utterance of the agent, and by the agent utterance generation means, A speech expression corresponding to the first dialogue action information is generated based on the speech generation rule and presented to the user. Further, the multi-person thought-inducing dialogue device converts the user's speech into second dialogue action information similar to the agent's speech by the user speech understanding means for the user's speech. This multi-person thought-inducing dialogue device uses the dialogue control rules and the speech generation rules to determine the content and timing of the agent's speech according to the situation of the conversation, so that the user and the agent can asynchronously and freely. Even if it is allowed to speak, it is possible to output an agent's sympathetic utterance and self-intermediate utterance with appropriate content and timing according to the situation of the conversation.

そして、多人数思考喚起型対話装置は、複数の人間(ユーザ)と複数のエージェントとによる多人数の思考喚起型対話において、ユーザとエージェントが非同期に自由なタイミングで発言するとき、刻々と変化する対話の状況をキュー記憶手段および対話状態記憶手段によって表現する。すなわち、多人数思考喚起型対話装置は、エージェントおよびユーザの発言内容および発言タイミングに係る対話状況として、第1および第2対話行為情報を、キュー記憶手段および対話状態記憶手段にて格納管理している。したがって、対話の状況に応じてエージェントの発言の内容やタイミングを適切に決定できる。これにより、ユーザが感じる対話の満足度、エージェントに対する親近感や好感度、エージェントにケアされている感覚を向上させ、その結果、人間のやり取りを含むコミュニケーション量を増加させることが可能となる。さらに、人間と対話エージェントが非同期に自由なタイミングで発言することが許される場合であっても、対話エージェントの発言が誤解なく伝わり、発言が意図した効果をもたらすように、対話エージェントの発言の内容とタイミングを決定することが可能となる。   The multi-person thought-inducing dialogue device changes every moment when a user and an agent speak asynchronously and freely in a multi-person thought-stimulating dialogue between a plurality of people (users) and a plurality of agents. The state of the dialogue is expressed by the queue storage means and the dialogue state storage means. In other words, the multi-person thought-inducing dialogue device stores and manages the first and second dialogue action information in the queue storage means and the dialogue state storage means as the dialogue status related to the contents and timing of the statements of the agent and the user. Yes. Therefore, the content and timing of the agent's utterance can be appropriately determined according to the situation of the dialogue. As a result, it is possible to improve the degree of satisfaction of the dialogue felt by the user, the familiarity and likability of the agent, and the sense of care for the agent, and as a result, the amount of communication including human interaction can be increased. Furthermore, even if humans and dialogue agents are allowed to speak asynchronously and freely, the content of the dialogue agent's speech so that the dialogue agent's speech is conveyed without misunderstanding and the speech has the intended effect. And the timing can be determined.

また、本発明に係る多人数思考喚起型対話装置は、前記多人数対話としてクイズの質問応答形式の対話を行うために、前記選択された第1対話行為情報に基づいて、前記複数のエージェントが、前記ユーザに問題を出題する出題エージェントおよび前記出題された問題に回答する回答エージェントとして振る舞うように、前記第1対話行為情報と、前記対話制御ルールと、前記発言生成ルールとが予め定められ、前記クイズの問題を記憶する問題記憶手段と、前記問題の複数のヒントを難易度の高いものから順に並べたヒント文リストを生成するヒント生成手段と、前記生成されたヒント文リストを記憶するヒント記憶手段と、前記ユーザまたは前記回答エージェントの回答の正誤を判定する正誤判定手段と、前記回答が不正解である場合に正解と回答との類似の度合いを判定する類似判定手段と、をさらに備え、前記エージェント発言生成手段が、前記正誤判定手段によって前記参加者の回答が不正解であると判定された場合および正解であると判定された場合に、その判定結果に対して前記感情条件にしたがった発言を、前記出題エージェントまたは前記回答エージェントの発言表現として生成することを特徴とする。   Further, the multi-person thinking and arousing dialogue apparatus according to the present invention is configured such that the plurality of agents are based on the selected first dialogue action information in order to conduct a quiz question-and-answer dialogue as the multi-person dialogue. The first dialogue action information, the dialogue control rule, and the statement generation rule are determined in advance so as to act as a question agent that questions the user and an answer agent that answers the question. Problem storage means for storing the question of the quiz, hint generation means for generating a hint sentence list in which a plurality of hints of the problem are arranged in descending order of difficulty, and a hint for storing the generated hint sentence list Storage means, correct / incorrect determination means for determining whether the user or the answer agent answers correctly, and when the answer is incorrect Similarity determination means for determining the degree of similarity between the answer and the answer, and when the agent speech generation means determines that the participant's answer is incorrect by the correctness determination means and the correct answer When it is determined that there is a message, a statement in accordance with the emotion condition with respect to the determination result is generated as a statement expression of the questioning agent or the answering agent.

また、本発明に係る多人数思考喚起型対話方法は、前記多人数対話としてクイズの質問応答形式の対話を行うために、前記選択された第1対話行為情報に基づいて、前記複数のエージェントが、前記ユーザに問題を出題する出題エージェントおよび前記出題された問題に回答する回答エージェントとして振る舞うように、前記第1対話行為情報と、前記対話制御ルールと、前記発言生成ルールとが予め定められ、前記出題エージェントが、前記クイズの問題を出題する一連の処理の中で、前記問題の複数のヒントを難易度の高いものから順に前記参加者に対して提示するように発言し、前記ユーザまたは前記回答エージェントの回答の正誤を判定し、前記回答が不正解である場合に正解と回答との類似の度合いを判定し、不正解時の類似の度合いに応じた発言および正解時の発言を行い、前記出題エージェントまたは前記回答エージェントが、前記参加者の回答が不正解である場合および正解である場合に、その結果に対して前記感情条件にしたがった発言を行うことを特徴とする。   Further, in the multi-person thought-inducing dialogue method according to the present invention, in order to perform a quiz question-and-answer dialogue as the multi-person dialogue, the plurality of agents are based on the selected first dialogue action information. The first dialogue action information, the dialogue control rule, and the statement generation rule are determined in advance so as to act as a question agent that questions the user and an answer agent that answers the question. The questioning agent makes a statement in a series of processes for asking the question of the quiz so that a plurality of hints of the question are presented to the participant in descending order of difficulty. The correctness of the answer of the answer agent is determined. When the answer is incorrect, the degree of similarity between the correct answer and the answer is determined. If the answering agent or the answering agent gives an incorrect answer or a correct answer, the answering agent or the answering agent follows the emotional condition for the result. It is characterized by making remarks.

かかる構成の多人数思考喚起型対話装置、または、かかる手順の多人数思考喚起型対話方法によれば、多人数思考喚起型対話装置は、人間である複数のユーザとコンピュータで実現される複数のエージェントとによるクイズの質問応答形式の対話を行うことができる。これにより、従来の1人のユーザと1体のエージェントとによるクイズの質問応答形式の対話では不可能であったユーザ同士のコミュニケーションを活性化させることができる。   According to the multi-person thought-inducing interactive device having such a configuration, or the multi-person thought-inducing interactive method having such a procedure, the multi-person thought inducing interactive device includes a plurality of human users and a plurality of computers. A quiz question-and-answer dialogue can be performed with an agent. Thereby, it is possible to activate communication between users, which was impossible in the conventional question-and-answer dialogue between one user and one agent.

また、本発明に係る多人数思考喚起型対話プログラムは、前記いずれかの多人数思考喚起型対話装置を構成する各手段としてコンピュータを機能させるためのプログラムである。このように構成されることにより、このプログラムをインストールされたコンピュータは、このプログラムに基づいた各機能を実現することができる。   Further, the multi-person thought-stimulating dialogue program according to the present invention is a program for causing a computer to function as each means constituting one of the multi-person thought-stimulating interactive devices. By being configured in this way, a computer in which this program is installed can realize each function based on this program.

また、本発明に係るコンピュータ読み取り可能な記録媒体は、前記多人数思考喚起型対話プログラムが記録されたことを特徴とする。このように構成されることにより、この記録媒体を装着されたコンピュータは、この記録媒体に記録されたプログラムに基づいた各機能を実現することができる。   Also, a computer-readable recording medium according to the present invention is characterized in that the multi-person thought-inducing dialogue program is recorded. By being configured in this way, a computer equipped with this recording medium can realize each function based on a program recorded on this recording medium.

本発明によれば、複数の人間と複数の対話エージェントが参加する多人数の思考喚起型対話において、エージェントおよびユーザの発言内容および発言タイミングに係る対話状況を記憶手段で管理し、予め定められた対話制御ルールおよび発言生成ルールに基づいて、エージェントが、適切な内容かつ適切なタイミングで、共感的発言または自己中心的発言を出力することができる。したがって、人間が感じる満足度、エージェントに対する親近感や好感度、エージェントにケアされているという感覚が向上し、人間同士のやり取りを含むコミュニケーション量を増やすことができ、コミュニケーションを活性化することが可能となる。その結果、多人数対話に参加する人間同士のつながり、親近感、連帯感を強める効果が期待できる。   According to the present invention, in a multi-person thought-inducing dialogue in which a plurality of people and a plurality of dialogue agents participate, the dialogue status relating to the contents and timing of the utterances of the agent and the user is managed by the storage means, and predetermined. Based on the dialogue control rule and the speech generation rule, the agent can output a sympathetic speech or a self-centered speech with appropriate content and appropriate timing. Therefore, the degree of satisfaction that humans feel, the sense of familiarity and likability with agents, and the sense that they are being cared for can be improved, and the amount of communication, including interaction between humans, can be increased and communication can be activated. It becomes. As a result, the effect of strengthening the connection, closeness, and solidarity between humans participating in the multi-person dialogue can be expected.

本発明の実施形態に係る多人数思考喚起型対話システムの構成を示す概念図である。It is a conceptual diagram which shows the structure of the multi-person thought arousing dialogue system which concerns on embodiment of this invention. 図1に示したユーザ発言理解部の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the user speech understanding part shown in FIG. 図1に示した対話制御部の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the dialogue control part shown in FIG. 図1に示したエージェント発言生成部の動作(ヒント文)を示すフローチャートである。It is a flowchart which shows operation | movement (hint sentence) of the agent statement production | generation part shown in FIG. 図1に示したエージェント発言生成部の動作(ヒント文以外)を示すフローチャートである。It is a flowchart which shows operation | movement (other than a hint sentence) of the agent statement production | generation part shown in FIG. 図1に示した対話制御部の構成例を示すブロック図である。It is a block diagram which shows the structural example of the dialogue control part shown in FIG. 図6に示したヒント生成部の構成例を示すブロック図である。It is a block diagram which shows the structural example of the hint production | generation part shown in FIG. 図7に示したヒント生成部の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the hint production | generation part shown in FIG. 図6に示した出題制御手段の構成例を示すブロック図である。It is a block diagram which shows the structural example of the question control means shown in FIG. 図9に示した出題制御手段の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the question control means shown in FIG.

図面を参照して本発明の多人数思考喚起型対話装置および多人数思考喚起型対話方法を実施するための形態(以下「実施形態」という)について詳細に説明する。以下では、多人数思考喚起型対話システムの概略、システム構成の詳細、対話制御部の詳細、対話制御ルールの具体例、エージェント発言生成部の詳細、発言生成ルールの具体例、出題制御手段の具体例について順次説明する。   An embodiment (hereinafter referred to as “embodiment”) for carrying out the multi-person thought-stimulating dialogue apparatus and multi-person thought-stimulating dialogue method of the present invention will be described in detail with reference to the drawings. The following is an outline of a multi-person thought-aware dialogue system, details of the system configuration, details of the dialogue control unit, concrete examples of dialogue control rules, details of the agent speech generation unit, concrete examples of speech generation rules, concrete examples of question control means Examples will be described sequentially.

[多人数思考喚起型対話システムの概略]
図1は、本発明の実施形態に係る多人数思考喚起型対話システムの構成を示す概念図である。多人数思考喚起型対話システム1(以下、単にシステムともいう)は、人間である複数のユーザとコンピュータで実現される複数のエージェントとによる多人数対話において、エージェントの発言によってユーザの思考を喚起させるシステムである。本実施形態では、システムは、クイズ形式の多人数思考喚起型対話を行うシステムであるものとして説明する。このシステムでは、2名のユーザ(人間)と2体の対話エージェントが対話に参加する。2名のユーザとして、花子、良子が対話に参加する。2体の対話エージェントとして、人物当てクイズの問題を出題し、順にヒントを提示する出題エージェント「ふーふー」と、人間と同じ立場でクイズに回答する回答エージェント「きのこ」が対話に参加する。ユーザと対話エージェントを合わせて、対話参加者(参加者)と呼ぶ。ユーザは、キーボードを使って発言を入力し、ユーザと対話エージェントの発言はディスプレイ10上に文字列として出力される。なお、ユーザの端末装置と、多人数思考喚起型対話システム1とは、LAN(local area network)やインターネット等のネットワークにより通信可能に接続されている。
[Outline of multi-person thinking-aware dialogue system]
FIG. 1 is a conceptual diagram showing a configuration of a multi-person thought-stimulating dialogue system according to an embodiment of the present invention. The multi-person thought-stimulating dialogue system 1 (hereinafter also simply referred to as a system) arouses the user's thoughts by the agent's remarks in a multi-person dialogue between a plurality of human users and a plurality of agents realized by a computer. System. In the present embodiment, the system will be described as a system that performs a quiz-type multi-person thought-inducing dialogue. In this system, two users (humans) and two dialogue agents participate in the dialogue. Hanako and Ryoko participate in the dialogue as two users. As two interactive agents, a question-taking agent “Foo-Foo” that presents a question about a person quiz and presents hints in order, and an answer agent “Mushroom” who answers the quiz in the same position as a human participate in the dialogue. . The user and the dialogue agent are collectively called a dialogue participant (participant). The user inputs an utterance using the keyboard, and the utterances of the user and the dialogue agent are output as character strings on the display 10. Note that the user's terminal device and the multi-person thought-stimulating dialogue system 1 are communicably connected via a network such as a local area network (LAN) or the Internet.

対話は、以下のように進行する。まず、出題エージェント「ふーふー」が人名当てクイズの問題となる人名を選択し、クイズのヒント文を作成する。ヒント文は、非特許文献1にしたがって、ユーザが容易に正解に辿り着かないように、難しいヒントから易しいヒントの順に自動的に並び変えて生成されたたものである。対話は、出題エージェントが、「人物当てクイズを始めます」といった発言によって、クイズの問題を開始することによって始まる。続いて、出題エージェントは順にヒントを提示していく。   The dialogue proceeds as follows. First, the questioning agent “Foo-Foo” selects the name of the person who has a problem with the name guessing quiz and creates a quiz hint sentence. The hint sentence is generated in accordance with Non-Patent Document 1 by automatically rearranging difficult hints to easy hints so that the user does not easily reach the correct answer. The dialogue starts when the questioning agent starts a quiz problem with a statement such as "I will start a quiz for people." Subsequently, the questioning agent presents hints in order.

2名のユーザと2体の対話エージェントはいつでも発言が可能である。ユーザあるいは回答エージェントが、クイズのヒント文に対して回答を発言したとき、その回答が不正解であるなら、出題エージェントは回答を評価する発言(例:「近いです」、「遠いです」)を行う。ユーザあるいは回答エージェントの回答が正解であるなら、出題エージェントは回答が正解であることを伝え、現在の問題についての対話を終了する。出題エージェントは1つのヒント文を提示して、予め定められた時間のうちにユーザと回答エージェントが正解の回答を行わなかった場合、次のヒントを提示する。前もって作成していたヒントが無くなってしまったら、そのことを伝えて、現在の問題に関する対話を終了する。現在の問題についての対話が終了したら、次の問題についての対話に移る。   Two users and two interactive agents can speak at any time. When the user or answering agent utters an answer to a quiz hint sentence, if the answer is incorrect, the questioning agent evaluates the answer (eg, “near” or “far”). Do. If the answer of the user or the answer agent is correct, the questioning agent informs that the answer is correct and ends the dialogue about the current problem. The questioning agent presents one hint sentence and presents the next hint when the user and the answering agent do not give a correct answer within a predetermined time. If you lose a hint that you have created in advance, tell it and end the conversation about the current problem. When the dialogue on the current problem ends, move to the dialogue on the next problem.

ユーザと対話エージェントは、以上のやりとりの他に、問題を難しく感じていること、あるいは、易しく感じていることを表明したり、その表明に対して応対したり、問題が正解に終わったこと、あるいは、不正解に終わったことに対する感想を述べたり、といったことを行う。また、ユーザと対話エージェントは、共感的発言や自己中心的発言を行うことができる。   In addition to the above interaction, the user and the dialogue agent expressed that they felt that the problem was difficult or easy, and responded to that statement. Or, give an impression of having ended up with an incorrect answer. In addition, the user and the dialogue agent can make sympathetic speech and self-centered speech.

(システム構成)
図1に示す多人数思考喚起型対話システム(多人数思考喚起型対話装置)1は、CPU等の演算装置と、メモリ、ハードディスク等の記憶装置(記憶手段)と、マウスやキーボード等の外部から情報の入力を検出する入力装置と、外部との各種情報の送受信を行うインタフェース装置と、LCD(Liquid Crystal Display)等の表示装置を備えたコンピュータと、このコンピュータにインストールされたプログラムとから構成される。
(System configuration)
A multi-person thought-inducing dialogue system (multi-person thought-inspiring dialogue apparatus) 1 shown in FIG. 1 includes an arithmetic device such as a CPU, a storage device (storage means) such as a memory and a hard disk, and an external device such as a mouse and a keyboard. An input device that detects input of information, an interface device that transmits and receives various types of information to and from the outside, a computer that includes a display device such as an LCD (Liquid Crystal Display), and a program that is installed in the computer The

多人数思考喚起型対話装置1は、ハードウェア装置とソフトウェアとが協働することによって、前記したハードウェア資源がプログラムによって制御されることにより実現され、図1に示すように、ユーザ発言理解部2と、対話制御部3と、エージェント発言生成部4と、対話状態(対話状態記憶手段)5と、発言キュー(キュー記憶手段)6とから構成される。   The multi-person thought arousing interactive device 1 is realized by the hardware device and software cooperating to control the aforementioned hardware resources by a program, and as shown in FIG. 2, a dialogue control unit 3, an agent statement generation unit 4, a dialogue state (conversation state storage unit) 5, and a statement queue (queue storage unit) 6.

システムの感情表出のパターンを制御するために、外部から、システム感情パラメータと呼ぶパラメータを与える。
システム感情パラメータは、各エージェントの発言を共感的発言または自己中心的発言に規定する感情条件を設定する感情パラメータであり、後記するα、βが含まれる。
また、システムの時間に関する挙動を制御するために、外部から各種の時間パラメータを与える。時間パラメータは、エージェントが発言するタイミングを規定するものであり、後記するHT,ST,WTが含まれる。
In order to control the emotion expression pattern of the system, a parameter called a system emotion parameter is given from the outside.
The system emotion parameter is an emotion parameter for setting an emotion condition that prescribes each agent's utterance as sympathetic utterance or self-centered utterance, and includes α and β described later.
Various time parameters are given from the outside in order to control the behavior of the system with respect to time. The time parameter defines the timing at which the agent speaks, and includes HT, ST, and WT described later.

ユーザと対話エージェントの発言の内容は、システム内部において、対話行為(対話行為情報)と、対話行為に伴う付随効果として表現される。対話行為(対話行為情報)は、多人数対話の参加者の発言内容の種類ごとに各エージェントからユーザに提示される発言の内部構造を記述した第1対話行為情報(T201〜T216:表4参照)と、ユーザの発言の内部構造を記述した第2対話行為情報(T206〜T217:表4参照)とに分類できる。対話行為と付随効果の詳細については、後記する。   The contents of the speech of the user and the dialogue agent are expressed as dialogue actions (dialogue action information) and accompanying effects accompanying the dialogue actions in the system. The dialogue action (dialogue action information) is first dialogue action information (T201 to T216: refer to Table 4) that describes the internal structure of the utterance presented to the user from each agent for each kind of utterance contents of the participants of the multi-person dialogue. ) And second dialogue action information (T206 to T217: see Table 4) describing the internal structure of the user's remarks. Details of dialogue actions and incidental effects will be described later.

なお、本実施形態においてはユーザの発言はキーボードによって入力されるが、ユーザの音声を認識する方法を備えている場合には、ユーザの発言を音声によって入力することも可能である。また、本実施形態においてはユーザと対話エージェントの発言は、各ユーザのディスプレイ10に出力されるが、もし、対話エージェントが音声出力機能をもっている場合には、エージェントの発言は、各エージェントの音声出力機能を使って、音声によって出力される。   In this embodiment, the user's speech is input by a keyboard. However, when a method for recognizing the user's speech is provided, the user's speech can be input by speech. In this embodiment, the speech of the user and the dialogue agent is output to the display 10 of each user. However, if the dialogue agent has a voice output function, the speech of the agent is the voice output of each agent. Using function, it is output by voice.

図2はユーザ発言理解部の動作を示すフローチャート、図3は対話制御部の動作を示すフローチャート、図4および図5は、エージェント発言生成部の動作を示すフローチャートである。以下の説明文およびフローチャート中の用語の定義について図1を適宜参照しながら説明した後、各部の動作を説明する。   2 is a flowchart showing the operation of the user speech understanding unit, FIG. 3 is a flowchart showing the operation of the dialogue control unit, and FIGS. 4 and 5 are flowcharts showing the operation of the agent speech generation unit. The following explanations and definitions of terms in the flowchart will be described with reference to FIG. 1 as appropriate, and then the operation of each part will be described.

[システム構成の詳細]
(システム感情パラメータ)
システムの感情表出を制御するためにシステム感情パラメータを外部から与える。
システム感情パラメータには共感パラメータαと自己中心パラメータβがあり、それぞれ、「1」か「0」の値をとる。システム感情パラメータは、次のように、共感パラメータαと自己中心パラメータβの組によって表す。
<共感パラメータ、自己中心パラメータ>=<α,β>
[System configuration details]
(System emotion parameters)
System emotion parameters are given externally to control the emotional expression of the system.
The system emotion parameters include a sympathy parameter α and a self-centered parameter β, each having a value of “1” or “0”. The system emotion parameter is represented by a set of empathy parameter α and self-centered parameter β as follows.
<Empathetic parameters, self-centered parameters> = <α, β>

共感パラメータαが「1」のとき、システムは共感的な発言を行うことが可能となり、共感パラメータαが「0」のとき、システムは共感的な発言を行わない。
自己中心パラメータβが「1」のとき、システムは自己中心的な発言を行うことが可能となり、自己中心パラメータβが「0」のとき、システムは自己中心的な発言を行わない。ここで、共感とは、発言者が他者の状況に対して思いやる感情であり、自己中心とは、発言者が自分自身の状況に対して向ける感情である。
When the sympathy parameter α is “1”, the system can make a sympathetic speech, and when the sympathy parameter α is “0”, the system does not make a sympathetic speech.
When the self-center parameter β is “1”, the system can make a self-centered speech, and when the self-center parameter β is “0”, the system does not make a self-centered speech. Here, empathy is an emotion that the speaker considers for the other person's situation, and self-centered is an emotion that the speaker gives to the own situation.

次に示す通り、システム感情パラメータの値にしたがって、共感条件、自己中心条件、無感情条件と呼ぶシステムの3つの感情条件を次のように定義する。
(1)共感パラメータαが「1」のとき、共感条件が成立していると呼び、共感パラメータαが「0」のとき、共感条件が成立していないと呼ぶ。
(2)自己中心パラメータβが「1」のとき、自己中心条件が成立していると呼び、自己中心パラメータβが「0」のとき、自己中心条件が成立していないと呼ぶ。
(3)共感パラメータαと自己中心パラメータβの双方が「0」のとき、無感情条件が成立していると呼ぶ。さもなければ、無感情条件が成立していないと呼ぶ。
(4)共感パラメータαと自己中心パラメータβの双方が「1」のときは、共感条件と自己中心条件の双方が成立する。
As shown below, according to the value of the system emotion parameter, the three emotion conditions of the system called the empathy condition, self-centered condition, and no emotion condition are defined as follows.
(1) When the sympathy parameter α is “1”, it is called that the sympathy condition is satisfied, and when the sympathy parameter α is “0”, it is called that the sympathy condition is not satisfied.
(2) When the self-center parameter β is “1”, it is called that the self-center condition is satisfied, and when the self-center parameter β is “0”, it is called that the self-center condition is not satisfied.
(3) When both the empathy parameter α and the self-centered parameter β are “0”, it is said that the emotionless condition is satisfied. Otherwise, it is said that no emotional condition is established.
(4) When both the empathy parameter α and the self-center parameter β are “1”, both the empathy condition and the self-center condition are satisfied.

システム感情パラメータ(<共感パラメータ,自己中心パラメータ>)と感情条件の関係をまとめると次のようになる。   The relationship between system emotion parameters (<sympathetic parameters, self-centered parameters>) and emotion conditions is summarized as follows.

Figure 2010186237
Figure 2010186237

(時間パラメータ)
システムの時間に関する挙動を制御するために、次のパラメータを外部から与える。
(1)ヒント間隔時間HT[秒]
(2)最大無言時間ST[秒]
(3)発言開始待ち時間WT[秒]
ヒント間隔時間HTとは、出題エージェントが1つのヒントを提示してから、次のヒントを提示するまでの時間である。いずれかの対話参加者が発言を行った後、どの対話参加者も発言を行わない時間が、最大無言時間STを超過したら、いずれかの対話エージェントが次の発言を行わなければならない。また、いずれかの対話参加者が発言を行った後、対話エージェントが次の発言を行うためには、少なくとも発言開始待ち時間WTの間隔をおかなければならない。最大無言時間STは発言開始待ち時間WTよりも大きい値である必要がある。本実施形態においては、一例として、ヒント間隔時間は30[秒]、最大無言時間は4[秒]、発言開始待ち時間は0.5[秒]に設定した。
(Time parameter)
In order to control the behavior of the system with respect to time, the following parameters are given externally.
(1) Hint interval time HT [seconds]
(2) Maximum silent time ST [seconds]
(3) Speech start waiting time WT [seconds]
The hint interval time HT is the time from when the questioning agent presents one hint to when the next hint is presented. After any dialog participant speaks, if the time during which no dialog participant speaks exceeds the maximum silent time ST, any dialog agent must make the next speech. In addition, after any dialogue participant speaks, in order for the dialogue agent to make the next speech, at least the speech start waiting time WT must be kept. The maximum silence time ST needs to be larger than the speech start waiting time WT. In this embodiment, as an example, the hint interval time is set to 30 [seconds], the maximum silence time is set to 4 [seconds], and the speech start waiting time is set to 0.5 [seconds].

(発言タイプ)
ユーザと対話エージェントが行う発言には次のものがある。発言は発言タイプ(各エージェントの発言内容の種類)により分類される。本実施形態では、表2および表3に示すように、T101〜T117のように17種類に分類した。各発言タイプの説明と、発言表現の例は、表2および表3の中に記載したので説明を省略する。
(Speech type)
The statements made by the user and the dialogue agent are as follows. The utterances are classified according to utterance types (types of utterance contents of each agent). In this embodiment, as shown in Table 2 and Table 3, it was classified into 17 types such as T101 to T117. Descriptions of each message type and examples of message expressions are described in Tables 2 and 3, and thus the description thereof is omitted.

Figure 2010186237
Figure 2010186237

Figure 2010186237
Figure 2010186237

(対話行為)
ユーザと対話エージェントの発言の内容は、システム内部で、対話行為として表現される。対話行為は次の式(1)の形式をしている。
<発言ID,発言時刻,発言者,発言タイプ,発言表現> … 式(1)
(Dialogue)
The content of the speech of the user and the dialogue agent is expressed as a dialogue act within the system. The dialogue act has the form of the following formula (1).
<Speech ID, Speak Time, Speaker, Speak Type, Speak Expression> ... (1)

ここで、発言時刻は、発言を実行したときの時刻である。
発言者は、発言を実行する主体であり、この実施形態の場合、花子、良子、出題エージェント「ふーふー」、回答エージェント「きのこ」のうちのいずれかである。
発言タイプは、発言の種類を表す。発言表現は、自然言語の文字列である。
Here, the speech time is the time when the speech is executed.
The speaker is an entity that executes a statement. In this embodiment, the speaker is any one of Hanako, Ryoko, the questioning agent “Foo-Foo”, and the answer agent “Mushroom”.
The utterance type represents the kind of utterance. The speech expression is a natural language character string.

対話行為は付随効果を伴う場合がある。付随効果は、対話行為の内容を補足する命題や、対話行為の実行した後に成立する命題を表している。例えば、出題エージェント「ふーふー」が人物名PERSONを対象とする人物当てクイズを始めるという問題開始タイプの対話行為は、2つの付随効果を伴って、次の式(2a)、式(2b)、式(2c)のように表される。   Dialogue actions may have accompanying effects. The incidental effect represents a proposition that supplements the content of the dialogue act or a proposition established after the dialogue act is executed. For example, the question starting type dialogue act in which the questioning agent “Foo-Foo” starts a person quiz for the person name PERSON has the following equations (2a) and (2b) with two accompanying effects. ), And is expressed as in equation (2c).

対話行為:<ID,TIME,ふーふー,問題開始,EXPR> … 式(2a)
付随効果:<問題対象,ID,PERSON> … 式(2b)
<現在の問題,ID> … 式(2c)
Dialogue action: <ID, TIME, foo, problem start, EXPR> ... Formula (2a)
Accompanying effects: <Problem object, ID, PERSON> Formula (2b)
<Current problem, ID> ... Formula (2c)

対話行為である式(2a)において、IDは、「発話ID」を示し、TIMEは「発話時刻」を示し、EXPRは「発言表現」を示している。また、付随効果である式(2b)において、PERSONは「問題の対象となる人物名」を示している。   In the expression (2a) which is a dialogue action, ID indicates “speech ID”, TIME indicates “speech time”, and EXPR indicates “speech expression”. Further, in the expression (2b) which is an accompanying effect, PERSON indicates “person name to be a problem”.

付随効果である式(2b)の<問題対象,ID,PERSON>は、「発言ID」をもつ問題開始タイプの発言によって、人物名PERSONを当てるクイズが開始されたことを示す。
付随効果である式(2c)の<現在の問題,ID>は、現在のクイズの対話は、「発言ID」をもつ問題開始タイプの対話行為によって開始されたことを示す。
<Problem object, ID, PERSON> in the expression (2b), which is an accompanying effect, indicates that a quiz to hit the person name PERSON is started by a problem start type utterance having a “utterance ID”.
The <current problem, ID> in the expression (2c), which is an accompanying effect, indicates that the current quiz dialog has been started by a problem start type dialog act having a “speech ID”.

本実施形態における対話行為と付随効果の表現は以下の通りである。なお、IDで始まる記号は「発話ID」、TIMEは「発話時刻」、USERは「ユーザ」、AGENTは「対話エージェント」、P(=PARTICIPANTの略記)で始まる記号は「対話参加者」、EXPRで始まる記号は「発言表現」をそれぞれ表す。   The expression of the dialogue action and the accompanying effect in the present embodiment is as follows. Symbols starting with ID are “speech ID”, TIME is “speech time”, USER is “user”, AGENT is “dialogue agent”, symbols beginning with P (= PARTICIPANT) are “dialog participants”, EXPR Symbols that begin with “representation” respectively.

Figure 2010186237
Figure 2010186237

Figure 2010186237
Figure 2010186237

(発言キュー)
発言キュー6は、ユーザあるいは対話エージェントによる発言の内容を表した対話行為から成るFirst-in-First-outの待ち行列である。発言キュー6に新たな対話行為を追加するときは、発言キュー6の最後尾に追加される。発言キュー6から対話行為を取り出すときは、先頭の対話行為が取り出される。この発言キュー6は、第1対話行為情報と、ユーザの発言の内部構造を記述した第2対話行為情報(T206〜T217:表4および表5参照)とを記憶するキュー記憶手段を示している。
(Remark queue)
The speech queue 6 is a first-in-first-out queue composed of dialogue actions representing the content of speech by the user or the dialogue agent. When a new dialogue action is added to the message queue 6, it is added to the tail of the message queue 6. When the dialogue action is taken out from the speech queue 6, the first dialogue action is taken out. The message queue 6 indicates queue storage means for storing first dialog action information and second dialog action information (T206 to T217: see Tables 4 and 5) describing the internal structure of the user's message. .

(対話状態)
対話状態5には、エージェント発言生成部4によって実行済みの対話行為とその付随効果の履歴が書き込まれる。対話状態5には、ユーザ発言理解部2によって変換されたユーザ発言(ユーザの対話行為とその付随効果)の履歴も書き込まれる。この対話状態5は、多人数対話の参加者による対話の履歴として、ユーザに既に提示された発言に関する第1および第2対話行為情報の履歴を記憶する対話状態記憶手段を示している。
(Interactive state)
In the dialogue state 5, a history of dialogue actions that have been executed by the agent statement generation unit 4 and their associated effects are written. In the dialogue state 5, a history of user utterances (the user's dialogue act and its accompanying effects) converted by the user utterance understanding unit 2 is also written. This dialogue state 5 shows dialogue state storage means for storing the history of the first and second dialogue action information relating to the speech already presented to the user as the dialogue history by the participants of the multi-person dialogue.

(ユーザ発言理解部)
ユーザ発言理解部2は、キーボードあるいは音声認識装置などによって入力される各ユーザの発言を受け取り、対話行為に変換する。ユーザ発言理解部2は、図2に示す手順で動作する。ユーザ発言理解部2は、各ユーザの発言を取得し(ステップS21)、ユーザの発言を対話行為に変換する(ステップS22)。そして、ユーザの対話行為を発言キュー6の最後尾に追加する(ステップS23)と共に、ユーザの対話行為を対話状態5に書き込む(ステップS24)。そして、ユーザ発言理解部2は、この一連の処理(ステップS21〜S24)を繰り返す。
(User remark understanding department)
The user utterance understanding unit 2 receives each user's utterance input by a keyboard or a voice recognition device, and converts it into an interactive action. The user speech understanding unit 2 operates according to the procedure shown in FIG. The user speech understanding unit 2 acquires each user's speech (step S21), and converts the user's speech into a dialogue act (step S22). Then, the user's interactive action is added to the tail of the speech queue 6 (step S23), and the user's interactive action is written in the dialog state 5 (step S24). Then, the user speech understanding unit 2 repeats this series of processes (steps S21 to S24).

(対話制御部)
対話制御部3は、対話エージェントが実行すべき対話行為を選択し、エージェント発言生成部4にその対話行為と付随効果を送るという機能をもつ。
(Dialogue control section)
The dialogue control unit 3 has a function of selecting a dialogue action to be executed by the dialogue agent and sending the dialogue action and accompanying effects to the agent speech generation unit 4.

なお、出題エージェントによる問題開始タイプの対話行為を選択する際には、非特許文献1の方法にしたがって、難しい順に並べたヒント文を自動生成し、そのヒント文をエージェント発言生成部4に送る。   When selecting a question start type interactive action by the questioning agent, hint sentences arranged in order of difficulty are automatically generated according to the method of Non-Patent Document 1, and the hint sentences are sent to the agent statement generation unit 4.

対話制御部3は図3に示す手順で動作する。対話制御部3は、発言キュー6の先頭にある対話行為と対話状態5とを参照し、対話制御ルールを決定し(ステップS31)、決定した対話制御ルールを実行するための対話エージェントの対話行為候補を選択する(ステップS32)。対話制御部3は、対話状態5を参照すれば、誰かが発言した後で、誰が発言したかという情報を取得できる。なお、それぞれの対話行為候補には付随効果を伴っている場合がある。対話行為候補が複数ある場合(ステップS33:Yes)、対話制御部3は、後記する対話行為選択ルールにしたがって、そのうち1つの対話行為を選択し(ステップS34)、選択したエージェントの対話行為と付随効果をエージェント発言生成部4に入力する(ステップS35)。一方、対話制御部3は、対話行為候補が1つであった場合(ステップS33:No)、ステップS34をスキップしてステップS35に進む。ステップS35に続いて、対話制御部3は、発言キュー6の先頭にある対話行為を発言キュー6から取り除く(ステップS36)。対話制御部3は、発言キュー6が空でなければ(ステップS37:No)、ステップS31に戻り、発言キュー6が空ならば(ステップS37:Yes)、処理を終了する。   The dialogue control unit 3 operates according to the procedure shown in FIG. The dialogue control unit 3 refers to the dialogue act at the head of the message queue 6 and the dialogue state 5 to determine a dialogue control rule (step S31), and the dialogue agent's dialogue act for executing the decided dialogue control rule. A candidate is selected (step S32). If the dialog control unit 3 refers to the dialog state 5, it can acquire information on who has spoken after someone has spoken. Each dialogue action candidate may have an accompanying effect. When there are a plurality of dialogue action candidates (step S33: Yes), the dialogue control unit 3 selects one of the dialogue actions according to the dialogue action selection rule described later (step S34), and the dialogue action of the selected agent and the accompanying action. The effect is input to the agent message generation unit 4 (step S35). On the other hand, when there is only one dialogue action candidate (step S33: No), the dialogue control unit 3 skips step S34 and proceeds to step S35. Subsequent to step S35, the dialogue control unit 3 removes the dialogue action at the head of the statement queue 6 from the statement queue 6 (step S36). The dialog control unit 3 returns to step S31 if the message queue 6 is not empty (step S37: No), and ends the process if the message queue 6 is empty (step S37: Yes).

(対話行為選択ルール)
対話行為候補が複数あるときは、次の(A)に含まれる発言タイプの対話行為を(B)に含まれる発言タイプの対話行為よりも優先して選択する。それでも、対話行為候補が複数残るときは、無作為に1つの対話行為とその付随効果を選択する。
(A)問題開始、ヒント提示、回答評価、正解終了、不正解終了、回答評価応対、正解終了時感想−自分、正解終了時感想−他者、不正解終了時感想、難度表出応対、易度表出応対
(B)難度表出、易度表出、促し、回答、アイヅチ
(Dialogue action selection rules)
When there are a plurality of dialogue action candidates, the speech type dialogue action included in the next (A) is selected in preference to the speech type dialogue action contained in (B). Still, when a plurality of dialogue action candidates remain, one dialogue action and its accompanying effects are selected at random.
(A) Problem start, hint presentation, answer evaluation, correct answer end, incorrect answer end, answer evaluation response, correct answer impression-yourself, correct answer impression-others, incorrect answer end impression, difficulty expression response, easy Degree expression response (B) Difficulty expression, difficulty expression, prompt, answer, Aichi

(エージェント発言生成部)
エージェント発言生成部4は、2つの機能をもつ。1つは、対話制御部3からヒント文が送られてきたときに、それを受け取って保持する機能(ヒント文取得時)であり、もう1つは、対話制御部3から対話行為と付随効果が送られてきたときに、それに対応するエージェントの発言表現を生成し、ディスプレイ10に出力するという機能(ヒント文取得時以外)である。エージェント発言生成部4は、図4および図5に示す手順で動作する。
(Agent remark generation part)
The agent speech generation unit 4 has two functions. One is a function for receiving and holding a hint sentence from the dialog control unit 3 (when the hint sentence is acquired), and the other is a dialog act and accompanying effect from the dialog control unit 3. This is a function (except when acquiring a hint sentence) that generates a message expression of an agent corresponding to the message and outputs it to the display 10. The agent statement generation unit 4 operates according to the procedure shown in FIGS.

まず、ヒント文取得時には、図4に示すように、エージェント発言生成部4は、対話制御部3からヒント文が送られてきたら、それを受け取り(ステップS41)、取得したヒント文を保存する(ステップS42)。   First, when the hint sentence is acquired, as shown in FIG. 4, the agent statement generation unit 4 receives the hint sentence from the dialogue control unit 3 (step S41), and stores the acquired hint sentence (step S41). Step S42).

ヒント文取得時以外には、図5に示すように、エージェント発言生成部4は、対話制御部3からエージェントの対話行為と付随効果が送られてきたら、それを受け取り(ステップS51)、対話状態5を参照し、発言生成ルールに基づいて対話行為に対応する発言表現(文字列)を生成する(ステップS52)。ここで、発言生成ルールは、対話制御部3が対話状態5を参照して、対話状態5に応じて適切な発言表現(文字列)を選択するためのルールである。発言生成ルールの詳細については後記する。   When the hint sentence is not acquired, as shown in FIG. 5, the agent speech generation unit 4 receives the agent's dialogue action and accompanying effects from the dialogue control unit 3 (step S51), and receives the dialogue state. 5, the speech expression (character string) corresponding to the dialogue action is generated based on the speech generation rule (step S52). Here, the statement generation rule is a rule for the dialogue control unit 3 to select an appropriate statement expression (character string) according to the dialogue state 5 with reference to the dialogue state 5. Details of the statement generation rule will be described later.

続いて、エージェント発言生成部4は、生成された発言表現(文字列)を対話行為の発言表現の値として代入し、現在の時刻を対話行為の発言時刻の値として代入する(ステップS53)。そして、エージェント発言生成部4は、生成された発言表現(文字列)をディスプレイ10に出力する(ステップS54)。そして、エージェント発言生成部4は、エージェントの対話行為と付随効果を対話状態5に書き込み、対話状態5の履歴を更新する(ステップS55)。ただし、<現在の問題,ID,Person>という形の付随効果に関しては、対話状態5に同じ形の付随効果があれば、それを消去し、対話制御部3から送られてきた付随効果を書きこむ。このことにより、対話状態5には現在の対話で扱われているクイズの問題が1つだけ保持されることになる。そして、エージェント発言生成部4は、エージェントの対話行為を発言キュー6の最後尾に追加する。なお、エージェント発言生成部4は、この一連の処理(ステップS51〜S56)を繰り返す。   Subsequently, the agent utterance generation unit 4 substitutes the generated utterance expression (character string) as the value of the utterance expression of the dialogue action, and substitutes the current time as the value of the utterance time of the dialogue action (step S53). Then, the agent message generation unit 4 outputs the generated message expression (character string) to the display 10 (step S54). Then, the agent statement generation unit 4 writes the agent's dialogue action and accompanying effects in the dialogue state 5 and updates the history of the dialogue state 5 (step S55). However, for the accompanying effect of the form <current problem, ID, Person>, if there is an accompanying effect of the same form in the dialog state 5, it is deleted and the accompanying effect sent from the dialog control unit 3 is written. Come on. As a result, the dialog state 5 holds only one quiz problem handled in the current dialog. Then, the agent message generation unit 4 adds the agent's dialogue action to the tail of the message queue 6. The agent message generation unit 4 repeats this series of processing (steps S51 to S56).

(多人数思考喚起型対話システム1全体の動作)
ここで、図1に戻って、対話状況としての「対話状態5と発言キュー6」を中心とした多人数思考喚起型対話システム1全体の動作を概観する。まず、ユーザ側の発言いついては、各ユーザ(ユーザA、ユーザB)が、自由なタイミングで発言を入力する(S1)。この発言の発言表現(文字列)は、各ユーザ(ユーザA、ユーザB)のディスプレイ10に表示される(S2)。また、発言の発言表現(文字列)は、ユーザ発言理解部2によって、ユーザの対話行為(第2対話行為情報)に変換され、ユーザの対話行為は発言キュー6へ追加され(S3)、対話状態5に書き込まれる(S4)。
(Operation of the multi-person thinking-aware dialogue system 1 as a whole)
Here, referring back to FIG. 1, the overall operation of the multi-person thought-stimulating dialogue system 1 centering on the “dialogue state 5 and the speech queue 6” as the dialogue status will be outlined. First, regarding the user's remarks, each user (user A, user B) inputs a remark at a free timing (S1). The speech expression (character string) of this speech is displayed on the display 10 of each user (user A, user B) (S2). Further, the speech expression (character string) of the speech is converted into the user's dialogue action (second dialogue action information) by the user speech understanding unit 2, and the user's dialogue action is added to the speech queue 6 (S3). State 5 is written (S4).

一方、システムでは、対話制御部3が発言キュー6を参照し(S5a)、対話状態5を参照しており(S5b)、対話制御ルールにしたがって、出題エージェントの対話行為(ヒント文提示)を選択した場合には、生成したヒント文(ヒント文リスト)をエージェント発言生成部4に送信する(S6a)。あるいは、対話制御部3は、対話制御ルールにしたがって、出題エージェントまたは回答エージェントの他の対話行為(+付随効果)を選択した場合には、選択した他の対話行為(+付随効果)をエージェント発言生成部4に送信する(S6b)。そして、対話制御部3は、発言キュー6から、先頭の対話行為を取り出す(S7)。   On the other hand, in the system, the dialogue control unit 3 refers to the message queue 6 (S5a), and refers to the dialogue state 5 (S5b), and selects the dialogue action (presentation of hint text) of the questioning agent according to the dialogue control rule. If so, the generated hint sentence (hint sentence list) is transmitted to the agent message generation unit 4 (S6a). Alternatively, when the dialog control unit 3 selects another dialog act (+ accompaniment effect) of the questioning agent or the answer agent according to the dialog control rule, the dialog controller 3 utters the selected other dialog act (+ accompaniment effect). It transmits to the production | generation part 4 (S6b). Then, the dialogue control unit 3 takes out the first dialogue action from the statement queue 6 (S7).

そして、システムでは、エージェント発言生成部4が、対話制御部3から取得したヒント文を保存しつつ、他の対話行為(+付随効果)を取得したときには、対話状態5を参照した上で(S8)、発言生成ルールに則って、エージェントの発言表現(文字列)を生成し、取得した対話行為(+付随効果)に代入し、発言表現(文字列)をエージェントの発言として各ユーザ(ユーザA、ユーザB)のディスプレイ10に表示する(S9)。そして、エージェント発言生成部4が、この対話行為を対話状態5に書き込み、対話状態5を更新する(S10)。さらに、発言キュー6にも追加する(S11)。   In the system, when the agent message generation unit 4 acquires another dialogue action (+ accompaniment effect) while saving the hint sentence acquired from the dialogue control unit 3, the agent statement generation unit 4 refers to the dialogue state 5 (S8). ) In accordance with the statement generation rules, an agent's statement expression (character string) is generated and substituted into the acquired dialogue action (+ accompaniment effect), and each user (user A) uses the statement expression (character string) as the agent's statement. And display on the display 10 of the user B) (S9). Then, the agent speech generation unit 4 writes this dialogue action in the dialogue state 5 and updates the dialogue state 5 (S10). Further, it is also added to the message queue 6 (S11).

[対話制御部の詳細]
以下、対話制御部の詳細を説明する。図6は、図1に示した対話制御部の構成例を示すブロック図である。ここでは、対話制御部3は、対話制御ルール11と、状況DB12と、発言タイプ判別手段13と、対話行為選択手段14と、状況条件判別手段15と、発言促進条件判別手段16と、出題制御手段17とを備えることとした。
[Details of Dialogue Control Unit]
Details of the dialogue control unit will be described below. FIG. 6 is a block diagram illustrating a configuration example of the dialogue control unit illustrated in FIG. 1. Here, the dialogue control unit 3 includes the dialogue control rule 11, the situation DB 12, the statement type discrimination means 13, the dialogue action selection means 14, the situation condition discrimination means 15, the speech promotion condition discrimination means 16, and the question control. And means 17.

(対話制御ルール)
対話制御ルール11は、複数(例えば20個)の対話制御ルールCR1〜CR20を記憶する対話制御ルール記憶手段を示している。
各対話制御ルールCR1〜CR20は、それぞれが条件部CR1a〜CR20aと、条件部に対応するアクション部CR1b〜CR20bから成る。各条件部に含まれるすべての条件が成立するとき、そのルールが選択され、アクション部に記述された対話行為と付随効果が対話行為候補として選択される。具体的には、発言タイプ判別手段13と、対話行為選択手段14と、状況条件判別手段15と、発言促進条件判別手段16とが協働して、対話制御ルール11と状況DB12とを参照して対話行為候補を選択する。
(Interaction control rules)
The dialogue control rule 11 indicates dialogue control rule storage means for storing a plurality (for example, 20) of dialogue control rules CR1 to CR20.
Each of the dialogue control rules CR1 to CR20 includes a condition part CR1a to CR20a and an action part CR1b to CR20b corresponding to the condition part. When all the conditions included in each condition part are satisfied, the rule is selected, and the dialogue action and accompanying effects described in the action part are selected as dialogue action candidates. Specifically, the speech type determination unit 13, the dialogue action selection unit 14, the situation condition determination unit 15, and the speech promotion condition determination unit 16 cooperate to refer to the dialogue control rule 11 and the situation DB 12. To select a dialogue action candidate.

状況DB12は、時間情報および感情条件を現在の状況に関する情報として記憶するものである。時間情報は、前記したHT、ST、WTの判定に用いられる経過時間等を含む。感情条件は、前記した共感条件や自己中心条件等の現在の状態を示す。   The situation DB 12 stores time information and emotional conditions as information relating to the current situation. The time information includes an elapsed time used for the above-described determination of HT, ST, and WT. The emotion condition indicates the current state such as the sympathy condition or the self-centered condition described above.

発言タイプ判別手段13は、対話行為を前記した対話行為選択ルールが適用できるように、複数(17個)の発言タイプに分類する。また、エージェント発言生成部4の処理で利用できるように「回答評価タイプ」であるか否かという情報を付加する。
対話行為選択手段14は、前記した対話行為選択ルールを適用するものである。
状況条件判別手段15は、以下の(1)〜(4)のような条件(命題)を判別する。
発言促進条件判別手段16は、以下の(1)〜(4)が満たされているか判別する。
The speech type discriminating means 13 classifies the dialogue actions into a plurality (17) of speech types so that the dialogue action selection rule described above can be applied. Further, information indicating whether or not it is “answer evaluation type” is added so that it can be used in the processing of the agent message generation unit 4.
The dialogue action selection means 14 applies the aforementioned dialogue action selection rule.
The situation condition discriminating means 15 discriminates the following conditions (propositions) (1) to (4).
The speech promotion condition determination unit 16 determines whether the following (1) to (4) are satisfied.

対話制御ルールの条件部において繰り返し利用される条件として、次のように、回答エージェント発言促進条件と呼ぶ条件を定義する。   As a condition repeatedly used in the condition part of the dialog control rule, a condition called an answer agent utterance promotion condition is defined as follows.

(回答エージェント発言促進条件)
回答エージェント発言促進条件は、次の(1)〜(4)のすべての命題が成り立つときに成立する。
(1)対話状態5において、直前の対話参加者の発言から現在までの経過時間が発言開始待ち時間WTを超過している。
(2)発言キュー6の先頭が、次の促しタイプの発言である。
<ID,TIME,USER,促し,EXPR>
(3)USERは、ユーザのいずれかである。
(4)対話状態5において、次が成立している。すなわち、促しの対象が回答エージェントである。
<促し対象,ID,きのこ>
(Responding agent speech promotion conditions)
The reply agent speech promotion condition is satisfied when all of the following propositions (1) to (4) are satisfied.
(1) In the dialog state 5, the elapsed time from the speech of the previous dialog participant to the present exceeds the speech start waiting time WT.
(2) The head of the message queue 6 is the next prompt type message.
<ID, TIME, USER, prompt, EXPR>
(3) USER is one of the users.
(4) In the dialog state 5, the following holds. That is, the target of prompting is an answer agent.
<Promotion object, ID, mushroom>

出題制御手段17は、クイズの問題を記憶する問題記憶部21と、問題の複数のヒントを難易度の高いものから順に並べたヒント文リストを生成するヒント生成部22と、ヒント文リストを記憶するヒント記憶部25と、ユーザまたは回答エージェントの回答の正誤を判定する正誤判定部23と、回答が不正解である場合に正解と回答との類似の度合いを判定する類似判定部24とを備えている。   The question control means 17 stores a question storage unit 21 for storing a quiz problem, a hint generation unit 22 for generating a hint sentence list in which a plurality of hints for a problem are arranged in descending order of difficulty, and a hint sentence list. A hint storage unit 25, a correctness / incorrectness determination unit 23 that determines whether the answer of the user or the answer agent is correct, and a similarity determination unit 24 that determines the degree of similarity between the correct answer and the answer when the answer is incorrect. ing.

出題制御手段17は、出題エージェントと、回答エージェントとの両方の機能を含むので、図6において、出題制御手段17を、対話制御部3とエージェント発言生成部4との両方に跨るように記載した。出題エージェントは、クイズの問題を出題する一連の処理の中で、問題の複数のヒントを難易度の高いものから順に参加者に対して提示するように発言し、ユーザまたは回答エージェントの回答の正誤を判定し、回答が不正解である場合に正解と回答との類似の度合いを判定し、不正解時の類似の度合いに応じた発言および正解時の発言を行う。また、出題エージェントまたは回答エージェントは、参加者の回答が不正解である場合および正解である場合に、その結果に対して感情条件にしたがった発言を行う。この出題制御手段17は、公知の方法、例えば、非特許文献1に記載の方法で実現できる。出題制御手段17の具体例は後記する。   Since the question control means 17 includes the functions of both the question agent and the answer agent, the question control means 17 is described so as to straddle both the dialogue control unit 3 and the agent message generation unit 4 in FIG. . The question-taking agent speaks to present the participants with multiple hints of the problem in order from the most difficult in a series of questions to ask the question of the quiz. If the answer is an incorrect answer, the degree of similarity between the correct answer and the answer is determined, and a statement according to the degree of similarity at the time of the incorrect answer and a statement at the time of the correct answer are made. Also, the questioning agent or answering agent makes a statement according to the emotional condition when the answer of the participant is incorrect or correct. This question control means 17 can be realized by a known method, for example, the method described in Non-Patent Document 1. A specific example of the question control means 17 will be described later.

[対話制御ルールの具体例]
以下において、本実施形態における1つ1つの対話制御ルールを示す。
対話制御ルールの記述において、IDで始まる記号は、発言IDを表す変数である。
TIMEで始まる記号は、発言時刻を表す変数である。
EXPRで始まる記号は、発言表現を表す変数である。
USERは、ユーザのうちいずれかを表す変数である。
PARTICIPANTで始まる記号は、対話参加者(ユーザあるいは対話エージェント)のいずれかを表す変数である。
PERSONは、クイズの問題となる人名を表す変数である。
[Specific examples of dialog control rules]
Below, each dialog control rule in this embodiment is shown.
In the description of the dialog control rule, a symbol starting with ID is a variable representing a speech ID.
Symbols that start with TIME are variables that represent the time of speech.
Symbols that begin with EXPR are variables that represent speech expressions.
USER is a variable representing one of the users.
Symbols beginning with PARTICIPANT are variables that represent one of the dialog participants (user or dialog agent).
PERSON is a variable that represents the name of the person who has a quiz problem.

対話制御部3のアクション部で選択される対話行為候補には、発言時刻と発言表現を表す変数が含まれているが、対話制御部3においては、それらの変数の値は、まだ定まっていない。それらの変数の値は、エージェント発言生成部4において決められる。   Although the dialogue action candidate selected by the action unit of the dialogue control unit 3 includes variables representing the utterance time and the utterance expression, the values of these variables are not yet determined in the dialogue control unit 3. . The values of these variables are determined by the agent message generation unit 4.

本実施形態では、対話制御ルールを20個用意した。出題エージェントによる対話行為を選択するためのルール(5個)と、回答エージェントによる対話行為のためのルール(15個)とである。以下、対話制御ルールの1つ1つの詳細を説明する。
まず、出題エージェントによる対話行為を選択するためのルールを示す。
In this embodiment, 20 dialogue control rules are prepared. There are five rules for selecting a dialogue act by the questioning agent and 15 rules for a dialogue act by the answering agent. The details of each dialog control rule will be described below.
First, the rules for selecting the dialogue action by the questioning agent are shown.

ルール1(出題エージェントによる問題開始のためのルール:CR1)
条件部(CR1a)
対話状態5において、直前の対話参加者の発言から現在までの経過時間が最大無言時間STを超過している。
対話状態5において、まだ問題を1つも出題していない(対話を開始していない)か、あるいは、直近に出題した問題に対して正解終了か不正解終了の対話行為が実行されている。
アクション部(CR1b)
クイズの対象となる人名PERSONを選択し(ユーザと回答エージェントには公開されない)、その人名に関するヒント文を、非特許文献1の方法にしたがって生成し、ヒント文をエージェント発言生成部4に送る。
出題エージェントの問題開始タイプの対話行為として、次の対話行為と付随効果を選択する(T201)。
<ID,TIME,ふーふー,問題開始,EXPR>
<問題対象,ID,PERSON>
<現在の問題,ID>
Rule 1 (Rule for starting the problem by the questioning agent: CR1)
Condition section (CR1a)
In dialog state 5, the elapsed time from the speech of the previous dialog participant to the present exceeds the maximum silent time ST.
In the dialogue state 5, no question has been given yet (the dialogue has not started), or the correct answer end or the incorrect answer end dialogue action is executed for the question that has been asked recently.
Action part (CR1b)
The person name PERSON to be quized is selected (not disclosed to the user and the answer agent), a hint sentence relating to the person name is generated according to the method of Non-Patent Document 1, and the hint sentence is sent to the agent statement generation unit 4.
The next dialogue act and accompanying effect are selected as the question start type dialogue act of the questioning agent (T201).
<ID, TIME, foo, problem start, EXPR>
<Problem, ID, PERSON>
<Current problem, ID>

なお、前記したように、対話制御部3のアクション部で選択される対話行為候補の変数の値は、エージェント発言生成部4において決められるが、参考のため、その変数の例を挙げると、発言表現R01が対応する。「人物当てクイズを始めます」、「それでは次の問題です」   As described above, the value of the dialogue action candidate variable selected by the action unit of the dialogue control unit 3 is determined by the agent statement generation unit 4, but for reference, an example of the variable is The expression R01 corresponds. "I will start a person quiz", "Then it will be the next problem"

ルール2(出題エージェントによるヒント提示のためのルール:CR2)
条件部(CR2a)
現在の問題に対して正解終了も不正解終了もまだ行われていない。
対話状態5において、直前の対話参加者の発言から現在までの経過時間が最大無言時間STを超過している。
対話状態5において、まだヒントを1つも提示していないか、あるいは、直近のヒント提示の発言時刻から現在までの時間がヒント間隔時間HTを超過している。
発言キュー6が空である。
アクション部(CR2b)
出題エージェントによるヒント提示タイプの対話行為として、次の対話行為と付随効果を選択する(T202)。
<ID,TIME,ふーふー,ヒント提示,EXPR>
Rule 2 (Rule for presenting hints by the questioning agent: CR2)
Condition part (CR2a)
Neither the correct answer nor the incorrect answer has been completed for the current problem.
In dialog state 5, the elapsed time from the speech of the previous dialog participant to the present exceeds the maximum silent time ST.
In the dialog state 5, no hint has been presented yet, or the time from the latest hint presentation speech time to the present time exceeds the hint interval time HT.
The speech queue 6 is empty.
Action part (CR2b)
The next dialogue act and accompanying effect are selected as the hint presenting type dialogue act by the questioning agent (T202).
<ID, TIME, foo, hint presentation, EXPR>

ルール3(出題エージェントによる回答評価のためのルール:CR3)
条件部(CR3a)
対話状態5において、直前の対話参加者の発言から現在までの経過時間が発言開始待ち時間WTを超過している。
発言キュー6の先頭が、次に示すユーザあるいは回答エージェントによる回答タイプの対話行為である(T206)。
<ID1,TIME1,PARTICIPANT,回答,EXPR1>
PARTICIPANTは、ユーザあるいは回答エージェントのいずれかである。
回答EXPR1は現在の問題に対する不正解の回答である。
アクション部(CR3b)
出題エージェントの回答評価タイプの対話行為として、次の対話行為と付随効果を選択する(T203)。
<ID2,TIME2,ふーふー,回答評価,EXPR2>
<回答評価対象,ID2,ID1,PARTICIPANT>
Rule 3 (Rules for evaluating responses by the questioning agent: CR3)
Condition section (CR3a)
In the dialog state 5, the elapsed time from the speech of the previous dialog participant to the present exceeds the speech start waiting time WT.
The head of the message queue 6 is an answer type interactive action by the user or the answer agent shown below (T206).
<ID1, TIME1, PARTICIPANT, answer, EXPR1>
PARTICIPANT is either a user or an answer agent.
Answer EXPR1 is an incorrect answer to the current problem.
Action part (CR3b)
The following dialogue action and accompanying effect are selected as the answer evaluation type dialogue action of the questioning agent (T203).
<ID2, TIME2, Hoofoo, answer evaluation, EXPR2>
<Response evaluation target, ID2, ID1, PARTICIPANT>

ルール4(出題エージェントによる正解終了のためのルール:CR4)
条件部(CR4a)
対話状態5において、直前の対話参加者の発言から現在までの経過時間が回答待ち時間WTを超過している。
対話状態5において、現在の問題に対して正解終了も不正解終了もまだ行われていない。
発言キュー6の先頭が、次に示すユーザあるいは回答エージェントによる回答タイプの対話行為である(T206)。
<ID1,TIME1,PARTICIPANT,回答,EXPR1>
PARTICIPANTはユーザあるいは回答エージェントのいずれかである。
回答EXPR1は現在の問題に対する正解の回答である。
アクション部(CR4b)
出題エージェントによる正解終了タイプの対話行為として、次の対話行為を選択する(T204)。
<ID2,TIME2,ふーふー,正解終了,EXPR2>
<正解終了対象,ID2,ID1>
Rule 4 (Rule for correct answer end by the questioning agent: CR4)
Condition section (CR4a)
In the dialog state 5, the elapsed time from the speech of the previous dialog participant to the present exceeds the answer waiting time WT.
In the dialogue state 5, neither the correct answer end nor the incorrect answer end has been performed for the current problem.
The head of the message queue 6 is an answer type interactive action by the user or the answer agent shown below (T206).
<ID1, TIME1, PARTICIPANT, answer, EXPR1>
PARTICIPANT is either a user or an answer agent.
Answer EXPR1 is the correct answer to the current question.
Action part (CR4b)
The next dialogue act is selected as the correct answer end type dialogue act by the questioning agent (T204).
<ID2, TIME2, Foo, correct end, EXPR2>
<Correct answer completion target, ID2, ID1>

ルール5(出題エージェントによる不正解終了のためのルール:CR5)
条件部(CR5a)
対話状態5において、直前の対話参加者の発言から現在までの経過時間が最大無言時間STを超過している。
対話状態5において、現在の問題に対して、正解終了も不正解終了もまだ行われていない。
発言キュー6が空である。
対話状態5において、1つ前のヒント提示の時刻から現在までの時間がヒント間隔時間HTを超過している。
提示すべきヒント文が無い。
アクション部(CR5b)
出題エージェントによる正解終了タイプの対話行為として、次の対話行為を選択する(T205)。
<ID,TIME,ふーふー,不正解終了,EXPR>
Rule 5 (Rule for terminating incorrect answer by questioning agent: CR5)
Condition section (CR5a)
In dialog state 5, the elapsed time from the speech of the previous dialog participant to the present exceeds the maximum silent time ST.
In the dialogue state 5, neither the correct answer end nor the incorrect answer end has been performed for the current problem.
The speech queue 6 is empty.
In the dialog state 5, the time from the previous hint presentation time to the present time exceeds the hint interval time HT.
There are no hints to present.
Action part (CR5b)
The next dialogue action is selected as the correct answer end type dialogue action by the questioning agent (T205).
<ID, TIME, foo, incorrect answer termination, EXPR>

次に、回答エージェントによる対話行為のためのルールを示す。まず、出題エージェントがユーザや回答エージェントの回答に対して回答評価を行ったあと、回答エージェントがその回答評価に対する応対(回答評価応対)を行うためのルールを示す。
回答評価応対タイプの対話行為は、共感条件のときと、自己中心条件のときと、無感情条件のときで、異なるルールに基づいて選択される。すなわち、共感条件のときは、ユーザの回答への回答評価に対してのみ回答評価応対を行う。自己中心条件のときは、回答エージェント「きのこ」の回答への回答評価に対してのみ回答評価応対を行う。無感情条件のときは、ユーザあるいは回答エージェントの回答への回答評価に対して回答評価応対を行う。
Next, the rules for interactive actions by answering agents are shown. First, after the questioning agent performs an answer evaluation on the answer of the user or the answer agent, a rule for the answer agent to respond to the answer evaluation (answer evaluation answer) is shown.
The answer evaluation response type dialogue action is selected based on different rules for the sympathetic condition, the self-centered condition, and the emotionless condition. That is, in the case of the sympathy condition, the response evaluation response is performed only for the response evaluation to the user's response. In the case of self-centered conditions, the response evaluation response is performed only for the response evaluation to the response of the response agent “Mushroom”. When the emotional condition is satisfied, an answer evaluation response is performed for an answer evaluation to the answer of the user or the answer agent.

ルール6(共感条件における回答エージェントによる回答評価応対のためのルール:(CR6)
条件部(CR6a)
対話状態5において、直前の対話参加者の発言から現在までの経過時間が発言開始待ち時間WTを超過している。
共感条件が成立している。
発言キュー6の先頭が、次に示す回答評価タイプの対話行為である(T203)。なお、アクション部のT207と組み合わせるために条件部では「1」と「2」を入れ替えた(以下、同様)。
<ID1,TIME1,ふーふー,回答評価,EXPR1>
対話状態5において、次が成立している。
<回答評価対象,ID1,ID2,USER>
USERはユーザのうちいずれかである。
アクション部(CR6b)
回答エージェントによる回答評価応対タイプの対話行為として、次の対話行為を選択する(T207)。
<ID3,TIME3,きのこ,回答評価応対,EXPR3>
<回答評価応対対象,ID3,ID1,ID2,USER>
Rule 6 (Rules for Response Evaluation by Agents under Sympathy Conditions: (CR6)
Condition section (CR6a)
In the dialog state 5, the elapsed time from the speech of the previous dialog participant to the present exceeds the speech start waiting time WT.
Sympathy conditions are met.
The head of the message queue 6 is the following reply evaluation type interactive action (T203). In order to combine with T207 of the action part, “1” and “2” were exchanged in the condition part (the same applies hereinafter).
<ID1, TIME1, FOOO, answer evaluation, EXPR1>
In the dialog state 5, the following holds.
<Response evaluation target, ID1, ID2, USER>
USER is one of the users.
Action part (CR6b)
The next dialogue action is selected as the answer evaluation response type dialogue action by the answer agent (T207).
<ID3, TIME3, mushroom, response evaluation, EXPR3>
<Response evaluation response target, ID3, ID1, ID2, USER>

ルール7(自己中心条件における回答エージェントによる回答評価応対のためのルール:CR7)
条件部(CR7a)
対話状態5において、直前の対話参加者の発言から現在までの経過時間が発言開始待ち時間WTを超過している。
自己中心条件が成立している。
発言キュー6の先頭が、次に示す回答評価タイプの対話行為である(T203)。
<ID1,TIME1,ふーふー,回答評価,EXPR1>
対話状態5において、次が成立している。
<回答評価対象,ID1,ID2,きのこ>
アクション部(CR7b)
回答エージェントによる回答評価応対タイプの対話行為として、次の対話行為を選択する(T207)。なお、P2=P3=回答エージェントである。
<ID3,TIME3,きのこ,回答評価応対,EXPR3>
<回答評価応対対象,ID3,ID1,ID2,きのこ>
Rule 7 (Rule for Response Evaluation by Response Agents under Self-Centered Conditions: CR7)
Condition section (CR7a)
In the dialog state 5, the elapsed time from the speech of the previous dialog participant to the present exceeds the speech start waiting time WT.
Self-centered condition is established.
The head of the message queue 6 is the following reply evaluation type interactive action (T203).
<ID1, TIME1, FOOO, answer evaluation, EXPR1>
In the dialog state 5, the following holds.
<Response evaluation target, ID1, ID2, mushroom>
Action part (CR7b)
The next dialogue action is selected as the answer evaluation response type dialogue action by the answer agent (T207). Note that P2 = P3 = answer agent.
<ID3, TIME3, mushroom, response evaluation, EXPR3>
<Respondents for answer evaluation, ID3, ID1, ID2, mushroom>

ルール8(無感情条件における回答エージェントによる回答評価応対のためのルール:CR8)
条件部(CR8a)
対話状態5において、直前の対話参加者の発言から現在までの経過時間が発言開始待ち時間WTを超過している。
無感情条件が成立している。
発言キュー6の先頭が、次に示す回答評価タイプの対話行為である(T203)。
<ID1,TIME1,ふーふー,回答評価,EXPR1>
対話状態5において、次が成立している。
<回答評価対象,ID1,ID2,PARTICIPANT>
PARTICIPANTはユーザあるいは回答エージェント「きのこ」である。
アクション部(CR8b)
回答エージェントによる回答評価応対タイプの対話行為として、次の対話行為を選択する(T207)。なお、P2はPARTICIPANT、P3は回答エージェントである。
<ID3,TIME3,きのこ,回答評価応対,EXPR3>
<回答評価応対対象,ID3,ID1,ID2,PARTICIPANT>
Rule 8 (Rule for answer evaluation by answer agent in emotionless condition: CR8)
Condition section (CR8a)
In the dialog state 5, the elapsed time from the speech of the previous dialog participant to the present exceeds the speech start waiting time WT.
An emotionless condition is met.
The head of the message queue 6 is the following reply evaluation type interactive action (T203).
<ID1, TIME1, FOOO, answer evaluation, EXPR1>
In the dialog state 5, the following holds.
<Response evaluation target, ID1, ID2, PARTICIPANT>
PARTICIPANT is a user or answer agent “mushroom”.
Action part (CR8b)
The next dialogue action is selected as the answer evaluation response type dialogue action by the answer agent (T207). P2 is PARTICIPANT and P3 is an answer agent.
<ID3, TIME3, mushroom, response evaluation, EXPR3>
<Response evaluation response target, ID3, ID1, ID2, PARTICIPANT>

次に、回答エージェントによる正解終了時感想−自分、正解終了時感想−他者、不正解終了時感想の対話行為を選択するためのルールを示す。   Next, a rule for selecting an interactive action of an answer agent's impression at the end of correct answer-self, impression at the end of correct answer-others, impression at the end of incorrect answer is shown.

ルール9(回答エージェントによる正解終了時感想−自分のためのルール:CR9)
条件部(CR9a)
対話状態5において、直前の対話参加者の発言から現在までの経過時間が発言開始待ち時間WTを超過している。
発言キュー6の先頭が、次に示す正解終了タイプの対話行為である(T204)。
<ID1,TIME1,ふーふー,正解終了,EXPR1>
対話状態5において、次が成立している(T206)。すなわち、正解の回答を行ったのは回答エージェント自身である。
<正解終了対象,ID1,ID2>
<ID2,TIME2,きのこ,回答,EXPR2>
アクション部(CR9b)
回答エージェントによる正解終了時感想−白分タイプの対話行為として、次の対話行為を選択する(T212)。
<ID3,TIME3,きのこ,正解終了時感想−自分,EXPR3>
<正解終了時感想対象,ID3,ID1,ID2,きのこ>
Rule 9 (Comments from the answering agent at the end of the correct answer-Rules for me: CR9)
Condition section (CR9a)
In the dialog state 5, the elapsed time from the speech of the previous dialog participant to the present exceeds the speech start waiting time WT.
The head of the message queue 6 is a correct end type interactive action shown below (T204).
<ID1, TIME1, FOOO, correct end, EXPR1>
In the dialog state 5, the following holds (T206). That is, it is the answering agent itself that has made the correct answer.
<Correct answer completion target, ID1, ID2>
<ID2, TIME2, mushroom, answer, EXPR2>
Action part (CR9b)
The next dialogue action is selected as the answer at the end of the correct answer by the answering agent-white part type dialogue action (T212).
<ID3, TIME3, Mushroom, Impressions at the end of correct answer-yourself, EXPR3>
<Study object at the end of correct answer, ID3, ID1, ID2, mushroom>

ルール10(回答エージェントによる正解終了時感想−他者のためのルール:CR10)
条件部(CR10a)
対話状態5において、直前の対話参加者の発言から現在までの経過時間が発言開始待ち時間WTを超過している。
発言キュー6の先頭が、次に示す正解終了タイプの対話行為である(T204)。
<ID1,TIME1,ふーふー,正解終了,EXPR1>
対話状態5において、次が成立している(T206)。
<正解終了対象,ID1,ID2>
<ID2,TIME2,USER,回答,EXPR2>
USERはユーザのうちいずれかである。すなわち、正解の回答を行ったのは、回答エージェントではなくユーザである。
アクション部(CR10b)
回答エージェントによる正解終了時感想−他者タイプの対話行為として、次の対話行為を選択する(T213)。
<ID3,TIME3,きのこ,正解終了時感想−他者,EXPR3>
<正解終了時感想対象ID3,ID1,ID2,USER>
Rule 10 (Comments from the answering agent at the end of the correct answer-Rules for others: CR10)
Condition section (CR10a)
In the dialog state 5, the elapsed time from the speech of the previous dialog participant to the present exceeds the speech start waiting time WT.
The head of the message queue 6 is a correct end type interactive action shown below (T204).
<ID1, TIME1, FOOO, correct end, EXPR1>
In the dialog state 5, the following holds (T206).
<Correct answer completion target, ID1, ID2>
<ID2, TIME2, USER, answer, EXPR2>
USER is one of the users. That is, it is not the answer agent but the user who has made the correct answer.
Action part (CR10b)
Impression at the end of correct answer by answering agent-The next dialogue action is selected as the dialogue action of the other person type (T213).
<ID3, TIME3, Mushroom, Impression at the end of correct answer-Others, EXPR3>
<Impression target ID3, ID1, ID2, USER at the end of correct answer>

ルール11(回答エージェントによる不正解終了時感想のためのルール:CR11)
条件部(CR11a)
対話状態5において、直前の対話参加者の発言から現在までの経過時間が発言開始待ち時間WTを超過している。
発言キュー6の先頭が、次に示す不正解終了タイプの対話行為である(T205)。
<ID1,TIME1,ふーふー,不正解終了,EXPR1>
アクション部(CR11b)
回答エージェントによる不正解終了時感想タイプの対話行為として、次の対話行為を選択する(T214)。
<ID2,TIME2,きのこ,不正解終了時感想,EXPR2>
Rule 11 (Rule for Impression of Improper Answer End by Answer Agent: CR11)
Condition section (CR11a)
In the dialog state 5, the elapsed time from the speech of the previous dialog participant to the present exceeds the speech start waiting time WT.
The head of the speech queue 6 is an incorrect answer end type interactive action shown below (T205).
<ID1, TIME1, FOOO, incorrect answer end, EXPR1>
Action part (CR11b)
The next dialogue act is selected as the dialogue action of the response type at the end of the incorrect answer by the answering agent (T214).
<ID2, TIME2, Mushroom, Impression at the end of incorrect answer, EXPR2>

次に、ユーザが難度表出、易度表出を行ったあと、回答エージェントがそれに対して難度表出応対、易度表出応対を行うためのルールを示す。
本実施形態では、難度表出応対、易度表出応対ともに、共感条件が成立しているときのみ選択されるようにルールを記述する。
これは、本実施形態において、エージェント発言生成部4で用意した難度表出応対、易度表出応対のための発言表現が、常に、ユーザを気遣う共感的な効果をもつものばかりであるからである。
このように対話制御ルールを記述することにより、意図せずにユーザヘの共感を伝えてしまう対話行為の実行を避けることができる。
Next, after the user performs difficulty level expression and difficulty level expression, a rule for the answer agent to perform difficulty level response and difficulty level response to the response agent is shown.
In the present embodiment, the rules are described so that both the difficulty expression response and the difficulty expression response are selected only when the sympathy condition is satisfied.
This is because, in the present embodiment, the speech expression for the difficulty expression response and the difficulty expression response prepared by the agent statement generation unit 4 always has a sympathetic effect that cares about the user. is there.
By describing the dialog control rules in this way, it is possible to avoid executing a dialog act that unintentionally conveys empathy to the user.

ルール12(回答エージェントの難度表出応対のためのルール:CR12)
条件部(CR12a)
対話状態5において、直前の対話参加者の発言から現在までの経過時間が発言開始待ち時間WTを超過している。
共感条件が成立している。
発言キュー6の先頭が、次に示すユーザによる難度表出タイプの対話行為である(T208)。
<ID1,TIME1,USER,難度表出,EXPR1>
USERはユーザのうちいずれかである。
アクション部(CR12b)
回答エージェントの難度表出応対タイプの対話行為として、次の対話行為と付随効果を選択する(T210)。
<ID2,TIME,きのこ,難度表出応対,EXPR2>
<応対対象,ID2,ID1>
Rule 12 (Rules for responding to difficulty level of answering agent: CR12)
Condition section (CR12a)
In the dialog state 5, the elapsed time from the speech of the previous dialog participant to the present exceeds the speech start waiting time WT.
Sympathy conditions are met.
The head of the speech queue 6 is the following difficulty level type interactive action by the user (T208).
<ID1, TIME1, USER, difficulty expression, EXPR1>
USER is one of the users.
Action part (CR12b)
The following dialogue action and accompanying effect are selected as the answering agent's response type interaction action (T210).
<ID2, TIME, mushroom, difficulty level response, EXPR2>
<Target, ID2, ID1>

ルール13(回答エージェントの易度表出応対のためのルール:CR13)
条件部(CR13a)
対話状態5において、直前の対話参加者の発言から現在までの経過時間が発言開始待ち時間WTを超過している。
共感条件が成立している。
発言キュー6の先頭が、次に示すユーザによる易度表出タイプの対話行為である(T209)。
<ID1,TIME1,USER,易度表出,EXPR1>
USERはユーザのうちいずれかである。
アクション部(CR13b)
回答エージェントの易度表出応対タイプの対話行為として、次の対話行為と付随効果を選択する(T211)。
<ID2,TIME,きのこ,易度表出応対,EXPR2>
<応対対象ID2,ID1>
Rule 13 (Rules for answering agent's difficulty level response: CR13)
Condition section (CR13a)
In the dialog state 5, the elapsed time from the speech of the previous dialog participant to the present exceeds the speech start waiting time WT.
Sympathy conditions are met.
The head of the speech queue 6 is the following easy-to-express dialogue type user action (T209).
<ID1, TIME1, USER, difficulty expression, EXPR1>
USER is one of the users.
Action part (CR13b)
The following dialogue act and accompanying effect are selected as the answering agent interaction type dialogue act of the answering agent (T211).
<ID2, TIME, mushroom, difficulty level response, EXPR2>
<Service ID 2, ID1>

次に、回答エージェントによる難度表出、易度表出の対話行為を選択するためのルールを示す。
難度表出タイプや易度表出タイプの対話行為は、共感条件のときと、自己中心条件あるいは無感情条件のときで、異なる対話制御ルールによって選択される。
すなわち、自己中心条件あるいは無感情条件が成り立っている場合、発言キュー6の先頭がユーザの難度表出タイプや易度表出タイプの対話行為であるときには、回答エージェントによる難度表出タイプ、易度表出タイプの対話行為は選択しない。
このようにして、自己中心条件のみが成立しているとき、あるいは無感情条件が成立しているときに、意図せずにユーザヘの共感を伝えてしまう難度表出タイプ、易度表出タイプの対話行為の実行を避けることができ、発明が解決しようとする課題で示した対話例5の発言(5,4)のような意図せずにユーザヘの共感を伝えてしまう発言を避けることが可能となる。
Next, a rule for selecting a difficulty expression and a difficulty expression dialogue action by an answer agent is shown.
The dialogue action of the difficulty expression type and the difficulty expression type is selected according to different dialogue control rules in the sympathy condition and in the self-centered condition or the emotionless condition.
That is, when the self-centered condition or the emotionless condition is satisfied, when the head of the speech queue 6 is the user's difficulty expression type or difficulty expression type interactive action, the difficulty agent expression type and difficulty by the answer agent Do not select an expression-type dialogue act.
In this way, when only the self-centered condition is satisfied, or when the emotionless condition is satisfied, the difficulty expression type or the difficulty expression type that unintentionally conveys empathy to the user It is possible to avoid the execution of a dialogue act, and it is possible to avoid a statement that conveys sympathy to the user unintentionally, such as the statement (5, 4) of the dialogue example 5 shown in the problem to be solved by the invention It becomes.

ルール14(共感条件における回答エージェントによる難度表出のためのルール:CR14)
条件部(CR14a)
対話状態5において、直前の対話参加者の発言から現在までの経過時間が最大無言時間STを超過しているか、あるいは、回答エージェント発言促進条件が成立する。
共感条件が成立している。
アクション部(CR14b)
回答エージェントの難度表出タイプの対話行為として、次の対話行為を選択する(T208)。
<ID,TIME,きのこ,難度表出,EXPR>
Rule 14 (Rule for difficulty level expression by answering agents under empathy conditions: CR14)
Condition section (CR14a)
In the dialogue state 5, the elapsed time from the speech of the previous dialogue participant to the present time exceeds the maximum silent time ST, or the answer agent speech promotion condition is satisfied.
Sympathy conditions are met.
Action part (CR14b)
The next dialogue action is selected as the difficulty level expression type dialogue action of the answering agent (T208).
<ID, TIME, mushroom, difficulty level expression, EXPR>

ルール15(自己中心条件あるいは無感情条件における回答エージェントの難度表出のためのルール:CR15)
条件部(CR15a)
対話状態5において、直前の対話参加者の発言から現在までの経過時間が最大無言時間STを超過しているか、あるいは、回答エージェント発言促進条件が成立する。
自己中心条件あるいは無感情条件が成立している。
発言キュー6の先頭がユーザの難度表出タイプの対話行為(T208)ではない。
アクション部(CR15b)
回答エージェントの難度表出タイプの対話行為として、次の対話行為を選択する(T208)。
<ID,TIME,きのこ,難度表出,EXPR>
Rule 15 (Rule for expressing difficulty of answering agent under self-centered or emotionless condition: CR15)
Condition section (CR15a)
In the dialogue state 5, the elapsed time from the speech of the previous dialogue participant to the present time exceeds the maximum silent time ST, or the answer agent speech promotion condition is satisfied.
Self-centered or emotionless conditions are met.
The head of the speech queue 6 is not the user's difficulty expression type interactive action (T208).
Action part (CR15b)
The next dialogue action is selected as the difficulty level expression type dialogue action of the answering agent (T208).
<ID, TIME, mushroom, difficulty level expression, EXPR>

ルール16(共感条件における回答エージェントによる易度表出のためのルール:CR16))
条件部(CR16a)
対話状態5において、直前の対話参加者の発言から現在までの経過時間が最大無言時間STを超過しているか、あるいは、回答エージェント発言促進条件が成立する。
共感条件が成立している。
アクション部(CR16b)
回答エージェントの易度表出タイプの対話行為として、次の対話行為を選択する(T209)。
<ID,TIME,きのこ,易度表出,EXPR>
Rule 16 (Rule for expression of difficulty by answering agent under empathy conditions: CR16))
Condition section (CR16a)
In the dialogue state 5, the elapsed time from the speech of the previous dialogue participant to the present time exceeds the maximum silent time ST, or the answer agent speech promotion condition is satisfied.
Sympathy conditions are met.
Action part (CR16b)
The next dialogue action is selected as the dialogue action of the answer agent's difficulty expression type (T209).
<ID, TIME, mushroom, difficulty expression, EXPR>

ルール17(自己中心条件あるいは無感情条件における回答エージェントの易度表出のためのルール:CR17)
条件部(CR17a)
対話状態5において、直前の対話参加者の発言から現在までの経過時間が最大無言時間STを超過しているか、あるいは、回答エージェント発言促進条件が成立する。
自己中心条件あるいは無感情条件が成立している。
発言キュー6の先頭がユーザの易度表出タイプの対話行為(T209)ではない。
アクション部(CR17b)
回答エージェントの易度表出タイプの対話行為として、次の対話行為を選択する(T209)。
<ID,TIME,きのこ,易度表出,EXPR>
Rule 17 (Rule for expression of difficulty of answering agent under self-centered or emotionless condition: CR17)
Condition section (CR17a)
In the dialogue state 5, the elapsed time from the speech of the previous dialogue participant to the present time exceeds the maximum silent time ST, or the answer agent speech promotion condition is satisfied.
Self-centered or emotionless conditions are met.
The head of the speech queue 6 is not the user's easy expression type interactive action (T209).
Action part (CR17b)
The next dialogue action is selected as the dialogue action of the answer agent's difficulty expression type (T209).
<ID, TIME, mushroom, difficulty expression, EXPR>

次に、回答エージェントによる回答、促し、アイヅチの対話行為を選択するためのルールを示す。   Next, the rules for selecting the answer, prompting, and dialogue action by the answer agent are shown.

ルール18(回答エージェントによる回答のためのルール:CR18)
条件部(CR18a)
対話状態5において、直前の対話参加者の発言から現在までの経過時間が最大無言時間STを超過しているか、あるいは、回答エージェント発言促進条件が成立する。
アクション部(CR18b)
現在の問題に対して回答となる人名PERSONを生成する。
回答エージェントの回答タイプの対話行為として、次の対話行為を選択する(T206)。
<ID,TIME,きのこ,回答,EXPR>
<回答人名,ID,PERSON>
Rule 18 (Rule for answering by an answer agent: CR18)
Condition section (CR18a)
In the dialogue state 5, the elapsed time from the speech of the previous dialogue participant to the present time exceeds the maximum silent time ST, or the answer agent speech promotion condition is satisfied.
Action part (CR18b)
Generate a personal name PERSON that will answer the current question.
The next dialogue act is selected as the answer type dialogue act of the answer agent (T206).
<ID, TIME, mushroom, answer, EXPR>
<Respondent name, ID, PERSON>

ルール19(回答エージェントによる促しのためのルール:CR19)
条件部(CR19a)
対話状態5において、直前の対話参加者の発言から現在までの経過時間が最大無言時間STを超過している。
アクション部(CR19b)
回答エージェントの促しタイプの対話行為として、次の対話行為を選択する(T215)。
<ID,TIME,きのこ,促し,EXPR>
Rule 19 (Rule for prompting by answering agent: CR19)
Condition section (CR19a)
In dialog state 5, the elapsed time from the speech of the previous dialog participant to the present exceeds the maximum silent time ST.
Action part (CR19b)
The next dialogue action is selected as the prompt action of the answer agent (T215).
<ID, TIME, mushroom, prompt, EXPR>

ルール20(回答エージェントによるアイヅチのためのルール:CR20)
条件部(CR20a)
対話状態5において、直前の対話参加者の発言から現在までの経過時間が最大無言時間STを超過している。
共感条件である。
発言キュー6の先頭が、ユーザによるその他タイプの対話行為である。
アクション部(CR20b)
回答エージェントのアイヅチタイプの対話行為として、次の対話行為を選択する(T216)。
<ID,TIME,きのこ,アイヅチ,EXPR>
Rule 20 (Rule for Answering by Answer Agent: CR20)
Condition section (CR20a)
In dialog state 5, the elapsed time from the speech of the previous dialog participant to the present exceeds the maximum silent time ST.
It is a condition of empathy.
The head of the speech queue 6 is another type of interactive action by the user.
Action part (CR20b)
The next dialogue action is selected as the answering action of the answering agent (T216).
<ID, TIME, Mushroom, Aichi, EXPR>

[エージェント発言生成部の詳細]
本実施形態では、図6に示すように、エージェント発言生成部4は、発言生成手段18と、発言生成ルール19とを備えることとした。
発言生成ルール19は、複数種類(例えば、表6〜8には34種類示した)の発言生成ルールに対応した発言表現R01〜R16bを記憶する発言生成ルール記憶手段を示している。
発言生成手段18は、対話制御部3から取得した対話行為(+付随効果)に基づいて、発言生成ルール19を参照して、発言表現R01〜R16bを選択する。
[Details of agent remark generation part]
In the present embodiment, as shown in FIG. 6, the agent statement generation unit 4 includes a statement generation unit 18 and a statement generation rule 19.
The utterance generation rule 19 indicates utterance generation rule storage means for storing utterance expressions R01 to R16b corresponding to plural types (for example, 34 types shown in Tables 6 to 8).
The speech generation means 18 selects the speech expressions R01 to R16b with reference to the speech generation rule 19 based on the dialogue action (+ accompaniment effect) acquired from the dialogue control unit 3.

[発言生成ルールの具体例]
本実施形態では、以下に示す発言生成ルールを用いる。
発言生成ルールは、回答評価タイプの対話行為とそれ以外のタイプの対話行為とで異なる。以下で示す回答評価のための発言生成ルールを用いることにより、ユーザと対話エージェントが非同期に自由なタイミングで発言することが許される場合であっても、対話エージェントの発言の内容が誤解なく伝わることを保証することができ、発明が解決しようとする課題で示した対話例1の発言(1.5)のような、誤解を生じる発言を避けることが可能となる。
[Specific example of statement generation rule]
In the present embodiment, the following statement generation rule is used.
The statement generation rule is different for an answer evaluation type dialogue action and other types of dialogue actions. By using the following statement generation rules for answer evaluation, even if the user and the dialogue agent are allowed to speak asynchronously at any time, the content of the dialogue agent's utterance can be conveyed without misunderstanding. This makes it possible to avoid misleading statements such as the statement (1.5) in Dialogue Example 1 shown in the problem to be solved by the invention.

(1)回答評価タイプの対話行為の発言生成ルール
出題エージェントの回答評価タイプの対話行為として、次の対話行為と付随効果が対話制御部3より送られてきたとする。
<ID2,TIME2,AGENT,回答評価,EXPR2>
<回答評価対象,ID2,ID1,PARTICIPANT>
さらに、対話状態5において、次が成立しているとする(T206)。
<ID1,TIME1,PARTICIPANT,回答,EXPR1>
すなわち、ユーザあるいは回答エージェントPARTICIPANTが発言時刻TIME1に発言表現EXPR1で回答タイプの対話行為ID1を行い、出題エージェントAGENTが、その回答タイプの対話行為ID1に対して、回答評価タイプの対話行為ID2を行おうとしている。
このとき、次の条件(A)、(B)のいずれかが成立するなら、回答評価タイプの発言表現として、冗長表現(R03b,R03d:表6参照)を選択し、さもなければ、簡潔表現(R03a,R03c::表6参照)を選択する。
(1) Statement Generation Rule for Answer Evaluation Type Dialog Action Assume that the dialog control unit 3 sends the following dialog action and accompanying effects as the answer evaluation type dialog action of the questioning agent.
<ID2, TIME2, AGENT, response evaluation, EXPR2>
<Response evaluation target, ID2, ID1, PARTICIPANT>
Further, it is assumed that the following holds in the dialog state 5 (T206).
<ID1, TIME1, PARTICIPANT, answer, EXPR1>
In other words, the user or the response agent PARTICIPANT performs the response type dialogue action ID1 with the speech expression EXPR1 at the utterance time TIME1, and the question agent AGENT performs the response evaluation type dialogue action ID2 for the answer type dialogue action ID1. I'm going.
At this time, if either of the following conditions (A) and (B) is satisfied, a redundant expression (R03b, R03d: see Table 6) is selected as the reply expression of the reply evaluation type. (R03a, R03c :: Refer to Table 6) is selected.

(A)対話状態5において、回答ID1の発言時刻TIME1と現時点の間に別の回答タイプの対話行為が実行されている。
(B)回答ID1の発言時刻TIME1より前に実行された別の回答タイプの対話行為ID3が存在し、かつ、その別の回答ID3と回答ID1の間に、回答ID3に対する回答評価が行われていない。
(A) In the dialogue state 5, another answer type dialogue act is executed between the comment time TIME1 of the answer ID1 and the current time.
(B) There is a dialogue action ID3 of another response type executed before the utterance time TIME1 of response ID1, and the response evaluation for response ID3 is performed between the other response ID3 and response ID1. Absent.

回答評価タイプの対話行為に対応する冗長表現と簡潔表現は、感情条件に応じて次の表にしたがって選択する。   The redundant and concise expressions corresponding to the answer evaluation type dialogue act are selected according to the following table according to the emotional conditions.







Figure 2010186237
Figure 2010186237

(2)回答評価タイプ以外の対話行為の発言生成ルール
回答評価タイプ以外の対話行為に関しては、次の表にしたがって、感情条件に応じて発言表現を選択する。
(2) Statement generation rules for dialogue actions other than the answer evaluation type For dialogue actions other than the answer evaluation type, a speech expression is selected according to emotional conditions according to the following table.

Figure 2010186237
Figure 2010186237

Figure 2010186237
Figure 2010186237

[出題制御手段の具体例]
図6に示した出題制御手段17は、ヒント生成部22で生成したヒント文リストを用いることが特徴的なので、まず、図7を参照して、ヒント生成部22を詳細に説明する。以下の説明では、正解を人名として、人名を当てるヒントを質問として生成するものとする。
[Specific examples of question control means]
Since the question control means 17 shown in FIG. 6 is characterized by using the hint sentence list generated by the hint generator 22, first, the hint generator 22 will be described in detail with reference to FIG. In the following description, it is assumed that the correct answer is a person name, and a hint for hitting the person name is generated as a question.

(ヒント生成部の構成例)
図7に示すヒント生成部22は、正解を生成し、生成した正解に対応する複数のヒント文を生成するものである。このヒント生成部22は、例えば、インターネット等のネットワークNを介して、ネットワークデータサーバ31に接続されている。ネットワークデータサーバ31は、ヒント文に用いられる各種情報(テキストデータ群)を格納している。なお、ネットワークデータサーバ31は、複数存在する。
(Configuration example of hint generation unit)
The hint generation unit 22 shown in FIG. 7 generates a correct answer and generates a plurality of hint sentences corresponding to the generated correct answer. The hint generator 22 is connected to the network data server 31 via a network N such as the Internet. The network data server 31 stores various information (text data group) used for the hint sentence. There are a plurality of network data servers 31.

ヒント生成部22は、質問応答システム32に接続されている。質問応答システム32は、公知のQA(Question Answering)システムであり、例えば、新聞記事などの大量の文書集合(データベース)を図示しない記憶手段に記憶し、データベースから質問に対する解答を探し出すものである。ここで、質問は、例えば、「○○の関連語は?」、「○○と関連のある場所は?」、「○○と関連のある人物は?」等である。   The hint generation unit 22 is connected to the question answering system 32. The question answering system 32 is a known QA (Question Answering) system, for example, stores a large number of document sets (database) such as newspaper articles in a storage means (not shown), and searches for answers to the questions from the database. Here, the questions are, for example, “What is the related word of XX?”, “Where is related to XX?”, “Who is related to XX?”, And the like.

ヒント生成部22は、図7に示すように、通信インタフェース41と、記憶手段42と、正解生成手段43と、ヒント表現取得手段44と、ヒント文候補生成手段45と、ヒント文リスト生成手段46とを備えている。   As shown in FIG. 7, the hint generation unit 22 includes a communication interface 41, storage means 42, correct answer generation means 43, hint expression acquisition means 44, hint sentence candidate generation means 45, and hint sentence list generation means 46. And.

通信インタフェース41は、ネットワークデータサーバ31から、所定の情報(キーワードまたはフレーズなどのヒント表現等)を入力するものである。
記憶手段42は、正解候補データベース421と、ヒント文候補データベース422と、ヒント文リストデータベース423とを備えている。
正解候補データベース421は、複数の正解候補を格納するものであり、例えば、複数の人名が記録された人名リストである。
ヒント文候補データベース422は、ヒント文候補生成手段45で生成されたヒント文候補を格納するものである。ここで、ヒント文候補は、キーワードまたはフレーズなどのヒント表現を含む文である。
ヒント文リストデータベース423は、ヒント文リスト生成手段46で生成されたヒント文リストを格納するものである。ここで、ヒント文リストは、ヒント文候補から出題用に選択されて所定の順番に並べられた文(ヒント文)からなる。
The communication interface 41 inputs predetermined information (such as a hint expression such as a keyword or a phrase) from the network data server 31.
The storage means 42 includes a correct answer candidate database 421, a hint sentence candidate database 422, and a hint sentence list database 423.
The correct answer candidate database 421 stores a plurality of correct answer candidates, and is, for example, a person name list in which a plurality of person names are recorded.
The hint sentence candidate database 422 stores hint sentence candidates generated by the hint sentence candidate generating unit 45. Here, the hint sentence candidate is a sentence including hint expressions such as keywords or phrases.
The hint sentence list database 423 stores the hint sentence list generated by the hint sentence list generating unit 46. Here, the hint sentence list is composed of sentences (hint sentences) selected from the hint sentence candidates for questions and arranged in a predetermined order.

正解生成手段43は、正解候補データベース421から所定の正解候補を選択し、選択した正解候補を正解として生成し、ヒント表現取得手段44に出力するものである。
例えば、正解生成手段43が、人名として「織田信長」を選択した場合、「織田信長」を当てるという問題となり、ユーザは、順次出されるヒントが誰のことを指しているのかを当てることとなる。以下では、例えば、「織田信長」という人名を当てるためのヒント文が生成されることとして説明する。なお、正解を作成する方法は、辞書の定義文提示による見出し語当てクイズの問題作成法と同様なので、公知の問題作成法を利用する。
The correct answer generation means 43 selects a predetermined correct answer candidate from the correct answer candidate database 421, generates the selected correct answer candidate as a correct answer, and outputs it to the hint expression acquisition means 44.
For example, when the correct answer generation means 43 selects “Nobunaga Oda” as the name of the person, there is a problem of hitting “Nobunaga Oda”, and the user hits who the hints that are sequentially issued indicate. . Hereinafter, for example, a description will be given assuming that a hint sentence for assigning a person name “Oda Nobunaga” is generated. Note that the method for creating a correct answer is the same as the method for creating a keyword entry quiz by presenting a definition sentence in the dictionary, so a known problem creating method is used.

ヒント表現取得手段44は、正解生成手段43で生成された正解に対応するヒントとして、複数のヒント表現を、ネットワークNを介してネットワークデータサーバ31に格納されたデータベース31aから取得するものである。ここで、ヒント表現とは、キーワードまたはフレーズで表現されたヒントを示す。以下では、ネットワークNを介して取得可能なテキストデータ群をWebデータという。Webデータには、例えば、インターネット上の人物事典が含まれる。インターネット上では、例えば、「織田信長」であれば、「戦国武将」といったカテゴリ情報がメタデータとして付与されている人物事典も存在するのが現状である。したがって、Webデータという場合に、このようなデータを想定する。   The hint expression acquisition unit 44 acquires a plurality of hint expressions as hints corresponding to the correct answer generated by the correct answer generation unit 43 from the database 31 a stored in the network data server 31 via the network N. Here, the hint expression indicates a hint expressed by a keyword or a phrase. Hereinafter, a text data group that can be acquired via the network N is referred to as Web data. Web data includes, for example, a personal dictionary on the Internet. On the Internet, for example, in the case of “Oda Nobunaga”, there is currently a personal dictionary in which category information such as “Sengoku warlord” is added as metadata. Therefore, such data is assumed in the case of Web data.

ヒント表現取得手段44は、正解を説明していると考えられるヒント表現を取得するために、第1表現取得手段441と、第2表現取得手段442と、第3表現取得手段443と、第4表現取得手段444とを備えている。
第1表現取得手段441は、図示を省略するが、公知のフレーズ検索を実行する手段と、形態素解析を実行する手段とを備え、ネットワークNから得られるWebデータから特徴的な表現(キーワード)をヒント表現として抽出するものである。具体的には、人物を説明するのに特徴的なパターンを捉えて、「織田信長などの戦国大名」といった文から、「戦国大名」というヒント表現を獲得する。
The hint expression acquisition unit 44 acquires a first expression acquisition unit 441, a second expression acquisition unit 442, a third expression acquisition unit 443, and a fourth expression in order to acquire a hint expression that is considered to explain the correct answer. And an expression acquisition unit 444.
Although not shown, the first expression acquisition means 441 includes means for executing a well-known phrase search and means for executing a morphological analysis. Characteristic expressions (keywords) are obtained from Web data obtained from the network N. It is extracted as a hint expression. Specifically, a characteristic pattern for explaining a person is captured, and a hint expression “Sengoku Daimyo” is acquired from a sentence such as “Nobunaga Oda etc.”.

第2表現取得手段442は、第1表現取得手段441による形態素解析から得られる正解の読み仮名をヒント表現として抽出するものである。この第2表現取得手段442は、正解(人名)の表記(最初の文字、最後の文字)からヒント文を作成する。対象となる人名を形態素解析すると、読み仮名が取得できるため、この最初の文字、最後の文字を取得する。   The second expression acquisition unit 442 extracts a correct reading kana obtained from the morphological analysis by the first expression acquisition unit 441 as a hint expression. The second expression acquisition unit 442 creates a hint sentence from the correct answer (person name) notation (first character, last character). If the subject person name is analyzed by morphological analysis, the reading character can be acquired, so the first character and the last character are acquired.

第3表現取得手段443は、ネットワークNから得られるWebデータからフレーズをヒント表現として抽出するものである。ここで、フレーズは、動詞句である。この第3表現取得手段443は、特徴的な表現を用いず、A(正解)を含む文自体からヒント文を作成する。この場合、「Aが」という表現の係り先の動詞句が見つかれば、その動詞句をヒント表現として用いる。例えば、「織田信長が楽市楽座を開いた」とあれば、「織田信長が」は「楽市楽座を開いた」に係るため、「楽市楽座を開いた」をヒント表現とする。   The third expression acquisition unit 443 extracts phrases from the Web data obtained from the network N as hint expressions. Here, the phrase is a verb phrase. The third expression acquisition unit 443 creates a hint sentence from a sentence including A (correct answer) without using a characteristic expression. In this case, if a related verb phrase of the expression “A is” is found, the verb phrase is used as a hint expression. For example, if “Oda Nobunaga opened Rakuichi Rakuza”, “Oda Nobunaga” opened “Rakuichi Rakuza”, so “Rakuichi Rakuza was opened” is used as a hint expression.

第4表現取得手段444は、質問応答システム32に質問を出力し、質問応答システム32の応答をヒント表現として取得するものである。この第4表現取得手段444は、「○○の関連語は?」、「○○に関連する場所は?」、「○○に関連する人物は?」という3つの質問文を生成し、それらを質問応答システム32に送り、その応答をヒント表現とする。   The fourth expression acquisition unit 444 outputs a question to the question answering system 32 and acquires the response of the question answering system 32 as a hint expression. The fourth expression acquisition unit 444 generates three question sentences, “What is the related word of XX?”, “What is the place related to XX?” And “What is the person related to XX?” Is sent to the question answering system 32 and the response is used as a hint expression.

ヒント文候補生成手段45は、ヒント表現取得手段44で取得されたヒント表現を含む文を示すヒント文候補を生成するものであり、第1候補生成手段451と、第2候補生成手段452と、第3候補生成手段453と、第4候補生成手段454とを備えている。   The hint sentence candidate generating unit 45 generates a hint sentence candidate indicating a sentence including the hint expression acquired by the hint expression acquiring unit 44, and includes a first candidate generating unit 451, a second candidate generating unit 452, Third candidate generation means 453 and fourth candidate generation means 454 are provided.

第1候補生成手段451は、第1表現取得手段441で取得されたヒント表現に対して、「○○だよ」、「○○だね」というテンプレートを用いてヒント文を作成する。例えば、その人物に関するカテゴリ情報が「戦国武将」である場合、第1候補生成手段は、「戦国武将だよ」というヒント文を作成する。   The first candidate generation unit 451 creates a hint sentence for the hint expression acquired by the first expression acquisition unit 441 by using a template of “XXX is,” “XX is,”. For example, when the category information related to the person is “Sengoku warlord”, the first candidate generating means creates a hint sentence “It ’s a warrior warrior”.

第2候補生成手段452は、第2表現取得手段442で取得されたヒント表現に対して、テンプレートを用いてヒント文を作成する。この第2候補生成手段452は、人名から、「最初の文字は○だよ」と、「最後の文字は○だよ」というテンプレートを用いてヒント文を作成する。   The second candidate generation unit 452 creates a hint sentence using the template for the hint expression acquired by the second expression acquisition unit 442. The second candidate generation means 452 creates a hint sentence from the name of the person using the templates “the first character is ○” and “the last character is ○”.

第3候補生成手段453は、第3表現取得手段443で取得されたヒント表現に対して、テンプレートを用いてヒント文を作成する。この第3候補生成手段453は、文章の語尾に対して、統語的なルールを適用することで最終の動詞を過去形にしてから、「よ」を付与する。つまり、「○○○たよ」というテンプレートを用いてヒント文を作成する。例えば、ヒント表現が「明智光秀に殺される」の場合、「明智光秀に殺されたよ」というヒント文になる。   The third candidate generation unit 453 creates a hint sentence using a template for the hint expression acquired by the third expression acquisition unit 443. The third candidate generating means 453 applies “yo” after making the final verb a past form by applying a syntactic rule to the ending of the sentence. That is, a hint sentence is created using a template “OO Tayo”. For example, when the hint expression is “killed by Akechi Mitsuhide”, the hint sentence is “I was killed by Akechi Mitsuhide”.

第4候補生成手段454は、第4表現取得手段444で取得されたヒント表現に対して、テンプレートを用いてヒント文を作成する。この第4候補生成手段454は、第3候補生成手段453と同様に、文章の語尾に対して、シンクタクティックなルールを適用することで最終の動詞を過去形にしてから、「よ」を付与するものである。   The fourth candidate generation unit 454 creates a hint sentence using the template for the hint expression acquired by the fourth expression acquisition unit 444. As with the third candidate generation unit 453, the fourth candidate generation unit 454 applies a syntactic rule to the end of the sentence to make the final verb a past form, It is given.

ヒント文リスト生成手段46は、図7に示すように、ヒントキーワード抽出手段461と、特徴量抽出手段462と、スコア算出手段463と、ソート手段464と、格納手段465とを備えている。
ヒントキーワード抽出手段461は、ヒント文候補データベース422に格納された各ヒント文候補からキーワードを抽出するものである。以下では、ヒントキーワード抽出手段461で抽出されたキーワードのことを、単にキーワードという。キーワードは、例えば、形態素解析の結果、名詞とされたものである。例えば、ヒント文候補が「武将だよ」の場合には、「武将」がキーワードとなる。
As shown in FIG. 7, the hint sentence list generating unit 46 includes a hint keyword extracting unit 461, a feature amount extracting unit 462, a score calculating unit 463, a sorting unit 464, and a storage unit 465.
The hint keyword extraction unit 461 extracts a keyword from each hint sentence candidate stored in the hint sentence candidate database 422. Hereinafter, the keyword extracted by the hint keyword extracting unit 461 is simply referred to as a keyword. The keyword is, for example, a noun as a result of morphological analysis. For example, when the hint sentence candidate is “A military commander”, “Wushou” is a keyword.

特徴量抽出手段462は、Webデータにおいて、正解を含む文書(例えば、html文書)の個数(文書に関する特徴量)Eと、正解とキーワードとの両方を含む文書の個数(文書に関する特徴量)Fと、対象とするWebデータにおけるすべての文書の個数(文書に関する特徴量)Gと、対象とするWebデータにおけるキーワードのヒット数(文書に関する特徴量)Hとを抽出するものである。なお、特徴量Gを非常に大きな数値で代用してもよい。   The feature amount extraction unit 462 includes, in the Web data, the number of documents including the correct answer (for example, html document) E (feature amount related to the document) E and the number of documents including both the correct answer and the keyword (feature amount related to the document) F. And the number of all documents (features related to documents) G in the target Web data and the number of keyword hits (features related to documents) H in the target Web data. Note that the feature amount G may be replaced with a very large value.

スコア算出手段463は、特徴量抽出手段462で抽出された各特徴量(E,F,G,H)に基づいて、Webデータにおける正解とキーワードとの共起頻度と、Webデータにおけるキーワードの一般性とを用いて、各ヒント文候補に対するスコア(第1スコア)S1を、式(1)に基づいて算出するものである。 The score calculation unit 463, based on each feature amount (E, F, G, H) extracted by the feature amount extraction unit 462, the co-occurrence frequency of the correct answer and the keyword in the Web data, and the general keyword in the Web data The score (first score) S 1 for each hint sentence candidate is calculated based on the formula (1).

1=log(F/E)+log(H/G) … 式(3) S 1 = log (F / E) + log (H / G) (3)

式(3)では、正解とキーワードとの共起頻度に、正解と回答との関連度F/Eを用いた。関連度F/Eが高いヒント文候補は、ユーザにとって正解がすぐに分かるものであると考えられる。ただし、キーワードの中には、正解とは共起が強いが、滅多に使用されずユーザには分かりにくいものが混じる可能性がある。そこで、式(3)では、Webデータにおけるキーワードの一般性をH/Gとした。このH/Gの値が大きいほど、キーワードは、ユーザになじみがあるものとなる。つまり、式(3)は、第1スコアS1の値が大きいほど、正解が分かりにくいことを示す。例えば、織田信長の場合、「武将だよ」というヒントよりも「明智光秀に殺されたよ」というヒントの方が、内容において、織田信長と関連が高く、答えに直結すると思われる。 In Expression (3), the degree of association F / E between the correct answer and the answer is used as the co-occurrence frequency of the correct answer and the keyword. A hint sentence candidate having a high degree of relevance F / E is considered to be one in which the correct answer can be easily understood by the user. However, there is a possibility that some of the keywords have a strong co-occurrence with the correct answer but are rarely used and difficult for the user to understand. Therefore, in formula (3), the generality of keywords in Web data is H / G. The larger the value of H / G, the more familiar the keyword is to the user. That is, equation (3) indicates that the greater the value of the first score S 1 , the more difficult it is to understand the correct answer. For example, in the case of Oda Nobunaga, the hint that “I was killed by Mitsuhide Akechi” is more related to the hint than Oda Nobunaga, and it seems to be directly linked to the answer.

ソート手段464は、各ヒント文候補のスコア(第1スコアS1)に基づいて、各ヒント文候補の優先順を決定し、決定された優先順でヒント文候補を並べて、ヒント文リストを生成するものである。ここでは、ソート手段464は、第1スコアS1の値が小さいヒント文候補ほど優先的にヒント文リストの上位(始め)に配置する。このように配置することで、正解がなるべくすぐに分からないような並べ方を実現できる。 The sorting unit 464 determines the priority order of each hint sentence candidate based on the score (first score S 1 ) of each hint sentence candidate, arranges the hint sentence candidates in the determined priority order, and generates a hint sentence list. To do. Here, sorting means 464 arranged above (the beginning) of about the first score S 1 value is less hint sentence candidate preferentially hint statement list. By arranging in this way, it is possible to realize an arrangement in which correct answers are not immediately known.

具体的には、ヒント文候補が多数ある場合、ランキングが低いヒント文候補(第1スコアS1の値が低いキーワード)は、関連度が低く、一般性も低いと考えられる。そのため、ランキングが低いヒント文候補は、ヒント文として必要ではない可能性が高い。そこで、ソート手段464は、多数のヒント文候補のうち、ランキングがトップJ位(例えばJ=10)のものだけを残す。そして、ソート手段464は、トップJ位までのヒント文を逆順にし、ヒント文リストとする。ソート手段464で生成されたヒント文リストは、格納手段465によって、正解別にヒント文リストデータベース423に格納される。 Specifically, if there hint sentence candidate number, ranking lower hint sentence candidates (keywords first value of the score S 1 is low), the relevance is low, generality is also considered to be low. Therefore, a hint sentence candidate with a low ranking is highly likely not necessary as a hint sentence. Therefore, the sorting unit 464 leaves only the one with the top J ranking (for example, J = 10) among the many hint sentence candidates. Then, the sorting unit 464 reverses the hint sentences up to the top J position in order, and forms a hint sentence list. The hint sentence list generated by the sorting unit 464 is stored in the hint sentence list database 423 by the storage unit 465 for each correct answer.

(ヒント生成部の動作)
図7に示したヒント生成部22の一連の動作について図8を参照(適宜図7参照)して説明する。図8は、図7に示したヒント生成部の動作を示すフローチャートである。
ヒント生成部22は、正解生成手段43によって、正解候補を選択して正解を生成し(ステップS101)、ヒント表現取得手段44によって、正解に対応するヒント表現を取得する(ステップS102)。そして、ヒント生成部22は、ヒント文候補生成手段45によって、取得したヒント表現でヒント文候補を生成し(ステップS103)、ヒントキーワード抽出手段461によって、各ヒント文候補からキーワードを抽出する(ステップS104)。そして、ヒント生成部22は、特徴量抽出手段462によって、キーワードに関する複数の特徴量をネットワークNを介してWebデータから抽出し(ステップS105)、スコア算出手段463によって、抽出した特徴量に基づいて、各ヒント文候補に対する第1スコアを算出する(ステップS106)。続いて、ヒント生成部22は、ソート手段464によって、各ヒント文候補のスコアと出題ルールとに基づいて、ヒント文リストを生成し(ステップS107)、格納手段465によって、ヒント文リストを問題別に格納する(ステップS108)。
(Operation of the hint generator)
A series of operations of the hint generation unit 22 shown in FIG. 7 will be described with reference to FIG. 8 (refer to FIG. 7 as appropriate). FIG. 8 is a flowchart showing the operation of the hint generator shown in FIG.
The hint generation unit 22 selects the correct answer candidate by the correct answer generation means 43 to generate a correct answer (step S101), and acquires the hint expression corresponding to the correct answer by the hint expression acquisition means 44 (step S102). Then, the hint generation unit 22 generates a hint sentence candidate using the acquired hint expression by the hint sentence candidate generation unit 45 (step S103), and the hint keyword extraction unit 461 extracts a keyword from each hint sentence candidate (step S103). S104). Then, the hint generation unit 22 extracts a plurality of feature amounts related to the keyword from the Web data via the network N by the feature amount extraction unit 462 (step S105), and based on the feature amount extracted by the score calculation unit 463. The first score for each hint sentence candidate is calculated (step S106). Subsequently, the hint generation unit 22 generates a hint sentence list based on the score of each hint sentence candidate and the question rule by the sorting unit 464 (step S107), and the storage unit 465 sorts the hint sentence list by problem. Store (step S108).

(具体例)
表9は、正解「織田信長」に関して、検索エンジンgoo(登録商標)を用いて取得されたWebデータによって作成されたヒント文リストである。
(Concrete example)
Table 9 is a hint sentence list created for the correct answer “Nobunaga Oda” using Web data acquired using the search engine goo (registered trademark).

Figure 2010186237
Figure 2010186237

(出題制御手段の構成例)
図9は、出題制御手段の構成例を示すブロック図である。出題制御手段17は、図9に示すように、通信インタフェース41と、記憶手段42と、一致判定手段33と、検索手段34と、類似度算出手段35と、ヒント文選択手段36と、応答文生成手段37と、出題管理手段38と、回答抽出手段39とを備えている。
記憶手段42は、正解候補データベース421と、ヒント文リストデータベース423と、応答文データベース424とを備えている。応答文データベース424は、回答に対する応答文を格納するものである。応答文として、出題開始宣言文、回答が正解と一致するときの応答文、回答が正解と不一致のときの応答文等が準備されている。
(Configuration example of question control means)
FIG. 9 is a block diagram showing a configuration example of the question control means. As shown in FIG. 9, the question control unit 17 includes a communication interface 41, a storage unit 42, a match determination unit 33, a search unit 34, a similarity calculation unit 35, a hint sentence selection unit 36, a response sentence. A generation unit 37, a question management unit 38, and an answer extraction unit 39 are provided.
The storage means 42 includes a correct answer candidate database 421, a hint sentence list database 423, and a response sentence database 424. The response sentence database 424 stores response sentences for answers. As the response sentence, a question start declaration sentence, a response sentence when the answer matches the correct answer, a response sentence when the answer does not match the correct answer, and the like are prepared.

一致判定手段33は、回答(入力)がある場合に、回答と正解とが一致するか否かを判定するものである。この一致判定手段33は、回答と正解とが一致する場合には、応答文生成手段37にその旨を通知し、回答と正解とが一致しない場合には、検索手段34と類似度算出手段35にその旨を通知する。   The coincidence determination means 33 determines whether or not the answer and the correct answer match when there is an answer (input). When the answer and the correct answer match, the match determining means 33 notifies the response sentence generating means 37 to that effect, and when the answer does not match the correct answer, the search means 34 and the similarity calculating means 35 are notified. To that effect.

検索手段34は、一致判定手段33から、回答と正解とが一致しない旨を通知された場合に、Webデータにおいて、正解を含むデータ群と、回答を含むデータ群と、回答と正解との両方を含むデータ群とのそれぞれの文書数を検索するものである。検索結果は、類似度算出手段35に出力される。具体的には、検索手段34は、例えば、ネットワークN上の人物事典を利用して、回答と正解とをそれぞれ示す2つの人名に関する記事(説明ページ)が、その人物事典の記事全体からどのようにハイパーリンクによって参照されているかを検索する。すなわち、検索手段34は、回答を示す人名に関する記事(説明ページ)と、正解を示す人名に関する記事(説明ページ)とに対して、これら両方を参照する共通の記事(人名に限らない)がどれくらいあるか検索する。   When the search means 34 is notified from the match determination means 33 that the answer and the correct answer do not match, in the Web data, both the data group containing the correct answer, the data group containing the answer, and both the answer and the correct answer The number of documents in each of the data group including “” is searched. The search result is output to the similarity calculation means 35. Specifically, the search means 34 uses, for example, a personal dictionary on the network N to determine how articles (explanatory pages) relating to two person names respectively indicating answers and correct answers from the articles of the personal dictionary. To see if it is referenced by a hyperlink. That is, for the article (explanation page) related to the person name indicating the answer and the article (explanation page) related to the person name indicating the correct answer, the search means 34 has a common article (not limited to the person name) referring to both. Search for it.

類似度算出手段35は、検索手段34で検索された結果に基づいて、ネットワークN(テキストデータ群)における回答と正解との共起性の高さを、回答と正解との類似度として算出するものである。算出された類似度は、応答文生成手段37および出題管理手段38に出力される。本実施形態では、例えば、類似度算出手段35は、共起性の高さを、フィッシャー直接検定(フィッシャーの正確確率検定、FET:Fisher’s Exact Test)によって検定し、検定結果であるp値を類似度として算出する。   The similarity calculation means 35 calculates the degree of co-occurrence between the answer and the correct answer in the network N (text data group) as the similarity between the answer and the correct answer based on the result searched by the search means 34. Is. The calculated similarity is output to the response sentence generation unit 37 and the question management unit 38. In the present embodiment, for example, the similarity calculation means 35 tests the co-occurrence level by the Fisher's exact test (Fisher's exact test, FET: Fisher's Exact Test). Calculate as degrees.

類似度算出手段35がFETにより類似度を算出する場合に、例えば、正解が「織田信長」で、回答が「豊臣秀吉」であり、「織田信長」に関する記事のページ数と、「豊臣秀吉」に関する記事のページ数と、対象とする人物事典のページ数Qとが、表10に示すように求められた場合には、FETのp値は、式(4)で示される。なお、FETについては、「Agresti A,(1992), A Survey of Exact Inference for Contingencey Tables, Statical Science,7,131-153」に記載されている。ここで、類似度の算出は、FETに限定されるものではなく、統計量の検定に用いられるカイ二乗値(χ2)、カイ二乗値を0〜1の範囲に正規化した値であるφ2などを用いることができる。 When the similarity calculation means 35 calculates the similarity by using an FET, for example, the correct answer is “Nobunaga Oda”, the answer is “Hideyoshi Toyotomi”, the number of pages of an article relating to “Nobunaga Oda”, and “Hideyoshi Toyotomi” When the page number of the article and the page number Q of the target person encyclopedia are obtained as shown in Table 10, the p-value of the FET is expressed by Expression (4). The FET is described in “Agresti A, (1992), A Survey of Exact Inference for Contingence Tables, Statical Science, 7, 131-153”. Here, the calculation of the similarity is not limited to the FET, but the chi-square value (χ 2 ) used for the statistical test, and the value obtained by normalizing the chi-square value to a range of 0 to 1 2 etc. can be used.

Figure 2010186237
Figure 2010186237

Figure 2010186237
Figure 2010186237

ヒント文選択手段36は、ヒント文リストデータベース423に問題ごとに格納されたヒント文リストの中から優先順にしたがってヒント文を選択するものである。
ヒント文選択手段36は、出題管理手段38の指示に基づいて、ヒント文リストの並べ替え処理をした場合には、並べ替えられた順番に基づいて、ヒント文を選択すると共に、並び替えられた順序の情報を出題管理手段38に通知する。
The hint sentence selection means 36 selects hint sentences according to the priority order from the hint sentence list stored for each problem in the hint sentence list database 423.
When the hint sentence list is rearranged based on the instruction from the question management means 38, the hint sentence selecting unit 36 selects the hint sentence based on the rearranged order and rearranges the hint sentence list. The order information is notified to the question management means 38.

例えば、ヒント文リストに記録されたヒント文の数が10個で、6問出題された後に、並び替え処理をすると、出題順が当初「9」番目であったヒント文が、新たに「7」番目となった後に、当初「7」番目であったヒント文が、新たに「8」番目となる。ここで、並べ替えには、中抜きも含まれる。例えば、当初「7」〜「9」番目であったヒント文を中抜き(スキップ)して、出題順が当初「10」番目であったヒント文を新たに「7」番目として、スキップしたヒント文をキャンセルする。   For example, when the number of hint sentences recorded in the hint sentence list is 10 and 6 questions are given and then rearranged, the hint sentence that was initially “9” in question order is newly added to “7 After the “th” mark, the hint sentence that was originally “7th” is newly “8th”. Here, the rearrangement includes hollowing out. For example, the hint sentence which was originally “7” to “9” is omitted (skip), and the hint sentence which was initially “10” in the order of questions is newly set as “7”, and the hint is skipped. Cancel the statement.

応答文生成手段37は、類似度算出手段35で算出された類似度に基づいて、回答に対する応答文を生成するものである。この場合の応答文は、回答が正解にどれだけ近いのかをユーザに知らせるためのものである。
また、応答文生成手段37は、回答と正解とが一致する場合に、回答に対する応答文を生成する。この場合の応答文は、回答が正解であることをユーザに知らせるためのものである。なお、応答文は、所定の規則にしたがって生成される。
本実施形態では、応答文生成手段37は、応答文データベース424から応答文を選択することにより、応答文を生成する。この応答文生成手段37は、出題管理手段38から、ヒント文リストの並べ替え処理が行われたことを通知されると、通知された情報に基づいた応答文を生成する。ヒント文を単に並べ替えたときの応答文は、例えば、「これなら分かるかな?」などである。また、ヒント文の並べ替えの結果、中抜きをして最後のヒント文を出題するときの応答文は、例えば、「これが最後のヒントだよ。」などとなる。
The response sentence generation unit 37 generates a response sentence for the answer based on the similarity calculated by the similarity calculation unit 35. The response sentence in this case is for informing the user how close the answer is to the correct answer.
The response sentence generation unit 37 generates a response sentence for the answer when the answer and the correct answer match. The response sentence in this case is for informing the user that the answer is correct. The response sentence is generated according to a predetermined rule.
In the present embodiment, the response sentence generation unit 37 generates a response sentence by selecting a response sentence from the response sentence database 424. When notified from the question management means 38 that the hint sentence list has been rearranged, the response sentence generating means 37 generates a response sentence based on the notified information. The response sentence when the hint sentences are simply rearranged is, for example, “Can you understand this?”. In addition, as a result of the rearrangement of hint sentences, the response sentence when the last hint sentence is given after removing the middle part is, for example, “This is the last hint”.

出題管理手段38は、回答が入力されたか判定し、入力された回答と正解とが一致するまで異なる質問を繰り返し出題するものである。この出題管理手段38は、入力装置Mから受け付けた回答を一致判定手段33に出力し、応答文生成手段37で生成された応答文と、ヒント文選択手段36で選択されたヒント文とを出力装置Dに出力する。ここで、入力装置Mは、例えば、キーボードやマウス等であり、出力装置Dは、例えば、液晶ディスプレイ等である。   The question management unit 38 determines whether an answer has been input, and repeatedly questions different questions until the input answer matches the correct answer. The question management means 38 outputs the answer received from the input device M to the coincidence determination means 33, and outputs the response sentence generated by the response sentence generation means 37 and the hint sentence selected by the hint sentence selection means 36. Output to device D. Here, the input device M is, for example, a keyboard or a mouse, and the output device D is, for example, a liquid crystal display.

出題管理手段38は、クイズの開始時には、初期状態の応答文(出題開始宣言文)を出力してから、第1番目のヒント文を出力する。出題管理手段38は、クイズの開始後は、回答が正解ならば、正解に対応した応答文を出力し、不正解ならば類似度に対応した応答文を出力してから次のヒント文を出力する。このため、出題管理手段38は、出題数(回答数)を管理し、出題数に応じて、応答文生成手段37と、ヒント文選択手段36とを制御する。   When the quiz starts, the question management means 38 outputs an initial response sentence (question start declaration sentence) and then outputs the first hint sentence. After starting the quiz, if the answer is correct, the question management means 38 outputs a response sentence corresponding to the correct answer, and if it is incorrect, outputs a response sentence corresponding to the similarity and then outputs the next hint sentence To do. For this reason, the question management means 38 manages the number of questions (number of answers) and controls the response sentence generation means 37 and the hint sentence selection means 36 according to the number of questions.

また、本実施形態では、出題管理手段38は、類似度算出手段35から取得した類似度(p値)が所定値γ以上であるか否かを判別し、所定値γよりも小さい場合に、ヒント文リストの並べ替え処理をするようにヒント文選択手段36に指示する。なお、所定値γを例えば、0.01としてもよい。また、出題管理手段38は、ヒント文選択手段36から並べ替え処理の結果を取得し、応答文生成手段37に通知する。   In the present embodiment, the question management unit 38 determines whether or not the similarity (p value) acquired from the similarity calculation unit 35 is equal to or greater than a predetermined value γ. The hint sentence selection means 36 is instructed to sort the hint sentence list. The predetermined value γ may be set to 0.01, for example. The question management unit 38 acquires the result of the rearrangement process from the hint sentence selection unit 36 and notifies the response sentence generation unit 37 of the result.

回答抽出手段39は、回答エージェントの機能であって、回答を正解候補データベース421から抽出し、抽出した回答を出題管理手段38に出力するものである。この場合、出題管理手段38は、回答抽出手段39から受け付けた回答を一致判定手段33に出力する。なお、出題管理手段38は、入力装置Mから、所定の命令(クイズの開始、終了、ヒント文のスキップ等)を受け付ける。   The answer extracting means 39 is a function of an answer agent, and extracts answers from the correct answer candidate database 421 and outputs the extracted answers to the question management means 38. In this case, the question management unit 38 outputs the answer received from the answer extraction unit 39 to the match determination unit 33. The question management means 38 receives a predetermined command (start or end of a quiz, skip of a hint sentence, etc.) from the input device M.

(出題制御手段の動作)
図9に示した出題制御手段の動作について図10を参照(適宜図9参照)して説明する。図10は、図9に示した出題制御手段の動作を示すフローチャートである。
出題制御手段17は、出題管理手段38によって、制御変数iを初期化(i=0)し(ステップS111)、応答文生成手段37によって、出題開始宣言文(i=0)を生成する(ステップS112)。そして、出題制御手段17は、出題管理手段38によって、制御変数iの現在の値に「1」を加算し(ステップS113)、類似度(p値)が所定値γ以上であるか否かを判別する(ステップS114)。そして、類似度(p値)が所定値γ以上である場合(ステップS114:Yes)、出題制御手段17は、ヒント文選択手段36によって、i番目のヒント文を選択し(ステップS115)、出題管理手段38によって、ヒント文を表示させる。そして、出題制御手段17は、出題管理手段38によって、入力があるか否かを判別する(ステップS116)。入力がある場合(ステップS116:Yes)、出題制御手段17は、一致判定手段33によって、一致するか否かを判別する(ステップS117)。一致しない場合(ステップS117:No)、出題制御手段17は、検索手段34によって、Webデータにおいて、正解を含むデータ群と、回答を含むデータ群と、回答と正解との両方を含むデータ群とのそれぞれの文書数を検索する(ステップS118)。そして、出題制御手段17は、類似度算出手段35によって、類似度を算出し(ステップS119)、応答文生成手段37によって、応答文を生成する(ステップS120)。
(Operation of the question control means)
The operation of the question control unit shown in FIG. 9 will be described with reference to FIG. 10 (see FIG. 9 as appropriate). FIG. 10 is a flowchart showing the operation of the question control means shown in FIG.
The question control means 17 initializes the control variable i (i = 0) by the question management means 38 (step S111), and generates the question start declaration sentence (i = 0) by the response sentence generation means 37 (step S111). S112). Then, the question control unit 17 adds “1” to the current value of the control variable i by the question management unit 38 (step S113), and determines whether the similarity (p value) is equal to or greater than a predetermined value γ. It discriminate | determines (step S114). If the similarity (p value) is equal to or greater than the predetermined value γ (step S114: Yes), the question control means 17 selects the i-th hint sentence by the hint sentence selection means 36 (step S115), The hint text is displayed by the management means 38. Then, the question control means 17 determines whether or not there is an input by the question management means 38 (step S116). When there is an input (step S116: Yes), the question control unit 17 determines whether or not they match by the match determination unit 33 (step S117). When they do not match (Step S117: No), the question control means 17 uses the search means 34 to search the Web data with a data group including the correct answer, a data group including the answer, and a data group including both the answer and the correct answer. Each document number is searched (step S118). Then, the question control unit 17 calculates the similarity by the similarity calculation unit 35 (step S119), and generates a response sentence by the response sentence generation unit 37 (step S120).

一方、ステップS117において、一致する場合(ステップS117:Yes)、出題制御手段17は、ステップS120に進む。ステップS120に続いて、出題制御手段17は、出題管理手段38によって、クイズの終了であるか否かを判別する(ステップS121)。クイズの終了である場合(ステップS121:Yes)、出題制御手段17は、処理を終了する。一方、クイズの終了ではない場合(ステップS121:No)、出題制御手段17は、ステップS113に戻る。   On the other hand, if they match in step S117 (step S117: Yes), the question control means 17 proceeds to step S120. Subsequent to step S120, the question control means 17 determines whether or not the quiz is ended by the question management means 38 (step S121). When it is the end of the quiz (step S121: Yes), the question control unit 17 ends the process. On the other hand, when it is not the end of the quiz (step S121: No), the question control means 17 returns to step S113.

また、ステップS114において、類似度(p値)が所定値γよりも小さい場合(ステップS114:No)、出題制御手段17は、ヒント文選択手段36によって、並び替え処理を実行し(ステップS122)、ヒント文を選択する(ステップS123)。また、ステップS116において、入力がない場合(ステップS116:No)、出題制御手段17は、出題管理手段38によって、ヒント間隔時間HTが経過したか否かを判別する(ステップS124)。ヒント間隔時間HTが経過した場合(ステップS124:Yes)、出題制御手段17は、ステップS120に進む。一方、ヒント間隔時間HTが経過しない場合(ステップS124:No)、出題制御手段17は、ステップS116に戻る。   If the similarity (p value) is smaller than the predetermined value γ in step S114 (step S114: No), the question control means 17 performs a rearrangement process by the hint sentence selection means 36 (step S122). Then, a hint sentence is selected (step S123). If there is no input in step S116 (step S116: No), the question control means 17 determines whether or not the hint interval time HT has passed by the question management means 38 (step S124). When the hint interval time HT has elapsed (step S124: Yes), the question control unit 17 proceeds to step S120. On the other hand, when the hint interval time HT has not elapsed (Step S124: No), the question control means 17 returns to Step S116.

なお、多人数思考喚起型対話装置1は、一般的なコンピュータを、多人数思考喚起型対話装置1を構成する前記した各手段として機能させるプログラム(多人数思考喚起型対話プログラム)により動作させることで実現することができる。このプログラムは、通信回線を介して提供することも可能であるし、CD−ROM等の記録媒体に書き込んで配布することも可能である。   Note that the multi-person thought-inducing interactive device 1 is operated by a program (a multi-person thought-inducing interactive program) that causes a general computer to function as each of the above-described means constituting the multi-person thought inducing interactive device 1. Can be realized. This program can be provided via a communication line, or can be written on a recording medium such as a CD-ROM and distributed.

本実施形態によれば、複数の人間と複数の対話エージェントが参加する多人数の思考喚起型対話において、エージェントおよびユーザの発言内容および発言タイミングに係る対話状況を記憶手段で管理し、予め定められた対話制御ルールおよび発言生成ルールに基づいて、エージェントが、適切な内容かつ適切なタイミングで、共感的発言または自己中心的発言を出力することができる。したがって、人間が感じる満足度、エージェントに対する親近感や好感度、エージェントにケアされているという感覚が向上し、人間同士のやり取りを含むコミュニケーション量を増やすことができ、コミュニケーションを活性化することが可能となる。その結果、多人数対話に参加する人間同士のつながり、親近感、連帯感を強める効果が期待できる。   According to the present embodiment, in a multi-person thought-inducing dialogue in which a plurality of people and a plurality of dialogue agents participate, the dialogue status relating to the content and timing of the utterances of the agent and the user is managed by the storage means, and is determined in advance. Based on the dialogue control rule and the speech generation rule, the agent can output a sympathetic speech or a self-centered speech with appropriate content and appropriate timing. Therefore, the degree of satisfaction that humans feel, the sense of familiarity and likability with agents, and the sense that they are being cared for can be improved, and the amount of communication, including interaction between humans, can be increased and communication can be activated. It becomes. As a result, the effect of strengthening the connection, closeness, and solidarity between humans participating in the multi-person dialogue can be expected.

以上、本発明の実施形態について説明したが、本発明はこれに限定されるものではなく、その趣旨を変えない範囲で実施することができる。例えば、ユーザの人数やエージェントの体数は、適宜変更できる。また、例えば、本実施形態では、人名当てクイズとして説明したが、これに限定されるものではない。例えば、動物名や植物名などの生物名、地名などの無生物名、商品名、学習用語名、学術専門用語名等でもよい。また、図9に構成を示した出題制御手段17や、図7に構成を示したヒント生成部22は、一例であって、本発明はこれに限定されるものではない。また、エージェントの発言によってユーザの思考を喚起させる多人数思考喚起型対話であれば、対話は、クイズによる対話形式に限定されるものではない。   As mentioned above, although embodiment of this invention was described, this invention is not limited to this, It can implement in the range which does not change the meaning. For example, the number of users and the number of agents can be changed as appropriate. For example, in the present embodiment, the personal name guessing quiz is described, but the present invention is not limited to this. For example, an organism name such as an animal name or a plant name, an inanimate name such as a place name, a product name, a learning term name, or an academic terminology name may be used. Also, the question control means 17 shown in FIG. 9 and the hint generator 22 shown in FIG. 7 are examples, and the present invention is not limited to this. In addition, the dialogue is not limited to the quiz dialogue format as long as it is a multi-person thought-inducing dialogue that arouses the user's thoughts by the remarks of the agent.

本発明の効果を確認するために、実験により、本実施形態に係る多人数思考喚起型対話装置の性能を確かめた。実験参加者を募り、システムの評価実験を行った。実験参加者として1ペア2名の参加者を32ペア集めた。32ペアのうち、男性同士のペアが16ペア、女性同士のペアが16ペアであった。   In order to confirm the effect of the present invention, the performance of the multi-person thought-stimulating dialogue apparatus according to the present embodiment was confirmed by experiments. Experiment participants were recruited and system evaluation experiments were conducted. Thirty-two pairs were collected as two participants. Of the 32 pairs, 16 pairs were male and 16 pairs were female.

(A)回答エージェントが存在しない場合、(B)回答エージェントが存在して、無感情条件が成立する場合、(C)回答エージェントが存在して、共感条件のみ成立している場合、(D)回答エージェントが存在して、自己中心条件のみ成立している場合、(E)回答エージェントが存在して、共感条件と自己中心条件の双方が成立している場合の5つのシステムを準備した。   (A) When there is no answer agent, (B) When there is an answer agent and the no emotion condition is satisfied, (C) When there is an answer agent and only the sympathy condition is satisfied, (D) When the answer agent exists and only the self-centered condition is satisfied, (E) five systems are prepared in which the answer agent exists and both the empathy condition and the self-centered condition are satisfied.

実験参加者の各ペアは、5つのシステムと順に対話を行った。ペアごとに、5つのシステムと対話する順序を並び替え、各システムとの対話順序の影響が現れないようにした。各対話においては、5つのクイズの問題が出題された。各システムとの対話において出題される問題の難易度は同程度に揃えた。   Each pair of experimental participants interacted with the five systems in turn. For each pair, the order of interaction with the five systems was rearranged so that the influence of the interaction order with each system did not appear. In each dialogue, five quiz questions were presented. The degree of difficulty of the questions presented in the dialogue with each system is the same.

各システムとの対話が終了した後、対話の満足度と回答エージェントに対する印象についてアンケート調査を行った。回答エージェントに対する印象についてのアンケートは、回答エージェントが存在するシステムに対してのみ行った。   After the dialogue with each system was completed, a questionnaire survey was conducted on the satisfaction with the dialogue and the impression of the answering agent. The questionnaire about the impression to the answer agent was done only for the system where the answer agent exists.

実験結果を分析することで、次のことが分かった。
(1)回答エージェントが存在しない場合に比べて、回答エージェントが存在する場合は、ユーザの発言量が統計的に有意に増加し、対話の満足度が統計的に有意に向上した。
(2)回答エージェントが存在する場合、共感条件が成立していない場合よりも、共感条件が成立している場合の方が、ユーザの発言量が統計的に有意に増加し、対話の満足度、回答エージェントに対する親近感や好感度、回答エージェントにケアされている感覚が統計的に有意に向上した(p<0.01)。
(3)回答エージェントが存在する場合、自己中心条件が成り立っていない場合よりも、自己中心条件が成り立っている場合の方が、回答エージェントに対する好感度が統計的に有意に向上した(p<0.01)。
ユーザの発言量、回答エージェントに対する親近感、回答エージェントにケアされている感覚に関しては、自己中心条件の成立する場合と成立しない場合とを比べて、統計的に有意な差はなかった。
The following was found by analyzing the experimental results.
(1) Compared with the case where there is no answer agent, when the answer agent is present, the amount of speech of the user is statistically significantly increased, and the satisfaction degree of the dialogue is statistically significantly improved.
(2) When there is an answer agent, the amount of user's utterance increases statistically significantly when the sympathy condition is satisfied, and when the sympathy condition is not satisfied, the degree of satisfaction with the dialogue , The feeling of familiarity and favorableness to the answering agent and the sense of care by the answering agent were statistically significantly improved (p <0.01).
(3) When there is an answer agent, the preference for the answer agent is statistically significantly improved when the self-centric condition is satisfied (p <0) than when the self-centric condition is not satisfied. .01).
There was no statistically significant difference in the amount of user's utterance, the sense of familiarity with the answering agent, and the sense of care being taken by the answering agent, when the self-centered condition is satisfied and when it is not satisfied.

この結果から、本発明のシステムは、多人数の思考喚起型対話において、対話エージェントが適切な発言の内容とタイミングで発言することにより、コミュニケーションを活性化させることが可能であることが分かった。   From this result, it was found that the system of the present invention can activate communication in a dialogue with a large number of thoughts by allowing the dialogue agent to speak at an appropriate content and timing.

また、システム感情パラメータとして、共感条件を外部から与え、対話エージェントに対話の状況に応じて適切な内容とタイミングで共感的発言を行わせることにより、対話の満足度、回答エージェントに対する親近感・好感度、回答エージェントにケアされている感覚などを向上させ、ユーザ同士のやり取りを含むコミュニケーションを活性化させることが可能であることが分かる。   In addition, empathy conditions are given from the outside as system emotion parameters, and by letting the dialogue agent make sympathetic remarks with appropriate content and timing according to the situation of the dialogue, the satisfaction of the dialogue, the familiarity / preference of the answering agent It can be seen that it is possible to improve the sensitivity, the sense of care by the answering agent, etc., and to activate communication including interaction between users.

さらに、システム感情パラメータとして、自己中心条件を外部から与え、対話エージェントに対話の状況に応じて適切な内容とタイミングで自己中心的発言を行わせることにより、コミュニケーション量の増加はみられないまでも、ユーザが感じる回答エージェントに対する好感度を向上させることができることが分かった。   Furthermore, by giving a self-centered condition as a system emotion parameter from the outside, and letting the conversation agent speak self-centered with appropriate content and timing according to the state of the conversation, there is no increase in communication volume. , It was found that the user's preference for the answering agent can be improved.

1 多人数思考喚起型対話システム(多人数思考喚起型対話装置)
2 ユーザ発言理解部(ユーザ発言理解手段)
3 対話制御部(対話制御手段)
4 エージェント発言生成部(エージェント発言生成手段)
5 対話状態(対話状態記憶手段)
6 発言キュー(キュー記憶手段)
10 ディスプレイ
11 対話制御ルール(対話制御ルール記憶手段)
12 状況DB(状況DB記憶手段)
13 発言タイプ判別手段
14 対話行為選択手段
15 状況条件判別手段
16 発言促進条件判別手段
17 出題制御手段
18 発言生成手段
19 発言生成ルール
21 問題記憶部(問題記憶手段)
22 ヒント生成部(ヒント生成手段)
23 正誤判定部(正誤判定手段)
24 類似判定部(類似判定手段)
25 ヒント記憶部(ヒント記憶手段)
31 ネットワークデータサーバ
31a データベース
32 質問応答システム
33 一致判定手段
34 検索手段
35 類似度算出手段
36 ヒント文選択手段
37 応答文生成手段
38 出題管理手段
39 回答抽出手段
41 通信インタフェース
42 記憶手段
43 正解生成手段
44 ヒント表現取得手段
45 ヒント文候補生成手段
46 ヒント文リスト生成手段
421 正解候補データベース
422 ヒント文候補データベース
423 ヒント文リストデータベース
424 応答文データベース
441 第1表現取得手段
442 第2表現取得手段
443 第3表現取得手段
444 第4表現取得手段
451 第1候補生成手段
452 第2候補生成手段
453 第3候補生成手段
454 第4候補生成手段
461 ヒントキーワード抽出手段
462 特徴量抽出手段
463 スコア算出手段
464 ソート手段
465 格納手段
D 出力装置
M 入力装置
N ネットワーク
1 Multi-person thinking-aware dialogue system (Multi-person thinking-aware dialogue device)
2 User remark understanding section (User remark understanding means)
3 Dialogue control unit (dialogue control means)
4 Agent statement generator (Agent statement generator)
5 Dialogue state (dialogue state storage means)
6 Talk queue (queue storage means)
10 Display 11 Dialog control rule (dialog control rule storage means)
12 Situation DB (situation DB storage means)
DESCRIPTION OF SYMBOLS 13 Statement type discrimination means 14 Dialogue action selection means 15 Situation condition discrimination means 16 Statement promotion condition discrimination means 17 Question control means 18 Statement generation means 19 Statement generation rule 21 Problem storage part (problem storage means)
22 Hint generator (Hint generator)
23 Correctness determination unit (correction determination means)
24 Similarity determination unit (similarity determination means)
25 Hint storage unit (Hint storage means)
31 Network Data Server 31a Database 32 Question Response System 33 Match Determination Unit 34 Search Unit 35 Similarity Calculation Unit 36 Hint Sentence Selection Unit 37 Response Sentence Generation Unit 38 Question Management Unit 39 Answer Extraction Unit 41 Communication Interface 42 Storage Unit 43 Correct Answer Generation Unit 44 hint expression acquisition means 45 hint sentence candidate generation means 46 hint sentence list generation means 421 correct answer candidate database 422 hint sentence candidate database 423 hint sentence list database 424 response sentence database 441 first expression acquisition means 442 second expression acquisition means 443 third Expression acquisition means 444 Fourth expression acquisition means 451 First candidate generation means 452 Second candidate generation means 453 Third candidate generation means 454 Fourth candidate generation means 461 Hint keyword extraction means 462 Feature amount extraction means 463 Score calculation means 464 Sort means 465 Storage means D Output device M Input device N Network

Claims (6)

人間である複数のユーザとコンピュータで実現される複数のエージェントとによる多人数対話において、前記エージェントの発言によって前記ユーザの思考を喚起させる多人数思考喚起型対話装置であって、
前記多人数対話の状況として、前記エージェントが発言するタイミングを規定する時間パラメータと、前記各エージェントの発言を共感的発言または自己中心的発言に規定する感情条件を設定する感情パラメータとを記憶する状況データベース記憶手段と、
前記多人数対話の参加者の発言内容の種類ごとに前記各エージェントから前記ユーザに提示される発言の内部構造を記述した第1対話行為情報を、前記多人数対話の状況に応じて選択する規則を記述した対話制御ルールを記憶した対話制御ルール記憶手段と、
前記エージェントから前記ユーザに提示される発言の表現を、前記各エージェントの発言内容の種類と前記感情条件と前記多人数対話の状況とに応じて選択する規則を記述した発言生成ルールを記憶した発言生成ルール記憶手段と、
前記第1対話行為情報と、前記ユーザの発言の内部構造を記述した第2対話行為情報とを記憶するキュー記憶手段と、
前記多人数対話の参加者による対話の履歴として、前記ユーザに既に提示された発言に関する前記第1対話行為情報と、前記第2対話行為情報の履歴とを記憶する対話状態記憶手段と、
前記各ユーザの発言を示すテキストデータまたは音声データを受け付けて、当該ユーザの前記第2対話行為情報に変換し、前記キュー記憶手段の最後尾に追加すると共に、前記対話状態記憶手段に書き込むユーザ発言理解手段と、
前記キュー記憶手段の先頭にある前記第1または第2対話行為情報と、前記対話状態記憶手段に記憶された第1および第2対話行為情報の履歴を参照し、前記対話制御ルールを適用することにより、前記エージェントから前記ユーザに次に提示される発言に関する第1対話行為情報を選択し、前記キュー記憶手段の先頭にある前記第1または第2対話行為情報を取り除く対話制御手段と、
前記対話制御手段で選択された第1対話行為情報を取得したときに、前記対話状態記憶手段に記憶された第1および第2対話行為情報の履歴を参照し、前記発言生成ルールに基づいて、前記取得した第1対話行為情報に対応して次に発言を行う前記エージェントの発言表現を生成し、前記生成した発言表現を前記ユーザに提示し、当該発言表現を代入した第1対話行為情報を前記対話状態記憶手段に格納すると共に、前記キュー記憶手段の最後尾に追加するエージェント発言生成手段と、
を備えることを特徴とする多人数思考喚起型対話装置。
In a multi-person dialogue between a plurality of human users and a plurality of agents realized by a computer, a multi-person thought-inducing interactive device that arouses the user's thoughts by the agent's remarks,
Situation for storing a time parameter that defines the timing at which the agent speaks and an emotion parameter that sets an emotion condition that defines the utterance of each agent as a sympathetic speech or a self-centered speech as the situation of the multi-person dialogue Database storage means;
Rules for selecting the first dialogue action information describing the internal structure of the utterances presented to the user from each agent for each type of utterance contents of participants in the multi-person dialogue according to the situation of the multi-person dialogue A dialog control rule storage means storing a dialog control rule describing
A utterance that stores a utterance generation rule that describes a rule for selecting an utterance expression presented to the user from the agent according to the type of utterance content of each agent, the emotion condition, and the situation of the multi-person conversation Generation rule storage means;
Queue storage means for storing the first dialog act information and second dialog act information describing an internal structure of the user's speech;
Dialog state storage means for storing the first dialogue action information related to the speech already presented to the user and the history of the second dialogue action information as a history of dialogue by the participants of the multi-person dialogue,
A user message that accepts text data or voice data indicating the message of each user, converts it into the second dialogue action information of the user, adds it to the tail of the queue storage means, and writes it to the dialogue state storage means Understanding means,
Referencing the first or second interactive action information at the head of the queue storage means and the history of the first and second interactive action information stored in the interactive state storage means, and applying the interactive control rule By means of the dialog control means for selecting the first dialog action information related to the speech to be presented next to the user from the agent and removing the first or second dialog action information at the head of the queue storage means;
When acquiring the first dialogue action information selected by the dialogue control means, referring to the history of the first and second dialogue action information stored in the dialogue state storage means, based on the statement generation rule, Corresponding to the acquired first dialogue action information, a speech expression of the agent that will speak next is generated, the generated speech expression is presented to the user, and the first conversation action information in which the speech expression is substituted is generated. Agent speech generation means for storing in the conversation state storage means and adding to the tail of the queue storage means;
A multi-person thought-inspiring interactive device characterized by comprising:
前記多人数対話としてクイズの質問応答形式の対話を行うために、前記選択された第1対話行為情報に基づいて、前記複数のエージェントが、前記ユーザに問題を出題する出題エージェントおよび前記出題された問題に回答する回答エージェントとして振る舞うように、前記第1対話行為情報と、前記対話制御ルールと、前記発言生成ルールとが予め定められ、
前記クイズの問題を記憶する問題記憶手段と、
前記問題の複数のヒントを難易度の高いものから順に並べたヒント文リストを生成するヒント生成手段と、
前記生成されたヒント文リストを記憶するヒント記憶手段と、
前記ユーザまたは前記回答エージェントの回答の正誤を判定する正誤判定手段と、
前記回答が不正解である場合に正解と回答との類似の度合いを判定する類似判定手段と、
をさらに備え、
前記エージェント発言生成手段は、前記正誤判定手段によって前記参加者の回答が不正解であると判定された場合および正解であると判定された場合に、その判定結果に対して前記感情条件にしたがった発言を、前記出題エージェントまたは前記回答エージェントの発言表現として生成することを特徴とする請求項1に記載の多人数思考喚起型対話装置。
In order to conduct a quiz question-and-answer format conversation as the multi-person dialogue, the plurality of agents, based on the selected first dialogue action information, give a question to the user, and the questions The first dialogue action information, the dialogue control rule, and the statement generation rule are predetermined so as to behave as an answer agent that answers a problem,
Problem storage means for storing the quiz problem;
Hint generating means for generating a hint sentence list in which a plurality of hints of the problem are arranged in descending order of difficulty;
Hint storage means for storing the generated hint sentence list;
Correctness determination means for determining correctness of the answer of the user or the answer agent;
Similarity determination means for determining the degree of similarity between the correct answer and the answer when the answer is incorrect;
Further comprising
The agent utterance generation means follows the emotion condition for the determination result when the correctness determination means determines that the participant's answer is incorrect and when it is determined to be correct. The multi-person thought-invoking interactive apparatus according to claim 1, wherein an utterance is generated as an utterance expression of the questioning agent or the answering agent.
ユーザ発言理解手段と、対話制御手段と、エージェント発言生成手段と、記憶手段とを備え、人間である複数のユーザとコンピュータで実現される複数のエージェントとによる多人数対話において、前記エージェントの発言によって前記ユーザの思考を喚起させる多人数思考喚起型対話装置による多人数思考喚起型対話方法であって、
前記記憶手段には、
前記多人数対話の状況として、前記エージェントが発言するタイミングを規定する時間パラメータと、前記各エージェントの発言を共感的発言または自己中心的発言に規定する感情条件を設定する感情パラメータとを記憶する状況データベースと、
前記多人数対話の参加者の発言内容の種類ごとに前記各エージェントから前記ユーザに提示される発言の内部構造を記述した第1対話行為情報を、前記多人数対話の状況に応じて選択する規則を記述した対話制御ルールと、
前記エージェントから前記ユーザに提示される発言の表現を、前記各エージェントの発言内容の種類と前記感情条件と前記多人数対話の状況とに応じて選択する規則を記述した発言生成ルールと、が事前に記憶されており、
前記ユーザ発言理解手段にて、
前記各ユーザの発言を示すテキストデータまたは音声データを受け付けるステップと、
受け付けた発言を当該ユーザの発言の内部構造を記述した第2対話行為情報に変換するステップと、
前記第2対話行為情報をキュー記憶手段の最後尾に追加するステップと、
前記多人数対話の参加者による対話の履歴として、前記ユーザに既に提示された発言に関する前記第1対話行為情報と、前記第2対話行為情報の履歴とを記憶する対話状態記憶手段に対して、前記受け付けた発言の前記第2対話行為情報を書き込むステップと、
前記対話制御手段にて、
前記キュー記憶手段の先頭にある前記第1または第2対話行為情報と、前記対話状態記憶手段に記憶された第1および第2対話行為情報の履歴を参照し、前記対話制御ルールを適用することにより、前記エージェントから前記ユーザに次に提示される発言に関する第1対話行為情報を選択するステップと、
前記選択した第1対話行為情報を前記エージェント発言生成手段に送るステップと、
前記キュー記憶手段の先頭にある前記第1または第2対話行為情報を取り除くステップと、
前記エージェント発言生成手段にて、
前記対話制御手段で選択された第1対話行為情報を取得するステップと、
前記対話状態記憶手段に記憶された第1および第2対話行為情報の履歴を参照し、前記発言生成ルールに基づいて、前記取得した第1対話行為情報に対応して次に発言を行う前記エージェントの発言表現を生成するステップと、
前記生成した発言表現を前記ユーザに提示するステップと、
当該発言表現を代入した第1対話行為情報を前記対話状態記憶手段に格納すると共に、前記キュー記憶手段の最後尾に追加するステップと、
を含んで実行することを特徴とする多人数思考喚起型対話方法。
In a multi-party conversation between a plurality of users who are humans and a plurality of agents realized by a computer, comprising user speech understanding means, dialogue control means, agent speech generation means, and storage means. A multi-person thought-stimulating dialogue method by a multi-person thought-stimulating dialogue device that arouses the user's thoughts,
In the storage means,
Situation for storing a time parameter that defines the timing at which the agent speaks and an emotion parameter that sets an emotion condition that defines the utterance of each agent as a sympathetic speech or a self-centered speech as the situation of the multi-person dialogue A database,
Rules for selecting the first dialogue action information describing the internal structure of the utterances presented to the user from each agent for each type of utterance contents of participants in the multi-person dialogue according to the situation of the multi-person dialogue A dialogue control rule that describes
A speech generation rule describing rules for selecting a speech expression presented to the user from the agent according to the type of speech content of each agent, the emotion condition, and the situation of the multi-person dialogue Is remembered,
In the user speech understanding means,
Receiving text data or voice data indicating the remarks of each user;
Converting received speech into second interactive action information describing the internal structure of the user's speech;
Adding the second dialogue action information to the tail of the queue storage means;
With respect to the dialogue state storage means for storing the first dialogue act information related to the speech already presented to the user and the history of the second dialogue act information as the dialogue history by the participants of the multi-person dialogue, Writing the second dialogue action information of the accepted speech;
In the dialog control means,
Referencing the first or second interactive action information at the head of the queue storage means and the history of the first and second interactive action information stored in the interactive state storage means, and applying the interactive control rule Selecting first dialogue action information relating to a statement to be presented next to the user from the agent;
Sending the selected first dialogue action information to the agent statement generation means;
Removing the first or second interactive action information at the head of the queue storage means;
In the agent message generation means,
Obtaining first dialogue action information selected by the dialogue control means;
The agent that refers to the history of the first and second dialogue action information stored in the dialogue state storage means and makes a statement next in accordance with the acquired first dialogue action information based on the statement generation rule Generating a speech expression of
Presenting the generated speech expression to the user;
Storing the first dialogue action information into which the utterance expression is substituted in the dialogue state storage unit and adding the information to the tail of the queue storage unit;
A multi-person thought-aware dialogue method characterized by including and executing.
前記多人数対話としてクイズの質問応答形式の対話を行うために、前記選択された第1対話行為情報に基づいて、前記複数のエージェントが、前記ユーザに問題を出題する出題エージェントおよび前記出題された問題に回答する回答エージェントとして振る舞うように、前記第1対話行為情報と、前記対話制御ルールと、前記発言生成ルールとが予め定められ、
前記出題エージェントは、
前記クイズの問題を出題する一連の処理の中で、前記問題の複数のヒントを難易度の高いものから順に前記参加者に対して提示するように発言し、前記ユーザまたは前記回答エージェントの回答の正誤を判定し、前記回答が不正解である場合に正解と回答との類似の度合いを判定し、不正解時の類似の度合いに応じた発言および正解時の発言を行い、
前記出題エージェントまたは前記回答エージェントは、前記参加者の回答が不正解である場合および正解である場合に、その結果に対して前記感情条件にしたがった発言を行うことを特徴とする請求項3に記載の多人数思考喚起型対話方法。
In order to conduct a quiz question-and-answer format conversation as the multi-person dialogue, the plurality of agents, based on the selected first dialogue action information, give a question to the user, and the questions The first dialogue action information, the dialogue control rule, and the statement generation rule are predetermined so as to behave as an answer agent that answers a problem,
The questioning agent is
In a series of processes for asking the question of the quiz, a plurality of hints of the question are said to be presented to the participant in descending order of difficulty, and the answer of the user or the answer agent Determine correct / incorrect, if the answer is incorrect, determine the degree of similarity between the correct answer and the answer, make a statement according to the degree of similarity at the incorrect answer and say at the correct answer,
4. The answering agent according to claim 3, wherein the answering agent or the answering agent makes a statement according to the emotion condition for the result when the answer of the participant is incorrect or correct. The multi-person thought-aware dialogue method described.
請求項1または請求項2に記載の多人数思考喚起型対話装置を構成する各手段としてコンピュータを機能させるための多人数思考喚起型対話プログラム。   A multi-person thought-stimulating interactive program for causing a computer to function as each means constituting the multi-person thought-stimulating interactive apparatus according to claim 1. 請求項5に記載の多人数思考喚起型対話プログラムが記録されたことを特徴とするコンピュータ読み取り可能な記録媒体。   6. A computer-readable recording medium on which the multi-person thought-inducing dialogue program according to claim 5 is recorded.
JP2009028605A 2009-02-10 2009-02-10 Multi-person thought arousing dialogue apparatus, multi-person thought arousing dialogue method, multi-person thought arousing dialogue program, and computer-readable recording medium recording the program Active JP5128514B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009028605A JP5128514B2 (en) 2009-02-10 2009-02-10 Multi-person thought arousing dialogue apparatus, multi-person thought arousing dialogue method, multi-person thought arousing dialogue program, and computer-readable recording medium recording the program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009028605A JP5128514B2 (en) 2009-02-10 2009-02-10 Multi-person thought arousing dialogue apparatus, multi-person thought arousing dialogue method, multi-person thought arousing dialogue program, and computer-readable recording medium recording the program

Publications (2)

Publication Number Publication Date
JP2010186237A true JP2010186237A (en) 2010-08-26
JP5128514B2 JP5128514B2 (en) 2013-01-23

Family

ID=42766874

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009028605A Active JP5128514B2 (en) 2009-02-10 2009-02-10 Multi-person thought arousing dialogue apparatus, multi-person thought arousing dialogue method, multi-person thought arousing dialogue program, and computer-readable recording medium recording the program

Country Status (1)

Country Link
JP (1) JP5128514B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012059161A (en) * 2010-09-13 2012-03-22 Nippon Telegr & Teleph Corp <Ntt> Action timing determination device, action timing determination method and its program
JP2014081782A (en) * 2012-10-16 2014-05-08 Sharp Corp Utterance processing device, utterance processing method, control program and recording medium
KR101728598B1 (en) * 2012-03-28 2017-04-19 후지쯔 가부시끼가이샤 Response support server, response support system, response support method and recording medium
WO2018142686A1 (en) * 2017-01-31 2018-08-09 ソニー株式会社 Information processing device, information processing method, and program
CN109791551A (en) * 2016-09-28 2019-05-21 株式会社东芝 Information processing system, information processing unit, information processing method and storage medium
US10599644B2 (en) 2016-09-14 2020-03-24 International Business Machines Corporation System and method for managing artificial conversational entities enhanced by social knowledge
JP2020135394A (en) * 2019-02-19 2020-08-31 富士通クライアントコンピューティング株式会社 Information processing apparatus and information processing program
JP2021082125A (en) * 2019-11-21 2021-05-27 株式会社Nttドコモ Dialogue device
JP2022065915A (en) * 2020-10-16 2022-04-28 株式会社ヴィッツ Discrimination system, discrimination method, and computer program
CN117151662A (en) * 2023-08-31 2023-12-01 北京五八信息技术有限公司 Position information processing method, device, equipment and storage medium based on AI

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001195430A (en) * 1999-11-02 2001-07-19 Atr Media Integration & Communications Res Lab System for expediting knowledge sharing
JP2001337827A (en) * 2000-05-24 2001-12-07 Atr Media Integration & Communications Res Lab Natural language dialog system, helper agent in natural language dialog system, and computer-readable recording medium which agent program is recorded
JP2003173335A (en) * 2001-12-06 2003-06-20 Canon Inc Natural language conversation device and method, and storage medium
JP2004310034A (en) * 2003-03-24 2004-11-04 Matsushita Electric Works Ltd Interactive agent system
JP2004354787A (en) * 2003-05-30 2004-12-16 Nippon Telegr & Teleph Corp <Ntt> Interactive method using statistic information and system for the same, interactive program and recording medium recorded with the program
JP2006071936A (en) * 2004-09-01 2006-03-16 Matsushita Electric Works Ltd Dialogue agent
JP2007322836A (en) * 2006-06-01 2007-12-13 Nippon Telegr & Teleph Corp <Ntt> Interactive questioning method, interactive questioning system, interactive questioning program, and recording medium with the same program recorded thereon

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001195430A (en) * 1999-11-02 2001-07-19 Atr Media Integration & Communications Res Lab System for expediting knowledge sharing
JP2001337827A (en) * 2000-05-24 2001-12-07 Atr Media Integration & Communications Res Lab Natural language dialog system, helper agent in natural language dialog system, and computer-readable recording medium which agent program is recorded
JP2003173335A (en) * 2001-12-06 2003-06-20 Canon Inc Natural language conversation device and method, and storage medium
JP2004310034A (en) * 2003-03-24 2004-11-04 Matsushita Electric Works Ltd Interactive agent system
JP2004354787A (en) * 2003-05-30 2004-12-16 Nippon Telegr & Teleph Corp <Ntt> Interactive method using statistic information and system for the same, interactive program and recording medium recorded with the program
JP2006071936A (en) * 2004-09-01 2006-03-16 Matsushita Electric Works Ltd Dialogue agent
JP2007322836A (en) * 2006-06-01 2007-12-13 Nippon Telegr & Teleph Corp <Ntt> Interactive questioning method, interactive questioning system, interactive questioning program, and recording medium with the same program recorded thereon

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
中野幹生,外: "音声言語インタフェースの実用化と音声言語対話への展開", 人工知能学会誌, vol. 第17,第3号, JPN6012056386, 1 May 2002 (2002-05-01), pages 271 - 278, ISSN: 0002367955 *
南泰浩,外: "POMDPを利用した思考喚起型対話の制御", 情報処理学会研究報告, vol. 第2008巻,第123号, JPN6012056385, 2 December 2008 (2008-12-02), pages 97 - 102, ISSN: 0002367954 *
河添麻衣子,外: "発話タイミングを考慮したマルチエージェント対話システム", 電子情報通信学会技術研究報告, vol. 第106巻,第618号, JPN6012056387, 21 March 2007 (2007-03-21), pages 53 - 56, ISSN: 0002367956 *
西村健士,外: "感情豊かな音声対話を行うエージェントシステムの開発", NEC技報, vol. 第53巻,第6号, JPN6012056388, 23 June 2000 (2000-06-23), pages 25 - 29, ISSN: 0002367957 *

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012059161A (en) * 2010-09-13 2012-03-22 Nippon Telegr & Teleph Corp <Ntt> Action timing determination device, action timing determination method and its program
KR101728598B1 (en) * 2012-03-28 2017-04-19 후지쯔 가부시끼가이샤 Response support server, response support system, response support method and recording medium
JP2014081782A (en) * 2012-10-16 2014-05-08 Sharp Corp Utterance processing device, utterance processing method, control program and recording medium
US9473445B2 (en) 2012-10-16 2016-10-18 Sharp Kabushiki Kaisha Comment processing device, comment processing method, and storage medium
US10599644B2 (en) 2016-09-14 2020-03-24 International Business Machines Corporation System and method for managing artificial conversational entities enhanced by social knowledge
CN109791551A (en) * 2016-09-28 2019-05-21 株式会社东芝 Information processing system, information processing unit, information processing method and storage medium
JPWO2018142686A1 (en) * 2017-01-31 2019-12-19 ソニー株式会社 Information processing apparatus, information processing method, and program
WO2018142686A1 (en) * 2017-01-31 2018-08-09 ソニー株式会社 Information processing device, information processing method, and program
JP2020135394A (en) * 2019-02-19 2020-08-31 富士通クライアントコンピューティング株式会社 Information processing apparatus and information processing program
JP2021082125A (en) * 2019-11-21 2021-05-27 株式会社Nttドコモ Dialogue device
JP7348818B2 (en) 2019-11-21 2023-09-21 株式会社Nttドコモ dialogue device
JP2022065915A (en) * 2020-10-16 2022-04-28 株式会社ヴィッツ Discrimination system, discrimination method, and computer program
JP7116766B2 (en) 2020-10-16 2022-08-10 株式会社ヴィッツ Discrimination system, discrimination method, and computer program
CN117151662A (en) * 2023-08-31 2023-12-01 北京五八信息技术有限公司 Position information processing method, device, equipment and storage medium based on AI

Also Published As

Publication number Publication date
JP5128514B2 (en) 2013-01-23

Similar Documents

Publication Publication Date Title
JP5128514B2 (en) Multi-person thought arousing dialogue apparatus, multi-person thought arousing dialogue method, multi-person thought arousing dialogue program, and computer-readable recording medium recording the program
Chan et al. Improving crowd innovation with expert facilitation
Shawar et al. Chatbots: are they really useful?
Shawar et al. Different measurement metrics to evaluate a chatbot system
Baker et al. Elements of phonological interventions for children with speech sound disorders: The development of a taxonomy
AbuShawar et al. Usefulness, localizability, humanness, and language-benefit: additional evaluation criteria for natural language dialogue systems
Garg et al. The last decade of HCI research on children and voice-based conversational agents
Alobaidi et al. Abdullah: An intelligent arabic conversational tutoring system for modern islamic education
Dybala et al. Humor prevails!-implementing a joke generator into a conversational system
Koester et al. Method for enhancing text entry rate with single-switch scanning
Foley et al. Comparing smartphone speech recognition and touchscreen typing for composition and transcription
Arbib Précis of How the brain got language: the mirror system hypothesis
Seo et al. ChaCha: Leveraging Large Language Models to Prompt Children to Share Their Emotions about Personal Events
Lopez et al. Examining the Accuracy of a Conversation‐Based Assessment in Interpreting English Learners' Written Responses
Arifi et al. Potentials of Chatbots for Spell Check among Youngsters.
Goh et al. Towards a more natural and intelligent interface with embodied conversation agent
Ross et al. Speaking with your computer: A new way to practice and analyze conversation
Manaris et al. A listening keyboard for users with motor impairments—a usability study
Alepis et al. Emotional Intelligence: Constructing user stereotypes for affective bi-modal interaction
Zolf " Like plugging into an electric circuit": Fingering out Erin Moure's Lesbo-Digit-O! smut poems
Kazemzadeh et al. A Sequential Bayesian Dialog Agent for Computational Ethnography.
Aljameel Development of an Arabic conversational intelligent tutoring system for education of children with autism spectrum disorder
Mazza et al. Behavioural simulator for professional training based on natural language interaction
Ramírez-Zavala et al. The Ypk1 protein kinase signaling pathway is rewired and not essential for viability in\(Candida\)\(albicans\)
Edlund In search for the conversational homunculus: serving to understand spoken human face-to-face interaction

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110222

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20110819

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120919

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121030

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121031

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5128514

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151109

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350