JP4826275B2 - Response generating apparatus, method, and program - Google Patents

Response generating apparatus, method, and program Download PDF

Info

Publication number
JP4826275B2
JP4826275B2 JP2006039608A JP2006039608A JP4826275B2 JP 4826275 B2 JP4826275 B2 JP 4826275B2 JP 2006039608 A JP2006039608 A JP 2006039608A JP 2006039608 A JP2006039608 A JP 2006039608A JP 4826275 B2 JP4826275 B2 JP 4826275B2
Authority
JP
Japan
Prior art keywords
response
utterance
concept
priority
abundance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006039608A
Other languages
Japanese (ja)
Other versions
JP2007219149A (en
Inventor
良子 徳久
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Central R&D Labs Inc
Original Assignee
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Central R&D Labs Inc filed Critical Toyota Central R&D Labs Inc
Priority to JP2006039608A priority Critical patent/JP4826275B2/en
Publication of JP2007219149A publication Critical patent/JP2007219149A/en
Application granted granted Critical
Publication of JP4826275B2 publication Critical patent/JP4826275B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、応答生成装置、方法及びプログラムに係り、ユーザと円滑に対話を行うための応答生成装置、方法及びプログラムに関する。   The present invention relates to a response generation apparatus, method, and program, and more particularly to a response generation apparatus, method, and program for smoothly interacting with a user.

従来、自然な流れで、かつユーザが飽きないようにユーザと対話する対話システムが提案されている。このため、対話システムは、1つの話題を長々と話したり、逆に話題を次々と変えたりし過ぎないようにする必要がある。   2. Description of the Related Art Conventionally, an interactive system that interacts with a user in a natural manner and prevents the user from getting bored has been proposed. For this reason, it is necessary for the dialogue system not to speak one topic for a long time, or conversely change the topic one after another.

そこで、ユーザに楽しく自然な会話を提供するロボットが開示されている(特許文献1参照。)。このロボットは、ユーザの趣向に関するデータ(プロファイルデータ)を記憶するプロファイルメモリ121を備えている。ロボット1は、サーバ101から提供される話題となる情報のうち、プロファイルメモリ121に記憶されているプロファイルデータをフィルタとする。そして、ロボット1は、フィルタ112Bによりフィルタリングした結果、残った情報のみを話題メモリ76に記憶し、ユーザと会話している時に話題メモリ76に記憶されている情報を用いて話題を選択する。これにより、会話が楽しくなるような話題を選択することができる。   Therefore, a robot that provides a user with a fun and natural conversation has been disclosed (see Patent Document 1). This robot includes a profile memory 121 that stores data (profile data) relating to user preferences. The robot 1 uses, as a filter, profile data stored in the profile memory 121 among the topic information provided from the server 101. Then, the robot 1 stores only the remaining information as a result of filtering by the filter 112B in the topic memory 76, and selects a topic using the information stored in the topic memory 76 when talking to the user. This makes it possible to select a topic that makes conversation fun.

また、エンターテイメント性を向上させ得る対話制御システムが開示されている(特許文献2参照。)。対話制御システムは、ネットワークを介して接続されたロボット及び情報処理装置を有している。ロボットとユーザとの間で言葉遊び(なぞなぞ)による対話をする際、ロボットは、ユーザの発話内容のうち言葉遊びに関する履歴データを生成して情報処理装置に送信する。当該情報処理装置は、記憶手段から当該履歴データに基づいてユーザに最適な内容データを選択的に読み出して元のロボットに提供する。
特開2001−188787号公報 特開2003−255991号公報
In addition, a dialog control system that can improve entertainment is disclosed (see Patent Document 2). The dialogue control system has a robot and an information processing apparatus connected via a network. When a dialogue between the robot and the user is performed by word play (riddle riddle), the robot generates history data related to word play among the utterance contents of the user and transmits it to the information processing apparatus. The information processing apparatus selectively reads out the content data most suitable for the user from the storage means based on the history data and provides it to the original robot.
JP 2001-188787 A JP 2003-255991 A

特許文献1の技術は、ユーザの趣向に関するデータであるプロファイルデータに基づいて話題を選択するものであり、大まかな話題を選択するのには有効である。しかし、同じ話題の中で複数の発話候補がある場合には、有効な発話候補を選択できない問題がある。   The technique of Patent Document 1 selects a topic based on profile data that is data relating to a user's taste, and is effective in selecting a rough topic. However, when there are a plurality of utterance candidates in the same topic, there is a problem that an effective utterance candidate cannot be selected.

例えば、「俳優C」がプロファイルされており、発話候補として「俳優Cさんが昼食を食べたよ。」、「俳優Cさんが出演する映画が公開されるよ。」、「俳優Cさんと女優Aさんが結婚したよ。」などが考えられる場合、どの発話候補がより適切な発話かを選択することができない。   For example, “Actor C” is profiled, and as a speech candidate, “Actor C ate lunch”, “A movie starring actor C will be released”, “Actor C and actress A” If you think you are married, you cannot select which utterance candidate is more appropriate.

また、特許文献2の技術は、例えば発話内容である各々のなぞなぞに対して難易度や出題された回数を付与している。これを応答選択に応用しようとした場合、あらゆる発話に対して個別に難易度のような指標を記述するのは記述量の点で現実的でない。例えば上述の例を用いると、「俳優Cさんが昼食を食べたよ。」、「俳優Cさんが出演する映画が公開されるよ。」、「俳優Cさんと女優Aさんが結婚したよ。」などの各々に指標を記述しようとすると、膨大な記述量になってしまい、現実的でない。   Moreover, the technique of patent document 2 gives the difficulty level and the number of questions given to each riddle that is, for example, the utterance content. When this is applied to response selection, it is not practical in terms of the amount of description to describe an index such as difficulty level for every utterance individually. For example, using the above example, “Actor C ate lunch”, “A movie starring actor C will be released”, “Actor C and actress A got married.” When trying to describe an index in each of the above, the amount of description becomes enormous, which is not realistic.

本発明は、上述した課題を解決するために提案されたものであり、コストをかけることなく、ユーザとの対話を円滑に行うことができる応答生成装置、方法及びプログラムを提供することを目的とする。   The present invention has been proposed to solve the above-described problems, and an object of the present invention is to provide a response generation apparatus, method, and program capable of smoothly performing a dialog with a user without incurring costs. To do.

上述した課題を解決するため、本発明の応答生成装置は、発話を入力する入力手段と、前記入力手段に入力された発話に対する複数の応答を生成する応答生成手段と、概念毎に、話題の豊富さと感情の正負の度合いとを記憶する概念記憶手段と、過去の対話の文脈に含まれる概念を記憶する文脈記憶手段と、優先度の決定の対象となる応答に含まれる概念が前記文脈記憶手段に記憶されているときに、前記概念記憶手段に記憶されている前記概念に対応する話題の豊富さの度合いを下げるように制御する概念制御手段と、前記応答生成手段で生成された複数の応答のそれぞれ含まれる概念に対応する話題の豊富さ、感情の正負の度合いを前記概念記憶手段から読み出し、読み出した話題の豊富さと感情の正負の度合いとに基づいて、複数の応答毎に、前記話題の豊富さが大きいほど優先度が高くなり、かつ、前記感情の正負の度合いが正であるほど、優先度が高くなるように、優先度を決定し、最も優先度が高い応答を選択する応答選択手段と、前記応答選択手段により選択された応答を出力する応答出力手段と、を備えている。 In order to solve the above-described problem, the response generation apparatus of the present invention includes an input unit that inputs an utterance, a response generation unit that generates a plurality of responses to the utterance input to the input unit, and a topic for each concept. Concept memory means for storing abundance and positive / negative degree of emotion, context memory means for storing a concept included in the context of past dialogue, and a concept included in a response whose priority is to be determined are the context memory. A concept control means for controlling the degree of abundance of topics corresponding to the concept stored in the concept storage means when stored in the means, and a plurality of responses generated by the response generation means The abundance of topics corresponding to the concepts included in each response and the positive / negative degree of emotion are read from the concept storage means, and a plurality of responses are determined based on the read abundance of topics and the positive / negative degree of emotions. For each, as the priority is higher is greater richness of the topic, and, as the degree of positive or negative of the emotion is positive, so that the priority becomes higher, to determine the priority, the highest priority Response selection means for selecting a response, and response output means for outputting the response selected by the response selection means.

入力手段は、発話内容を入力できればよく、音声であるか否かを問わない。応答生成手段は、入力手段に入力された発話に対する複数の応答を生成する。概念記憶手段は、概念毎に、話題の豊富さと感情の明るさの度合いとを記憶する。ここで、概念とは、ある事物の概括的な意味内容を示し、名詞、動詞等の品詞は特に限定されるものではない。話題の豊富さとは、その概念から導かれる話題の多さを示す指標をいう。   The input means only needs to be able to input the utterance content, and it does not matter whether it is a voice. The response generation unit generates a plurality of responses to the utterance input to the input unit. The concept storage means stores the abundance of topics and the degree of emotional brightness for each concept. Here, the concept indicates a general meaning of a certain thing, and parts of speech such as nouns and verbs are not particularly limited. Topic abundance refers to an index that indicates the number of topics derived from the concept.

概念制御手段は、優先度の決定の対象となる応答に含まれる概念が文脈記憶手段に記憶されているときに、概念記憶手段に記憶されている概念に対応する話題の豊富さの度合いを下げるように制御する。応答選択手段は、生成された複数の応答のそれぞれ含まれる概念に対応する話題の豊富さ、感情の明るさの度合いを概念記憶手段から読み出す。そして、応答選択手段は、読み出した話題の豊富さと感情の明るさの度合いとに基づいて、複数の応答毎に優先度を決定し、最も優先度が高い応答を選択する。選択された応答は、応答出力手段を介して出力される。 The concept control means lowers the degree of abundance of topics corresponding to the concept stored in the concept storage means when the concept included in the response whose priority is to be determined is stored in the context storage means. To control. The response selection means reads from the concept storage means the abundance of topics and the degree of emotional brightness corresponding to the concepts included in each of the generated responses. And a response selection means determines a priority for every some response based on the abundance of the read topic and the brightness level of an emotion, and selects a response with the highest priority. The selected response is output via response output means.

したがって、上記発明は、入力された発話に対する複数の応答を生成し、複数の応答のそれぞれ含まれる概念に対応する話題の豊富さ、感情の明るさの度合いに基づいて、複数の応答毎に優先度を決定し、最も優先度が高い応答を選択して出力することにより、ユーザの発話を展開したり、システムがユーザの発話に興味を示したり、感情を表明したり、ユーザの感情に同調したり、ユーザの発話内容がネガティブな場合にフォローしたりするような応答をすることができる。なお、本発明は、応答生成方法及びプログラムにも適用可能である。   Therefore, the above invention generates a plurality of responses to the input utterance and prioritizes each response based on the abundance of topics corresponding to the concepts included in each of the responses and the degree of emotional brightness. The user's utterance is developed, the system shows interest in the user's utterance, expresses emotion, and synchronizes with the user's emotion Or a response to follow when the user's utterance content is negative. Note that the present invention can also be applied to a response generation method and a program.

本発明は、コストをかけることなく、ユーザとの対話を円滑に行うことができる。   According to the present invention, it is possible to smoothly perform a dialogue with a user without incurring costs.

以下、本発明の好ましい実施の形態について図面を参照しながら詳細に説明する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings.

[第1の実施形態]
図1は、本発明の第1の実施形態に係る応答生成装置の構成を示すブロック図である。
[First Embodiment]
FIG. 1 is a block diagram showing a configuration of a response generation apparatus according to the first embodiment of the present invention.

第1の実施形態に係る応答生成装置は、ユーザ発話から音声信号を生成するマイクロホン11と、マイクロホン11から出力された音声信号を認識する認識部12と、ユーザ発話を解析する解析部13と、解析結果に基づいて発話候補を生成する応答生成部14と、複数の発話候補から1つの応答発話を選択する応答選択部15と、概念データベース16と、応答発話を音声出力するスピーカ21と、応答発話を画像出力するディスプレイ22と、を備えている。   The response generation apparatus according to the first embodiment includes a microphone 11 that generates an audio signal from a user utterance, a recognition unit 12 that recognizes an audio signal output from the microphone 11, an analysis unit 13 that analyzes the user utterance, A response generation unit 14 that generates utterance candidates based on the analysis result, a response selection unit 15 that selects one response utterance from a plurality of utterance candidates, a concept database 16, a speaker 21 that outputs a response utterance as a voice, and a response And a display 22 for outputting the speech as an image.

図2は、解析部13の構成を示すブロック図である。解析部13は、ユーザ発話の意図を解析するユーザ発話意図解析器31、発話−発話意図対応表を記憶する発話−発話意図対応表データベース32と、を備えている。   FIG. 2 is a block diagram illustrating a configuration of the analysis unit 13. The analysis unit 13 includes a user utterance intention analyzer 31 that analyzes a user utterance intention, and an utterance-utterance intention correspondence table database 32 that stores an utterance-utterance intention correspondence table.

図3は、発話−発話意図対応表の構成を示す図である。発話−発話意図対応表は、ユーザ発話とその意図との関係を定義する。例えば、「おはよう」、「こんにちは」などのユーザ発話は、「挨拶」を意図している。「『(名詞)』って何?」、「『(名詞)』とは何?」などのユーザ発話は、「情報要求」を意図している。「えっ?」、「何て言ったの?」などのユーザ発話は、「問い返し」を意図している。   FIG. 3 is a diagram showing a configuration of an utterance-utterance intention correspondence table. The utterance-utterance intention correspondence table defines the relationship between user utterances and their intentions. For example, a user utterance such as "Good morning", "Hello" is intended to "greeting". User utterances such as “what is“ (noun) ”” and “what is“ (noun) ”” are intended to be “information request”. User utterances such as “Uh?” And “What did you say?” Are intended to be “questions”.

図4は、応答生成部14の構成を示すブロック図である。以下、ユーザ発話に対する本装置の発話を「システム発話」という。応答生成部14は、システム発話意図選択器41と、発話意図対応表データベース42と、関連情報検索エンジン43と、関連情報データベース44と、応答生成器45と、発話データベース46と、を備えている。   FIG. 4 is a block diagram illustrating a configuration of the response generation unit 14. Hereinafter, the utterance of the apparatus in response to the user utterance is referred to as “system utterance”. The response generation unit 14 includes a system utterance intention selector 41, an utterance intention correspondence table database 42, a related information search engine 43, a related information database 44, a response generator 45, and an utterance database 46. .

図5は、発話意図対応表データベース42に記憶されている発話意図対応表の構成を示す図である。発話意図対応表は、ユーザ発話に対するシステム発話の意図を定義する。例えば、ユーザ発話意図が「挨拶」であるときは、システム発話意図は「ユーザ発話の復唱」となる。また、ユーザ発話意図が「情報伝達」であるときは、システム発話意図は「情報伝達」、「相槌」、「評価・感想」のいずれかとなる。   FIG. 5 is a diagram showing the configuration of the utterance intention correspondence table stored in the utterance intention correspondence table database 42. The utterance intention correspondence table defines the intention of the system utterance with respect to the user utterance. For example, when the user utterance intention is “greeting”, the system utterance intention is “repeating user utterance”. Further, when the user utterance intention is “information transmission”, the system utterance intention is any one of “information transmission”, “consideration”, and “evaluation / impression”.

図6は、関連情報データベース44の構成を示す図である。関連情報データベースは、お互いに関連する用語である関連語をグループ分けしたものである。例えば、「山」の関連語は、「草原」、「牧場」などがある。「パーティー」の関連語は、「ごちそう」、「ドレス」、「楽しい」などがある。   FIG. 6 is a diagram showing the configuration of the related information database 44. The related information database is a group of related terms that are terms related to each other. For example, related terms of “mountain” include “meadow” and “ranch”. Related words of “party” include “feast”, “dress”, and “fun”.

応答生成器45は、システム発話意図に基づいて、発話データベース46に記憶された情報を用いて1つ以上の発話候補を生成する。ここで、発話データベース46には、関連語から発話候補を生成するための様々な情報や、相槌発話の情報も記憶されている。   The response generator 45 generates one or more utterance candidates using information stored in the utterance database 46 based on the system utterance intention. Here, the utterance database 46 also stores various information for generating utterance candidates from related words and information on the utterances.

例えば、システム発話意図が「情報伝達」の場合は、応答生成器45は、関連語を用いて発話候補を生成する。また、例えばシステム発話意図が「相槌」の場合は、応答生成器45は、図7に示す複数の相槌発話から1つをランダムに選択し、選択したものを発話候補として出力する。   For example, when the system utterance intention is “information transmission”, the response generator 45 generates utterance candidates using related words. For example, when the system utterance intention is “conflict”, the response generator 45 randomly selects one of the plurality of conflict utterances shown in FIG. 7 and outputs the selected one as an utterance candidate.

図8は、概念データベース16の構成を示す図である。関連情報データベースは、概念(単語)毎に、「話題の豊富さ」、「感情」を定義する。「話題の豊富さ」とは、例えば検索エンジンでヒット件数が多い状況のように、その概念から導かれる話題の多さを示す指標をいう。本実施形態では、「話題の豊富さ」は、「大」、「中」、「小」の3段階で表している。「感情」とは、感情の正負の度合いを表したものであり、本実施形態では、例えば「ポジティブ(positive)」、「ネガティブ(negative)」、「ニュートラル(neutral)」の3つに区別している。   FIG. 8 is a diagram showing the configuration of the concept database 16. The related information database defines “abundance of topics” and “emotions” for each concept (word). “Topic abundance” refers to an index indicating the number of topics derived from the concept, such as a situation in which the number of hits is large in a search engine. In this embodiment, “buzz richness” is expressed in three stages of “large”, “medium”, and “small”. “Emotion” represents the degree of positive or negative emotion. In this embodiment, for example, “positive”, “negative”, and “neutral” are distinguished. Yes.

以上のように構成された応答生成装置は、第1の応答生成ルーチンを実行することにより、ユーザとの間で例えば次のような対話例1を実現することができる。   The response generation apparatus configured as described above can realize, for example, the following interactive example 1 with the user by executing the first response generation routine.

(対話例1)
ユーザ発話1 :こんにちは。
システム発話2:こんにちは。
ユーザ発話3 :昨日、Aちゃんの家に行ってきたよ。
システム発話4:それでそれで?
ユーザ発話5 :すごくごちそうだったよ。
システム発話6:パーティーだったの?
ユーザ発話7 :うん、誕生日会だったんだ。
システム発話8:へー、すごい。
(Dialogue example 1)
User utterance 1: Hello.
System utterance 2: Hello.
User utterance 3: I went to A's house yesterday.
System utterance 4: So then?
User utterance 5: It was very feasting.
System utterance 6: Was it a party?
User utterance 7: Yeah, it was a birthday party.
System utterance 8: Hey, awesome.

図9は、ユーザ発話に対する応答を生成する第1の応答生成ルーチンを示すフローチャートである。   FIG. 9 is a flowchart showing a first response generation routine for generating a response to the user utterance.

ステップS1では、応答生成装置の各部が初期化され、ステップS2に進む。ステップS2では、マイクロホン11はユーザ発話に応じた音声信号を生成し、認識部12は音声信号を認識して、ステップS3に進む。   In step S1, each part of the response generation device is initialized, and the process proceeds to step S2. In step S2, the microphone 11 generates an audio signal corresponding to the user utterance, and the recognition unit 12 recognizes the audio signal, and proceeds to step S3.

ステップS3では、解析部13のユーザ発話意図解析器31は、発話−発話意図対応表データベース32を参照して、認識部12で認識されたユーザ発話に基づいて発話意図を推定して、ステップS4に進む。ユーザ発話意図解析器31は、例えば、ユーザ発話1に対しては「挨拶」、ユーザ発話3に対しては「情報伝達」を推定する。   In step S3, the user utterance intention analyzer 31 of the analysis unit 13 refers to the utterance-utterance intention correspondence table database 32, estimates the utterance intention based on the user utterance recognized by the recognition unit 12, and performs step S4. Proceed to For example, the user utterance intention analyzer 31 estimates “greeting” for the user utterance 1 and “information transmission” for the user utterance 3.

ステップS4では、応答生成部14のシステム発話意図選択器41は、発話意図対応表データベース42を参照して、ステップS3で推定されたユーザ発話意図に対応するシステム発話意図を推定して、ステップS5に進む。例えば、システム発話意図選択器41は、「挨拶」に対しては「ユーザ発話の復唱」を推定し、「情報伝達」に対しては「情報伝達」、「相槌」、「評価・感想」のいずれか1つをランダムに推定する。   In step S4, the system utterance intention selector 41 of the response generation unit 14 refers to the utterance intention correspondence table database 42, estimates the system utterance intention corresponding to the user utterance intention estimated in step S3, and performs step S5. Proceed to For example, the system utterance intention selector 41 estimates “return of user utterance” for “greeting”, and “information transmission”, “consideration”, “evaluation / impression” for “information transmission”. Any one is estimated at random.

ステップS5では、ユーザ発話意図解析器31は、ステップS4で推定したシステム発話意図が「情報伝達」であるか否かを判定する。そして、肯定判定のときはそのシステム発話意図を関連情報検索エンジン43に供給し、否定判定のときはそのシステム発話意図を応答生成器45に供給して、ステップS6に進む。   In step S5, the user utterance intention analyzer 31 determines whether or not the system utterance intention estimated in step S4 is “information transmission”. If the determination is affirmative, the system utterance intention is supplied to the related information search engine 43. If the determination is negative, the system utterance intention is supplied to the response generator 45, and the process proceeds to step S6.

ステップS6では、関連情報検索エンジン43は、関連情報データベース44を参照して、ユーザ発話に含まれる単語に関連する関連語を検索して抽出する。例えばユーザ発話5の場合、「ごちそう」の関連語として、パーティー、ドレス、楽しいが検索される。そして、応答生成器45は、発話データベース46を参照し、前記単語及び関連語をそれぞれ用いて発話候補を生成して、ステップS7に進む。発話候補としては、例えば「パーティーだったの?」、「ドレスを着たの?」、「ごちそうだったの?」、「楽しかった?」が生成される。ここで、「パーティーだったの?」や「ドレスを着たの?」というシステム発話は、直前の「すごくごちそうだったよ。」というユーザ発話を展開する役割を持つ応答である。また、「ごちそうだったの?」というシステム発話は、直前のユーザ発話に対する興味を示す役割を持つ応答である。さらに、「楽しかった?」というシステム発話は、直前のユーザの感情に同調するための応答である。   In step S6, the related information search engine 43 refers to the related information database 44 and searches for and extracts related words related to the words included in the user utterance. For example, in the case of user utterance 5, party, dress, and fun are searched for as related words of “feast”. Then, the response generator 45 refers to the utterance database 46, generates utterance candidates using the words and the related words, and proceeds to step S7. As utterance candidates, for example, “Did you have a party?”, “Did you wear a dress?”, “Did you have a feast?”, Or “Is it fun?” Are generated. Here, the system utterance “Did you have a party?” Or “Did you wear a dress?” Is a response with the role of developing the user utterance “I was very frustrated.” The system utterance “Did you have a feast?” Is a response that has a role to show interest in the immediately preceding user utterance. Furthermore, the system utterance “Is it fun?” Is a response to synchronize with the emotion of the previous user.

ステップS7では、応答選択部15は、ステップS6で生成された発話候補の各々について優先度を決定する。応答選択部15は具体的には次の優先度決定ルーチンを実行する。   In step S7, the response selection unit 15 determines the priority for each of the utterance candidates generated in step S6. Specifically, the response selection unit 15 executes the following priority determination routine.

図10は、優先度決定ルーチンを示すフローチャートである。ステップS21では、応答選択部15は、優先度を初期化して、ステップS22に進む。   FIG. 10 is a flowchart showing a priority determination routine. In step S21, the response selection unit 15 initializes the priority and proceeds to step S22.

ステップS22では、応答選択部15は、概念データベース16を検索して、応答生成部14で生成された発話候補に含まれる概念(単語)について、「話題の豊富さ」及び「感情」を抽出して、ステップS23に進む。   In step S <b> 22, the response selection unit 15 searches the concept database 16 and extracts “topic richness” and “emotion” for the concept (word) included in the utterance candidate generated by the response generation unit 14. Then, the process proceeds to step S23.

ステップS23では、応答選択部15は、「話題の豊富さ」に基づいて、発話候補に含まれる概念の優先度を決定する。具体的には、「話題の豊富さ」が「大」、「中」、「小」のいずれかであるかを判定し、「大」のときは優先度+3、「中」のときは優先度+2、「小」のときは優先度+1に決定して、ステップS24に進む。   In step S <b> 23, the response selection unit 15 determines the priority of the concept included in the utterance candidate based on “topic richness”. Specifically, it is determined whether the “abundance of topics” is “Large”, “Medium”, or “Small”. When “Large”, the priority is +3, and when “Middle”, the priority is When the degree is +2 or “small”, the priority is determined as +1 and the process proceeds to step S24.

ステップS24では、応答選択部15は、「感情」に基づいて、発話候補に含まれる概念の優先度を決定する。具体的には、「感情」が「ポジティブ」、「ネガティブ」、「ニュートラル」のいずれかであるかを判定し、「ポジティブ」のときは優先度+3、「ネガティブ」のときは優先度−3、「ニュートラル」のときは優先度+0に決定して、ステップS25に進む。   In step S24, the response selection unit 15 determines the priority of the concept included in the utterance candidate based on “emotion”. Specifically, it is determined whether “emotion” is “positive”, “negative”, or “neutral”. When “positive”, the priority is +3, and when it is “negative”, the priority is −3. , “Neutral”, the priority is determined to be +0, and the process proceeds to Step S25.

ステップS25では、応答選択部15は、発話候補毎に、「話題の豊富さ」及び「感情」に基づく優先度を加算し、最も優先度の高い発話候補を選択する。「パーティーだったの?」の優先度は6(話題の豊富さ3、感情3)、「ドレスを着たの?」の優先度は2(話題の豊富さ2、感情0)、「楽しかった?」の優先度は4(話題の豊富さ1、感情3)となる。よって、最も優先度が高い「パーティーだったの?」が選択される。そして、本ルーチンを終了すると、図9のステップS8に進む。   In step S25, the response selection unit 15 adds priorities based on “topic richness” and “emotion” for each utterance candidate, and selects the utterance candidate with the highest priority. The priority of “Is it a party?” Is 6 (abundance of topics 3, emotion 3), the priority of “Did you wear a dress?” 2 (abundance of topics 2, emotion 0), “I enjoyed it. The priority of “?” Is 4 (buzz abundance 1, emotion 3). Therefore, “Is it a party?” With the highest priority is selected. When this routine ends, the process proceeds to step S8 in FIG.

ステップS8では、応答選択部15は、同じ優先度の発話候補が複数存在するか否かを判定し、肯定判定のときはステップS9に進み、否定判定のときはステップS12に進む。   In step S8, the response selection unit 15 determines whether or not there are a plurality of utterance candidates having the same priority. If the determination is affirmative, the process proceeds to step S9. If the determination is negative, the process proceeds to step S12.

ステップS9では、応答選択部15は、同じ優先度の発話候補のいずれか1つをランダムに選択し、選択したものを応答発話として、ステップS12に進む。   In step S9, the response selection unit 15 randomly selects any one of the utterance candidates having the same priority, and proceeds to step S12 with the selected one as the response utterance.

一方、ステップS10では、応答生成部14の応答生成器45は、発話候補を生成して、ステップS11に進む。ここでは、例えばシステム発話意図が「ユーザ発話の復唱」であるときは、入力されたユーザ発話と同じ発話が生成される。また、システム発話意図が「相槌」であるときは、図7に示す複数の相槌発話からランダムに選択された1つが発話候補として出力される。システム発話意図が「評価・感想」であるときは、ユーザ発話の評価・感想に関する発話候補が生成される。例えば、入力されたユーザの発話を認識し、認識されたユーザの発話が意味する感情を推定し、推定した感情と同一の感情を表す応答用の発話を生成すればよい。これにより、ユーザの感情に同調した評価・感想をすることができる。また、別の応用例として、ユーザの感情がネガティブである場合に、ポジティブな内容の発話を生成することにより、ユーザ発話をフォローすることも考えられる。対話例2中のシステム発話4は、ネガティブなユーザ発話(ユーザ発話3)に対するフォローの役割を持つ発話である。   On the other hand, in step S10, the response generator 45 of the response generation unit 14 generates an utterance candidate and proceeds to step S11. Here, for example, when the system utterance intention is “repeating user utterance”, the same utterance as the input user utterance is generated. Also, when the system utterance intention is “conversation”, one randomly selected from the plural connotations utterances shown in FIG. 7 is output as the utterance candidate. When the system utterance intention is “evaluation / impression”, utterance candidates related to evaluation / impression of the user utterance are generated. For example, an input user's utterance may be recognized, an emotion that the recognized user's utterance may mean is estimated, and a response utterance that represents the same emotion as the estimated emotion may be generated. As a result, it is possible to make evaluations and impressions in synchronization with the user's emotions. As another application example, when the user's emotion is negative, it may be possible to follow the user utterance by generating an utterance having a positive content. The system utterance 4 in the dialogue example 2 is an utterance having a role of following a negative user utterance (user utterance 3).

(対話例2)
ユーザ発話1 :昨日、Aちゃんの家に行ってきたよ。
システム発話2:それでそれで?
ユーザ発話3 :すごくごちそうだったけど、知らない人が多くてつまらなかった。
システム発話4:でも、ごちそうがあるとそれだけで楽しめるよね?
ユーザ発話5 :まあね。
(Dialogue example 2)
User utterance 1: I went to A's house yesterday.
System utterance 2: So then?
User utterance 3: It was very feasting, but it was boring because there were many people who didn't know it.
System utterance 4: But if you have a feast, you can enjoy it alone?
User utterance 5: Well.

また、システム発話意図が「要求情報伝達」であるときは、ほしい情報を要求するような発話候補が生成される。システム発話意図が「問い返し」であるときは、1つ前のシステム発話が生成される。   Further, when the system utterance intention is “request information transmission”, utterance candidates that request desired information are generated. When the system utterance intention is “question”, the previous system utterance is generated.

ステップS11では、応答選択部15は、複数の発話候補があるときはランダムに1つを選択し、選択したものを応答発話として、ステップS12に進む。   In step S11, when there are a plurality of utterance candidates, the response selection unit 15 selects one at random, sets the selected one as a response utterance, and proceeds to step S12.

ステップS12では、応答選択部15は、ステップS7、S9、S11のいずれかで選択された応答発話をシステム発話として、スピーカ21及びディスプレイ22に供給して、ステップS13に進む。これにより、例えばユーザ発話5に対しては、システム発話6「パーティーだったの?」が音声出力され、更に画像出力される。   In step S12, the response selection unit 15 supplies the response utterance selected in any of steps S7, S9, and S11 as a system utterance to the speaker 21 and the display 22, and proceeds to step S13. As a result, for example, for the user utterance 5, the system utterance 6 “Is it a party?” Is output as a sound and further output as an image.

ステップS14では、ユーザ発話の入力があるか否かを判定し、肯定判定のときはステップS2に戻り、否定判定のときは本ルーチンを終了する。   In step S14, it is determined whether or not there is a user utterance input. If the determination is affirmative, the process returns to step S2, and if the determination is negative, this routine is terminated.

以上のように、第1の実施形態に係る応答生成装置は、複数の発話候補にそれぞれ含まれる単語に対応する「話題の豊富さ」、「感情」に基づいて、各発話候補について優先度を決定し、優先度の高いものをシステム発話として出力する。このことより、応答発話装置は、ユーザの発話を展開したり、システムがユーザの発話に興味を示したり、感情を表明したり、ユーザの感情に同調したり、ユーザの発話内容がネガティブな場合にフォローしてりするような応答をすることができる。したがって、ユーザ発話に対して、話題が豊富で、かつ楽しい対話が可能となるような概念を深掘りしながら応答するので、ユーザとの間で楽しい会話を長く続けることができる。   As described above, the response generation apparatus according to the first embodiment assigns a priority to each utterance candidate based on “buzz abundance” and “emotion” corresponding to words included in each of a plurality of utterance candidates. Decide and output the system utterance with the highest priority. From this, the response utterance device develops the user's utterance, the system shows interest in the user's utterance, expresses the emotion, synchronizes with the user's emotion, or the user's utterance content is negative You can respond to follow up. Therefore, since it responds to a user's utterance while deeply digging out a concept that enables a rich conversation and a pleasant conversation, a pleasant conversation with the user can be continued for a long time.

[第2の実施形態]
つぎに、本発明の第2の実施形態について説明する。なお、第1の実施形態と同じ部位については同じ符号を付し、その詳細な説明は省略する。
[Second Embodiment]
Next, a second embodiment of the present invention will be described. In addition, the same code | symbol is attached | subjected about the site | part same as 1st Embodiment, and the detailed description is abbreviate | omitted.

図11は、第2の実施形態に係る応答生成装置の構成を示すブロック図である。第2の実施形態では、図1に示す解析部13の代わりに解析部13A、応答生成部14の代わりに応答生成部14Aが用いられている。解析部13Aは、認識部12で認識されたユーザ発話から述語と格要素とを抽出する。応答生成部14Aは、解析部13Aで抽出された述語及び格要素に基づいて1つ以上の発話候補を生成する。   FIG. 11 is a block diagram illustrating a configuration of a response generation apparatus according to the second embodiment. In the second embodiment, an analysis unit 13A is used instead of the analysis unit 13 shown in FIG. 1, and a response generation unit 14A is used instead of the response generation unit 14. The analysis unit 13A extracts a predicate and a case element from the user utterance recognized by the recognition unit 12. The response generation unit 14A generates one or more utterance candidates based on the predicate and the case element extracted by the analysis unit 13A.

図12は、解析部13Aの構成を示すブロック図である。解析部13Aは、ユーザ発話の形態素解析を行う形態素解析器51と、各文節の係り受け(修飾関係)を解析する係り受け解析器52と、述語と格要素を抽出する格解析器53と、抽出された述語に必須の格を補完する必須格補完エンジン54と、述語と必須格(格要素)との関係を定義する格辞書55と、述語同士の関係を解析する述語関係解析器56と、述語同士の関係を定義する述語関係データベース57と、を備えている。   FIG. 12 is a block diagram illustrating a configuration of the analysis unit 13A. The analysis unit 13A includes a morphological analyzer 51 that performs morphological analysis of user utterances, a dependency analyzer 52 that analyzes the dependency (modification relationship) of each clause, a case analyzer 53 that extracts predicates and case elements, An indispensable case completion engine 54 that complements the indispensable case for the extracted predicate, a case dictionary 55 that defines the relationship between the predicate and the indispensable case (case element), a predicate relation analyzer 56 that analyzes the relationship between the predicates, And a predicate relation database 57 for defining a relation between predicates.

ここで、日本語における格は、ガ格、ヲ格、ニ格、カラ格、ト格、デ格、ヘ格、マデ格、ヨリ格の9種類がある(「基礎日本語文法―改訂版―」くろしお出版、p74−80)。格要素は、格の直前にくる名詞句であり、「述語」を修飾する文節に含まれる。「述語」は、発話の中に表現される動きや状態を表す単語であり、品詞が動詞、形容詞、サ変名詞で始まる文節をいう。   Here, there are nine types of Japanese cases: Ga, W, D, Kara, To, De, F, Made, and Yori ("Basic Japanese Grammar-Revised Version-" “Kuroshio Publishing, p. 74-80). The case element is a noun phrase that comes immediately before the case, and is included in a clause that modifies the “predicate”. A “predicate” is a word representing a movement or state expressed in an utterance, and a phrase whose part of speech begins with a verb, an adjective, or a sa-noun.

図13は、格辞書55の構成を示す図である。格辞書55は、述語と必須格との関係、すなわち、述語とそれに共起する格との関係を示している。格辞書55は、例えば「作る」は「人ガ」、「物ヲ」、「人ニ」と共起し、「器用だ」は「人ガ」と共起することを定義している。ここで、「人」は人に関する名詞、「物」は物に関する名詞を示している。   FIG. 13 is a diagram illustrating the configuration of the case dictionary 55. The case dictionary 55 shows the relationship between the predicate and the essential case, that is, the relationship between the predicate and the case that co-occurs with it. The case dictionary 55 defines that “create” co-occurs with “people”, “things”, and “people”, and “dexterity” co-occurs with “people”. Here, “person” indicates a noun relating to a person, and “thing” indicates a noun relating to an object.

図14は、述語関係データベース57の構成を示す図である。述語関係データベース57は、述語1と述語2の関係を表している。例えば、「器用だ」は、「作る」の「理由」となる。「向かう」は、「行く」と「同格」である。「調べる」は、「知る」の「手段」となる。逆に、「知る」は、「調べる」の「結果」となる。   FIG. 14 is a diagram showing the configuration of the predicate relation database 57. The predicate relationship database 57 represents the relationship between predicate 1 and predicate 2. For example, “dexterity” is the “reason” for “making”. “Going” is “going” and “equal”. “Check” is a “means” for “knowing”. Conversely, “know” is the “result” of “examine”.

以上のように構成された応答生成装置は、第2の応答生成ルーチンを実行することにより、ユーザとの間で例えば次のような対話例3を実現することができる。   The response generation device configured as described above can realize, for example, the following interaction example 3 with the user by executing the second response generation routine.

(対話例3)
ユーザ発話1:お父さんはすごく器用で、リビングのサイドボードとかを全部作ったの。
システム発話2:サイドボードを作ったの?
ユーザ発話3 :そうなの。リビングにホームシアターシステムを作ったりもして。
システム発話4:お父さんが作ったの?
ユーザ発話5 :そう。
システム発話6:それでそれで?
図15は、ユーザ発話に対する応答を生成する第2の応答生成ルーチンを示すフローチャートである。ここでは、第1の応答生成ルーチンと同一の処理には同一の符号が付されている。最初に、ユーザ発話1「お父さんはすごく器用で、リビングのサイドボードとかを全部作ったの。」が入力された場合を例に挙げて説明する。また、第1の応答生成ルーチンと同様に、ステップS1、S2の処理が実行された後、ステップS31に進む。
(Dialogue example 3)
User utterance 1: Dad was very dexterous and made all the living sideboards.
System utterance 2: Did you make a sideboard?
User utterance 3: Yes. Or make a home theater system in the living room.
System utterance 4: Dad made it?
User utterance 5: Yes.
System utterance 6: So then?
FIG. 15 is a flowchart showing a second response generation routine for generating a response to the user utterance. Here, the same processes as those in the first response generation routine are denoted by the same reference numerals. First, the case where the user utterance 1 “Dad was very dexterous and made all the sideboards in the living room” will be described as an example. Similarly to the first response generation routine, after the processes of steps S1 and S2 are executed, the process proceeds to step S31.

ステップS31では、解析部13Aは、認識部12で認識されたユーザ発話を解析する。このとき、図12に示す解析部13Aを構成する各部は、次の処理を行う。   In step S31, the analysis unit 13A analyzes the user utterance recognized by the recognition unit 12. At this time, each part which comprises the analysis part 13A shown in FIG. 12 performs the following process.

最初に、形態素解析器51は、形態素解析を行い、ユーザ発話から品詞などの形態素情報を出力する。形態素解析器51は、例えば図16に示すように、「お父さん(名詞)」、「は(助詞)」、「すごく(形容詞)」、・・・、「作っ(動詞)」、「た(助動詞)」、「の(助詞)」を出力する。   First, the morpheme analyzer 51 performs morpheme analysis and outputs morpheme information such as parts of speech from the user utterance. For example, as shown in FIG. 16, the morphological analyzer 51 includes “dad (noun)”, “ha (particle)”, “very (adjective)”,..., “Making (verb)”, “ta (auxiliary verb). ) "," No (particle) ".

係り受け解析器52は、形態素解析器51の解析結果を用いて、次のように各文節の係り受け(修飾関係)を解析する。例えば図17に示すように、「お父さんは」及び「すごく」は、「器用で」に係っている。「リビングの」は「サイドボードとかを」に係っている。「器用で」、「サイドボードとかを」、「全部」は、それぞれ「作ったの」に係っている。   The dependency analyzer 52 analyzes the dependency (modification relationship) of each clause using the analysis result of the morphological analyzer 51 as follows. For example, as shown in FIG. 17, “dad” and “very” relate to “dexterity”. “Living” is related to “Sideboard”. “Descriptive”, “Sideboard” and “All” are related to “I made”.

格解析器53は、係り受け解析器52の解析結果の中から述語と格要素を抽出する。具体的には、格解析器53は、係り受け解析器52の解析結果の中から、図18に示すように、述語である「器用だ」とそれを修飾する「お父さんガ」とを抽出する。格解析器53は、更に、もう1つの述語である「作る」とそれを修飾する「サイドボードヲ」とを抽出する。   The case analyzer 53 extracts predicates and case elements from the analysis result of the dependency analyzer 52. Specifically, the case analyzer 53 extracts from the analysis result of the dependency analyzer 52, as shown in FIG. 18, a predicate “dexterity” and a “dad” who modifies it. . The case analyzer 53 further extracts another predicate “Make” and “Sideboard wo” that modifies it.

必須格補完エンジン54は、格解析器53の解析結果と格辞書55とを照合して、本来述語が共起する格である必須格を補完して出力する。例えば、「作る」は、図13の格辞書55によると「人ガ(ガ格)」、「物ヲ(ヲ格)」、「人ニ(ニ格)」と共起する関係にある。一方、図18に示す解析結果では、「作る」は、既に「サイドボードヲ(ヲ格)」と修飾関係があるが、その他のガ格、ニ格と修飾関係がない。   The essential case complementing engine 54 collates the analysis result of the case analyzer 53 with the case dictionary 55, and complements and outputs the essential case that is the case in which the predicate co-occurs. For example, according to the case dictionary 55 of FIG. 13, “Make” has a relationship that co-occurs with “Human Ga”, “Things”, and “H”. On the other hand, in the analysis result shown in FIG. 18, “Make” already has a modification relationship with “Sideboard”, but has no modification relationship with other cases.

そこで、必須格補完エンジン54は、「作る」に共起するその他の格(ガ格、ニ格)を補完する。しかし、図18に示す解析結果ではガ格(お父さんガ)は存在するが、ニ格は存在していない。よって、本実施形態では、必須格補完エンジン54は、図19に示すように、「作る」に対してニ格は補完せず、ガ格(お父さんガ)のみを補完する。   Therefore, the essential case complementing engine 54 supplements other cases (ga case, d case) that co-occur in “make”. However, in the analysis result shown in FIG. 18, there is a ga (father ga), but there is no d. Therefore, in the present embodiment, as shown in FIG. 19, the essential case complementing engine 54 does not complement “done” with respect to “make”, but complements only the case (dad ’s case).

なお、「器用だ」は、図13の格辞書55によると「人ガ(ガ格)」、と共起する関係にあるが、図18に示す解析結果では「お父さんガ(ガ格)」と既に修飾関係にある。よって、必須格補完エンジン54は、「器用だ」に対しては補完する必要はない。   Note that “dexterity” has a co-occurrence with “human ga” according to the case dictionary 55 of FIG. 13, but in the analysis result shown in FIG. Already qualified. Therefore, the essential case supplement engine 54 does not need to supplement “dexterity”.

述語関係解析器56は、述語関係データベース57を参照して、必須格補完エンジン54の補完結果に含まれる述語同士の関係を求める。ここでは、述語関係解析器56は、図20に示すように、「器用だ(現在)」と「作る(過去)」の間には「理由」の関係があることを求める。以上の処理が終わると、図15のステップS32に進む。   The predicate relationship analyzer 56 refers to the predicate relationship database 57 and obtains the relationship between the predicates included in the complement result of the mandatory case complement engine 54. Here, as shown in FIG. 20, the predicate relationship analyzer 56 obtains that there is a “reason” relationship between “dexterous (present)” and “create (past)”. When the above process ends, the process proceeds to step S32 in FIG.

ステップS32では、応答生成部14は、解析部13の解析結果を用いて、ユーザ発話中に述部または格要素が存在するか否かを判定し、肯定判定のときはステップS33に進み、否定判定のとき(述部又は格要素が1つもないとき)はステップS10に進む。   In step S32, the response generation unit 14 determines whether or not a predicate or a case element exists in the user utterance using the analysis result of the analysis unit 13. If the determination is affirmative, the response generation unit 14 proceeds to step S33. When it is determined (when there is no predicate or case element), the process proceeds to step S10.

ステップS33では、図11に示す応答生成部14Aは、図21に示すように、a)発話された格要素を確認すること(格要素の確認)、b)省略された格要素を質問すること(省略格要素の質問)、c)述語が行われた理由、時、場所を質問すること(述語の質問)、d)述語同士の関係を確認すること(述語同士の関係確認)、の4種類の発話候補を生成して、ステップS34に進む。   In step S33, as shown in FIG. 21, the response generation unit 14A shown in FIG. 11 a) confirms the spoken case element (confirmation of the case element), and b) asks for the omitted case element. (Question of abbreviated elements), c) why the predicate was made, when and where the question was asked (question of the predicate), d) confirmation of the relationship between the predicates (relationship between the predicates), 4 Types of utterance candidates are generated, and the process proceeds to step S34.

発話候補としては、ユーザ発話1に対して、a)の場合、例えば「お父さんが器用なの?」、「お父さんが作ったの?」、「サイドボードを作ったの?」が生成される。b)の場合、例えば「誰に作ったの?」が生成される。c)の場合、例えば「どうして器用なの?」、「いつ器用なの?」、「いつ作ったの?」、「どこで作ったの?」が生成される。d)の場合、「器用だから作ったの?」が生成される。ここで、「どうして器用なの?」「いつ作ったの?」「どこで作ったの?」はユーザ発話を展開する発話、「お父さんが器用なの?」、「誰に作ったの?」「いつ器用なの?」「器用だから作ったの?」はユーザ発話に興味を示す発話、「お父さんが作ったの?」や「サイドボードを使ったの?」は驚きの感情を表明する発話である。   As the utterance candidates, for user utterance 1, in the case of a), for example, “Dad is dexterous?”, “Dad made?”, “Did you make a sideboard?” Are generated. In the case of b), for example, “who made it?” is generated. In the case of c), for example, “Why is it dexterous?”, “When is it dexterous?”, “When did you make it?”, “Where did you make it?” are generated. In the case of d), “Did you make dexterity?” is generated. Here, “Why is it dexterous?” “When did you make it?” “Where did you make it?” Utterances that expand user utterances, “Dad is dexterous?”, “Who made it?” "Is it dexterous?" Is an utterance that shows interest in user utterances, and "Dad did you make it?" Or "Did you use a sideboard?"

ステップS34では、応答生成部14は、発話候補が複数存在するかを判定し、肯定判定のときは上述したステップS7に進み、否定判定のときはステップS12に進む。なお、発話候補が1つの場合、後述のステップにおいてその発話候補が応答発話として用いられる。   In step S34, the response generation unit 14 determines whether there are a plurality of utterance candidates. If the determination is affirmative, the process proceeds to step S7. If the determination is negative, the process proceeds to step S12. When there is one utterance candidate, that utterance candidate is used as a response utterance in the steps described later.

ステップS7では、応答選択部15は、第1の実施形態と同様にして、ステップS6で生成された発話候補の各々について優先度を決定する。この結果、図22に示すように、「お父さんが器用なの?」に対しては優先度6(話題の豊富さ3、感情3)、「お父さんが作ったの?」に対しては優先度11(話題の豊富さ5、感情6)、「サイドボードを作ったの?」に対しては優先度12(話題の豊富さ6、感情6)等が決定される。そして、最も優先度が高い「サイドボードを作ったの?」が選択される。なお、同じ値の優先度が複数存在する場合は、1つの発話候補がランダムに選択される(ステップS8、ステップS9)。   In step S7, the response selection unit 15 determines the priority for each of the utterance candidates generated in step S6, as in the first embodiment. As a result, as shown in FIG. 22, priority 6 (the topic abundance 3, emotion 3) for “Dad is dexterous” and priority 11 for “Dad made?” A priority of 12 (buzz abundance 6, emotion 6), etc. are determined for (buzz abundance 5, emotion 6) and “Did you make a sideboard?”. Then, the highest priority “Did you make a sideboard?” Is selected. If there are a plurality of priorities having the same value, one utterance candidate is selected at random (steps S8 and S9).

以上のように、第2の実施形態に係る応答生成装置は、第1の実施形態と同様に、複数の発話候補にそれぞれ含まれる単語に対応する「話題の豊富さ」、「感情」に基づいて、各発話候補について優先度を決定する。これにより、応答発話装置は、ユーザの発話を展開したり、システムがユーザの発話に興味を示したり、感情を表明したり、ユーザの感情に同調したり、ユーザの発話内容がネガティブな場合にフォローしてりするような応答をすることができる。したがって、ユーザ発話に対して、話題が豊富で、かつ楽しい対話が可能となるような応答をすることができる。   As described above, the response generation apparatus according to the second embodiment is based on “topic richness” and “emotion” corresponding to words included in a plurality of utterance candidates, as in the first embodiment. The priority is determined for each utterance candidate. As a result, the response utterance device develops the user's utterance, the system shows interest in the user's utterance, expresses the emotion, synchronizes with the user's emotion, or the user's utterance content is negative You can respond like you follow. Therefore, it is possible to respond to user utterances so that topics are rich and a pleasant conversation is possible.

さらに、上記応答生成装置は、ユーザ発話から述語及び格要素を抽出し、抽出した述語又は格要素を確認する応答を生成するので、予め対話プランを用意することなく応答することができる。また、応答生成装置は、ユーザ発話がある限り、そのユーザ発話を深掘りする応答を生成するので、円滑に対話をすることができる。さらに、応答生成装置は、ユーザ発話に含まれる述語又は格要素から応答を生成することにより、応答生成の過程で特定のトピックに関するプランや知識が不要となり、あらゆるトピックについて応答することができる。   Furthermore, since the said response production | generation apparatus extracts the predicate and a case element from a user utterance, and produces | generates the response which confirms the extracted predicate or case element, it can respond without preparing a dialogue plan beforehand. In addition, as long as there is a user utterance, the response generation device generates a response that digs deeply into the user utterance, so that the conversation can be smoothly performed. Furthermore, by generating a response from the predicate or case element included in the user utterance, the response generation device does not require a plan or knowledge about a specific topic in the response generation process, and can respond to any topic.

[第3の実施形態]
つぎに、本発明の第3の実施形態について説明する。なお、上述した実施形態と同一の部位には同一の符号を付し、主に第1の実施形態と異なる部分について説明する。
[Third Embodiment]
Next, a third embodiment of the present invention will be described. In addition, the same code | symbol is attached | subjected to the site | part same as embodiment mentioned above, and a different part from 1st Embodiment is mainly demonstrated.

図23は、第3の実施形態に係る応答生成装置の構成を示すブロック図である。上記応答生成装置は、図1に示す構成に概念制御部17を加えたものである。なお、本実施形態では、図23に示す構成を例に挙げて説明するが、図12に示す構成に概念制御部17を加えてもよいのは勿論である。   FIG. 23 is a block diagram illustrating a configuration of a response generation apparatus according to the third embodiment. The response generation apparatus is obtained by adding a concept control unit 17 to the configuration shown in FIG. In the present embodiment, the configuration shown in FIG. 23 will be described as an example, but the concept control unit 17 may be added to the configuration shown in FIG.

概念制御部17は、応答選択部15が発話候補に含まれる概念に基づいて優先度を決定する前に、当該概念に対応する概念データベース16の中の「話題の豊富さ」を更新する。   The concept control unit 17 updates “abundance of topics” in the concept database 16 corresponding to the concept before the response selection unit 15 determines the priority based on the concept included in the utterance candidate.

具体的には、概念制御部17は、文脈情報を記憶する文脈情報データベース61と、ユーザ情報を記憶するユーザ情報データベース62と、概念データベース16に記憶されている内容を決定する概念データベース内容決定部63と、を有している。   Specifically, the concept control unit 17 includes a context information database 61 that stores context information, a user information database 62 that stores user information, and a concept database content determination unit that determines the contents stored in the concept database 16. 63.

文脈情報データベース61は、過去のユーザ発話とシステム発話に含まれる概念(単語)をN個記憶する。よって、対話が継続され、文脈情報データベース61に記憶されている概念の数がN個を超えると、古い概念から順に消去される。このため、文脈情報データベース61には、最新のN個の概念のみが記憶されている。   The context information database 61 stores N concepts (words) included in past user utterances and system utterances. Therefore, when the dialogue is continued and the number of concepts stored in the context information database 61 exceeds N, the oldest concepts are deleted in order. For this reason, only the latest N concepts are stored in the context information database 61.

ユーザ情報データベース62は、図24に示すように、ユーザ情報として、ユーザの好みなどを反映したユーザ個別の概念データベース16の初期値を記憶している。よって、ユーザ情報データベース62は、ユーザとの対話の中で一度だけ参照される。   As shown in FIG. 24, the user information database 62 stores initial values of the individual concept database 16 reflecting user preferences and the like as user information. Therefore, the user information database 62 is referred to only once in the dialog with the user.

図25は、概念データベース更新ルーチンを示すフローチャートである。概念データベース内容決定部63は、本ルーチンを実行することにより、ユーザとの対話の内容が偏らないように概念データベース16を逐次更新する。   FIG. 25 is a flowchart showing a concept database update routine. The concept database content determination unit 63 sequentially updates the concept database 16 so that the content of the dialog with the user is not biased by executing this routine.

ステップS41では、概念データベース内容決定部63は、対話開始後にユーザ情報データベース62を参照したか否かを判定し、肯定判定のときはステップS45に進み、否定判定のときはステップS42に進む。   In step S41, the concept database content determination unit 63 determines whether or not the user information database 62 has been referred to after starting the dialogue. If the determination is affirmative, the process proceeds to step S45. If the determination is negative, the process proceeds to step S42.

ステップS42では、概念データベース内容決定部63は、ユーザ情報データベース62を参照して、ステップS43に進む。   In step S42, the concept database content determination unit 63 refers to the user information database 62 and proceeds to step S43.

ステップS43では、概念データベース内容決定部63は、当該概念(発話候補に含まれる概念)がユーザ情報データベース62に存在するか否かを判定し、肯定判定のときはステップS44に進み、否定判定のときはステップS45に進む。   In step S43, the concept database content determination unit 63 determines whether or not the concept (concept included in the utterance candidate) exists in the user information database 62. If the determination is affirmative, the process proceeds to step S44. If so, go to Step S45.

ステップS44では、概念データベース内容決定部63は、ユーザ情報データベース62から、当該概念に対応する「話題の豊富さ」と「感情」を読み出し、この「話題の豊富さ」と「感情」を概念データベース16に書き込むことによって概念データベース16を初期化し、ステップS45に進む。   In step S44, the concept database content determination unit 63 reads “buzz abundance” and “emotion” corresponding to the concept from the user information database 62, and uses the “buzz abundance” and “emotion” as a concept database. The concept database 16 is initialized by writing to 16, and the process proceeds to step S45.

ステップS45では、概念データベース内容決定部63は、当該概念が文脈情報データベース61に存在するか否かを判定し、肯定判定のときはステップS46に進み、否定判定のときはステップS47に進む。   In step S45, the concept database content determination unit 63 determines whether or not the concept exists in the context information database 61. If the determination is affirmative, the process proceeds to step S46. If the determination is negative, the process proceeds to step S47.

ステップS46では、概念データベース内容決定部63は、概念データベース16に対して、当該概念の「話題の豊富さ」を1ランク下げる更新処理を行う。したがって、最近のユーザ発話及びシステム発話に含まれる概念の「話題の豊富さ」は1つ下げられる。そして、上述したステップS7の優先度決定処理が行われる。   In step S <b> 46, the concept database content determination unit 63 performs an update process on the concept database 16 to lower the “buzz richness” of the concept by one rank. Therefore, the concept “richness of topics” included in recent user utterances and system utterances is lowered by one. And the priority determination process of step S7 mentioned above is performed.

応答選択部15は、最新のデータに更新された概念データベース16を用いて、発話候補毎に優先度を決定する。よって、発話候補に含まれる概念が最近のユーザ発話及びシステム発話に含まれる概念と同じ場合は、応答選択部15は、その発話候補に対して低い優先度を決定する。このため、その発話候補は応答発話として選択されず、他の発話候補が選択されるようになる。   The response selection unit 15 determines the priority for each utterance candidate using the concept database 16 updated to the latest data. Therefore, when the concept included in the utterance candidate is the same as the concept included in the recent user utterance and the system utterance, the response selection unit 15 determines a low priority for the utterance candidate. For this reason, the utterance candidate is not selected as a response utterance, and another utterance candidate is selected.

以上のように、第3の実施形態に係る応答生成装置は、発話候補に含まれる概念が最近のユーザ発話及びシステム発話に含まれる概念と同じ場合、その概念に対応する「話題の豊富さ」のランクを下げるように概念データベース16を更新する。よって、応答生成装置は、概念データベース16を用いてその発話候補について低い優先度を決定するので、最近用いられた概念と異なる概念を含んだ発話候補を応答発話として出力するようになる。このため、応答生成装置は、ユーザ発話に対して応答する毎に、異なる概念の応答発話を出力できるので、ユーザとの対話内容が偏ることなく、円滑に進めることができる。   As described above, when the concept included in the utterance candidate is the same as the concept included in the recent user utterance and the system utterance, the response generating apparatus according to the third embodiment corresponds to the concept “abundance of topics”. The concept database 16 is updated so as to lower the rank. Therefore, since the response generation apparatus determines a low priority for the utterance candidate using the concept database 16, an utterance candidate including a concept different from the recently used concept is output as a response utterance. For this reason, since the response generation device can output a response utterance of a different concept each time it responds to the user utterance, the content of the dialog with the user can be smoothly advanced.

なお、本発明は、上述した実施の形態に限定されるものではなく、特許請求の範囲に記載された範囲内で設計上の変更をされたものにも適用可能であるのは勿論である。   Note that the present invention is not limited to the above-described embodiment, and it is needless to say that the present invention can also be applied to a design modified within the scope of the claims.

例えば応答発話を提示する手段として、スピーカ21やディスプレイ22を使用したが、その他、応答内容を表現できるロボット装置を使用してもよい。また、各実施形態に係る応答生成装置は、スピーカ21、ディスプレイ22の一方のみを備えていてもよい。   For example, although the speaker 21 and the display 22 are used as means for presenting a response utterance, a robot apparatus capable of expressing the response content may be used. In addition, the response generation device according to each embodiment may include only one of the speaker 21 and the display 22.

さらに、応答生成装置は、上述した構成に限定されるものではなく、マイクロホン11及び認識部12に代わりにキーボードを用いたものであってもよい。すなわち、ユーザ発話を入力する入力部は、特に限定されるものではない。   Furthermore, the response generation device is not limited to the above-described configuration, and a keyboard may be used instead of the microphone 11 and the recognition unit 12. That is, the input unit for inputting the user utterance is not particularly limited.

本発明の第1の実施形態に係る応答生成装置の構成を示すブロック図である。It is a block diagram which shows the structure of the response generation apparatus which concerns on the 1st Embodiment of this invention. 解析部の構成を示すブロック図である。It is a block diagram which shows the structure of an analysis part. 発話−発話意図対応表の構成を示す図である。It is a figure which shows the structure of an utterance-utterance intention correspondence table | surface. 応答生成部の構成を示すブロック図である。It is a block diagram which shows the structure of a response production | generation part. 発話意図対応表データベースに記憶されている発話意図対応表の構成を示す図である。It is a figure which shows the structure of the speech intention corresponding table memorize | stored in the speech intention corresponding table database. 関連情報データベースの構成を示す図である。It is a figure which shows the structure of a related information database. 相槌発話を示す図である。It is a figure which shows a mutual talk. 概念データベースの構成を示す図である。It is a figure which shows the structure of a concept database. ユーザ発話に対する応答を生成する第1の応答生成ルーチンを示すフローチャートである。It is a flowchart which shows the 1st response production | generation routine which produces | generates the response with respect to a user utterance. 優先度決定ルーチンを示すフローチャートである。It is a flowchart which shows a priority determination routine. 本発明の第2の実施形態に係る応答生成装置の構成を示すブロック図である。It is a block diagram which shows the structure of the response generation apparatus which concerns on the 2nd Embodiment of this invention. 解析部の構成を示すブロック図である。It is a block diagram which shows the structure of an analysis part. 格辞書の構成を示す図である。It is a figure which shows the structure of a case dictionary. 述語関係データベースの構成を示す図である。It is a figure which shows the structure of a predicate relation database. ユーザ発話に対する応答を生成する第1の応答生成ルーチンを示すフローチャートである。It is a flowchart which shows the 1st response production | generation routine which produces | generates the response with respect to a user utterance. 形態素解析器から出力される形態素情報を示す図である。It is a figure which shows the morpheme information output from a morphological analyzer. 文節の係り受けの関係を示す図である。It is a figure which shows the relationship of the dependency of a phrase. 格解析器によって抽出された述語とそれに対応する格要素とを示す図である。It is a figure which shows the predicate extracted by the case analyzer and the case element corresponding to it. 「作る」に対して必須格であるガ格の格要素が補完された状態を示す図である。It is a figure which shows the state by which the case element of ga case which is an essential case with respect to "make" was complemented. 述語同士の関係を示す図である。It is a figure which shows the relationship between predicates. 発話候補の種類を示す図である。It is a figure which shows the kind of speech candidate. 各発話候補の優先度を示す図である。It is a figure which shows the priority of each utterance candidate. 本発明の第3の実施形態に係る応答生成装置の構成を示すブロック図である。It is a block diagram which shows the structure of the response generation apparatus which concerns on the 3rd Embodiment of this invention. ユーザ情報データベースの構成を示す図である。It is a figure which shows the structure of a user information database. 概念データベース更新ルーチンを示すフローチャートである。It is a flowchart which shows a concept database update routine.

符号の説明Explanation of symbols

11 マイクロホン
12 認識部
13、13A 解析部
14、14A 応答生成部
15 応答選択部
16 概念データベース
17 概念制御部17
21 スピーカ
22 ディスプレイ
31 ユーザ発話意図解析器
32 発話−発話意図対応表データベース
DESCRIPTION OF SYMBOLS 11 Microphone 12 Recognition part 13, 13A Analysis part 14, 14A Response generation part 15 Response selection part 16 Concept database 17 Concept control part 17
21 speaker 22 display 31 user utterance intention analyzer 32 utterance-utterance intention correspondence table database

Claims (4)

発話を入力する入力手段と、
前記入力手段に入力された発話に対する複数の応答を生成する応答生成手段と、
概念毎に、話題の豊富さと感情の正負の度合いとを記憶する概念記憶手段と、
過去の対話の文脈に含まれる概念を記憶する文脈記憶手段と、
優先度の決定の対象となる応答に含まれる概念が前記文脈記憶手段に記憶されているときに、前記概念記憶手段に記憶されている前記概念に対応する話題の豊富さの度合いを下げるように制御する概念制御手段と、
前記応答生成手段で生成された複数の応答のそれぞれ含まれる概念に対応する話題の豊富さ、感情の正負の度合いを前記概念記憶手段から読み出し、読み出した話題の豊富さと感情の正負の度合いとに基づいて、複数の応答毎に、前記話題の豊富さが大きいほど優先度が高くなり、かつ、前記感情の正負の度合いが正であるほど、優先度が高くなるように、優先度を決定し、最も優先度が高い応答を選択する応答選択手段と、
前記応答選択手段により選択された応答を出力する応答出力手段と、
を備えた応答生成装置。
An input means for inputting an utterance;
Response generating means for generating a plurality of responses to the utterance input to the input means;
For each concept, a concept storage means for storing the abundance of topics and the degree of positive / negative emotions,
A context storage means for storing concepts included in the context of past dialogue;
When the concept included in the response whose priority is to be determined is stored in the context storage unit, the degree of abundance of topics corresponding to the concept stored in the concept storage unit is reduced. Conceptual control means to control;
The abundance of topics corresponding to the concepts included in each of the responses generated by the response generation means and the degree of positive / negative of emotion are read out from the concept storage means, and the abundance of topics read and the degree of positive / negative of emotions are read. On the basis of a plurality of responses, the priority is determined so that the priority is higher as the abundance of the topic is larger and the priority is higher as the positive / negative degree of the emotion is positive. Response selection means for selecting a response with the highest priority;
Response output means for outputting the response selected by the response selection means;
A response generation device.
前記応答生成手段は、前記入力手段に入力された発話から概念を抽出し、抽出した概念に関連する関連語を生成し、前記抽出した概念又は前記関連語を用いて複数の応答を生成する
請求項1に記載の応答生成装置。
The response generation unit extracts a concept from an utterance input to the input unit, generates a related word related to the extracted concept, and generates a plurality of responses using the extracted concept or the related word. Item 2. The response generation device according to Item 1.
発話を入力し、
前記入力された発話に対する複数の応答を生成し、
優先度の決定の対象となる応答に含まれる概念が、過去の対話の文脈に含まれる概念を記憶する文脈記憶手段に記憶されているときに、概念毎に話題の豊富さと感情の正負の度合いとを記憶する概念記憶手段に記憶されている前記概念に対応する話題の豊富さの度合いを下げるように制御し、
前記概念記憶手段から、前記生成された複数の応答のそれぞれ含まれる概念に対応する話題の豊富さ、感情の正負の度合いを読み出し、
読み出した話題の豊富さと感情の正負の度合いとに基づいて、複数の応答毎に、前記話題の豊富さが大きいほど優先度が高くなり、かつ、前記感情の正負の度合いが正であるほど、優先度が高くなるように、優先度を決定し、
最も優先度が高い応答を選択し、
前記選択された応答を出力する
応答生成方法。
Enter the utterance,
Generating a plurality of responses to the input utterance;
When the concept included in the response whose priority is to be determined is stored in the context storage means that stores the concept included in the context of the past dialogue, the abundance of topics and the degree of positive / negative emotion for each concept Control to reduce the degree of abundance of topics corresponding to the concept stored in the concept storage means for storing
From the concept storage means, read out the abundance of topics corresponding to the concepts included in each of the generated responses, the degree of positive or negative emotion,
Based on the read abundance of topics and the degree of positive / negative of emotion, for each of a plurality of responses, the greater the abundance of the topic, the higher the priority, and the more positive the degree of positive / negative of the emotion, Decide the priority so that the priority is high,
Select the response with the highest priority,
A response generation method for outputting the selected response.
コンピュータに、
発話を入力
前記入力された発話に対する複数の応答を生成
優先度の決定の対象となる応答に含まれる概念が、過去の対話の文脈に含まれる概念を記憶する文脈記憶手段に記憶されているときに、概念毎に話題の豊富さと感情の正負の度合いとを記憶する概念記憶手段に記憶されている前記概念に対応する話題の豊富さの度合いを下げるように制御
前記概念記憶手段から、前記生成された複数の応答のそれぞれ含まれる概念に対応する話題の豊富さ、感情の正負の度合いを読み出
読み出した話題の豊富さと感情の正負の度合いとに基づいて、複数の応答毎に、前記話題の豊富さが大きいほど優先度が高くなり、かつ、前記感情の正負の度合いが正であるほど、優先度が高くなるように、優先度を決定
最も優先度が高い応答を選択
前記選択された応答を出力する
ことを実行させるための応答生成プログラム。
On the computer,
Enter the speech,
Generating a plurality of responses to the input utterance,
When the concept included in the response whose priority is to be determined is stored in the context storage means that stores the concept included in the context of the past dialogue, the abundance of topics and the degree of positive / negative emotion for each concept Control to reduce the degree of abundance of topics corresponding to the concept stored in the concept storage means for storing
From the concept memory means, richness of the topic that corresponds to the concepts included in each of the plurality of response the generated and read out the degree of positive or negative emotions,
Based on the read abundance of topics and the degree of positive / negative of emotion, for each of a plurality of responses, the greater the abundance of the topic, the higher the priority, and the more positive the degree of positive / negative of the emotion, as priority is higher, to determine the priority,
Select highest priority response,
Output the selected response
A response generator to make things happen.
JP2006039608A 2006-02-16 2006-02-16 Response generating apparatus, method, and program Expired - Fee Related JP4826275B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006039608A JP4826275B2 (en) 2006-02-16 2006-02-16 Response generating apparatus, method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006039608A JP4826275B2 (en) 2006-02-16 2006-02-16 Response generating apparatus, method, and program

Publications (2)

Publication Number Publication Date
JP2007219149A JP2007219149A (en) 2007-08-30
JP4826275B2 true JP4826275B2 (en) 2011-11-30

Family

ID=38496531

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006039608A Expired - Fee Related JP4826275B2 (en) 2006-02-16 2006-02-16 Response generating apparatus, method, and program

Country Status (1)

Country Link
JP (1) JP4826275B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7299538B1 (en) 2022-02-24 2023-06-28 富士通クライアントコンピューティング株式会社 Information processing device and program

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5195405B2 (en) * 2008-12-25 2013-05-08 トヨタ自動車株式会社 Response generating apparatus and program
JP5195414B2 (en) * 2008-12-26 2013-05-08 トヨタ自動車株式会社 Response generating apparatus and program
JP4992925B2 (en) * 2009-03-23 2012-08-08 トヨタ自動車株式会社 Spoken dialogue apparatus and program
JP5381211B2 (en) * 2009-03-23 2014-01-08 トヨタ自動車株式会社 Spoken dialogue apparatus and program
JP5433397B2 (en) * 2009-12-21 2014-03-05 富士フイルム株式会社 Image display device, image display method, and portable terminal
KR101178310B1 (en) * 2011-02-24 2012-08-29 포항공과대학교 산학협력단 Method of managing communication and system for the same
JP2013072887A (en) * 2011-09-26 2013-04-22 Toshiba Corp Interactive device
JP5728527B2 (en) * 2013-05-13 2015-06-03 日本電信電話株式会社 Utterance candidate generation device, utterance candidate generation method, and utterance candidate generation program
JP6225012B2 (en) * 2013-07-31 2017-11-01 日本電信電話株式会社 Utterance sentence generation apparatus, method and program thereof
JP2015127758A (en) * 2013-12-27 2015-07-09 シャープ株式会社 Response control device and control program
EP2933070A1 (en) * 2014-04-17 2015-10-21 Aldebaran Robotics Methods and systems of handling a dialog with a robot
JPWO2016104193A1 (en) * 2014-12-26 2017-05-25 シャープ株式会社 Correspondence determining device, voice dialogue system, control method of correspondence determining device, and voice dialogue device
JP6486760B2 (en) * 2015-04-30 2019-03-20 Kddi株式会社 Dialog pattern automatic generation apparatus, method and program
JP6343586B2 (en) * 2015-05-15 2018-06-13 日本電信電話株式会社 Utterance selection device, method, and program
JP6147836B2 (en) * 2015-11-24 2017-06-14 株式会社東芝 Dialogue device
JP6617053B2 (en) * 2016-02-29 2019-12-04 Kddi株式会社 Utterance semantic analysis program, apparatus and method for improving understanding of context meaning by emotion classification
JP2018167339A (en) 2017-03-29 2018-11-01 富士通株式会社 Utterance control program, information processor, and utterance control method
JP7044167B2 (en) * 2018-09-28 2022-03-30 富士通株式会社 Dialogue device, dialogue method and dialogue program
JP7063230B2 (en) * 2018-10-25 2022-05-09 トヨタ自動車株式会社 Communication device and control program for communication device
JP6951763B2 (en) * 2018-12-25 2021-10-20 株式会社DataVision Utterance generator, utterance generation method, and computer program
JP7032681B1 (en) 2020-12-10 2022-03-09 富士通クライアントコンピューティング株式会社 Information processing equipment and programs

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003108376A (en) * 2001-10-01 2003-04-11 Denso Corp Response message generation apparatus, and terminal device thereof
JP4062591B2 (en) * 2002-03-06 2008-03-19 ソニー株式会社 Dialog processing apparatus and method, and robot apparatus
JP4192492B2 (en) * 2002-05-09 2008-12-10 日本電気株式会社 Conversation agent

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7299538B1 (en) 2022-02-24 2023-06-28 富士通クライアントコンピューティング株式会社 Information processing device and program
JP2023123306A (en) * 2022-02-24 2023-09-05 富士通クライアントコンピューティング株式会社 Information processor and program

Also Published As

Publication number Publication date
JP2007219149A (en) 2007-08-30

Similar Documents

Publication Publication Date Title
JP4826275B2 (en) Response generating apparatus, method, and program
US10642939B2 (en) Systems and methods for generating jokes
JP4186992B2 (en) Response generating apparatus, method, and program
US20200395008A1 (en) Personality-Based Conversational Agents and Pragmatic Model, and Related Interfaces and Commercial Models
JP5166661B2 (en) Method and apparatus for executing a plan based dialog
JP4849663B2 (en) Conversation control device
US20200227032A1 (en) Systems and Methods for Generating and Recognizing Jokes
US8935163B2 (en) Automatic conversation system and conversation scenario editing device
US8818926B2 (en) Method for personalizing chat bots
Levinson Optimizing person reference-perspectives from usage on Rossel Island
Curry et al. Alana v2: Entertaining and informative open-domain social dialogue using ontologies and entity linking
JP2006178063A (en) Interactive processing device
Wilks et al. Some background on dialogue management and conversational speech for dialogue systems
JP4729902B2 (en) Spoken dialogue system
JP2007183421A (en) Speech synthesizer apparatus
Sammut Managing context in a conversational agent
Ferreira Language production
WO2003085550A1 (en) Conversation control system and conversation control method
JPWO2020036195A1 (en) End-of-speech determination device, end-of-speech determination method and program
JP2000207214A (en) Interaction device
JP3996125B2 (en) Sentence generation apparatus and generation method
Franklin et al. Jabberwocky: You don't have to be a rocket scientist to change slides for a hydrogen combustion lecture
JP2005284209A (en) Speech recognition system
Akman et al. Strawson on intended meaning and context
Bowden et al. I Probe, Therefore I Am: Designing a Virtual Journalist with Human Emotions

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081003

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100921

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100928

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110426

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110621

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110816

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110829

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140922

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140922

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140922

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140922

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees