JP2009198871A - Voice interaction apparatus - Google Patents
Voice interaction apparatus Download PDFInfo
- Publication number
- JP2009198871A JP2009198871A JP2008041201A JP2008041201A JP2009198871A JP 2009198871 A JP2009198871 A JP 2009198871A JP 2008041201 A JP2008041201 A JP 2008041201A JP 2008041201 A JP2008041201 A JP 2008041201A JP 2009198871 A JP2009198871 A JP 2009198871A
- Authority
- JP
- Japan
- Prior art keywords
- verb
- utterance
- emotion
- response
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、ユーザの行動に関する内容がユーザ発話として数多く入力される場合に有効な音声対話装置及び音声対話プログラムに関する。 The present invention relates to a voice dialogue apparatus and a voice dialogue program that are effective when a large amount of user behavior is input as user utterances.
雑談対話システムや傾聴対話システムなど、ユーザ発話を音声認識して認識結果に対応する応答を出力してユーザと対話を行う技術が提案されている。このような技術として、例えば、ユーザ発話に対する音声認識結果の信頼度に閾値を設定し、信頼度が閾値以上であれば認識結果に対応する応答を出力し、信頼度が閾値未満であれば認識結果をリジェクトし、自律応答辞書に記述されている応答を出力する音声対話装置(例えば、特許文献1参照。)が知られている。
しかしながら、特許文献1の音声対話装置では、ユーザ発話の認識結果として、例えば「週末温泉に行った」が得られた場合に、この認識結果の信頼度が閾値未満であると自律応答辞書を検索して応答を出力する。具体的には、「週末温泉に行った」に対する応答として、「何か話して」、「誰かいないの?」、「ねえねえ」などが出力され、明らかに不適切であり、結果としてユーザとの対話が破綻してしまうという問題点がある。
However, in the spoken dialogue apparatus of
本発明は、上記問題点を解決するために成されたものであり、ユーザの行動(動詞)に関する発話の認識結果中の動詞が信頼度が低い場合に、ユーザとの対話が破綻することなく継続する音声対話装置及び音声対話プログラムを提供することを目的とする。 The present invention has been made to solve the above-described problems, and when the verb in the recognition result of the utterance regarding the user's action (verb) is low in reliability, the dialogue with the user is not broken. It is an object of the present invention to provide a continuous voice dialogue apparatus and a voice dialogue program.
上記目的を達成するために、請求項1記載の音声対話装置は、ユーザによる発話を入力する入力手段と、前記入力手段により入力されたユーザによる最初の発話を解析する第1の発話解析手段と、前記第1の発話解析手段による解析結果に動詞が含まれるか否かを判定する動詞判定手段と、前記動詞判定手段により前記発話解析手段による解析結果に動詞が含まれていると判定されたときに、該動詞が信頼できるか否かを判定する動詞信頼度判定手段と、前記動詞信頼度判定手段により前記動詞が信頼できると判定されたときに、予め定められた応答テンプレートと前記動詞とを用いて、前記最初の発話に対して応答を生成する応答生成手段と、前記動詞信頼度判定手段により前記動詞が信頼できないと判定されたときに、予め定められた感情質問テンプレートを用いて、前記ユーザの最初の発話の感情を問う質問を生成する感情質問生成手段と、前記応答生成手段により生成された応答及び前記感情質問生成手段により生成された質問を出力する出力手段と、を備えている。
In order to achieve the above object, the voice interaction apparatus according to
請求項1記載の発明によれば、ユーザの発話に含まれる動詞が信頼できないときに、ユーザの感情を問う質問をして対話を特定の方向に導くことができる。 According to the first aspect of the present invention, when the verb included in the user's utterance is unreliable, the question can be asked about the user's emotion and the dialogue can be guided in a specific direction.
請求項2記載の音声対話装置は、請求項1記載の音声対話装置において、前記出力手段により出力された前記質問に対して、前記入力手段により入力された前記ユーザの発話を解析する第2の発話解析手段と、感情を表現する単語を記憶した感情表現記憶手段と、前記第2の発話解析手段による解析結果に前記感情表現記憶手段に記憶された感情を表現する単語が含まれるか否かを判定する感情表現判定手段と、前記感情表現判定手段により前記感情応答解析手段による解析結果に感情を表現する単語が含まれると判定されたときに、予め定められた感情応答テンプレートと、前記感情表現発話に対して前記感情を表現する単語とを用いて応答文を生成する感情応答生成手段と、前記感情表現判定手段により前記感情応答解析手段による解析結果に感情を表現する単語が含まれないと判定されたときに、予め定めた相槌を用いて前記感情表現発話に対する相槌を生成する相槌生成手段と、を更に備え、前記出力手段は、前記感情応答生成手段により生成された応答文及び前記相槌生成手段により生成された相槌を出力する。 According to a second aspect of the present invention, there is provided a voice dialogue apparatus according to the first aspect, wherein the user's utterance input by the input means is analyzed with respect to the question output by the output means. Whether the speech analysis means, the emotion expression storage means storing a word expressing emotion, and the analysis result by the second utterance analysis means include a word expressing the emotion stored in the emotion expression storage means An emotion expression determination means for determining the emotion response determination template, and when the emotion expression determination means determines that a word representing the emotion is included in the analysis result by the emotion response analysis means, a predetermined emotion response template and the emotion An emotion response generation unit that generates a response sentence using a word that expresses the emotion with respect to an expression utterance, and an analysis by the emotion response analysis unit by the emotion expression determination unit When it is determined that a word expressing emotion is not included in the result, a conflict generating means for generating a conflict for the emotion expression utterance using a predetermined conflict is further provided, and the output means includes the emotion The response sentence generated by the response generation unit and the interaction generated by the interaction generation unit are output.
請求項2記載の発明によれば、ユーザの感情を問う質問に対する応答に対して、応答文や相槌を出力して更に対話を継続することができる。 According to the second aspect of the present invention, it is possible to continue the dialogue by outputting a response sentence and an answer to the response to the question asking the user's emotion.
請求項3記載の音声対話装置は、請求項2記載の音声対話装置において、前記相槌生成手段は、前記動詞判定手段により前記発話解析手段による解析結果に動詞が含まれていないと判定されたときに、予め定めた相槌を用いて相槌を生成する。
The spoken dialogue apparatus according to
請求項3記載の発明によれば、ユーザの最初の発話に動詞が含まれないときに、相槌を出力して会話を継続することができる。 According to the third aspect of the present invention, when a verb is not included in the first utterance of the user, it is possible to output the autonomy and continue the conversation.
請求項4記載の音声対話プログラムは、コンピュータを、入力されたユーザによる最初の発話を解析する発話解析手段、前記発話解析手段による解析結果に動詞が含まれるか否かを判定する動詞判定手段、前記動詞判定手段により前記発話解析手段による解析結果に動詞が含まれていると判定されたときに、該動詞が信頼できるか否かを判定する動詞信頼度判定手段、前記動詞信頼度判定手段により前記動詞が信頼できると判定されたときに、予め定められた応答テンプレートと前記動詞とを用いて、前記最初の発話に対して応答を生成する応答生成手段、前記動詞信頼度判定手段により前記動詞が信頼できないと判定されたときに、予め定められた感情質問テンプレートを用いて前記ユーザの最初の発話の内容に対応する感情を問う質問を生成する感情質問生成手段、として機能させる。
The spoken dialogue program according to
請求項4記載の発明によれば、ユーザの発話に含まれる動詞が信頼できないときに、ユーザの感情を問う質問をして対話を特定の方向に導くことができる。 According to the fourth aspect of the present invention, when the verb included in the user's utterance is unreliable, the question can be asked about the user's emotion and the dialogue can be guided in a specific direction.
以上説明したように、本発明の音声対話装置及び音声対話プログラムによれば、ユーザの行動を表す動詞を含む発話の認識結果中の動詞が信頼度が低い場合に、ユーザとの対話が破綻することなく継続するように、適切な応答を生成することができるという効果が得られる。 As described above, according to the speech dialogue apparatus and the speech dialogue program of the present invention, the dialogue with the user fails when the verb in the recognition result of the utterance including the verb representing the user's behavior is low in reliability. The effect is that an appropriate response can be generated so as to continue without interruption.
以下、本発明の実施の形態について図面を参照しながら詳細に説明する。なお、本発明は、以下の実施の形態に限定されるものではなく、特許請求の範囲に記載された範囲内で設計上の変更をされたものにも適用可能である。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In addition, this invention is not limited to the following embodiment, It is applicable also to what changed the design within the range described in the claim.
図1は、本発明に係る音声対話装置の主要構成を示すブロック図である。同図に示すように、本実施の形態に係る音声対話装置は、入力部11と、第1の発話解析部12と、動詞判定部13と、動詞信頼度判定部14と、応答生成部15と、感情質問生成部16と、第2の発話解析部17と、感情表現辞書18と、感情表現判定部19と、感情表現応答生成部20と、相槌生成部21と、出力部22と、を備えている。
FIG. 1 is a block diagram showing the main configuration of a voice interaction apparatus according to the present invention. As shown in the figure, the voice interaction apparatus according to the present embodiment includes an input unit 11, a first
入力部11は、例えばマイクロホンで構成され、ユーザ発話を集音して音声信号を生成する。 The input unit 11 is composed of a microphone, for example, and collects a user's utterance and generates an audio signal.
第1の発話解析部12は、複数の単語が登録された認識用辞書データベース(図示省略)に登録された単語を参照し、入力部11によって生成された音声信号に基づいてユーザ発話を認識し、最も確からしい候補から上位所定数(例えば10)の候補を選択すると共に、それらを一般的な形態素解析器を用いて形態素解析を行う。
The first
動詞判定部13は、第1の発話解析部12による解析結果に基づいて、ユーザ発話に動詞が含まれるか否かを判定する。動詞判定部13は、所定の条件を満たす場合には動詞が含まれると判定し、所定の条件を満たさない場合には動詞が含まれないと判定する。本実施の形態では、「解析結果の上位10候補のうち、8つ以上の候補が動詞を含む」という条件を設定する。
The
動詞信頼度判定部14は、動詞判定部13によってユーザ発話に動詞が含まれると判定された場合に、その動詞が信頼できるか否かを判定する。動詞信頼度判定部14は、所定の条件を満たす場合にはその動詞は信頼できると判定し、所定の条件を満たさない場合には動詞は信頼できないと判定する。本実施の形態では、「当該動詞が、解析結果上位10候補のうち7つ以上の候補に含まれる」という条件を設定する。
The verb
応答生成部15は、第1の発話解析部12による解析結果が動詞判定部13によって動詞を含むと判定され、かつ、動詞信頼度判定部14によってその動詞が信頼できると判定されたときに、第1の発話解析部12による解析結果を用いて応答を生成する。例えば、解析結果に含まれる動詞が「行く」であれば、図2に示す予め用意されたテンプレート、例えば「〜んだぁ」と動詞「行く」とを用い、更に時制をあわせて「行ったんだぁ」を応答として生成する。
The
感情質問生成部16は、第1の発話解析部12による解析結果が動詞判定部13によって動詞を含むと判定され、かつ、動詞信頼度判定部14によってその動詞が信頼できないと判定されたときに、ユーザ発話が示す内容に対するユーザの感情を問う質問を生成する。即ち、感情質問生成部16は、ユーザ発話の解析結果を用いるのではなく、ユーザが行動(動詞)についての発話を行うときに有すると考えられる感情を質問する。感情質問生成部16は、質問の生成に際しては、予め用意されたテンプレート、例えば「どんな気分だった?」を用いて質問を生成する。
The emotion
第2の発話解析部17は、第1の発話解析部12とは異なり、感情を表現する複数の単語、例えば「気持ちよい」、「楽しい」など、及びそれらの単語を修飾する複数の単語、例えば「とても」、「非常に」などが登録された認識用辞書データベース(図示省略)に登録された単語を参照し、入力部11によって生成された音声信号に基づいてユーザ発話を認識し、最も確からしい候補1つを選択すると共に、それを一般的な形態素解析器を用いて形態素解析を行う。
Unlike the first
感情表現辞書18には、図3に示すように、感情を表現する複数の単語が登録されている。
In the
感情表現判定部19は、第2の発話解析部17による解析結果に感情表現が含まれているか否かを、感情表現辞書18を用いて判定する。具体的には、感情表現判定部19は、第2の発話解析部17による解析結果が感情表現辞書18に登録されている単語を含んでいるときには感情表現が含まれていると判定し、その他のときには感情表現が含まれて射ないと判定する。
The emotional
感情表現応答生成部20は、感情表現判定部19によって第2の発話解析部17の解析結果が感情表現を含むと判定されたときに応答を生成する。感情表現応答生成部20は、予め定めた応答生成テンプレートを含む応答生成ルールを記憶した感情表現応答生成データベースを保持している。図4は、感情表現応答生成データベースを示す。同図に示すように、感情表現応答生成データベースには、感情表現が表す感情が有し得る「程度」、「時間」などの属性情報と、属性情報「程度」に対して「どのくらい〜なの?」、属性情報「時間」に対して「いつ〜なの?」などの応答を生成する応答生成ルールが定められている。感情表現応答生成部20は、前述の解析結果に含まれる感情表現が表す感情が有し得る属性情報を判別し、感情表現について何れかの属性情報を問う応答を生成する。
The emotion expression
相槌生成部21は、第1の発話解析部12による解析結果に動詞が含まれないとき、及び第2の発話解析部17による解析結果に感情表現が含まれないと判定されたときにユーザに対する応答として相槌を生成する。相槌生成部21は、予め相槌として「へぇ」、「ふーん」、「そうなんだ」、「それでそれで」、「ふむふむ」などの相槌が登録された相槌データベース(図示省略)を参照することにより相槌を生成する。
When the analysis result by the first
出力部22は、例えばスピーカで構成され、ユーザに対する応答発話を音声出力する。また、出力部22は、音声出力に限らず、応答文を画面に表示したり、紙に印刷してもよい。
The
次に、本実施の形態における音声対話装置の作用について、図5に示すフローチャートに沿って説明する。本実施の形態では、例として「週末温泉に行った」を最初のユーザ発話として考える。 Next, the operation of the voice interaction apparatus in the present embodiment will be described along the flowchart shown in FIG. In this embodiment, as an example, “I went to a hot spring on the weekend” is considered as the first user utterance.
ステップ100では、入力部11が、ユーザ発話が入力されたか否かを判定する。ユーザ発話が入力されて発話に応じた音声信号が生成されたときにはステップ102に進み、ユーザ発話が入力されないときにはユーザ発話が入力されるまでこの判断を繰り返す。本実施の形態では、ユーザ発話として「週末温泉に行った」が入力され、これに応じた音声信号が生成されてステップ102に進む。
In
ステップ102では、第1の発話解析部12が、入力部11により生成された音声信号に基づき、認識用辞書データベースに登録された単語を参照してユーザ発話を認識し、本実施の形態では最も確からしい候補から10候補を選択すると共に、それらの形態素解析を行う。図6は、解析結果として得られた上位10候補を示す。
In
ステップ104では、動詞判定部13が、図6の解析結果に基づいて、ユーザ発話に動詞が含まれるか否かを判定し、動詞が含まれる場合にはステップ106に進み、動詞が含まれない場合にはステップ122に進む。本実施の形態では、動詞判定部13は、図6に示す解析結果の10候補のうち、動詞を含むものが8つ以上の場合にはユーザ発話が動詞を含むと判定し、動詞を含むものが7つ以下の場合にはユーザ発話は動詞を含まないと判定する。図6に示す解析結果では、10候補すべてが動詞を含むため、ユーザ発話には動詞が含まれると判定され、ステップ106に進む。
In
ステップ106では、動詞信頼度判定部14が、ユーザ発話に含まれる動詞が信頼できるか否かを判定し、信頼できる場合にはステップ126に進み、信頼できない場合にはステップ108に進む。本実施の形態では、動詞信頼度判定部14は、図6に示す解析結果の10候補のうち、その動詞を含むものが7つ以上の場合には信頼できると判定し、その動詞を含むものが6つ以下の場合には信頼できないと判定する。
In
図7は、図6の解析結果の候補に含まれる動詞と当該動詞を含む解析結果の候補の数を示す。図7に示されるように、解析結果の候補に含まれる動詞「行く」、「似る」、「言う」、「いる」、「煮る」は何れも7つ以上の解析結果の候補には含まれていないため、ユーザ発話に含まれる動詞は信頼できないと判定され、ステップ108に進む。 FIG. 7 shows the verbs included in the analysis result candidates of FIG. 6 and the number of analysis result candidates including the verbs. As shown in FIG. 7, the verbs “go”, “similar”, “say”, “is”, and “simmer” included in the analysis result candidates are all included in the seven or more analysis result candidates. Therefore, it is determined that the verb included in the user utterance is unreliable, and the process proceeds to step 108.
ステップ108では、感情質問生成部16が、ユーザが発話に含まれる動詞について発話を行うときに有すると考えられる感情を問う質問を生成する。具体的には、感情質問生成部16は、発話に含まれる動詞が何であるかにかかわらず、予め用意しているテンプレートに基づいて、例えば「へー、どんな気分だった?」を質問として生成する。
In
ステップ110では、出力部22が、生成された質問を出力する。
In
ステップ112では、入力部11が、出力部22によって出力された質問に対するユーザの発話が入力されたか否かを判定する。ユーザ発話が入力されて発話に応じた音声信号が生成されたときにはステップ114に進み、ユーザ発話が入力されないときにはユーザ発話が入力されるまでこの判断を繰り返す。本実施の形態では、ユーザ発話として「気持ちよかったよ」が入力されたものとし、これに応じた音声信号が生成されてステップ114に進む。
In
ステップ114では、第2の発話解析部17が、入力部11により生成された音声信号に基づき、感情を表現する単語及びそれらを修飾する単語が登録された認識用辞書データベースに登録された単語を参照してユーザ発話を認識する共に形態素解析を行う。この場合、ユーザに対して感情を問う質問をしているので、ユーザの発話の内容は感情を示すものに絞られることが期待できるため、感情を表現する複数の単語及びそれらの単語を修飾する複数の単語のみに特化した認識用辞書データベースを用いて認識することが可能となる。本実施の形態では、解析結果の最も確からしい候補として「気持ちよかった」が得られたとする。
In
ステップ116では、感情表現判定部19が、第2の発話解析部17による解析結果に感情表現が含まれているか否かを感情表現辞書18を用いて判定し、感情表現が含まれると判定された場合にはステップ118に進み、感情表現が含まれないと判定された場合にはステップ122に進む。本実施の形態では、図3には感情表現として「気持ちよい」が登録されているため、解析結果には「気持ちよかった」という感情表現が含まれると判定され、ステップ118に進む。
In
ステップ118では、感情表現応答生成部20が、その感情表現と図4に示す感情表現応答生成データベースに記憶された応答生成ルールに基づいて感情表現応答を生成する。本実施の形態では、感情表現応答生成部20は、感情表現応答生成データベースに記憶された感情表現「気持ちよかった」が表す感情が有し得る属性情報として「程度」を問う応答として、応答生成テンプレート「どれくらい〜なの?」を用いて「どれくらい気持ちよかったの?」を生成する。
In
ステップ120では、出力部22が、生成された感情表現応答を出力する。
In
一方、ステップ114において、第2の発話解析部17による解析結果の最も確からしい候補として「気持ち買った」が得られたとする。
On the other hand, it is assumed that “feeling bought” is obtained as the most probable candidate of the analysis result by the second utterance analysis unit 17 in
この場合には、ステップ116では、感情表現判定部19が、この解析結果に感情表現が含まれているか否かを感情表現辞書18を用いて判定する。その結果「気持ち買った」は図3に示す感情表現辞書18には登録されていないため、解析結果には感情表現が含まれないと判定され、ステップ122に進む。
In this case, in
ステップ122では、相槌生成部21が、相槌データベースに登録された相槌からランダムに選択し、例えば「そうなんだ」といった相槌を生成し、ステップ124では、出力部22が相槌を出力する。
In
また、本実施の形態の別の例として、「週末温泉に行った」というユーザ発話に対して、ステップ102において、第1の発話解析部12が、図8に示す10候補を選択したとする。
As another example of the present embodiment, it is assumed that the first
この場合には、ステップ104において、動詞判定部13が、図8の解析結果に基づいて、ユーザ発話に動詞が含まれるか否かを判定する。図8の10候補のすべてに動詞が含まれているため、上述の条件によってユーザ発話は動詞を含むと判定される。
In this case, in
ステップ106では、動詞信頼度判定部14が、ユーザ発話に含まれる動詞が信頼できるか否か、上述の条件に基づいて判定する。本例の場合は、図9に示すように「行く」という動詞が8つの候補に含まれるために信頼できると判定され、ステップ126に進む。
In
ステップ126では、応答生成部15が、ユーザ発話に対する入力発話応答を生成する。応答の生成方法は公知のいかなる手法を用いてもよいが、例えば、「行く」という動詞と予め用意されたテンプレート「〜んだぁ」とを用いて、「行ったんだぁ」という応答を生成する。あるいは、特開2007−206888号公報に記載された手法を適用して応答を生成してもよい。この手法では、応答生成部15は、ユーザ発話の解析結果の最も確からしい候補「週末温泉に行った」について格解析を行って格要素と述語を抽出し、格要素を確認する「温泉に行ったの?」や、省略された格要素を質問する「誰と行ったの?」などを応答として生成する。
In
ステップ128では、出力部22が応答を出力する。
In
以上のように、本実施の形態に係る音声対話装置は、ユーザ発話に含まれる動詞が信頼できない場合でも誤った応答を生成することがないため、破綻することなくユーザとの対話を継続することができる。更に、単純に相槌を返す場合と異なり、ユーザの感情を陽に質問することで、ユーザの次の発話を促すことが可能となり、対話の自然性も向上する。 As described above, the voice interaction apparatus according to the present embodiment does not generate an erroneous response even when the verb included in the user utterance is unreliable, and thus continues the conversation with the user without failing. Can do. In addition, unlike simply returning a conflict, by explicitly asking the user's emotions, it is possible to prompt the user's next utterance and improve the naturalness of the conversation.
11 入力部
12 第1の発話解析部
13 動詞判定部
14 動詞信頼度判定部
15 応答生成部
16 感情質問生成部
17 第2の発話解析部
18 感情表現辞書
19 感情表現判定部
20 感情表現応答生成部
21 相槌生成部
22 出力部
DESCRIPTION OF SYMBOLS 11
Claims (4)
前記入力手段により入力されたユーザによる最初の発話を解析する第1の発話解析手段と、
前記第1の発話解析手段による解析結果に動詞が含まれるか否かを判定する動詞判定手段と、
前記動詞判定手段により前記発話解析手段による解析結果に動詞が含まれていると判定されたときに、該動詞が信頼できるか否かを判定する動詞信頼度判定手段と、
前記動詞信頼度判定手段により前記動詞が信頼できると判定されたときに、予め定められた応答テンプレートと前記動詞とを用いて、前記最初の発話に対して応答を生成する応答生成手段と、
前記動詞信頼度判定手段により前記動詞が信頼できないと判定されたときに、予め定められた感情質問テンプレートを用いて、前記ユーザの最初の発話の感情を問う質問を生成する感情質問生成手段と、
前記応答生成手段により生成された応答及び前記感情質問生成手段により生成された質問を出力する出力手段と、
を備えた音声対話装置。 An input means for inputting a user's utterance;
First utterance analysis means for analyzing a first utterance by a user input by the input means;
Verb determining means for determining whether or not a verb is included in the analysis result by the first utterance analyzing means;
A verb reliability determination unit that determines whether or not the verb is reliable when the verb determination unit determines that the verb is included in the analysis result by the utterance analysis unit;
A response generation unit that generates a response to the first utterance using a predetermined response template and the verb when the verb reliability determination unit determines that the verb is reliable;
An emotional question generating means for generating a question asking the emotion of the user's first utterance using a predetermined emotional question template when the verb reliability determining means determines that the verb is unreliable;
An output means for outputting the response generated by the response generation means and the question generated by the emotion question generation means;
Spoken dialogue device with
感情を表現する単語を記憶した感情表現記憶手段と、
前記第2の発話解析手段による解析結果に前記感情表現記憶手段に記憶された感情を表現する単語が含まれるか否かを判定する感情表現判定手段と、
前記感情表現判定手段により前記感情応答解析手段による解析結果に感情を表現する単語が含まれると判定されたときに、予め定められた感情応答テンプレートと前記感情を表現する単語とを用いて、前記感情表現発話に対して応答文を生成する感情応答生成手段と、
前記感情表現判定手段により前記感情応答解析手段による解析結果に感情を表現する単語が含まれないと判定されたときに、予め定めた相槌を用いて前記感情表現発話に対する相槌を生成する相槌生成手段と、を更に備え、
前記出力手段は、前記感情応答生成手段により生成された応答文及び前記相槌生成手段により生成された相槌を出力する請求項1記載の音声対話装置。 Second utterance analysis means for analyzing the user's utterance input by the input means for the question output by the output means;
An emotional expression storage means for storing words expressing emotions;
Emotion expression determination means for determining whether or not a word expressing the emotion stored in the emotion expression storage means is included in the analysis result by the second utterance analysis means;
When it is determined by the emotion expression determination means that the analysis result by the emotion response analysis means includes a word expressing emotion, using a predetermined emotion response template and the word expressing the emotion, An emotion response generating means for generating a response sentence for an emotional expression utterance;
A conflict generating means for generating a conflict for the emotional expression utterance using a predetermined conflict when it is determined by the emotional expression determining unit that the analysis result by the emotion response analyzing unit does not include a word expressing the emotion And further comprising
The spoken dialogue apparatus according to claim 1, wherein the output unit outputs the response sentence generated by the emotion response generation unit and the interaction generated by the interaction generation unit.
入力されたユーザによる最初の発話を解析する発話解析手段、
前記発話解析手段による解析結果に動詞が含まれるか否かを判定する動詞判定手段、
前記動詞判定手段により前記発話解析手段による解析結果に動詞が含まれていると判定されたときに、該動詞が信頼できるか否かを判定する動詞信頼度判定手段、
前記動詞信頼度判定手段により前記動詞が信頼できると判定されたときに、予め定められた応答テンプレートと前記動詞とを用いて、前記最初の発話に対して応答を生成する応答生成手段、
前記動詞信頼度判定手段により前記動詞が信頼できないと判定されたときに、予め定められた感情質問テンプレートを用いて前記ユーザの最初の発話の内容に対応する感情を問う質問を生成する感情質問生成手段、
として機能させるための音声対話プログラム。 Computer
Utterance analysis means for analyzing the first utterance by the input user,
Verb determining means for determining whether or not a verb is included in the analysis result by the utterance analyzing means,
Verb reliability determination means for determining whether or not the verb is reliable when the verb determination means determines that the verb is included in the analysis result by the utterance analysis means,
A response generation unit that generates a response to the first utterance using a predetermined response template and the verb when the verb reliability determination unit determines that the verb is reliable;
Emotion question generation for generating a question asking an emotion corresponding to the content of the user's first utterance using a predetermined emotion question template when the verb reliability determination means determines that the verb is unreliable means,
Spoken dialogue program to function as.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008041201A JP2009198871A (en) | 2008-02-22 | 2008-02-22 | Voice interaction apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008041201A JP2009198871A (en) | 2008-02-22 | 2008-02-22 | Voice interaction apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009198871A true JP2009198871A (en) | 2009-09-03 |
Family
ID=41142405
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008041201A Pending JP2009198871A (en) | 2008-02-22 | 2008-02-22 | Voice interaction apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009198871A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013190957A1 (en) | 2012-06-19 | 2013-12-27 | 株式会社エヌ・ティ・ティ・ドコモ | Function execution instruction system, function execution instruction method, and function execution instruction program |
JP2019061098A (en) * | 2017-09-27 | 2019-04-18 | カシオ計算機株式会社 | Dialogue device, server device, dialogue method and program |
CN117711444A (en) * | 2024-02-05 | 2024-03-15 | 新励成教育科技股份有限公司 | Interaction method, device, equipment and storage medium based on talent expression |
-
2008
- 2008-02-22 JP JP2008041201A patent/JP2009198871A/en active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013190957A1 (en) | 2012-06-19 | 2013-12-27 | 株式会社エヌ・ティ・ティ・ドコモ | Function execution instruction system, function execution instruction method, and function execution instruction program |
US9361063B2 (en) | 2012-06-19 | 2016-06-07 | Ntt Docomo, Inc. | Function execution instruction system, function execution instruction method, and function execution instruction program |
JP2019061098A (en) * | 2017-09-27 | 2019-04-18 | カシオ計算機株式会社 | Dialogue device, server device, dialogue method and program |
CN117711444A (en) * | 2024-02-05 | 2024-03-15 | 新励成教育科技股份有限公司 | Interaction method, device, equipment and storage medium based on talent expression |
CN117711444B (en) * | 2024-02-05 | 2024-04-23 | 新励成教育科技股份有限公司 | Interaction method, device, equipment and storage medium based on talent expression |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5195405B2 (en) | Response generating apparatus and program | |
CN112262430A (en) | Automatically determining language for speech recognition of a spoken utterance received via an automated assistant interface | |
WO2016067418A1 (en) | Conversation control device and conversation control method | |
JP5195414B2 (en) | Response generating apparatus and program | |
Johar | Emotion, affect and personality in speech: The Bias of language and paralanguage | |
JP2013205842A (en) | Voice interactive system using prominence | |
JP4729902B2 (en) | Spoken dialogue system | |
KR101534413B1 (en) | Method and apparatus for providing counseling dialogue using counseling information | |
JP2010020390A (en) | Emotion estimation device and emotion estimation program | |
US9653078B2 (en) | Response generation method, response generation apparatus, and response generation program | |
JP2007206888A (en) | Apparatus, method and program for generating answer | |
JP5044783B2 (en) | Automatic answering apparatus and method | |
JP5073024B2 (en) | Spoken dialogue device | |
JP2010197644A (en) | Speech recognition system | |
JP2009198871A (en) | Voice interaction apparatus | |
WO2017094913A1 (en) | Natural language processing device and natural language processing method | |
JP5636309B2 (en) | Voice dialogue apparatus and voice dialogue method | |
Pakoci et al. | Language model optimization for a deep neural network based speech recognition system for Serbian | |
JP2010282404A (en) | Device, method and program for interactive processing | |
JP2010224153A (en) | Speech interaction device and program | |
JP2008152637A (en) | Response generation apparatus and response generation program | |
Yamane et al. | Development of non-task-oriented dialogue system for human friendly robots | |
JP2017010207A (en) | Apparatus for determining desire to continue topic, method, and program | |
JP6287754B2 (en) | Response generation apparatus, response generation method, and response generation program | |
Breen et al. | Voice in the user interface |