JP6295869B2 - 応答生成装置、応答生成方法及びプログラム - Google Patents

応答生成装置、応答生成方法及びプログラム Download PDF

Info

Publication number
JP6295869B2
JP6295869B2 JP2014149365A JP2014149365A JP6295869B2 JP 6295869 B2 JP6295869 B2 JP 6295869B2 JP 2014149365 A JP2014149365 A JP 2014149365A JP 2014149365 A JP2014149365 A JP 2014149365A JP 6295869 B2 JP6295869 B2 JP 6295869B2
Authority
JP
Japan
Prior art keywords
response
voice
speech
keyword
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014149365A
Other languages
English (en)
Other versions
JP2016024384A (ja
Inventor
生聖 渡部
生聖 渡部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2014149365A priority Critical patent/JP6295869B2/ja
Publication of JP2016024384A publication Critical patent/JP2016024384A/ja
Application granted granted Critical
Publication of JP6295869B2 publication Critical patent/JP6295869B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Machine Translation (AREA)

Description

本発明は、ユーザに対して応答を行う応答生成装置、応答生成方法及びプログラムに関するものである。
ユーザの音声を認識する音声認識手段と、音声認識手段により認識された音声の構造を解析する構造解析手段と、構造解析手段により解析された音声の構造に基づいて、ユーザの音声に対する応答文を生成し、該生成した応答文を出力する応答出力手段と、を備える応答生成装置が知られている(例えば、特許文献1参照)。
特開2010−157081号公報
しかしながら、上記のような応答生成装置は、音声の構造解析及びその応答文の生成に時間を要し、応答待ちが生じる。このため、対話に違和感が生じる虞がある。
本発明は、このような問題点を解決するためになされたものであり、応答待ちによる対話の違和感を緩和することができる応答生成装置、応答生成方法及びプログラムを提供することを主たる目的とする。
上記目的を達成するための本発明の一態様は、ユーザの音声を認識する音声認識手段と、前記音声認識手段により認識された音声の構造を解析する構造解析手段と、前記構造解析手段により解析された音声の構造に基づいて、前記ユーザの音声に対する応答文を生成し、該生成した応答文を出力する応答出力手段と、を備える応答生成装置であって、複数のキーワードと、該各キーワードの品詞と、付加語尾と、を夫々対応付けた付加情報を記憶する記憶手段と、前記音声認識手段により認識されたユーザの音声から前記キーワード及び該キーワードの品詞を抽出し、前記記憶手段の付加情報に基づいて前記抽出したキーワード及び品詞に対応した前記付加語尾を選択し、前記抽出したキーワードに対して前記選択した付加語尾を付加することで、繰返しの応答文を生成する繰返生成手段と、を備え、前記応答出力手段は、前記音声の構造に基づいた応答文を出力する前に、前記繰返生成手段により生成された繰返しの応答文を出力する、ことを特徴とする応答生成装置である。
本発明によれば、応答待ちによる対話の違和感を緩和することができる応答生成装置、応答生成方法及びプログラムを提供することができる。
本発明の実施形態1に係る応答生成装置の概略的なシステム構成を示すブロック図である。 メモリに記憶された付加情報の一例である。 本発明の実施形態1に係る応答生成方法の処理フローを示すフローチャートである。 本発明の実施形態2に係る応答生成装置の概略的なシステム構成を示すブロック図である。 本発明の実施形態2に係る応答生成方法の処理フローを示すフローチャートである。
実施形態1
以下、図面を参照して本発明の実施の形態について説明する。図1は、本発明の実施形態1に係る応答生成装置の概略的なシステム構成を示すブロック図である。本実施形態1に係る応答生成装置1は、ユーザの音声を認識する音声認識部2と、音声の構造を解析する構造解析部と3、ユーザの音声に対する応答文を生成し、出力する応答出力部4と、繰返しの応答文を生成する繰返生成部5と、を備えている。
なお、応答生成装置1は、例えば、演算処理等と行うCPU(Central Processing Unit)、CPUによって実行される演算プログラム、制御プログラム等が記憶されたROM(Read Only Memory)やRAM(Random Access Memory)からなるメモリ、外部と信号の入出力を行うインターフェイス部(I/F)、などからなるマイクロコンピュータを中心にして、ハードウェア構成されている。CPU、メモリ、及びインターフェイス部は、データバスなどを介して相互に接続されている。
音声認識部2は、音声認識手段の一具体例であり、マイク6により取得されたユーザの音声情報に基づいて音声認識処理を行い、ユーザの音声情報をテキスト化し文字列情報として認識する。音声認識部2は、マイク6から出力されるユーザの音声情報から発話区間を検出し、検出した発話区間の音声情報に対して、例えば、統計言語モデルを参照してパターンマッチングを行うことで音声認識を行う。ここで、統計言語モデルは、例えば、単語の出現分布やある単語の次に出現する単語の分布等、言語表現の出現確率を計算するための確率モデルであり、形態素単位で連結確率を学習したものである。統計言語モデルは、上記メモリなどに予め記憶されている。音声認識部2は、認識したユーザの音声情報を構造解析部3及び繰返生成部5に出力する。
構造解析部3は、構造解析手段の一具体例であり、音声認識部2により認識された音声情報の構造を解析する。構造解析部3は、例えば、一般的な形態素解析器を用いて音声認識されたユーザの音声情報を示す文字列情報に対して形態素解析などを行い、文字列情報の意味解釈を行う。構造解析部3は、文字列情報の解析結果を応答出力部4に出力する。
応答出力部4は、応答出力手段の一具体例であり、構造解析部3により解析された音声情報の構造に基づいて、ユーザの音声情報に対する応答文(以下、随意応答文と称す)を生成し、該生成した随意応答文を出力する。応答出力部4は、例えば、構造解析部3から出力される文字列情報の解析結果に基づいて、ユーザの音声情報に対する随意応答文を生成する。そして、応答出力部4は、生成した応答文をスピーカ7を用いて出力する。
より、具体的には、構造解析部3は、文字列情報「トンカツ を 食べる」において、述語項構造を抽出し、述語「食べる」と格助詞「を」を特定する。そして、応答出力部4は、構造解析部3により特定された述語「食べる」に係り得る格助詞の種類を、述語と格助詞との対応関係が記憶された不足格辞書データベース8の中から抽出する。なお、不足格辞書データベース8は、例えば、上記メモリに構築されている。
応答出力部4は、例えば、「何 を 食べる」、「どこ で 食べる」、「いつ に 食べる」、「誰 と 食べる」とういう述語項構造を、随意応答文として生成する。さらに、応答出力部4は、上記生成した述語項構造の中で、ユーザの音声と一致しない表層格「を」を除いた、他の述語項構造の中からランダムに選択し、選択した述語項構造を随意応答文とする。応答出力部4は、例えば、「誰と食べたの?」という述語項構造を選択し、随意応答文として出力する。なお、上述した随意応答文の生成方法は一例であり、これに限定されず、任意の生成方法を用いることができる。
ところで、上述したような、音声情報の構造解析、及びその応答文の生成には時間を要し(例えば、3秒程度)、処理コストが高い。このため、応答待ちが生じ、対話に違和感が生じる虞がある。
これに対し、本実施の形態1に係る応答生成装置1において、繰返生成部5は、音声認識部2により認識されたユーザの音声から、繰返しの応答文(以下、繰返応答文と称す)を生成する。そして、応答出力部4は、音声の構造に基づいた随意応答文を出力する前に、繰返生成部5により生成された繰返応答文を出力する。
これにより、繰返応答文は、認識されたユーザの音声をオウム返しで繰り返すだけなので生成時間を要せず(例えば、1秒程度)、処理コストが低い。したがって、上記処理コストが高い随意応答文を出力するまでの応答待ちの間に、処理コストが低い繰返応答文を出力することができる。したがって、応答待ちによって生じる対話の間が大きいことによる対話の違和感を緩和することができる。
繰返生成部5は、音声認識部2により認識された音声情報を、オウム返しを行うための繰返応答文として生成する。ここで、ユーザの音声を全く変えずにそのままオウム返しするよりも、ユーザの音声情報に特定の付加語尾を付加してオウム返しをした方が、より対話の自然性が向上する。例えば、ユーザの発話「海に行ったよ」に対して、応答生成装置1が単にそのまま「海に行ったよ」と応答するよりも、「海かぁ」と応答した方がより対話の自然性が向上する。
したがって、本実施の形態1に係る繰返生成部5は、音声認識部2により認識されたユーザの音声情報からキーワードを抽出し、抽出したキーワードに対して特定の付加語尾を付加することで、繰返応答文を生成する。
例えば、複数のキーワードと、各キーワードの品詞と、付加語尾と、を夫々対応付けた付加情報がメモリに記憶されている。繰返生成部5は、音声認識部により認識されたユーザの音声情報からキーワード及び該キーワードの品詞を抽出する。繰返生成部5は、メモリに記憶された付加情報に基づいて抽出したキーワード及び品詞に対応した付加語尾を選択する。繰返生成部5は、抽出したキーワードに対して選択した付加語尾を付加することで、繰返応答文を生成する。
より具体的には、繰返生成部5は、音声認識部2により認識された音声の文字列情報「トンカツを食べたよ」から、キーワード「トンカツ」及び該キーワードの品詞「名詞」、キーワード「を」及び該キーワードの品詞「助詞」、キーワード「食べた」及び該キーワードの品詞「動詞」、キーワード「よ」及び該キーワードの品詞「助詞」、を抽出する。さらに、繰返生成部5は、抽出したこれらキーワード及び品詞の中から、キーワード「トンカツ」及び品詞「名詞」を選択し、メモリの付加情報に基づいて、抽出したキーワード「トンカツ」及び品詞「名詞」に対応した付加語尾「かぁ」を選択する。ここで、繰返生成部5は、音声認識部2により認識された音声の文字列情報から、上述のように、名詞又は形容詞のキーワードを任意に抽出し、対応した付加語尾を選択する。
図2は、メモリに記憶された付加情報の一例である。図2に示す付加情報において、キーワードがワイルドカード「*」になっている場合、全てのキーワードが対象となる。したがって、繰返生成部5は、キーワード「トンカツ」及び品詞「名詞」を抽出した場合、付加情報を参照して、付加語尾「かぁ」及び「なんだ」のうちの一方をランダムに選択する。
繰返生成部5は、抽出したキーワード及び品詞に対応する付加語尾が複数存在する場合、予め設定された優先順位に従って選択してもよい。同様に、繰返生成部5は、音声認識部2により認識された音声の文字列情報から、例えば、キーワード「やった」及び品詞「感動詞」を選択した場合、付加情報に基づいて、キーワード「やった」及び品詞「感動詞」に対応する付加語尾「ね」を選択する。なお、キーワードだけでなく、品詞も同時に抽出することで、上記のような「やった」を感動詞の「やった」と動詞「やった」とで区別することができる。
音声認識部2は、例えば、認識したユーザの音声の文字列情報「美味しかった」に、その活用前の原型「美味しい」を付加して、繰返生成部5に出力してもよい。この場合、繰返生成部5は、キーワード「美味しい」及び品詞「形容詞」を抽出する。繰返生成部5は、付加情報に基づいて、キーワード「美味しい」及び品詞「形容詞」に対応する付加語尾「のか」を選択する。
繰返生成部5は、上述のように、キーワード「トンカツ」及び品詞「名詞」を抽出する。そして、繰返生成部5は、付加情報を参照して、キーワード「トンカツ」及び品詞「名詞」に対応する付加語尾「かぁ」をランダムに選択する。最後に、繰返生成部5は、抽出したキーワード「トンカツ」に対して選択した付加語尾「かぁ」を付加することで、繰返応答文「トンカツかぁ」を生成する。ここで、繰返生成部5は、例えば、抽出したキーワードを2回繰返したもの「トンカツ、トンカツ」に付加語尾「かぁ」を付加して繰返応答文「トンカツ、トンカツかぁ」を生成してもよい。これにより、対話のテンポ感が高まり、対話の自然性がより向上する。
上述のように、繰返生成部5は、ユーザの音声情報からキーワード及び品詞を抽出し、付加情報に基づいてキーワード及び品詞に対応した付加語尾を選択し、キーワードに付加語尾を付加するだけの処理で繰返応答文を生成する。したがって、簡易な処理で繰返応答文を生成できるため、処理コストを低く抑えることができる。さらに、ユーザの音声を単にオウム返しするだけでなく、ユーザの音声情報に応じて、適切に付加語尾を付加して多様なオウム返しができるため、対話の自然性をより向上させることができる。
繰返生成部5は、生成した繰返応答文を応答出力部4に出力する。そして、応答出力部4は、構造解析部3から出力される文字列情報の解析結果に基づいて生成した随意応答文の前に、繰返生成部5から出力された繰返応答文をスピーカ7から出力する。このように、処理コストの異なる複数の応答文を並列で生成し、その生成順に応答文を出力する。これにより、対話の連続性を維持してそのテンポを損なわない対話を実現できる。
図3は、本実施形態1に係る応答生成方法の処理フローを示すフローチャートである。
音声認識部2は、マイク6により取得されたユーザの音声情報の音声認識を行い(ステップS101)、認識したユーザの音声情報を構造解析部3及び繰返生成部5に出力する。
繰返生成部5は、音声認識部2により認識されたユーザの音声情報からキーワード及び該キーワードの品詞を抽出する。繰返生成部5は、メモリに記憶された付加情報に基づいて抽出したキーワード及び品詞に対応した付加語尾を選択する。繰返生成部5は、抽出したキーワードに対して選択した付加語尾を付加することで、繰返応答文を生成する(ステップS102)。繰返生成部5は、生成した繰返応答文を応答出力部4に出力する。
応答出力部4は、繰返生成部5から出力された繰返応答文をスピーカ7から出力する(ステップS103)。
上記(ステップ102)及び(ステップ103)と平行して、構造解析部3は、音声認識部2により認識された音声情報の構造を解析し(ステップS104)、その文字列情報の解析結果を応答出力部4に出力する。
応答出力部4は、構造解析部3から出力される文字列情報の解析結果に基づいて随意応答文を生成し(ステップS105)、生成した随意応答文をスピーカ7から出力する(ステップS106)。
以上、本実施形態1に係る応答生成装置1において、認識されたユーザの音声から繰返応答文を生成し、音声の構造に基づいた随意応答文を出力する前に、繰返応答文を出力する。これにより、処理コストが高い随意応答文を出力するまでの応答待ちの間に、処理コストが低い繰返応答文を出力することができる。したがって、応答待ちによって生じる対話の間が大きいことによる対話の違和感を緩和することができる。
さらに、本実施の形態1に係る応答生成装置1においては、ユーザの音声情報からキーワード及び品詞を抽出し、付加情報に基づいてキーワード及び品詞に対応した付加語尾を選択し、キーワードに付加語尾を付加するだけで繰返応答文を生成する。これにより、簡易な処理で繰返応答文を生成でき、処理コストを低く抑えることができる。したがって、上述のように随意応答文を出力するまでの応答待ちの間に、その繰返応答文を出力することができ、対話の違和感を緩和することができる。 さらに、ユーザの音声を単にオウム返しするだけでなく、ユーザの音声情報に応じて、適切に付加語尾を付加して多様なオウム返しができるため、対話の自然性をより向上させることができる。
実施形態2.
図4は、本発明の実施形態2に係る応答生成装置の概略的なシステム構成を示すブロック図である。本実施形態2に係る応答生成装置20は、上記実施形態1に係る応答生成装置1の構成に加えて、ユーザの音声情報の音韻を分析する音韻分析部21と、ユーザの音声情報に対する相槌の応答を生成する相槌生成部22と、を更に備える点を特徴とする。
音韻分析部21は、音韻分析手段の一具体例であり、マイク6により取得されたユーザの音声情報に基づいてユーザの音声情報の音韻を分析する。例えば、音韻分析部21は、音声情報の音量レベル変化や周波数変化(基本周波数等)を検出することで、ユーザの音声の切れ目を推定する。音韻分析部21は、音韻の分析結果を相槌生成部22に出力する。
相槌生成部22は、相槌生成手段の一具体例であり、音韻分析部21から出力される音韻の分析結果に基づいてユーザの音声に対する相槌の応答(以下、相槌応答と称す)を生成する。例えば、相槌生成部22は、音声情報の音量レベルが閾値以下となったとき、相槌のパターンが記憶された定型応答データベース23を検索し、ランダムに相槌を選択する。定型応答データベース23は、「うん。うん。」、「なるほど。」、「ふーん。」などの相槌に用いられる複数のパターンが記憶されている。定型応答データベース23は、上記メモリなどに構築されている。相槌生成部22は、生成した相槌応答を応答出力部4に出力する。
応答出力部4は、繰返生成部5により生成された繰返応答文の前に、相槌生成部22により生成された相槌応答をスピーカ7から出力させる。
例えば、音韻分析部21は音量レベル変化をリアルタイムに検出できる。また、音韻分析部21が周波数変化を検出する際の周波数計算量は、パターンパターンマッチングよりも少なく、処理遅延が少ない。このように音韻分析部21は、処理コストの低い特徴量を用いて音韻分析を行っている。このため、その相槌応答の生成時間は、上記繰返応答文の生成時間より短く(例えば、300msec程度)、処理コストがより低い。
したがって、上記繰返応答文を出力するまでの間に、より処理コストが低い相槌応答を出力することができる。これにより、対話間の繋がりがよりスムーズになり、対話の違和感をより緩和することができる。さらに、処理コストの異なるより多くの応答及び応答文を並列で生成し、その生成順に出力する。すなわち、ユーザの発話に対し、相槌応答、繰返応答文、および随意応答文を連続的に出力する。これにより、対話の連続性をより滑らかに維持しそのテンポ感を損なわないより自然な対話を実現できる。
なお、本実施形態2に係る応答生成装置20において、上記実施形態1に係る応答生成装置1と同一部分に同一符号を付して詳細な説明は省略する。
以下、応答生成装置20とユーザとの対話の一例を示す。下記一例において、Mは、応答生成装置20の応答文及び応答であり、Uはユーザの発話である。
M(話題提供):お昼何を食べたの?
U:トンカツを食べたよ。
M(相槌応答):うん。うん。
M(繰返応答文):トンカツ、トンカツかぁ。
M(随意応答文):誰と食べたのかな?
U:友達と食べたよ。
M(相槌応答):そうなんだ。
M(繰返応答文):友達なんだぁ。
M(随意応答文):どこで食べたのかな?
U:矢場とんで食べたよ。
M(相槌応答):なるほど。
M(繰返応答文):矢場とんね。
M(随意応答文):食べたね。
U:美味しかったよ。
M(相槌応答):ふーん。
M(繰返応答文):美味しかったのか。
M(随意応答文):それはいいね。○○さん。
上記対話の一例が示すように、ユーザが発話すると、この発話に対して、応答生成装置20の相槌応答、繰返応答文、及び随意応答文がテンポよく連続し、対話間の繋がりがよりスムーズになることが分かる。また、繰返応答文に付加した付加語尾に多様性を持たせることで、対話の自然性がより向上していることが分かる。
図5は、本実施形態2に係る応答生成方法の処理フローを示すフローチャートである。
音韻分析部21は、マイク6により取得されたユーザの音声情報に基づいてユーザの音声情報の音韻を分析し(ステップS201)、その音韻の分析結果を相槌生成部22に出力する。
相槌生成部22は、音韻分析部21から出力される音韻の分析結果に基づいてユーザの音声に対する相槌応答を生成し(ステップS202)、生成した相槌応答を応答出力部4に出力する。
応答出力部4は、相槌生成部22から出力された相槌の応答をスピーカ7から出力する(ステップS203)。
上記(ステップS201)乃至(ステップ203)の処理と平行して、音声認識部2は、マイク6により取得されたユーザの音声情報の音声認識を行い(ステップS204)、認識したユーザの音声情報を構造解析部3及び繰返生成部5に出力する。
繰返生成部5は、音声認識部2により認識されたユーザの音声情報からキーワード及び該キーワードの品詞を抽出する。繰返生成部5は、メモリに記憶された付加情報に基づいて抽出したキーワード及び品詞に対応した付加語尾を選択する。繰返生成部5は、抽出したキーワードに対して選択した付加語尾を付加することで、繰返応答文を生成する(ステップS205)。繰返生成部5は、生成した繰返応答文を応答出力部4に出力する。
応答出力部4は、繰返生成部5から出力された繰返応答文をスピーカ7から出力する(ステップS206)。
上記(ステップ205)及び(ステップS206)の処理と平行して、構造解析部3は、音声認識部2により認識された音声情報の構造を解析し(ステップS207)、その文字列情報の解析結果を応答出力部4に出力する。
応答出力部4は、構造解析部3から出力される文字列情報の解析結果に基づいて随意応答文を生成し(ステップS208)、生成した随意応答文をスピーカ7から出力する(ステップS209)。
以上、本実施形態2において、ユーザの音声情報の音韻を分析し、その分析結果に基づいて、ユーザの音声情報に対する相槌応答を生成し、繰返応答文を出力する前に生成した相槌応答を出力する。これにより、繰返応答文を出力するまでの間に、より処理コストが低い相槌応答を出力することができる。これにより、対話間の繋がりがよりスムーズになり、対話の違和感をより緩和することができる。
なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。
上記実施形態において、応答出力部4は相槌生成部22により生成された相槌応答をスピーカ7から出力させているが、これに限られない。応答出力部4は、相槌生成部22により生成された相槌応答に基づいて、処理負荷の低い任意の応答を行っても良い。例えば、応答出力部4は、振動装置の振動、ライト装置の点灯/点滅、表示装置の表示、ロボットの手足、頭部、胴体など各部の動作などをおこなってもよい。
また、本発明は、例えば、図3及び図5に示す処理を、CPUにコンピュータプログラムを実行させることにより実現することも可能である。
プログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD−ROM(Read Only Memory)、CD−R、CD−R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(random access memory))を含む。
また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
1 応答生成装置、2 音声認識部、3 構造解析部、4 応答出力部、5 繰返生成部、6 マイク、7 スピーカ、8 不足格辞書データベース、21 音韻分析部、22 相槌生成部、23 定型応答データベース

Claims (1)

  1. ユーザの音声を認識する音声認識手段と、
    前記音声認識手段により認識された音声の構造を解析する構造解析手段と、
    前記構造解析手段により解析された音声の構造に基づいて、前記ユーザの音声に対する応答文を生成し、該生成した応答文を出力する応答出力手段と、を備える応答生成装置であって、
    複数のキーワードと、該各キーワードの品詞と、付加語尾と、を夫々対応付けた付加情報を記憶する記憶手段と、
    前記音声認識手段により認識されたユーザの音声から前記キーワード及び該キーワードの品詞を抽出し、前記記憶手段の付加情報に基づいて前記抽出したキーワード及び品詞に対応した前記付加語尾を選択し、前記抽出したキーワードに対して前記選択した付加語尾を付加することで、繰返しの応答文を生成する繰返生成手段と、
    を備え、
    前記応答出力手段は、前記音声の構造に基づいた応答文を出力する前に、前記繰返生成手段により生成された繰返しの応答文を出力する、ことを特徴とする応答生成装置。
JP2014149365A 2014-07-23 2014-07-23 応答生成装置、応答生成方法及びプログラム Active JP6295869B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014149365A JP6295869B2 (ja) 2014-07-23 2014-07-23 応答生成装置、応答生成方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014149365A JP6295869B2 (ja) 2014-07-23 2014-07-23 応答生成装置、応答生成方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2016024384A JP2016024384A (ja) 2016-02-08
JP6295869B2 true JP6295869B2 (ja) 2018-03-20

Family

ID=55271154

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014149365A Active JP6295869B2 (ja) 2014-07-23 2014-07-23 応答生成装置、応答生成方法及びプログラム

Country Status (1)

Country Link
JP (1) JP6295869B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6828667B2 (ja) 2017-11-28 2021-02-10 トヨタ自動車株式会社 音声対話装置、音声対話方法及びプログラム
JP6943158B2 (ja) 2017-11-28 2021-09-29 トヨタ自動車株式会社 応答文生成装置、方法及びプログラム並びに音声対話システム
JP6773074B2 (ja) * 2018-05-01 2020-10-21 トヨタ自動車株式会社 応答生成方法、応答生成装置及び応答生成プログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62293298A (ja) * 1986-06-13 1987-12-19 株式会社東芝 マンマシン対話装置
US5991726A (en) * 1997-05-09 1999-11-23 Immarco; Peter Speech recognition devices
JP2009193448A (ja) * 2008-02-15 2009-08-27 Oki Electric Ind Co Ltd 対話システム、方法及びプログラム
JP5195414B2 (ja) * 2008-12-26 2013-05-08 トヨタ自動車株式会社 応答生成装置及びプログラム
JP5212204B2 (ja) * 2009-03-19 2013-06-19 トヨタ自動車株式会社 応答生成装置及びプログラム
JP5136512B2 (ja) * 2009-05-08 2013-02-06 トヨタ自動車株式会社 応答生成装置及びプログラム

Also Published As

Publication number Publication date
JP2016024384A (ja) 2016-02-08

Similar Documents

Publication Publication Date Title
JP6390264B2 (ja) 応答生成方法、応答生成装置及び応答生成プログラム
KR102161579B1 (ko) 응답문 생성 장치, 방법 및 프로그램, 그리고 음성 대화 시스템
CN108630203B (zh) 语音交互设备及其处理方法和程序
US11289083B2 (en) Electronic apparatus and method for controlling thereof
JP2017058513A (ja) 学習装置、音声合成装置、学習方法、音声合成方法、学習プログラム及び音声合成プログラム
CN109949791A (zh) 基于hmm的情感语音合成方法、装置及存储介质
JP6828667B2 (ja) 音声対話装置、音声対話方法及びプログラム
JP6295869B2 (ja) 応答生成装置、応答生成方法及びプログラム
JP6299563B2 (ja) 応答生成方法、応答生成装置及び応答生成プログラム
JPWO2016103652A1 (ja) 音声処理装置、音声処理方法、およびプログラム
Koriyama et al. On the use of extended context for HMM-based spontaneous conversational speech synthesis
Tsiakoulis et al. Dialogue context sensitive HMM-based speech synthesis
JP2016080981A (ja) 応答生成装置、応答生成方法及び応答生成プログラム
JP6070809B1 (ja) 自然言語処理装置及び自然言語処理方法
JP6287754B2 (ja) 応答生成装置、応答生成方法及び応答生成プログラム
JP6176137B2 (ja) 音声対話装置、音声対話システム及びプログラム
JP6773074B2 (ja) 応答生成方法、応答生成装置及び応答生成プログラム
Anumanchipalli et al. Accent group modeling for improved prosody in statistical parameteric speech synthesis
KR20200056261A (ko) 전자 장치 및 이의 제어 방법
Nose et al. HMM-based speaker characteristics emphasis using average voice model.
Gorman Automatic detection of turn-taking cues in spontaneous speech based on prosodic factors
董良 Study on Post-processing Method for HMM-based Phonetic Segmentation using Adaptive Neuro Fuzzy Inference system
Hirose et al. Using FO Contour Generation Process Model for Improved and Flexible Control of Prosodic Features in HMM-based Speech Synthesis

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171211

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180123

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180205

R151 Written notification of patent or utility model registration

Ref document number: 6295869

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151