JP2018200386A - 音声対話装置 - Google Patents

音声対話装置 Download PDF

Info

Publication number
JP2018200386A
JP2018200386A JP2017104766A JP2017104766A JP2018200386A JP 2018200386 A JP2018200386 A JP 2018200386A JP 2017104766 A JP2017104766 A JP 2017104766A JP 2017104766 A JP2017104766 A JP 2017104766A JP 2018200386 A JP2018200386 A JP 2018200386A
Authority
JP
Japan
Prior art keywords
user
sound pressure
unit
pressure level
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017104766A
Other languages
English (en)
Other versions
JP6801587B2 (ja
Inventor
達朗 堀
Tatsuro Hori
達朗 堀
生聖 渡部
Seisho Watabe
生聖 渡部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2017104766A priority Critical patent/JP6801587B2/ja
Publication of JP2018200386A publication Critical patent/JP2018200386A/ja
Application granted granted Critical
Publication of JP6801587B2 publication Critical patent/JP6801587B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

【課題】ユーザの発話を遮ってしまう可能性を低減することができる音声対話装置を提供する。【解決手段】ユーザの音声を入力する入力部110と、ユーザに対して音声を出力する出力部120とを備えるロボット100であって、少なくとも入力部110によって入力された音声の音声波形から特徴量を抽出するユーザ音声解析部131と、出力部120がユーザに対してフィラーを出力する際に、ユーザ音声解析部131によって抽出された特徴量に基づいてフィラーを出力する信頼度を示す値Ivを計算し、フィラーを出力する信頼度を示す値Ivに基づいてフィラーの音圧レベルを決定する音圧レベル決定部132と、を備える。【選択図】図1

Description

本発明は、音声対話装置に関する。
特許文献1には、ユーザの発話の音声波形から韻律的特徴を抽出し、当該韻律的特徴に基づいて音声対話システムに発話権があるか否かを判定することが記載されている。
特開2016−038501号公報
特許文献1に記載の音声対話システムでは、当該音声対話システムに発話権があるか否かがあいまいな場合にもフィラー(相槌)を出力して当該音声対話システムに発話権があることを主張する場合がある。しかし、実際には、音声対話システムに発話権がなかった場合、当該フィラーを出力すると、ユーザの発話を遮ってしまう結果となる可能性がある。
本発明は、このような問題を解決するためになされたものであり、ユーザの発話を遮ってしまう可能性を低減することができる音声対話装置を提供することを目的とするものである。
本発明に係る音声対話装置は、ユーザの音声を入力する入力部と、前記ユーザに対して音声を出力する出力部とを備える。また、前記音声対話装置は、少なくとも前記入力部によって入力された前記音声の音声波形から特徴量を抽出するユーザ音声解析部と、前記出力部が前記ユーザに対してフィラーを出力する際に、前記ユーザ音声解析部によって抽出された前記特徴量に基づいて前記フィラーを出力する信頼度を示す値を計算し、前記フィラーを出力する信頼度を示す値に基づいて前記フィラーの音圧レベルを決定する音圧レベル決定部と、を備える。
本発明に係る音声対話装置によれば、音圧レベル決定部によって、ユーザ音声解析部によって抽出された特徴量に基づいて前記フィラーを出力する信頼度を示す値が計算され、前記フィラーを出力する信頼度を示す値に基づいて前記フィラーの音圧レベルが決定される。そのため、フィラーを出力する信頼度を示す値に応じた音圧レベルで前記出力部はフィラーを出力することができる。そして、フィラーを出力する信頼度は、発話権が音声対話装置にある可能性と正の相関関係にある。すなわち、発話権が音声対話装置にある否かがあいまいな場合であっても、発話権が音声対話装置にある可能性に応じた音圧レベルで前記出力部はフィラーを出力することができる。そのため、発話権が音声対話装置にある可能性が低い場合には出力部は小さい音圧レベルでフィラーを出力することとなり、出力部が出力したフィラーによってユーザの発話を遮ることを低減できる。これにより、ユーザの発話を遮ってしまう可能性を低減することができる音声対話装置を提供することができる。
本発明の実施の形態1に係るロボットの概略構成を示すブロック図である。 本発明の実施の形態1に係るユーザの発話区間の終了部分を示すグラフである。 本発明の実施の形態1に係る特徴量ベクトルの各要素の一例を示す表である。 本発明の実施の形態1に係るオフライン学習による判定モデルの作成におけるサブセットの作成を説明する図である。 本発明の実施の形態1に係るオフライン学習による判定モデルの作成における分岐関数候補の生成を説明する図である。 本発明の実施の形態1に係るオフライン学習による判定モデルの作成における分岐関数候補の決定を説明する図である。 本発明の実施の形態1に係る判定モデルを用いた、フィラーを出力する信頼度の決定を説明する図である。 本発明の実施の形態1に係る特徴量ベクトルの一部の要素であるユーザ発話長さと沈黙又はフィラーの頻度との関係を示すグラフの一例である。 本発明の実施の形態1に係る特徴量ベクトルの一部の要素であるユーザ発話長さとフィラーを出力する割合との関係を示す表の一例である。 本発明の実施例1に係るユーザとロボットとの会話の一例を示す図である。 本発明の実施例1に係る特徴量ベクトルの各要素の一例を示す表である。 図10に示す会話の例において、ロボットが出力するフィラーの音声波形を示すグラフである。
実施の形態1
以下、図面を参照して本発明の実施の形態について説明する。図1は、本発明の実施の形態1に係る音声対話装置としてのロボット100の概略構成を示すブロック図である。実施の形態1に係るロボット100は、図1に示すように、入力部110、出力部120、制御部130を備える。制御部130は、ユーザ音声解析部131、音圧レベル決定部132等を備える。音圧レベル決定部132は、手法選択部132A、音圧レベル設定パラメータ計算部132B、学習用データベース(学習用DB)132C、オフライン学習部132D、判定モデル及び条件分岐式データベース(判定モデル及び条件分岐式DB)132E、音声合成部132Fを備える。ロボット100は、ユーザの発話に応じて、応答としての音声を出力したり、フィラーを出力したりする。ここで、発話とは、対話内容として意味を持つ音声である。また、フィラーとは、相槌であり、ユーザの一の発話と次の発話との間に発する繋ぎの音声である。
入力部110は、マイク等を備え、ユーザの音声を集音し、ユーザの音声をユーザ音声解析部131に入力する。
出力部120は、スピーカー等を備え、ロボット100からユーザに対して発話である音声を出力したり、フィラーを出力したりする。具体的には、後述する音声合成部132Fによって合成された音声を出力する。また、本実施の形態において、音声合成部132Fは、音圧レベル決定部132から入力された音圧レベル設定パラメータIvに基づく音圧レベルのフィラーを合成し、出力部120に出力する。音声合成部132Fの詳細については、後述する。
制御部130は、図示しないCPU及び図示しない記憶部等を備える。そして、CPUが記憶部に格納されたプログラムを実行することにより、制御部130における全ての処理が実現する。
また、制御部130のそれぞれの記憶部に格納されるプログラムは、CPUに実行されることにより、制御部130のそれぞれにおける処理を実現するためのコードを含む。なお、記憶部は、例えば、このプログラムや、制御部130における処理に利用される各種情報を格納することができる任意の記憶装置を含んで構成される。記憶装置は、例えば、メモリ等である。
具体的には、CPUが記憶部に格納されたプログラムを実行することによって、制御部130は、ユーザ音声解析部131、音圧レベル決定部132として機能する。また、記憶部には、学習用データベース132C、判定モデル及び条件分岐式データベース132E等が格納されている。
ユーザ音声解析部131は、入力部110によって入力された音声の音声波形から特徴量を抽出する。また、ユーザ音声解析部131は、ロボット100のユーザへの応答の履歴情報(装置応答の過去履歴)から、特徴量を抽出する。そして、ユーザ音声解析部131は、ユーザの音声波形及びユーザへの応答の履歴情報から抽出した特徴量を用いて、特徴量ベクトルを生成し、音圧レベル決定部132に出力する。
具体的には、ユーザ音声解析部131は、入力部110によって入力された音声の音声波形を、1以上の「発話区間」に分割する。ここで、「発話区間」とは、ユーザの発話の始まりから終わりまでの区間を意味し、ユーザ音声解析部131は、ユーザの発話の音圧に基づいて、「発話区間」がどこからどこまでかを決定する。図2は、ユーザの発話区間の終了部分を示すグラフであり、縦軸は音圧(dB)を示し、横軸は時間を示す。ユーザ音声解析部131は、例えば、図2に示すように、ユーザの音声の音圧が所定の音圧閾値より小さくなった時点から一定時間Tにおいて、再び音圧閾値を超え且つゼロとなる回数がN回以下であった場合、当該時点(ユーザの音声の音圧が所定の音圧閾値より小さくなった時点)を「発話区間」の終わりとして検出する。図2においては、Tは400msec(ミリ秒)、Nは0となっているが、T及びNの値は、実験対象及び環境によって適宜設定される値である。同様に、ユーザ音声解析部131は、ユーザの音声の音圧が所定の音圧閾値より大きくなった時点から一定時間Tにおいて、再び音圧閾値より小さくなり且つゼロとなる回数がN回以上であった場合、当該時点(ユーザの音声の音圧が所定の音圧閾値より大きくなった時点)を「発話区間」の始まりとして検出する。同様に、T及びNの値は、実験対象及び環境によって適宜設定される値である。
そして、ユーザ音声解析部131は、i番目(iは、1以上の整数である。)の「発話区間」の音声波形から特徴量を抽出する。また、ユーザ音声解析部131は、i番目の「発話区間」の音声波形及びユーザへの応答の履歴情報から抽出した特徴量を用いて、特徴量ベクトルviを生成し、音圧レベル決定部132に出力する。
図3に、ユーザ音声解析部131によって生成された特徴量ベクトルviの一例を示す。具体的には、図3は、特徴量ベクトルviの各要素、及び、当該要素の値を示す。図3に示すように、特徴量ベクトルviの各要素は、「i番目のユーザ発話情報」に属するものと、「装置応答の過去履歴」に属するものに、大きく分けられる。図3に示す例では、「i番目のユーザ発話情報」に属する要素としては、「句末○msec」、「発話区間全体」、「ユーザ発話の長さ」等が挙げられている。また、「装置応答の過去履歴」に属する要素としては、「同一話題の継続時間」、「直前のシステム発話タイプ」、「直前のシステムの質問タイプ」等が挙げられている。なお、図3において、太枠で囲んだ列に、各要素の値が示されている。また、図3において、「システム」とは、ロボット100のことを指す。
図3において、「句末○msec」とは、ユーザの発話区間の終わりから○msec(○ミリ秒)前までの発話を意味する。図3においては、「句末○msec」の音声波形の基本周波数f0、ボリュームが特徴量ベクトルviの要素として挙げられている。また、「句末○msec」の音声波形の基本周波数f0及びボリュームの平均値、分散値、増減の傾きの値、最大値等を、特徴量ベクトルviの要素の値とする。また、ボリュームとは、入力部110から入力されたユーザの発話の音声の大きさ(dB)である。なお、ユーザ音声解析部131は、これらの基本周波数f0及びボリュームの平均値、分散値、増減の傾きの値、最大値をユーザごとに正規化する。
また、図3において、「発話区間全体」の音声波形の基本周波数f0、ボリュームが特徴量ベクトルviの要素として挙げられている。また、「発話区間全体」の音声波形の基本周波数f0及びボリュームの平均値、分散値、増減の傾きの値、最大値等を、特徴量ベクトルviの要素の値とする。なお、ユーザ音声解析部131は、これらの基本周波数f0及びボリュームの平均値、分散値、増減の傾きの値、最大値をユーザごとに正規化する。
また、図3において、「ユーザ発話の長さ」が特徴量ベクトルviの要素として挙げられている。また、「ユーザ発話の長さ」の数値(sec)、すなわち、ユーザ発話の長さが何秒であったかを、特徴量ベクトルviの要素の値とする。なお、「ユーザ発話の長さ」は、ユーザ音声解析部131によって上述の方法で決定された「発話区間」の長さ(時間(sec))である。
また、図3において、「同一話題の継続時間」が特徴量ベクトルviの要素として挙げられている。また、「同一話題の継続時間」の数値(sec)、すなわち、同一話題の継続時間の長さが何秒であったかを、特徴量ベクトルviの要素の値とする。なお、「同一話題の継続時間」は、例えば、ロボット100が前回「次話題誘導」の音声を出力した時から、ロボット100が今回「次話題誘導」の音声を出力する時までの時間である。また、ロボット100は、例えば、ユーザの沈黙時間が所定時間以上である場合や前回「次話題誘導」の音声を出力した時から所定時間以上経過した場合に、「次話題誘導」の音声を出力する。
また、図3において、「直前のシステムの発話タイプ」が特徴量ベクトルviの要素として挙げられている。ここで、「システム」とは、ロボット100のことを指す。また、「直前のシステムの発話タイプ」が「相槌」、「傾聴応答」、「質問」等を、特徴量ベクトルviの要素の値とする。なお、「相槌」、「傾聴応答」、「質問」等は、それぞれ、「0」、「1」、「2」等の離散値で表現する。すなわち、ユーザ音声解析部131は、「相槌」、「傾聴応答」、「質問」等、数値で表されない特徴量についても、離散値で表現することにより、数値化する。
また、図3において、「直前のシステムの質問タイプ」が特徴量ベクトルviの要素として挙げられている。また、「直前のシステムの質問タイプ」が「深堀質問」、「次話題誘導」等を、特徴量ベクトルviの要素の値とする。上記と同様に、「深堀質問」、「次話題誘導」等は、それぞれ、「0」、「1」等の離散値で表現する。すなわち、ユーザ音声解析部131は、「深堀質問」、「次話題誘導」等、数値で表されない特徴量についても、離散値で表現することにより、数値化する。
そして、ユーザ音声解析部131は、図2に示す要素及び要素の値等から、特徴量ベクトルviを生成する。図2に示す要素及び要素の値から生成された特徴量ベクトルviは、例えば、vi=(・・・,2.4,・・・,20,1,1,・・・)と表される。
音圧レベル決定部132は、出力部120がユーザに対してフィラーを出力する際に、ユーザ音声解析部131によって抽出された特徴量に基づいてフィラーを出力する信頼度を示す値を計算し、フィラーを出力する信頼度を示す値に基づいてフィラーの音圧レベルを決定する。
具体的には、音圧レベル決定部132は、ユーザ音声解析部131から入力された特徴量ベクトルviに基づいて、フィラーを出力する信頼度を示す値Ivを計算し、当該値Ivを「音圧レベル設定パラメータ」とする。なお、本実施の形態において、音圧レベル決定部132において決定される音圧レベル設定パラメータIvは、0.5≦Iv≦1を満たす。すなわち、後述する音圧レベル設定パラメータ計算部132Bは、計算によって得られたIvの値が0.5未満である場合、Ivの値は0.5であると決定する。
そして、音圧レベル決定部132は、決定した音圧レベル設定パラメータIvを音声合成部132Fに出力する。
より具体的には、音圧レベル決定部132は、手法選択部132A、音圧レベル設定パラメータ計算部132B、学習用データベース(学習用DB)132C、オフライン学習部132D、判定モデル及び条件分岐式データベース(判定モデル及び条件分岐式DB)132Eを備える。
手法選択部132Aは、音圧レベル設定パラメータ計算部132Bが音圧レベル設定パラメータIvを計算する手法を選択する。本実施の形態では、音圧レベル設定パラメータ計算部132Bは、判定モデルを用いて音圧レベル設定パラメータIvを計算する手法(以下、「第1の手法」と称する。)と、特徴量ベクトルviの一部の特徴量を用いて作成した条件分岐式を用いて音圧レベル設定パラメータIvを計算する手法(以下、「第2の手法」と称する。)と、のいずれかを用いて、音圧レベル設定パラメータIvを計算する。そのため、手法選択部132Aは、音圧レベル設定パラメータ計算部132Bが第1の手法と第2の手法とのいずれを用いて音圧レベル設定パラメータIvを計算するのかを選択する。具体的には、手法選択部132Aは、音圧レベル設定パラメータIvを計算するのに用いるデータの量、ロボット100の仕様等に基づいて、第1の手法と第2の手法とのいずれを用いるかを選択する。そして、手法選択部132Aは、第1の手法と第2の手法とのいずれを用いて音圧レベル設定パラメータIvを計算するかについての指示を音圧レベル設定パラメータ計算部132Bに出力する。
音圧レベル設定パラメータ計算部132Bは、手法選択部132Aから入力された指示に従って、判定モデル及び条件分岐式データベース132Eから、判定モデル又は条件分岐式のいずれかを読み出す。そして、音圧レベル設定パラメータ計算部132Bは、当該判定モデル又は条件分岐式を用いて、ユーザ音声解析部131から入力された特徴量ベクトルviに基づいて、音圧レベル設定パラメータIvを計算する。なお、判定モデル及び条件分岐式の詳細については、後述する。
学習用データベース132Cは、判定モデル及び条件分岐式を作成するために必要なデータを格納している。具体的には、学習用データベース132Cは、事前に集められた模擬対話の音声データを格納している。また、当該音声データに含まれるそれぞれの発話に対して特徴量ベクトル及び教師ラベルが付されている。より具体的には、上述の方法等によって模擬対話の音声の音声波形が1以上の発話区間に分割され、それぞれの発話区間の音声波形に対し、特徴量ベクトル及び教師ラベルが付されている。ここで、i番目(iは、1以上の整数である。)の発話区間に付される特徴量ベクトルをviとし、教師ラベルをciとする。すなわち、学習用データベース132Cは、事前に集められた模擬対話のi番目の発話区間の音声波形と、当該発話区間の特徴量ベクトルviと、当該発話区間の教師ラベルciと、を対応付けて、格納している。
オフライン学習部132Dは、学習用データベース132Cから、判定モデルを作成するために必要なデータを読み出し、判定モデルを作成し、作成した判定モデルを判定モデル及び条件分岐式データベース132Eに出力する。また、オフライン学習部132Dは、学習用データベース132Cから、条件分岐式を作成するために必要なデータを読み出し、条件分岐式を作成し、作成した条件分岐式を判定モデル及び条件分岐式データベース132Eに出力する。なお、ロボット100がユーザとの対話を実際に開始する前に、オフライン学習部132Dは判定モデル及び条件分岐式を作成し、判定モデル及び条件分岐式データベース132Eは、当該判定モデル及び条件分岐式を格納している。
まず、オフライン学習部132Dによる判定モデルの作成について説明する。ここでは、オフライン学習部132Dが、判定モデルとして、ランダムフォレストを作成する方法について説明する。図4に示すように、オフライン学習部132Dは、学習用データベース132Cから、判定モデルを作成するために必要なデータを読み出し、複数のサンプルを有するサンプル集合Sを用意する。具体的には、i番目のサンプルは、i番目の発話区間の音声波形と、当該発話区間に付された特徴量ベクトルviと、当該発話区間に付された教師ラベルciとを含むデータである。図4において、ハッチングしているサンプルは、教師ラベルci(フィラー)を含み、ハッチングしていないサンプルは、教師ラベルci(沈黙)を含む。また、教師ラベルci(フィラー)は、フィラーを出力するというラベルであり、教師ラベルci(沈黙)は、沈黙するというラベルである。そして、オフライン学習部132Dは、図4に示すように、サンプル集合SをT個(Tは、1以上の整数である。)のサブセットS(jは、1以上T以下の整数である。)に、ランダムに分ける。ここで、Tは、ランダムフォレストに含まれる決定木の本数に相当する。なお、オフライン学習部132Dが、サンプル集合SをサブセットS、S、・・・Sに分ける際、異なるサブセットに1つのサンプルがそれぞれ分配されたり、いずれのサブセットにも分配されないサンプルがあったりしてもよい。
次に、オフライン学習部132Dは、ランダムフォレストの決定木の各ノードの分岐関数を生成する。例えば、オフライン学習部132Dは、図5に示すように、分岐前のサブセットSに含まれるサンプルの特徴量ベクトルviから、分岐関数fの要素となる、特徴量の種類と当該特徴量の閾値との組み合わせをk個(kは、1以上の整数である。)ランダムに選択し、当該分岐関数fを生成する。なお、候補数kは、特徴量ベクトルviに含まれる特徴量の数をm個とすると(mは、1以上の整数である。)、以下の式(1)を満たすことが望ましい。
図5に示す例では、特徴量ベクトルviは、17個の特徴量の種類を含むため(m=17)、kは約4となる。そこで、図5では、オフライン学習部132Dは、例えば、1番目の特徴量の種類及び閾値(0.4)、3番目の特徴量の種類及び閾値(0.3)、5番目の特徴量の種類及び閾値(0.6)、及び、17番目の特徴量の種類及び閾値(0.4)の4つの組み合わせを選択し、分岐関数fを生成している。また、図5に示す例では、生成された分岐関数は、以下の式(2)で表される。なお、式(2)において、xは、m番目の特徴量の値を意味する。
次に、オフライン学習部132Dは、ランダムフォレストのT本の決定木の各ノードのエントロピーを計算し、情報利得Iを計算する。例えば、図6に示す例では、サブセットSを有する親ノードのエントロピーH(S)が以下の式(3)で表され、
候補1のノードの左側への分岐のエントロピーH(S )及び右側への分岐のH(S )が以下の式(4)及び式(5)で表され、
候補2のノードの左側への分岐のエントロピーH(S )及び右側への分岐のH(S )が以下の式(6)及び式(7)で表される。
そして、各末端ノードの情報利得Iは、以下の式(8)で表される。式(8)において、H(S)は、分岐前のエントロピー(すなわち、親ノードのエントロピー)を意味し、H(S)は、左側への分岐のエントロピーを意味し、H(S)は、右側への分岐のエントロピーを意味する。
そのため、図6に示す例では、候補1のノードの情報利得Iは、以下の式(9)で表され、
候補2のノードの情報利得Iは、以下の式(10)で表されるため、
候補2の情報利得Iの方が、候補1の情報利得Iよりも大きい。そして、オフライン学習部132Dは、各決定木の情報利得が最大となるように、当該決定木の形を決定する。すなわち、図6に示す例では、親ノードから候補2への分岐が選択される。換言すれば、オフライン学習部132Dは、情報利得が最大となるように、親ノードのサブセットSj(分類前のサブセット)を分類する。そして、オフライン学習部132Dは、このようにして作成したランダムフォレストのT本の決定木を、判定モデルとして、判定モデル及び条件分岐式データベース132Eに出力する。
次に、上述のようにして作成された判定モデルを用いた音圧レベル設定パラメータIvの決定方法について説明する。まず、音圧レベル設定パラメータ計算部132Bは、判定モデル及び条件分岐式データベース132Eに格納されているランダムフォレスト(判定モデル)を読み出す。次に、音圧レベル設定パラメータ計算部132Bは、図7に示すように、ユーザ音声解析部131から入力されたi番目の発話区間の特徴量ベクトルviに基づいて、T本の決定木(treet、・・・、treet)をトラバーサルする。そして、音圧レベル設定パラメータ計算部132Bは、たどり着いた各決定木の末端ノードに、オフライン学習部132Dによる学習時に親ノードのサブセットがどのような割合で振り分けられたかを示す値を、条件付き確率P(c|v)として取得する。なお、当該P(c|v)におけるcは、「フィラーを出力するラベル」である。そして、音圧レベル設定パラメータ計算部132Bは、図7に示すように、T本の決定木のそれぞれで得られた条件付き確率P(c|v)の平均値P(c|v)を、音圧レベル設定パラメータIvとする。条件付き確率P(c|v)の平均値P(c|v)は、以下の式(11)で表される。なお、平均値P(c|v)は、ランダムフォレストのT本の決定木のそれぞれが特徴量ベクトルviを識別した結果を統合した値である。
そして、音圧レベル設定パラメータ計算部132Bは、決定した音圧レベル設定パラメータIvを音声合成部132Fに出力する。
次に、オフライン学習部132Dによる条件分岐式の作成について説明する。オフライン学習部132Dは、学習用データベース132Cから、条件分岐式を作成するために必要なデータを読み出し、条件分岐式を作成する。具体的には、オフライン学習部132Dは、上述と同様の方法で、ランダムフォレストの決定木を作成する。
次に、オフライン学習部132Dは、学習用データベース132Cから、事前に集められた模擬対話のi番目の発話区間の特徴量ベクトルviを読み出し、当該特徴量ベクトルviの要素及び当該要素の特徴量の値に基づいて、ランダムフォレストの決定木をトラバーサルする。例えば、オフライン学習部132Dは、特徴量ベクトルviの要素「ユーザ発話の長さ」及び当該要素の特徴量の値に基づいてランダムフォレストの決定木をトラバーサルすることにより、図8に示す、要素「ユーザ発話長さ」と、沈黙又はフィラーの頻度との関係を示すグラフを作成する。図8において、縦軸は、沈黙又はフィラーを出力する頻度を示し、横軸は、ユーザ発話長さ(sec)を示す。なお、単位「sec」は「秒」を意味する。
さらに、オフライン学習部132Dは、図8に示すグラフから、図9に示す、要素「ユーザ発話長さ」と、フィラーを出力する割合との関係を示す表を作成する。例えば、ユーザ発話の長さが0秒以上1秒未満である場合、フィラーを出力する割合は、図8より、2÷(20+2)=0.11である。しかし、0.5≦Iv≦1であるため、ユーザ発話の長さが0秒以上1秒未満である場合にフィラーを出力する割合は、0.5とされる。また、ユーザ発話の長さが3秒以上4秒未満である場合、フィラーを出力する割合は、図8より、12÷(12+4)=0.75である。そして、オフライン学習部132Dは、当該フィラーを出力する割合を、音圧レベル設定パラメータIvとし、図8に示すグラフ及び図9に示す表から、条件分岐式を作成する。図8、図9に示す例の場合、条件分岐式は、以下の式(12)で表される。なお、以下の式(12)において、tは、ユーザ発話の長さ(sec)である。
そして、オフライン学習部132Dは、このようにして作成した条件分岐式を判定モデル及び条件分岐式データベース132Eに出力する。
次に、上述のようにして作成された条件分岐式を用いた音圧レベル設定パラメータIvの決定方法について説明する。まず、音圧レベル設定パラメータ計算部132Bは、判別モデル及び条件分岐式データベース132Eから条件分岐式を読み出し、ユーザ音声解析部131から入力されたi番目の発話区間の特徴量ベクトルviと、当該条件分岐式とに基づいて、音圧レベル設定パラメータIvを計算する。例えば、ユーザ音声解析部131から入力されたi番目の発話区間の特徴量ベクトルviに含まれる要素「ユーザ発話長さ」の特徴量が2.4(sec)である場合、音圧レベル設定パラメータ計算部132Bは、式(12)で表される条件分岐式に基づいて、音圧レベル設定パラメータIvの値を0.69と決定する。
そして、音圧レベル設定パラメータ計算部132Bは、決定した音圧レベル設定パラメータIvを音声合成部132Fに出力する。
なお、音圧レベル決定部132によって決定されるIvの値は、ユーザ音声解析部131から同じ特徴量ベクトルviが入力されたとしても、ユーザとロボット100とが対話する内容、ロボット100が用意している質問内容、ユーザとロボット100とが用いる言語等によって、異なる値となる。換言すれば、オフライン学習部132Dは、ユーザとロボット100とが対話する内容、ロボット100が用意している質問内容、ユーザとロボット100とが用いる言語等ごとに、あらかじめ、判定モデル及び条件分岐式を作成する。
次に、音声合成部132Fが、音圧レベル決定部132から入力された音圧レベル設定パラメータIvに応じた音圧レベルを決定する方法について説明する。
音声合成部132Fは、例えば、音圧レベル設定パラメータIv=0.5の時、ユーザとロボット100との距離が50cm、病院内の個室という環境下で、ユーザの耳元におけるロボット100から出力された音声の大きさが50dBとなり、音圧レベル設定パラメータIv=1の時、当該環境下でユーザの耳元におけるロボット100から出力された音声の大きさが60dBとなるような音声を合成できる音圧レベル計算式を格納している。例えば、音圧レベル計算式は、以下の式(13)で表される。以下の式(13)において、Pは、音声合成部132Fにおける調整用変数である。
すなわち、Ivが0.5に近い値である場合、フィラーを出力する信頼度は低いため、音声合成部132Fは、フィラーの音圧レベルを比較的小さい音圧レベル(例えば、50dB)とする。一方、Ivが1に近い値である場合、フィラーを出力する信頼度は高いため、音声合成部132Fは、フィラーの音圧レベルを比較的大きい音圧レベル(例えば、60dB)とする。
または、音声合成部132Fは、音圧レベル設定パラメータIvと音圧レベル(dB)とを対応付けた表を予め格納しており、音圧レベル決定部132から入力された音圧レベル設定パラメータIvと当該表とに基づいて、フィラーを出力する音圧レベルを決定してもよい。
実施例1
次に、本実施の形態1に係るロボット100とユーザとの対話の一例を実施例1として説明する。図10は、ユーザとロボット100との会話の一例を示す。
例えば、ユーザのi番目の発話内容が、図10における「ロボ君は行ったことある?」という質問である場合(ユーザがロボット100に質問している場合)、i番目の発話区間の特徴量ベクトルviの各要素及び特徴量の値は、図3に示すものとなり、i番目の発話区間の特徴量ベクトルviは、vi=(・・・,2.4,・・・,20,1,1,・・・)と表される。そして、当該特徴量ベクトルviと上述の判定モデル(ランダムフォレスト)を用いて、音圧レベル設定パラメータ計算部132Bが計算するIvの値は、0.7となる(図7参照)。また、当該特徴量ベクトルviと上述の条件分岐式を用いて、音圧レベル設定パラメータ計算部132Bが計算するIvの値は、0.69となる(図9参照)。
そして、音声合成部132Fは、当該音圧レベル設定パラメータIvと、上述の音圧レベル計算式又は音圧レベル設定パラメータIvと音圧レベル(dB)とを対応付けた表とに基づいて、60dBに近い音圧レベルでフィラー「えーっと」を合成し、出力部120に出力する。
一方、ユーザのi番目の発話内容が、図10における「昨日は公園に行ってきて」という発話である場合(ユーザがロボット100に質問していない場合)、i番目の発話区間の特徴量ベクトルviの各要素及び特徴量の値は、図11に示すものとなり、i番目の発話区間の特徴量ベクトルviは、vi=(・・・,1.7,・・・,20,1,1,・・・)と表される。そして、当該特徴量ベクトルviと上述の判定モデル(ランダムフォレスト)を用いて、音圧レベル設定パラメータ計算部132Bが計算するIvの値は、0.55となる。また、当該特徴量ベクトルviと上述の条件分岐式を用いて、音圧レベル設定パラメータ計算部132Bが計算するIvの値は、0.5となる(図9参照)。
そして、音声合成部132Fは、当該音圧レベル設定パラメータIvと、上述の音圧レベル計算式又は音圧レベル設定パラメータIvと音圧レベル(dB)とを対応付けた表とに基づいて、音圧レベル50dBでフィラー「えーっと」を合成し、出力部120に出力する。
図12に、実施例1においてロボット100が出力するフィラーの音声波形を示す。図12の上側に、ユーザのi番目の発話内容が、図10における「ロボ君は行ったことある?」という質問である場合に、ロボット100が出力するフィラー「えーっと」の音声波形を示す。また、図12の下側に、ユーザのi番目の発話内容が、図10における「昨日は公園に行ってきて」という発話である場合に、ロボット100が出力するフィラー「えーっと」の音声波形を示す。また、図12において、縦軸は、音声波形の振幅を示し、横軸は、時間(sec)を示す。
図12に示すように、ユーザのi番目の発話内容が「ロボ君は行ったことある?」という質問である場合は、ロボット100がユーザに対して答える必要があり、フィラーを出力する信頼度は高いといえる。実施例1において、このような場合には、フィラーの音圧レベルを大きくすることができている。
一方、ユーザのi番目の発話内容が「昨日は公園に行ってきて」という発話である場合は、ロボット100がフィラーを出力する信頼度は低いといえる。実施例1において、このような場合には、フィラーの音圧レベルを小さくすることができている。
以上に説明した、実施の形態1に係るロボット100によれば、音圧レベル決定部132によって、ユーザ音声解析部131によって抽出された特徴量に基づいてフィラーを出力する信頼度を示す値Ivが計算され、フィラーを出力する信頼度を示す値Ivに基づいてフィラーの音圧レベルが決定される。そのため、フィラーを出力する信頼度を示す値Ivに応じた音圧レベルで出力部120はフィラーを出力することができる。そして、フィラーを出力する信頼度は、発話権がロボット100にある可能性と正の相関関係にある。すなわち、発話権がロボット100にある否かがあいまいな場合であっても、発話権がロボット100にある可能性に応じた音圧レベルで出力部120はフィラーを出力することができる。そのため、発話権がロボット100にある可能性が低い場合には出力部は小さい音圧レベルでフィラーを出力することとなり、出力部120が出力したフィラーによってユーザの発話を遮ることを低減できる。これにより、ユーザの発話を遮ってしまう可能性を低減することができるロボット100を提供することができる。
本実施の形態に係るロボット100においては、ユーザの音声の音声波形の基本周波数f0やロボット100の発話の過去履歴等の情報を用いてフィラーの音圧レベルを決定するため、ユーザの音声の言語情報を用いる処理に比べて、処理が比較的軽い計算でフィラーの音圧レベルを決定することができる。
なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。例えば、判定モデルとしては、上述のランダムフォレストだけでなく、サポートベクタマシン(SVM)等の他の機械学習手法を用いてもよい。また、本実施の形態では、ユーザ音声解析部131は、ロボット100の発話の過去履歴の情報からも特徴量ベクトルviの特徴量を抽出しているが、ユーザの音声の音声波形のみから、特徴量ベクトルviの特徴量を抽出してもよい。また、ロボット100は、ユーザの発話区間と発話区間との合間にフィラーを発しない場合があるのは言うまでもない。ロボット100は、ユーザの発話区間と発話区間との合間に、フィラーを出力してもよいだけでなく、沈黙していてもよいし、発話(対話内容として意味を持つ音声)を出力してもよい。また、本実施の形態では、音声対話装置としてロボット100を説明したが、本発明に係る音声対話装置は、ユーザと対話可能な装置であれば何であってもよく、例えば、ユーザと対話するアプリケーションが組み込まれたスマートフォン等であってもよい。
100 ロボット(音声対話装置)
110 入力部
120 出力部
130 制御部
131 ユーザ音声解析部
132 音圧レベル決定部
132A 手法選択部
132B 音圧レベル設定パラメータ計算部
132C 学習用データベース
132D オフライン学習部
132E 判定モデル及び条件分岐式データベース
132F 音声合成部

Claims (1)

  1. ユーザの音声を入力する入力部と、前記ユーザに対して音声を出力する出力部とを備える音声対話装置であって、
    少なくとも前記入力部によって入力された前記音声の音声波形から特徴量を抽出するユーザ音声解析部と、
    前記出力部が前記ユーザに対してフィラーを出力する際に、前記ユーザ音声解析部によって抽出された前記特徴量に基づいて前記フィラーを出力する信頼度を示す値を計算し、前記フィラーを出力する信頼度を示す値に基づいて前記フィラーの音圧レベルを決定する音圧レベル決定部と、
    を備える、音声対話装置。
JP2017104766A 2017-05-26 2017-05-26 音声対話装置 Active JP6801587B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017104766A JP6801587B2 (ja) 2017-05-26 2017-05-26 音声対話装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017104766A JP6801587B2 (ja) 2017-05-26 2017-05-26 音声対話装置

Publications (2)

Publication Number Publication Date
JP2018200386A true JP2018200386A (ja) 2018-12-20
JP6801587B2 JP6801587B2 (ja) 2020-12-16

Family

ID=64668088

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017104766A Active JP6801587B2 (ja) 2017-05-26 2017-05-26 音声対話装置

Country Status (1)

Country Link
JP (1) JP6801587B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020106746A (ja) * 2018-12-28 2020-07-09 シャープ株式会社 制御装置、制御方法、制御プログラム、及び対話装置
CN112700775A (zh) * 2020-12-29 2021-04-23 维沃移动通信有限公司 语音接收周期的更新方法、装置和电子设备
JP7434537B2 (ja) 2019-09-24 2024-02-20 アプライド マテリアルズ インコーポレイテッド 組織セグメンテーションのための機械学習モデルの双方向トレーニング

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008032834A (ja) * 2006-07-26 2008-02-14 Toshiba Corp 音声翻訳装置及びその方法
JP2009003040A (ja) * 2007-06-20 2009-01-08 Univ Waseda 音声対話装置、音声対話方法及びロボット装置
JP2009150990A (ja) * 2007-12-19 2009-07-09 Toyota Central R&D Labs Inc 発話応答生成装置、及びプログラム
JP2011175304A (ja) * 2011-06-13 2011-09-08 Denso Corp 音声対話装置および方法
JP2015064481A (ja) * 2013-09-25 2015-04-09 ヤマハ株式会社 符号化復号化装置、音声合成装置およびプログラム
JP2016038501A (ja) * 2014-08-08 2016-03-22 国立大学法人京都大学 音声対話方法、及び音声対話システム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008032834A (ja) * 2006-07-26 2008-02-14 Toshiba Corp 音声翻訳装置及びその方法
JP2009003040A (ja) * 2007-06-20 2009-01-08 Univ Waseda 音声対話装置、音声対話方法及びロボット装置
JP2009150990A (ja) * 2007-12-19 2009-07-09 Toyota Central R&D Labs Inc 発話応答生成装置、及びプログラム
JP2011175304A (ja) * 2011-06-13 2011-09-08 Denso Corp 音声対話装置および方法
JP2015064481A (ja) * 2013-09-25 2015-04-09 ヤマハ株式会社 符号化復号化装置、音声合成装置およびプログラム
JP2016038501A (ja) * 2014-08-08 2016-03-22 国立大学法人京都大学 音声対話方法、及び音声対話システム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020106746A (ja) * 2018-12-28 2020-07-09 シャープ株式会社 制御装置、制御方法、制御プログラム、及び対話装置
JP7434537B2 (ja) 2019-09-24 2024-02-20 アプライド マテリアルズ インコーポレイテッド 組織セグメンテーションのための機械学習モデルの双方向トレーニング
CN112700775A (zh) * 2020-12-29 2021-04-23 维沃移动通信有限公司 语音接收周期的更新方法、装置和电子设备

Also Published As

Publication number Publication date
JP6801587B2 (ja) 2020-12-16

Similar Documents

Publication Publication Date Title
US11887582B2 (en) Training and testing utterance-based frameworks
CN111048062B (zh) 语音合成方法及设备
JP6731326B2 (ja) 音声対話装置及び音声対話方法
KR100826875B1 (ko) 온라인 방식에 의한 화자 인식 방법 및 이를 위한 장치
JP2018124425A (ja) 音声対話装置及び音声対話方法
US20110301953A1 (en) System and method of multi model adaptation and voice recognition
US20050119883A1 (en) Speech recognition device and speech recognition method
JP2018200386A (ja) 音声対話装置
KR102298901B1 (ko) 텍스트 음성 변환과 함께 멀티태스크 학습을 사용한 감정적 음성 변환 방법 및 장치
KR20230056741A (ko) 목소리 변환 및 스피치 인식 모델을 사용한 합성 데이터 증강
CN110663080A (zh) 通过频谱包络共振峰的频移动态修改语音音色的方法和装置
KR20230133362A (ko) 다양하고 자연스러운 텍스트 스피치 변환 샘플들 생성
JP6330069B2 (ja) 統計的パラメトリック音声合成のためのマルチストリームスペクトル表現
JP6712754B2 (ja) 談話機能推定装置及びそのためのコンピュータプログラム
JP2016102860A (ja) 音声加工装置、及びプログラム
Cen et al. Generating emotional speech from neutral speech
WO2011030372A1 (ja) 音声対話装置及びプログラム
Matsumoto et al. Speech-like emotional sound generation using wavenet
Laskowski et al. A scalable method for quantifying the role of pitch in conversational turn-taking
Houidhek et al. Dnn-based speech synthesis for arabic: modelling and evaluation
Lee et al. Recognizing low/high anger in speech for call centers
Santos-Pérez et al. AVATAR: an open source architecture for embodied conversational agents in smart environments
JP2005221679A (ja) 発話スタイル評価装置及び発話スタイル分類装置
JP2005221679A6 (ja) 発話スタイル評価装置及び発話スタイル分類装置
Gessinger Phonetic accommodation of human interlocutors in the context of human-computer interaction

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190827

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200528

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200616

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200814

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201027

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201109

R151 Written notification of patent or utility model registration

Ref document number: 6801587

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151