JP2002123289A - 音声対話装置 - Google Patents

音声対話装置

Info

Publication number
JP2002123289A
JP2002123289A JP2000313912A JP2000313912A JP2002123289A JP 2002123289 A JP2002123289 A JP 2002123289A JP 2000313912 A JP2000313912 A JP 2000313912A JP 2000313912 A JP2000313912 A JP 2000313912A JP 2002123289 A JP2002123289 A JP 2002123289A
Authority
JP
Japan
Prior art keywords
emotion
user
voice
parameter
emotion parameter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000313912A
Other languages
English (en)
Inventor
Kotoko Kanai
江都子 金井
Yoshihiro Kojima
良宏 小島
Sunako Asayama
砂子 朝山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2000313912A priority Critical patent/JP2002123289A/ja
Publication of JP2002123289A publication Critical patent/JP2002123289A/ja
Pending legal-status Critical Current

Links

Abstract

(57)【要約】 【課題】 システムとユーザーとの対話において、人間
同士のように自然な対話を実現できる音声対話装置を提
供する。 【解決手段】 ユーザーの発話した音声を入力する音声
入力部101、音声を単語列に変換する音声認識部10
2、単語列を概念信号に変換する言語理解部103、感
情情報を抽出する感情情報抽出部104、前記感情情報
と前記概念信号とに基づいてユーザー感情パラメータを
生成するユーザー感情パラメータ生成部105、システ
ム感情パラメータを生成するシステム感情パラメータ生
成部106、システムの応答文を生成する応答文生成部
107、応答辞書を格納する応答辞書格納部108、お
よびシステムの応答音声を出力する音声出力部109を
備える。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、システムとユーザ
ーが音声を利用して対話するための音声対話装置に関す
る。
【0002】
【従来の技術】近年、音声認識技術を用いた音声入力機
器や音声出力機器の開発が急速に進み、これらの機器が
自動販売機や自動翻訳システムなどのさまざまな機器や
システムに音声対話装置として組み込まれるようになっ
た。その結果、ユーザーと対話することのできる音声対
話装置を有するシステムが急激に増加した。ところが、
これらの音声対話装置との対話は、感情を持っているユ
ーザーと、感情を持っていないシステムとの対話である
ので、ユーザーはシステムに話しかけることに違和感を
覚えていた。その結果、従来の音声対話装置は、人間に
とって操作し易い音声入力を実現しているが扱いにく
い、と評価されることが少なくなかった。
【0003】そのような点を改良する提案の一つとし
て、特開平8−339446号公報には、ユーザーの多
様な感情を検出し、システム側から検出したユーザーの
感情に応じた音声情報を出力する音声対話装置が開示さ
れている。この先行例の音声対話装置について、図16
の従来の音声対話装置のブロック図を参照しつつ説明す
る。図16において、音声入力部201にユーザーが発
声した音声が入力されると音声信号が特徴抽出部202
に出力される。特徴抽出部202では、入力された音声
信号から音声の高低(以下ピッチという)、音声の大き
さ、発話の速度、および音声の休止期間(以下、ポーズ
と言う)の長さなどの特徴量が抽出される。
【0004】感情判定部203では、特徴抽出部202
で抽出された特徴量に基づいて、ユーザーの感情が判定
される。例えば、特徴量が、1フレーム毎の平均ピッチ
における先行フレームからの変化量[%]だとすると、
その値が+20[%]ならば、ユーザーの感情が「楽し
い」と判定される。応答生成部204では、感情判定部
203において判定されたユーザーの感情に応じて、シ
ステムの応答文が生成される。例えば、ユーザーの感情
が「楽しい」であった場合、音声の大きさ、発話の速度
などが「楽しい」に対応した応答文が生成される。音声
出力部205では、応答生成部204で生成された応答
文が音声として出力される。
【0005】
【発明が解決しようとする課題】従来の音声対話装置で
は、入力した音声信号の特徴量からユーザーの感情を判
定し、判定された感情に基づいて応答を出力している。
つまり、ユーザーの入力音声の音響的特徴のみに基づい
て感情判定をするものであって、ユーザーの発声した単
語の意味には基づいていなかった。ところが感情という
ものは、言葉にも表れるものであり、言葉の意味を理解
せずに正確な感情判定が行えるはずはなく、ユーザーの
満足は得られるものではない。そこで、ユーザーが発声
した音声から抽出した音響的特徴と、認識した言葉の意
味とに基づいて感情を判定し、ユーザーが感情を素直に
言葉にした時や、言葉とは裏腹な感情を抱いた時など、
どんな時でも正確にユーザー感情を認識して対話するこ
とのできる、より人間に近い音声対話装置が求められて
いる。
【0006】また、従来の音声対話装置では、システム
の応答を生成する際に、感情判定部で判定されたユーザ
ーの感情を用いているが、システム自身に発生させた感
情を用いてはいなかった。人間同士の対話では、相手の
感情に対して必ず自分の感情が存在し、相手の言葉と感
情から生成される自分の感情と言葉とに基づいて応答を
返している。つまり、従来の音声対話装置は、ユーザー
の感情に対するシステム自身の感情に基づいて応答して
いないため、人間同士の対話に近いシステムとは言えな
かった。その結果、ユーザーは音声対話装置は扱いにく
いものだと言う印象を強く抱いていた。
【0007】本発明の目的は、人間同士の対話のよう
に、自然で親しみ易く、飽きがこない音声対話装置を提
供することにある。
【0008】
【課題を解決するための手段】本発明の音声対話装置
は、システムとユーザーとの対話を実現する音声対話装
置であって、ユーザーの発話した音声を入力して音声信
号を出力する音声入力手段、前記音声入力手段から出力
される音声信号を認識し、単語列として出力する音声認
識手段、前記音声認識手段から出力される前記単語列を
前記ユーザーの発話の意味を表す概念信号に変換する言
語理解手段、前記音声入力手段から出力される音声信号
から前記ユーザーの感情を抽出し感情情報として出力す
る感情情報抽出手段、前記感情情報抽出手段から出力さ
れる前記感情情報と、前記言語理解手段から出力される
前記概念信号とから前記ユーザーの感情を表すユーザー
感情パラメータを生成するユーザー感情パラメータ生成
手段、前記ユーザー感情パラメータ、もしくは、前記ユ
ーザー感情パラメータと前記概念信号との両者に基づい
て前記システムの感情を表すシステム感情パラメータを
生成するシステム感情パラメータ生成手段、前記概念信
号、前記ユーザー感情パラメータ、または前記システム
感情パラメータに基づいてシステムの応答文を生成する
応答文生成手段、および前記応答文を音声として出力す
る音声出力手段を備えている。
【0009】この構成の音声対話装置によれば、ユーザ
ー感情パラメータを、音声の音響的特徴だけでなく言葉
の意味にも基づいて生成するため、ユーザーの感情をよ
り正確に判定することができる。また、ユーザーの感情
だけでなくシステムの感情をも生成して応答を返すた
め、ユーザーとシステムの間で、まるで人間同士のよう
な対話を実現することができる。その結果、ユーザーは
システムに対してより親しみを感じることができ、ユー
ザーの音声対話装置は扱いにくいという印象を取り除く
ことができる。
【0010】上記構成の音声対話装置であって、前記感
情情報抽出手段が、前記音声入力手段から出力される音
声信号における前記音声の継続時間、発話速度、ポーズ
の有無、振幅、基本周波数等の音声の状態を表す数値に
基づいてユーザーの感情情報を生成するのが好ましい。
また、前記感情情報、前記ユーザー感情パラメータ及び
前記システム感情パラメータが、「喜」、「怒」、
「哀」、「楽」等の少なくとも1つ以上の感情変数から
構成されているのが好ましい。また、前記ユーザー感情
パラメータ生成手段が、前記言語理解手段から出力され
た前記概念信号に基づいて概念感情情報を生成し、前記
概念感情情報と前記感情情報抽出手段から出力された前
記感情情報とに基づいてユーザー感情パラメータを生成
するのが好ましい。また、前記概念感情情報が、予め用
意してある前記概念信号に対応する感情変数テーブルに
基づいて生成するのが好ましい。
【0011】本発明の他の観点による音声対話装置は、
上記構成の音声対話装置であって、前記ユーザー感情パ
ラメータ生成手段が、前記ユーザー感情パラメータを記
憶するユーザー感情パラメータ記憶手段と、新たに生成
したユーザー感情パラメータと前記ユーザー感情パラメ
ータ記憶手段に記憶されているユーザー感情パラメータ
とを比較して、その変化量が予め定められた値以上の場
合にはユーザー感情変化信号を出力するユーザー感情変
化信号出力手段、および前記ユーザー感情変化信号が連
続出力される回数をカウントしてその回数が予め定めら
れた値以上の場合に前記ユーザー感情パラメータ記憶手
段に記憶されているユーザー感情パラメータを更新する
ユーザー感情パラメータ更新手段を備えている。
【0012】この構成の音声対話装置によれば、ユーザ
ー感情パラメータが予め定められた回数以上連続して変
化した場合や、予め定めた変化量以上に変化した場合に
ユーザーの感情が変化したと判断した場合には、ユーザ
ー感情パラメータ更新手段がユーザー感情パラメータを
更新する。これにより、突然音声入力手段から入力され
た雑音等から誤ったユーザー感情パラメータが生成さ
れ、それに応じて誤ったシステム感情パラメータが生成
されて応答が出力されることを防止できる。つまり、雑
音等の影響により、音声の継続時間、発話速度、ポーズ
の有無、振幅、基本周波数等から抽出されるユーザーの
感情情報が急激に変化した場合でも、ユーザー感情パラ
メータやシステム感情パラメータは急激に変化しない。
その結果、対話内容にまとまりのある高性能なシステム
を実現でき、ユーザーのシステムに対する信頼度を向上
することができる。
【0013】本発明のさらに他の観点による音声対話装
置は、上記構成の音声対話装置であって、前記言語理解
手段から出力される前記概念信号が予め設定されている
特定の概念信号に一致している場合に特定感情パラメー
タを出力する特定感情パラメータ出力手段、および前記
特定感情パラメータが入力されると前記システム感情パ
ラメータの値を前記特定感情パラメータの値に変更する
システム感情パラメータ生成手段を備えている。
【0014】この構成によれば、ユーザーのある一言に
よってシステムの感情を急激に変化させることができ、
ユーザーに対して、システムが感情を持っているという
印象をより強く与え、より親しみ易いシステムを実現す
ることができる。その結果、ユーザーのシステムに対す
る拒絶反応をより少なくできる。また、対話に意外性を
持たすことができるため、ユーザーを飽きさせないシス
テムを実現できる。
【0015】本発明のさらに他の観点による音声対話装
置は、前記応答文生成手段が、前記ユーザー感情パラメ
ータ生成手段から出力されるユーザー感情パラメータ、
および前記システム感情パラメータ生成手段から出力さ
れるシステム感情パラメータの変化情報を抽出し、それ
ぞれの変化情報に基づいて前記システムの応答文を生成
する。
【0016】この構成によれば、ユーザーやシステムの
感情の変化に応じてシステム応答を変化させることがで
き、ユーザーとシステムの間で、より自然な対話を実現
することができる。
【0017】
【発明の実施の形態】以下、本発明の音声対話装置の好
適な実施例について添付の図面を参照しつつ説明する。
【0018】《実施例1》図1は、本発明の実施例1の
音声対話装置の構成を示すブロック図である。図1に示
すように、実施例1の音声対話装置は、音声入力部10
1、音声認識部102、言語理解部103、感情情報抽
出部104、ユーザー感情パラメータ生成部105、シ
ステム感情パラメータ生成部106、応答文生成部10
7、応答辞書格納部108、及び音声出力部109を有
している。
【0019】音声入力部101はユーザーの発話した音
声が入力されると、その音声を音声信号に変換して音声
認識部102と感情情報抽出部104にそれぞれ出力す
る。音声認識部102は、音声入力部101から入力さ
れた音声信号を単語列として言語理解部103に出力す
る。言語理解部103は、音声認識部102から出力さ
れた単語列を単語の意味を表す概念信号に変換する。感
情情報抽出部104は、音声入力部101から入力され
た音声信号から感情情報を抽出する。ユーザー感情パラ
メータ生成部105は、感情情報抽出部104から出力
された感情情報と、言語理解部103から出力された概
念信号とからユーザー感情を表すユーザー感情パラメー
タを生成する。
【0020】システム感情パラメータ生成部106は、
ユーザー感情パラメータ生成部104から出力されたユ
ーザー感情パラメータに基づいてシステムの感情を表す
システム感情パラメータを生成する。応答文生成部10
7は、言語理解部103から出力された概念信号と、シ
ステム感情パラメータ生成部106から出力されたシス
テム感情パラメータとに基づいて応答辞書格納部108
を検索し、システムの応答文を生成する。音声出力部1
09は、応答文生成部107から出力されたシステムの
応答文が音声として出力する。
【0021】以上のように構成された本発明の実施例1
の音声対話装置の動作について図1〜図6を参照しつつ
説明する。図1において、音声入力部101に、ユーザ
ーが、疲れていて不機嫌な様子で、「ただいま」と発声
したとする。音声入力部101へ入力された音声「ただ
いま」は、音声信号に変換され、それぞれ音声認識部1
02と感情情報抽出部104とへ出力される。音声認識
部102では、入力された音声信号「ただいま」が、単
語列“ただいま”に変換され、言語理解部103へ出力
される。言語理解部103では、単語列“ただいま”
が、“応答、帰宅の知らせ”という概念信号に変換さ
れ、ユーザー感情パラメータ生成部105へ出力され
る。
【0022】一方、感情情報抽出部104では、まず、
入力された音声「ただいま」から、発話速度と音声レベ
ルが抽出される。音声「ただいま」から抽出された発話
速度と音声レベルは、それぞれ予め格納されていた標準
パターンと比較され、それらの比較結果から、それぞれ
4つの感情変数(喜、怒、哀、楽)で表される感情情報
が抽出される。この抽出方法について、図2および図3
を参照して説明する。図2は、発話速度が標準パターン
と比較された結果から、発話速度由来の感情情報V1が
抽出される処理例を示す図である。図3は、音声レベル
が標準パターンと比較された結果から、発話レベル由来
の感情情報L1が抽出される処理例を示す図である。図
2において、左側のグラフは入力音声信号の発話速度
と、予め定められている標準パターンとのずれの割合
[%]の時間的変化を図示したものである。右側の表
は、左側のグラフのずれの割合に対応して求められる速
度由来の感情情報V1の11段階の各感情変数の値を示
したものである。また、図3において、左側のグラフは
入力音声信号の音声レベルと、予め定められている標準
パターンとのずれの割合[%]の時間的変化を図示した
ものである。右側の表は左側のグラフのずれの割合
[%]に対応して求められるレベル由来の感情情報L1
の11段階の各感情変数を示したものである。ここで
は、発話速度の標準パターンとのずれの割合の時間的変
化の平均値から感情情報V1が、音声レベルの標準パタ
ーンとのずれの割合の時間的変化の平均値から感情情報
L1がそれぞれ求められるものとする。
【0023】まず、図2において、音声信号「ただい
ま」から抽出される感情情報V1は、発話速度と標準パ
ターンのずれの割合の時間的変化の平均値がNo.9の
感情情報V1に相当する領域に属しているため、感情情
報V1はNo.9に決定される。次に、図3において、
音声信号「ただいま」から抽出される感情情報L1は、
音声レベルと標準パターンのずれの割合の時間的変化の
平均値がNo.9の感情情報L1に相当する領域に属し
ているため、感情情報L1はNo.9に決定される。こ
のようにして、感情情報抽出部104において生成され
た感情情報V1、感情情報L1は、ユーザー感情パラメ
ータ生成部105へ出力される。
【0024】図4は、図1のユーザー感情パラメータ生
成部105において、ユーザー感情パラメータが生成さ
れる方法を表すフローチャートである。以下、感情情報
の()の中でコンマで区切って示す4つの数字のそれぞ
れは[喜]、[怒]、[哀]、[楽]の4つの感情変数の値を示
す。図4において、ユーザー感情パラメータ生成部10
5では、まず、感情情報抽出部104から出力された感
情情報V1(20,60,80,20)と感情情報L1
(20,20,80,20)との平均値感情情報A1(2
0,40,80,20)が計算される。
【0025】次に、図1の言語理解部103から出力さ
れた概念信号“応答、帰宅の知らせ”に対応する概念感
情情報G1(+5,+0,+0,+0)が、ユーザー感
情パラメータ生成部105に予め用意されている概念信
号に対応した概念感情情報テーブル1050を用いて生
成される。そして、感情情報V1と感情情報L1との平
均値感情情報A1に概念感情情報G1が加算されてユー
ザー感情パラメータE1が生成される。以上の計算処理
の結果、音声「ただいま」におけるユーザー感情パラメ
ータE1は、(25,40,80,20)という値に決
定される。ただし、それぞれの感情変数における加算結
果が100を超えた場合は100とし、0より小さい場
合は0とする。図1のシステム感情パラメータ生成部1
06は、ユーザー感情パラメータ生成部105からユー
ザー感情パラメータE1(25,40,80,20)が
入力されると、ユーザー感情パラメータE1に対応した
4つの感情変数[ねたみ]、[怒]、[慰め]、[喜]から構成
されるシステム感情パラメータE1’を生成する。
【0026】ここでは、システム感情パラメータE1’
の各感情変数の値は、ユーザー感情パラメータE1の各
感情変数の値と同じ値、(25[ねたみ],40
[怒],80[慰め],20[喜])に設定するものと
する。システム感情パラメータE1’の生成において
は、ユーザー感情パラメータE1の各感情変数[喜]、
[怒]、[哀]、[楽]に対して、[ねたみ]、[怒]、[慰め]、
[喜]という異なる感情変数を使用している。そして、各
感情変数の値をユーザー感情パラメータの各感情変数と
同一の値に設定している。「喜」に対して「ねたみ」と
云う異なる感情変数を使用したのは、システムを少し悪
い性格にして人間的な反応をするよう設計したためであ
る。なお、システム感情パラメータにおいて使用する感
情変数をユーザー感情パラメータE1の各感情変数と同
一にして、別に用意したユーザー感情パラメータE1と
システム感情パラメータE1’との変換テーブル等を用
いて異なる値に設定しても良い。
【0027】次ぎに、図1の応答文生成部107の動作
について図5及び図6を参照して説明する。図5は、応
答文生成部107に保持されている応答辞書対応座標面
を示す図である。図5に示すように、応答文生成部10
7では、システム感情パラメータE1’の4つの感情変
数[ねたみ]、[怒]、[慰め]、[喜]で表される座標軸を持
つ、応答辞書対応座標面が保持されている。応答辞書対
応座標面の各領域には、応答辞書格納部108に格納さ
れている複数の応答辞書名が対応付けられている。シス
テム感情パラメータE1’の4つの感情変数からこの座
標面の水平軸の[喜]と[慰め]の値の差、垂直軸の[ねた
み]と[怒]値の差の組、すなわち([喜]−[慰め]=−6
0,[ねたみ]−[怒]=−15)が計算され、システム感
情パラメータE1’の座標(−60,−15)の位置
(図5に黒い楕円で示す)が求められる。そして、応答
辞書対応座標面上における座標(−60,−15)にシ
ステム感情パラメータE1’がプロットされる。このE
1’から応答辞書名は次のようにして決定される。即ち
システム感情パラメータE1’がプロットされた図5に
示す応答辞書対応座標面上の座標位置E1’(図5の黒
い楕円で示す)の属する領域である応答辞書上の「慰め
怒2」が応答辞書名として決定されるのである。
【0028】このように、システム感情パラメータE
1’(25,40,80,20)の座標位置から応答辞
書格納部108内の応答辞書名「慰め怒2」が求められ
これを使用して、図1の応答文生成部107で、言語理
解部103から出力された概念信号“応答、帰宅の知ら
せ”に基づいたシステムの応答文が生成される。図1の
応答文生成部107における応答文生成方法について図
6を参照しつつ説明する。図6は、応答文生成部107
において、応答文が生成される方法を表すフローチャー
トである。図1の応答文生成部107では、まず、図6
においてシステム感情パラメータ生成部106から入力
されたシステム感情パラメータE1’をもって応答辞書
格納部108を探し(図6のステップ601)応答辞書
対応座標面上にプロットした位置E1’の領域に相当す
る応答辞書格納部108内の応答辞書名「慰め怒2」を
求める(図6のステップ602)。次ぎに、図1の言語
理解部103から出力された概念信号“応答、帰宅の知
らせ”に対応する応答辞書格納部108の応答辞書名
「慰め怒2」に格納されている応答文を検索する(図6
のステップ603)。このようにして、システム側の応
答文「おかえり、元気ないね、どうしちゃったのよ?」
が生成される(図6のステップ604)。そして、この
応答文が図1の音声出力部109へ出力され、音声出力
部109では、システム側の応答「おかえり、元気ない
ね、どうしちゃたのよ?」が音声として出力される。
【0029】このように、本実施例1の音声対話装置に
よれば、図1の音声入力部101へのユーザーの音声入
力に対して、ユーザー感情パラメータ生成部105が、
感情情報抽出部104から出力された感情情報と、言語
理解部103から出力された概念信号とに基づいてユー
ザーの感情を表すユーザー感情パラメータE1を生成す
る。その結果、本発明の音声対話装置が音声の速度やレ
ベルのみならず言語の概念信号を用いることにより、ユ
ーザーの感情を従来のものより正確に判定することがで
きる。また、システム感情パラメータ生成部106が、
ユーザー感情パラメータE1に対してシステム自身の感
情を表すシステム感情パラメータE1’を生成する。さ
らに、応答文生成部107が、システム感情パラメータ
E1’と概念信号とに基づいてシステム応答を生成す
る。その結果、システムはあたかも感情を有しているよ
うに応答をすることができ、ユーザーとシステムの間
で、まるで人間同士のような対話を実現することができ
る。このことにより、ユーザーはシステムに対してより
親しみを感じることができ、ユーザーの音声対話装置は
扱いにくいという印象を取り除くことができる。
【0030】《実施例2》図7は、本発明の実施例2の
音声対話装置におけるユーザー感情パラメータ生成部1
05’の構成を示すブロック図である。この実施例2の
音声対話装置は、実施例1のものと比較すると図1のユ
ーザー感情パラメータ生成部105の代わりに用いられ
る図7の105’の構成のみが異なる。その全体構成を
図9に示す。したがって、実施例1と同一部分には同一
参照符号を付して重複する説明は省略する。
【0031】図7に示すように、この実施例2の音声対
話装置におけるユーザ感情パラメータ生成部105’
は、ユーザー感情パラメータ記憶部105a、ユーザー
感情変化信号出力部105b、及びユーザー感情パラメ
ータ更新部105cを備えている。ユーザー感情パラメ
ータ記憶部105aは、パラメータ生成部105dで生
成されたユーザー感情パラメータを記憶する。ユーザー
感情変化信号出力部105bは、新たに入力された音声
の感情情報と概念信号とに基づいてパラメータ生成部1
05dで生成されたユーザー感情パラメータと、ユーザ
ー感情パラメータ記憶部105aに記憶されているユー
ザー感情パラメータとを比較する。そして、新たに入力
された音声に基づいて生成されたユーザー感情パラメー
タと記憶されているユーザー感情パラメータとの変化量
が予め定められた値以上の場合にユーザー感情変化信号
を出力する。ユーザー感情パラメータ更新部105c
は、ユーザー感情変化信号出力部105bから出力され
たユーザー感情変化信号が連続して出力される回数をカ
ウントして、その回数が予め定められた値以上の場合
に、ユーザー感情パラメータ記憶部105aに記憶され
ているユーザー感情パラメータを新たに入力されたユー
ザー感情パラメータに更新する。
【0032】この実施例2の音声対話装置の動作につい
て図7〜図10を参照しつつ説明する。以下の説明にお
いて、新たに生成されたユーザー感情パラメータE2
と、記憶してあるユーザー感情パラメータE1との予め
定められた変化量の値を20、ユーザー感情変化信号の
連続して出力される回数の予め定められた回数を5とす
る。
【0033】図7及び図9において、まず、実施例1と
同様に、ユーザーの1回目の発話「ただいま」が、図9
の音声入力部101に入力されると、このユーザー感情
パラメータ生成部105’では、パラメータ生成部10
5dで生成されたユーザー感情パラメータE1(25,
40,80,20)がユーザー感情パラメータ記憶部1
05aに記憶される。さらに、そのユーザー感情パラメ
ータE1がシステム感情パラメータ生成部106へ出力
される。その後、システムから「おかえり、元気ない
ね、どうしちゃったのよ?」と応答が出される。
【0034】次に、システム応答の「おかえり、元気な
いね、どうしちゃったのよ?」に対して、ユーザーが、
1回目の発話と同様に疲れていて不機嫌な様子で「失敗
した」と発声したとする。ユーザーの2回目の発話「失
敗した」が図9の音声入力部101に入力された時の処
理について、以下に説明する。図9の言語理解部103
と感情情報抽出部104では、実施例1と同様の処理が
行われ、言語理解部103から概念信号“応答、失敗し
た”が出力される。また、感情情報抽出部104から感
情情報V2(20,60,80,20)と感情情報L2
(10,10,90,10)とがそれぞれ出力される。
【0035】図8は、ユーザー感情パラメータ生成部1
05’における処理の流れを表すフローチャートであ
る。図7の、ユーザー感情パラメータ生成部105’で
は、図8に示すステップS1で、パラメータ生成部10
5d(図7)は、実施例1と同様に、図9の言語理解部
103から出力された概念信号“応答、失敗した”に対
応する概念感情情報G2(0,0,+5,−25)と、
感情情報抽出部104から出力された感情情報V2(2
0,60,80,20)と感情情報L2(10,10,
90,10)とに基づいて、ユーザー感情パラメータE
2(15,35,90,15)を生成する。図8のステ
ップS2で、パラメータ生成部105dで生成されたユ
ーザー感情パラメータE2は、ユーザー感情変化信号出
力部105bへ入力され、ユーザー感情パラメータ記憶
部105a(図7)に記憶されていたユーザー感情パラ
メータE1(25,40,80,20)からの変化量
が、各感情変数について、20以上であるかどうかが判
定される。
【0036】ユーザー感情パラメータの少なくとも1つ
の感情変数の変化量が20以上であれば、ステップS3
(図8)で、ユーザー感情変化信号出力部105bから
ユーザー感情変化信号が出力される。ユーザー感情パラ
メータのすべての感情変数の変化量が20未満であれ
ば、ユーザー感情変化信号は出力されず、ステップS2
のNoからステップS1に戻りパラメータ生成部105
dで次のユーザー感情パラメータが生成される。
【0037】ユーザーが2回発話したこの例の状態で
は、ユーザー感情パラメータE1とユーザー感情パラメ
ータE2の各感情変数の変化量は最大値が10であると
仮定する。その場合は、ユーザー感情パラメータの変化
量は予め定められた値20より小さいので、ユーザー感
情変化信号は出力されない。そして、ユーザー感情パラ
メータ記憶部105aに記憶されているユーザー感情パ
ラメータE1が、ユーザー感情パラメータ生成部10
5’から図9のシステム感情パラメータ106へ出力さ
れる。
【0038】その後は、実施例1と同様にして、図9の
システム感情パラメータ生成部106からシステム感情
パラメータE1’が出力される。それによって、図5の
システム感情パラメータE1’に対応した応答辞書「慰
め怒2」を使用して応答文生成部107(図9)で概念
“応答、失敗した”に対するシステム応答「失敗は成功
のもと。いつまでもくよくよしないの!」が生成され、
音声出力部109から音声として出力される。ユーザー
の2回目の発話「失敗した」に対するシステムの応答
「失敗は成功のもと。いつまでもくよくよしないの!」
が出力された後、疲れていて不機嫌な様子であったユー
ザーが、少し元気を取り戻した様子でシステムとの対話
を続けたとする。
【0039】そして、ユーザーの1回目の発話「ただい
ま」から数えて7回目に、ユーザーが「元気だよ」と発
声したとする。ユーザーの7回目の発話「元気だよ」が
図9の音声入力部101に入力された時の処理について
図7〜図10を参照しつつ説明する。図9の言語理解部
103と感情情報抽出部104では、実施例1と同様の
処理が行われ、言語理解部103においては概念信号
“応答、元気”が、感情情報抽出部104においては、
感情情報V3(50,0,50,50)とL3(50,
50,50,50)とがそれぞれ出力される。
【0040】図7において、ユーザー感情パラメータ生
成部105’では、図8のフローチャートのステップS
1で、パラメータ生成部105’dは、実施例1と同様
に、言語理解部103から出力された概念信号“応答、
元気”に対応する概念感情情報G3(+5,0,−1
0,+5)と、感情情報抽出部104から出力された感
情情報V3(50,0,50,50)および感情情報L
3(50,50,50,50)とに基づいて、ユーザー
感情パラメータE3(55,25,40,55)を生成
する。ステップS2では、パラメータ生成部105d
(図7)で生成されたユーザー感情パラメータE3は、
ユーザー感情変化信号出力部105bへ入力され、ユー
ザー感情パラメータ記憶部105aで記憶されていたユ
ーザー感情パラメータE1(25,40,80,20)
からの変化量が、各感情変数について、20以上である
かどうかが判定される。
【0041】ユーザー感情パラメータE1とユーザー感
情パラメータE3の[哀]の感情変数の変化量は40であ
り、ユーザー感情パラメータの変化量が予め定められた
値20より大きいので、ステップS3でユーザー感情変
化信号出力部105bからユーザー感情変化信号が出力
される。ステップS4で、出力されたユーザー感情変化
信号は、ユーザー感情パラメータ更新部105cで5回
連続で出力されたかどうか判定される。もし、ユーザー
感情変化信号が5回連続で出力されているならば、ユー
ザー感情パラメータ更新部105cは、ユーザー感情パ
ラメータ記憶部105aに作用して、そこに記憶されて
いるユーザー感情パラメータE1をE3に更新(変更)
させる。
【0042】ユーザー感情パラメータ記憶部105a
は、ステップS5でユーザー感情パラメータE3をシス
テム感情パラメータ生成部106へ出力する。図9のシ
ステム感情パラメータ生成部106では、ユーザー感情
パラメータ生成部105から出力されたユーザー感情パ
ラメータE3に対応するシステム感情パラメータE3’
(55,25,40,55)が生成される。応答文生成部
107では、図10に示すように、システム感情パラメ
ータE3’に対応する応答辞書対応座標面上にシステム
感情パラメータE3’の座標(55−40=15, 5
5−25=30、黒の楕円の位置)をプロットする。そ
して、プロットした位置の領域に対応する応答辞書「ね
たみ喜1」を使用して概念“応答、元気”に対応するシ
ステム応答「元気が一番!」が生成され、音声出力部1
09から音声として出力される。
【0043】このように、本発明の実施例2の音声対話
装置によれば、通常、対話におけるユーザーの感情が1
度のやりとりで急激に変化しないことに注目し、ユーザ
ーとシステムのやりとりが一時に複数回繰り返される場
合に次のように動作する。すなわち、ユーザー感情パラ
メータ更新部105c(図7)が、ユーザー感情パラメ
ータが予め定められた回数以上連続して変化した場合に
のみ、ユーザーの感情が変化したと判断してユーザー感
情パラメータを更新するようにソフトウェアを構成して
ある。このような構成をとることにより、突然音声入力
手段から入力された雑音等から、誤ったユーザー感情パ
ラメータが生成され、それによって誤ったシステム感情
パラメータが生成されて応答が出力されるような事態を
避けることができる。
【0044】上記の構成により、雑音等の影響により、
音声の継続時間、発話速度、ポーズの有無、振幅、基本
周波数等から抽出されるユーザーの感情情報が急激に変
化した場合でも、ユーザー感情パラメータやシステム感
情パラメータは急激に変化しない。こうして対話内容に
まとまりのある、高性能なシステムを実現できる。その
結果、ユーザーのシステムに対する信頼度を向上するこ
とができる。
【0045】《実施例3》図11は、本発明の実施例3
の音声対話装置の構成を示すブロック図である。この実
施例3の音声対話装置の実施例1との相違点は、特定感
情パラメータ生成部103aを設けた点である。この特
定感情パラメータ生成部103aは、言語理解部103
から予め設定されている特定の概念信号が入力される
と、特定感情パラメータをシステム感情パラメータ生成
部106に出力する。この実施例3は他の点では、実施
例1と実質同様なので同一部分には同一参照符号を付し
て重複する説明は省略する。
【0046】図11において、特定感情パラメータ出力
部103aでは、言語理解部103から予め設定されて
いる特定の概念信号が入力されると、その概念信号に対
応する特定感情パラメータE4がシステム感情パラメー
タ生成部106に出力される。システム感情パラメータ
生成部106では、特定感情パラメータ出力部103a
から特定感情パラメータE4が入力されると、システム
感情パラメータの値が特定感情パラメータの値E4’に
変更される。
【0047】以上のように構成された本発明の実施例3
の音声対話装置について、以下、予め設定されている特
定の概念に“応答、バカ”が含まれているものとして、
その動作を図11〜図13を参照しつつ説明する。図1
1において、ユーザーが、システムとの対話において、
「バカじゃないの!」と発声したとすると、ユーザーの
発話「バカじゃないの!」が音声入力部101に入力さ
れる。音声認識部102および言語理解部103では、
実施例1と同様の処理が行われ、言語理解部103から
概念信号“応答、バカ”が特定感情パラメータ出力部1
03aに出力される。
【0048】図12は、言語理解部103から概念信号
“応答、バカ”が出力された時の処理の流れを表すフロ
ーチャートである。図12において、ステップS6で、
図11の言語理解部103から概念“応答、バカ”が出
力されると、特定感情パラメータ出力部103aは、図
12のフローチャートのステップS7において入力され
た概念信号“応答、バカ”が予め設定されている複数の
特定の概念信号であるかどうを検証する。検証した結
果、入力された概念信号が特定の概念信号であれば、そ
の特定の概念信号に対応する特定感情パラメータE4が
フローチャートの、ステップS8で示すように、特定感
情パラメータ出力部103aから出力される。入力され
た概念信号が特定の概念信号でなければ、特定感情パラ
メータは出力されず、言語理解部103に戻り、ステッ
プS11において言語理解部103からユーザー感情パ
ラメータ生成部105へ概念信号が出力される。そし
て、ステップS12で実施例1と同様の処理が行われ
る。
【0049】しかしこの例では、入力された概念信号は
“応答、バカ”であり、“応答、バカ”は特定の概念信
号であるので、ステップS8で、図11の特定感情パラ
メータ出力部103aから特定感情パラメータE4
(0,100,0,0)がシステム感情パラメータ生成
部106へ出力される。システム感情パラメータ生成部
106においては、ステップS9でユーザーが「バカじ
ゃないの!」と発話する前に記憶していたシステム感情
パラメータの値が、特定感情パラメータE4’(0,1
00,0,0)に変更される。
【0050】変更されたシステム感情パラメータE4’
は、ステップS10で応答文生成部107へ出力され
る。図13は、応答文生成部107に保持されている応
答辞書対応座標面の例である。図13に示すように、シ
ステム感情パラメータ生成部106から出力されたシス
テム感情パラメータE4’(0,100,0,0)は、
応答辞書対応座標面上の座標(0−0=0,0−100
=−100)にプロットされる。プロットされた領域が
応答辞書名「怒」に相当するので、応答辞書格納部10
8内の応答辞書名「怒」を使用して概念信号“応答、バ
カ”に対応するシステム応答「なんだと!もう許さん
!」が生成され、音声出力部109から音声として出力
される。
【0051】このように、本発明の実施例3の音声対話
装置によれば、特定の概念に相当する言葉をユーザーが
発声した場合に、特定感情パラメータ出力部103aで
特定感情パラメータを出力してシステムの感情を急激に
変化させることより、ユーザーに対して、システムが感
情を持っているという印象を強く与え、より親しみ易い
システムを実現することができる。その結果、ユーザー
のシステムに対する拒絶反応を無くすことができる。ま
た、対話に意外性を持たすことができるため、ユーザー
を飽きさせないシステムを実現することができる。
【0052】《実施例4》図14は、この実施例4の音
声対話装置において、図9の実施例の応答文生成部10
7をこの実施例用として変更した、応答文生成部10
7’の構成を示すブロック図である。この実施例4の音
声対話装置の、実施例2のものとの相違点は、応答文生
成部107’の構成にある。したがって、それ以外の実
施例2と実質同一の部分には同一参照符号を付して重複
する説明は省略する。
【0053】図14において、応答文生成部107’の
記憶部107aでは、常に、図9のユーザー感情パラメ
ータ生成部105’から出力されたユーザー感情パラメ
ータおよびシステム感情パラメータ生成部106から出
力されたシステム感情パラメータが保持される。そし
て、応答文生成部107’のパラメータ変化情報抽出部
107bでは、ユーザー感情パラメータ生成部105’
(図9)から出力されたユーザー感情パラメータの値
と、記憶部107aに保持されているユーザー感情パラ
メータの値との間の変化情報が抽出される。同様に、パ
ラメータ変化情報抽出部107bでは、システム感情パ
ラメータ生成部106から出力されたシステム感情パラ
メータと、応答文生成部107’の記憶部107aに保
持されているシステム感情パラメータとの変化情報が抽
出される。
【0054】それぞれの感情パラメータ変化情報が抽出
されると、入力されたユーザー感情パラメータおよびシ
ステム感情パラメータが、それまで記憶部107aに保
持されていたユーザー感情パラメータおよびシステム感
情パラメータに代わって保持される。そして、言語理解
部103から出力された概念信号と、システム感情パラ
メータ生成部106から出力されたシステム感情パラメ
ータと、抽出された変化情報とに基づいてシステムの応
答文が生成される。
【0055】以上のように構成されたこの実施例4の音
声対話装置における応答文生成部107’の動作につい
て説明する。但し以下の説明は、前述した実施例2の動
作説明におけるユーザーの7回目の発話「元気だよ」が
音声入力部101に入力され、その後、ユーザー感情パ
ラメータ更新部105cによってユーザー感情パラメー
タ記憶部105aに記憶されているユーザー感情パラメ
ータE1がE3に更新された時を例にとっている。
【0056】応答文生成部107’では、図9のユーザ
ー感情パラメータ生成部105’から出力されたユーザ
ー感情パラメータE3(55,25,40,55)と記
憶部107aに保持されているユーザー感情パラメータ
E1(25,40,80,20)とがパラメータ変化情
報抽出部107bで比較される。図15に示すように、
各ユーザー感情パラメータE1、E3を応答辞書対応座
標面の座標に変換すると、それぞれユーザー感情パラメ
ータE1の座標の位置は(−60,−15,図15の左
下側の黒楕円)、ユーザー感情パラメータE3の座標に
位置は(15,30,図15の右上側の黒楕円)とな
る。したがって、ユーザー感情パラメータE1からE3
に変化することで、座標上の位置がプラス方向に変化し
ているので、ユーザー感情パラメータにおける変化情報
“良くなった”がパラメータ変化情報抽出部107b
(図14)で抽出される。
【0057】同様に、システム感情パラメータ生成部1
06(図11)から出力されたシステム感情パラメータ
E3’(55,25,40,55)と、応答文生成部1
07’の記憶部107a(図14)に保持されているシ
ステム感情パラメータE1’(25,40,80,2
0)とがパラメータ変化情報抽出部107b(図14)
で比較される。図15に示すように、各システム感情パ
ラメータを応答辞書対応座標面の座標に変換すると、そ
れぞれシステム感情パラメータE1’の座標の位置は
(−60,−15)、システム感情パラメータE3’の
座標の位置は(15,30)となる。したがって、シス
テム感情パラメータE1’がE3’に変化することで座
標上の位置がプラス方向に変化している。それ故システ
ム感情パラメータにおける変化情報“良くなった”がパ
ラメータ変化情報抽出部107bで抽出される。
【0058】そして、応答辞書格納部108内のシステ
ム感情パラメータE3’の座標上の位置に対応する応答
辞書「ねたみ喜1」を使用して、言語理解部103から
出力された概念“応答、元気”と、抽出されたユーザー
感情パラメータの変化情報“良くなった”、システム感
情パラメータの変化情報“良くなった”とに基づいて、
システム応答「よかった!心配したんだからね!」が生
成される。そして、その応答「よかった!心配したんだ
からね!」が音声出力部109(図14)から音声とし
て出力される。
【0059】このように、本発明の実施例4の音声対話
装置によれば、応答文生成部107’において、ユーザ
ー感情パラメータおよびシステム感情パラメータの変化
情報を抽出してシステムの応答に反映させる。このこと
により、ユーザーやシステムの感情の変化に応じてシス
テム応答を変化させることができる。その結果、ユーザ
ーとシステムの間で、より自然な対話を実現することが
できる。
【0060】なお、感情情報抽出部104における感情
情報の抽出について、実施例1〜4の説明では、発話速
度と音声レベルを用いた例で説明したが、音声の継続時
間、発話速度、ポーズの有無、振幅、基本周波数等の
内、何れかを単独で使用しても良いし、すべてを使用し
ても良いし、複数組み合わせたものを使用しても良い。
また、システム感情パラメータ生成部106におけるシ
ステム感情パラメータの生成について、ここでは、ユー
ザー感情パラメータ生成部105で生成されたユーザー
感情パラメータを使用しているが、ユーザー感情パラメ
ータと言語理解部103から出力された概念信号との両
者を使用しても良い。
【0061】また、応答文生成部107におけるシステ
ムの応答文の生成について、上記実施例では、言語理解
部103から出力された概念信号、システム感情パラメ
ータ生成部106で生成されたシステム感情パラメー
タ、およびその変化情報を使用している。しかし、図1
或いは図9に点線で示すように、ユーザー感情パラメー
タ生成部105又は105’で生成されたユーザー感情
パラメータ、およびその変化情報を使用しても良い。さ
らに、これらの内、何れかを単独で使用しても良いし、
すべてを使用しても良いし、複数組み合わせて使用して
も良い。
【0062】
【発明の効果】以上実施例で詳細に説明したように、本
発明の音声対話装置によれば、下記の効果が得られる。
すなわち、ユーザー感情パラメータを、音声の特徴だけ
でなく言葉の意味つまり概念にも基づいて生成するた
め、ユーザーの感情をより正確に判定することができ
る。また、ユーザーの感情だけでなくシステムの感情を
も生成して応答を返すため、ユーザーとシステムの間
で、まるで人間同士のような対話を実現することができ
る。その結果、ユーザーはシステムに対してより親しみ
を感じることができ、ユーザーの音声対話装置は扱いに
くいという印象を取り除くことができる。
【0063】さらに、対話におけるユーザーの感情が1
度のやりとりで急激に変化することが殆どないことに注
目して、突然音声入力手段から入力された雑音等から誤
ったユーザー感情パラメータが生成され、それに応じて
誤ったシステム感情パラメータが生成されて応答が出力
されるといった事態を避けることができる。その結果、
雑音等の影響により、音声の継続時間、発話速度、ポー
ズの有無、振幅、基本周波数等から抽出されるユーザー
の感情情報が急激に変化した場合でも、対話内容にまと
まりのある、高性能なシステムを実現できる。その結
果、ユーザーのシステムに対する信頼度をさらに向上す
ることができる。
【0064】さらに、特定感情パラメータを生成するこ
とにより、ユーザーのある一言によってシステムの感情
を急激に変化させることができ、ユーザーに対して、シ
ステムが感情を持っているという印象を強く与え、より
親しみ易いシステムを実現することができる。その結
果、ユーザーのシステムに対する拒絶反応を無くすこと
ができる。また、対話に意外性を持たすことができるた
め、ユーザーを飽きさせないシステムを実現することが
できる。さらに、ユーザーやシステムの感情の変化に応
じてシステム応答を変化させることができ、ユーザーと
システムの間で、より自然な対話を実現することができ
る。
【図面の簡単な説明】
【図1】本発明の実施例1の音声対話装置の構成を示す
ブロック図。
【図2】実施例1の感情情報抽出部104における発話
速度を標準パターンと比較した結果から感情情報V1が
抽出される処理例を示す図。
【図3】実施例1の感情情報抽出部104における音声
レベルを標準パターンと比較した結果から感情情報L1
が抽出される処理例を示す図。
【図4】実施例1のユーザー感情パラメータ生成部10
5における、ユーザー感情パラメータが生成される方法
を表すフローチャート。
【図5】実施例1の応答文生成部107に保持されてい
る応答辞書対応座標面。
【図6】実施例1の応答文生成部107における、応答
文が生成される方法を表すフローチャート。
【図7】本発明の実施例2の音声対話装置におけるユー
ザー感情パラメータ生成部105’の構成を示すブロッ
ク図。
【図8】実施例2のユーザー感情パラメータ生成部10
5’における処理の流れを表すフローチャート。
【図9】本発明の実施例2の音声対話装置における各パ
ラメータの出力例を示すブロック図。
【図10】実施例2の応答文生成部107に保持されて
いる応答辞書対応座標面の例。
【図11】本発明の実施例3の音声対話装置の構成を示
すブロック図。
【図12】実施例3の言語理解部103aから特定の概
念信号が出力された時の処理の流れを表すフローチャー
ト。
【図13】実施例3の応答文生成部107’に保持され
ている応答辞書対応座標面の例。
【図14】実施例4の音声対話装置における応答文生成
部107’の構成を示すブロック図。
【図15】実施例4の応答文生成部107に保持されて
いる応答辞書対応座標面の例。
【図16】従来の音声対話装置の構成を示すブロック
図。
【符号の説明】
101 音声入力部 102 音声認識部 103 言語理解部 103a 特定感情パラメータ出力部 104 感情情報抽出部 105、105’ ユーザー感情パラメータ生成部 105a ユーザー感情パラメータ記憶部 105b ユーザー感情変化信号出力部 105c ユーザー感情パラメータ更新部 106 システム感情パラメータ生成部 107、107’ 応答文生成部 107a 記憶部 107b パラメータ変化情報抽出部 108 応答辞書格納部 109 音声出力部
───────────────────────────────────────────────────── フロントページの続き (72)発明者 朝山 砂子 大阪府門真市大字門真1006番地 松下電器 産業株式会社内 Fターム(参考) 5D015 AA01 AA05 AA06 BB01 HH04 LL06 5D045 AB30

Claims (8)

    【特許請求の範囲】
  1. 【請求項1】 システムとユーザーとの対話を実現する
    音声対話装置であって、 前記ユーザーの発話した音声を入力して音声信号を出力
    する音声入力手段、 前記音声入力手段から出力される音声信号を認識し、単
    語列として出力する音声認識手段、 前記音声認識手段から出力される前記単語列を前記ユー
    ザーの発話の意味を表す概念信号に変換する言語理解手
    段、 前記音声入力手段から出力される音声信号から前記ユー
    ザーの感情を抽出し、感情情報として出力する感情情報
    抽出手段、 前記感情情報抽出手段から出力される前記感情情報と、
    前記言語理解手段から出力される前記概念信号とに基づ
    いて前記ユーザーの感情を表すユーザー感情パラメータ
    を生成するユーザー感情パラメータ生成手段、 前記ユーザー感情パラメータ、もしくは、前記ユーザー
    感情パラメータと前記概念との両者に基づいて前記シス
    テムの感情を表すシステム感情パラメータを生成するシ
    ステム感情パラメータ生成手段、 前記概念信号、前記ユーザー感情パラメータ、または前
    記システム感情パラメータに基づいて前記システムの応
    答文を生成する応答文生成手段、および前記応答文を音
    声として出力する音声出力手段、 を備えたことを特徴とする音声対話装置。
  2. 【請求項2】 前記感情情報抽出手段は、前記音声入力
    手段から出力される音声信号における前記音声の継続時
    間、発話速度、音声の休止期間(以下、ポーズと言う)
    の有無、振幅、および基本周波数等の音声の状態を表す
    数値に基づいて前記感情情報を生成する、ことを特徴と
    する請求項1記載の音声対話装置。
  3. 【請求項3】 前記感情情報、前記ユーザー感情パラメ
    ータ、及び前記システム感情パラメータは、「喜」、
    「怒」、「哀」、「楽」等の少なくとも1つ以上の感情
    変数から構成されている、ことを特徴とする請求項1ま
    たは請求項2記載の音声対話装置。
  4. 【請求項4】 前記ユーザー感情パラメータ生成手段
    は、前記言語理解手段から出力される前記概念信号に基
    づいて概念感情情報を生成し、前記概念感情情報と、前
    記感情情報抽出手段から出力された前記感情情報とに基
    づいてユーザー感情パラメータを生成する、ことを特徴
    とする請求項1〜3のいずれかに記載の音声対話装置。
  5. 【請求項5】 前記概念感情情報は、予め用意してある
    前記概念信号に対応する感情変数テーブルに基づいて生
    成される、ことを特徴とする請求項4記載の音声対話装
    置。
  6. 【請求項6】 前記ユーザー感情パラメータ生成手段
    (105’)は、 前記ユーザー感情パラメータを記憶するユーザー感情パ
    ラメータ記憶手段、 新たに生成した前記ユーザー感情パラメータと前記ユー
    ザー感情パラメータ記憶手段に記憶されているユーザー
    感情パラメータとを比較して、その変化量が予め定めら
    れた値以上の場合にはユーザー感情変化信号を出力する
    ユーザー感情変化信号出力手段、および前記ユーザー感
    情変化信号が連続出力される回数をカウントしてその回
    数が予め定められた値以上の場合に前記ユーザー感情パ
    ラメータ記憶手段に記憶されているユーザー感情パラメ
    ータを更新するユーザー感情パラメータ更新手段、 を備えたことを特徴とする請求項1〜5のいずれかに記
    載の音声対話装置。
  7. 【請求項7】 前記言語理解手段から出力される前記概
    念信号が予め設定されている特定の概念信号に一致して
    いる場合に特定感情パラメータを出力する特定感情パラ
    メータ出力手段、および前記特定感情パラメータが入力
    されると前記システム感情パラメータの値を前記特定感
    情パラメータの値に変更するシステム感情パラメータ生
    成手段を備えたことを特徴とする請求項1〜6のいずれ
    かに記載の音声対話装置。
  8. 【請求項8】 前記応答文生成手段は、前記ユーザー感
    情パラメータ生成手段から出力される前記ユーザー感情
    パラメータ、および前記システム感情パラメータ生成手
    段から出力されるシステム感情パラメータのそれぞれの
    変化情報を抽出し、それぞれの変化情報に基づいて前記
    システムの応答文を生成することを特徴とする請求項1
    から8のいずれかに記載の音声対話装置。(図14)
JP2000313912A 2000-10-13 2000-10-13 音声対話装置 Pending JP2002123289A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000313912A JP2002123289A (ja) 2000-10-13 2000-10-13 音声対話装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000313912A JP2002123289A (ja) 2000-10-13 2000-10-13 音声対話装置

Publications (1)

Publication Number Publication Date
JP2002123289A true JP2002123289A (ja) 2002-04-26

Family

ID=18793250

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000313912A Pending JP2002123289A (ja) 2000-10-13 2000-10-13 音声対話装置

Country Status (1)

Country Link
JP (1) JP2002123289A (ja)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004016743A (ja) * 2002-06-20 2004-01-22 P To Pa:Kk 遊技機、遊技制御方法及びプログラム
JP2004065309A (ja) * 2002-08-01 2004-03-04 P To Pa:Kk 遊技機、遊技制御方法及びプログラム
JP2004073668A (ja) * 2002-08-21 2004-03-11 P To Pa:Kk 競走遊技装置、競走遊技制御方法及びプログラム
WO2004027527A1 (ja) * 2002-09-20 2004-04-01 Matsushita Electric Industrial Co., Ltd. 対話型装置
WO2005027091A1 (en) * 2003-09-12 2005-03-24 Toyota Infotechnology Center Co., Ltd. Method and system for adjusting the voice prompt of an interactive system based upon the user's state
JP2006031467A (ja) * 2004-07-16 2006-02-02 Fujitsu Ltd 応答生成プログラム、応答生成方法、および応答生成装置
JP2006178063A (ja) * 2004-12-21 2006-07-06 Toyota Central Res & Dev Lab Inc 対話処理装置
KR101168312B1 (ko) * 2010-02-16 2012-07-25 모젼스랩(주) 가중치를 이용한 응답문 생성장치 및 방법
JP2014219594A (ja) * 2013-05-09 2014-11-20 ソフトバンクモバイル株式会社 会話処理システム及びプログラム
JP2018147452A (ja) * 2017-03-09 2018-09-20 岩崎通信機株式会社 ドアシステム、およびドアシステムを用いた監視方法
CN108885594A (zh) * 2016-04-12 2018-11-23 索尼公司 信息处理装置、信息处理方法和程序
CN111833907A (zh) * 2020-01-08 2020-10-27 北京嘀嘀无限科技发展有限公司 一种人机交互方法与终端、计算机可读存储介质
JP2021510851A (ja) * 2018-01-26 2021-04-30 上海智臻智能網絡科技股▲ふん▼有限公司Shanghai Xiaoi Robot Technology Co.,Ltd. インテリジェントインタラクション方法、装置、コンピュータデバイス及びコンピュータ読取可能な記憶媒体

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004016743A (ja) * 2002-06-20 2004-01-22 P To Pa:Kk 遊技機、遊技制御方法及びプログラム
JP2004065309A (ja) * 2002-08-01 2004-03-04 P To Pa:Kk 遊技機、遊技制御方法及びプログラム
JP2004073668A (ja) * 2002-08-21 2004-03-11 P To Pa:Kk 競走遊技装置、競走遊技制御方法及びプログラム
WO2004027527A1 (ja) * 2002-09-20 2004-04-01 Matsushita Electric Industrial Co., Ltd. 対話型装置
US7881934B2 (en) 2003-09-12 2011-02-01 Toyota Infotechnology Center Co., Ltd. Method and system for adjusting the voice prompt of an interactive system based upon the user's state
WO2005027091A1 (en) * 2003-09-12 2005-03-24 Toyota Infotechnology Center Co., Ltd. Method and system for adjusting the voice prompt of an interactive system based upon the user's state
JP2006031467A (ja) * 2004-07-16 2006-02-02 Fujitsu Ltd 応答生成プログラム、応答生成方法、および応答生成装置
JP4508757B2 (ja) * 2004-07-16 2010-07-21 富士通株式会社 応答生成プログラム、応答生成方法、および応答生成装置
JP2006178063A (ja) * 2004-12-21 2006-07-06 Toyota Central Res & Dev Lab Inc 対話処理装置
KR101168312B1 (ko) * 2010-02-16 2012-07-25 모젼스랩(주) 가중치를 이용한 응답문 생성장치 및 방법
JP2014219594A (ja) * 2013-05-09 2014-11-20 ソフトバンクモバイル株式会社 会話処理システム及びプログラム
CN108885594A (zh) * 2016-04-12 2018-11-23 索尼公司 信息处理装置、信息处理方法和程序
JP2018147452A (ja) * 2017-03-09 2018-09-20 岩崎通信機株式会社 ドアシステム、およびドアシステムを用いた監視方法
JP2021510851A (ja) * 2018-01-26 2021-04-30 上海智臻智能網絡科技股▲ふん▼有限公司Shanghai Xiaoi Robot Technology Co.,Ltd. インテリジェントインタラクション方法、装置、コンピュータデバイス及びコンピュータ読取可能な記憶媒体
US11373641B2 (en) 2018-01-26 2022-06-28 Shanghai Xiaoi Robot Technology Co., Ltd. Intelligent interactive method and apparatus, computer device and computer readable storage medium
CN111833907A (zh) * 2020-01-08 2020-10-27 北京嘀嘀无限科技发展有限公司 一种人机交互方法与终端、计算机可读存储介质

Similar Documents

Publication Publication Date Title
JP3968133B2 (ja) 音声認識対話処理方法および音声認識対話装置
JP3284832B2 (ja) 音声認識対話処理方法および音声認識対話装置
US5946658A (en) Cartridge-based, interactive speech recognition method with a response creation capability
US20050119883A1 (en) Speech recognition device and speech recognition method
JP2002123289A (ja) 音声対話装置
JP4729902B2 (ja) 音声対話システム
US20080033724A1 (en) Method for generating a context-based voice dialogue output in a voice dialog system
US20080154591A1 (en) Audio Recognition System For Generating Response Audio by Using Audio Data Extracted
JP2002169590A (ja) 模擬会話システム、模擬会話方法、および情報記憶媒体
JP2018013549A (ja) 発話内容認識装置
JPS6326700A (ja) 音声認識システム
Boite et al. A new approach towards keyword spotting.
JP2001296885A (ja) 文法制約を有するラベル機能を使用する口頭発話拒否
JP2003163951A (ja) 音信号認識システムおよび音信号認識方法並びに当該音信号認識システムを用いた対話制御システムおよび対話制御方法
JPS597998A (ja) 連続音声認識装置
CN113555027A (zh) 语音情感转换方法、装置、计算机设备及存储介质
JP3179370B2 (ja) おしゃべりオウム発声装置
JP3132815B2 (ja) 玩具用音声認識装置
JP2980382B2 (ja) 話者適応音声認識方法および装置
JPH11175093A (ja) 音声認識確認応答方法
JP2005148764A (ja) 音声認識対話処理方法および音声認識対話装置
JP2656234B2 (ja) 会話音声理解方法
JP2000242295A (ja) 音声認識装置および音声対話装置
JPH06175689A (ja) 音声認識反応装置
KR102649028B1 (ko) 음성 합성 시스템의 동작방법