JP2002196789A - 音声対話装置 - Google Patents

音声対話装置

Info

Publication number
JP2002196789A
JP2002196789A JP2000392998A JP2000392998A JP2002196789A JP 2002196789 A JP2002196789 A JP 2002196789A JP 2000392998 A JP2000392998 A JP 2000392998A JP 2000392998 A JP2000392998 A JP 2000392998A JP 2002196789 A JP2002196789 A JP 2002196789A
Authority
JP
Japan
Prior art keywords
recognition
voice
autonomous response
data
response sentence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000392998A
Other languages
English (en)
Inventor
Naoko Oi
直子 大井
Yoshihiro Kojima
良宏 小島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2000392998A priority Critical patent/JP2002196789A/ja
Publication of JP2002196789A publication Critical patent/JP2002196789A/ja
Pending legal-status Critical Current

Links

Abstract

(57)【要約】 【課題】 音声対話装置では、音声対話が単調になると
ユーザーが飽きてしまうことが多く、ユーザーが音声対
話の単調さを感じない音声対話装置の実現が求められて
いる。 【解決部】 入力音声の認識結果に対する応答文を出力
する対話処理部は、認識に成功した場合は認識文字列を
出力し、認識に失敗した場合は認識リジェクト信号を出
力する認識結果判定部を含む認識結果出力部と、認識失
敗の場合に音声出力される自律応答文を格納している自
律応答辞書を検索し、自律応答文を出力する自律応答文
出力部を備える。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、外部からの音声を
認識しその認識結果に応じて音声による応答(発話)を
行う音声対話装置に関するものである。
【0002】
【従来の技術】音声対話装置は、その装置のユーザーが
発する音声に対して音声合成回路でつくられた音声によ
って適宜応答する装置であり、ゲーム機や玩具等で利用
されている。このような音声対話装置では、ユーザーと
の対話の際の表現の不自然さを克服する工夫がなされて
きた。例えば特開平7−239694号公報に示されて
いる音声対話装置では、対話履歴を利用することによっ
て自然な対話を実現しようとしている。また、特開平8
−297498号公報に示されている音声認識対話装置
では、時間や環境の変化を検出する手段を用いて応答の
音声データに重みづけをして、状況や環境に応じて適切
な応答ができるようにしている。
【0003】
【発明が解決しようとする課題】従来の音声対話装置で
はユーザーが音声を発し、その音声がマイクロフォンを
経て電気信号の音声入力として得られたとき、それに音
声で応答する(以下、発話という)ものがほとんどであ
る。従ってユーザーが音声入力を行わなければ発話は行
われない。音声対話装置をおもちゃ、ゲーム機、バーチ
ャルペット等に用いる場合、ユーザーが話し掛けなけれ
ば発話が行われないものでは、ユーザーが初めて音声で
対話を行うとき、何を話し掛けてよいのかとまどうこと
がある。また、音声による応答の内容が容易に予想可能
であったり、ユーザーの音声入力に対して定形的な内容
の応答しか得られなかったりすると、対話の内容が単調
になる。その結果、ユーザーが意外性を感じることは少
なくなり、やがて飽きてしまうことが多い。音声対話装
置では、ユーザーが音声対話装置との対話に単調さを感
じないものを実現することが求められている。本発明
は、音声対話装置に自発的に発話する機能を持たせるこ
とによって、音声対話が単調にならないような音声対話
装置を提供することを目的としている。
【0004】
【課題を解決するための手段】本発明の音声対話装置
は、音声を検出しそれに対応する音声信号を出力する音
声入力部、前記音声入力部から入力された音声信号から
音声の文字列を認識する音声認識部、前記音声認識部で
認識された文字列による入力文データに対する応答文デ
ータを出力する対話処理部、前記応答文データを音声と
して出力する音声出力部を有する。前記対話処理部は、
認識した文字列に基づいて認識に成功したか認識に失敗
したかを判定し、認識に成功した場合には認識文字列を
示すデータを出力し、認識に失敗した場合には自律応答
文出力部に認識リジェクト信号を出力する認識結果判定
部を含む認識結果出力部、前記認識結果出力部において
認識が成功したと判定された場合に音声で出力される応
答文のデータを格納している応答辞書、前記認識結果出
力部において認識が失敗したと判定された場合に音声で
出力される自律応答文データを格納している自律応答辞
書、前記認識文字列による入力文データが入力された場
合に、前記応答辞書を検索し前記入力文データに対応す
る応答文データを出力する応答文出力部、前記認識リジ
ェクト信号が入力された場合には、前記自律応答辞書を
検索し自律応答文データを出力する自律応答文出力部、
及び前記応答文及び自律応答を音声として出力する音声
出力部を有する。
【0005】本発明の音声対話装置によれば、音声をマ
イクロフォンで検出して得た音声信号を音声認識部に入
力し、音声の文字列を認識する。文字列の認識結果か
ら、認識結果判定部は、認識に成功したか失敗したかの
判定を行い、認識に成功した場合は、認識した文字列に
よる入力文データを応答文出力部に出力する。応答文出
力部は入力文データに対応する応答文のデータを出力す
る。認識に失敗した場合は、認識結果判定部は認識リジ
ェクト信号を自律応答文出力部に出力する。自律応答文
出力部は、認識リジェクト信号が入力されると、自律応
答辞書を検索して自律応答文のデータを音声出力部に出
力する。これによって、認識に失敗した場合にも音声対
話装置から自律的に応答文を発話することができ、ユー
ザーが対話に飽きないようにすることができる。
【0006】
【発明の実施の形態】以下、本発明の好適な実施例を、
図1から図8を用いて説明する。 《第1実施例》図1は本発明の音声対話装置の構成を示
すブロック図である。図1において、マイクロフォン1
00はユーザーが発する音声を検出し、音声信号を音声
入力部101に入力する。音声入力部101で所望のレ
ベルに増幅された音声信号101Aは音声認識部102
に入力される。音声認識部102において、音声信号1
01Aから音声の文字列を検出して音声を認識する。音
声認識部102の詳細な構成を図2に示す。図2は、音
声認識装置として従来からよく知られている構成であ
り、音声信号101Aが入力される音響分析部801,
距離計算部802,及び認識辞書803を有する。
【0007】音響分析部801は、音声信号101Aの
特徴パラメータ801Aを抽出し距離計算部802に印
加する。距離計算部802において、特徴パラメータ8
01Aと、単語標準音声パターンとして認識辞書803
に登録されている各単語の特徴パラメータとをマッチン
グアルゴリズムを用いて比較する。マッチングアルゴリ
ズムでは、例えば特徴パラメータ801Aの各次元のベ
クトルと単語標準音声パターンの各次元のベクトルとの
距離をそれぞれ算出しその総和を求める。この総和を入
力音声信号101Aのパターンと単語標準音声パターン
との距離Xとする。次に距離Xが最小の場合を最高点
(例えば100)となるように正規化して、これを認識
文字列の信頼度Yとする。そして信頼度Yが最も高い単
語標準音声パターンに対応する認識文字列と、信頼度Y
を「認識結果」の入力文データ102Aとして出力す
る。マッチングアルゴリズムの詳細については、森健一
監修「パターン認識」電子情報通信学会(pp.111
−113)に記載されている。
【0008】音声認識部102によって得られた認識結
果の入力文データ102Aは対話処理部103に入力さ
れる。対話処理部103は、認識結果に対する応答文デ
ータ103Aを生成する。応答文データ103Aは音声
出力部104で音声信号に変換されスピーカ120から
音声で応答文として発せられる。対話処理部103に
は、認識結果判定部110を備えた認識結果出力部10
5、応答文を出力するための応答辞書107と応答文出
力部106、及び自律応答文を出力するための自律応答
辞書109と自律応答文出力部108が含まれる。自律
応答文とは、ユーザーが所定の時間内に音声を発しない
とき、又はユーザーの音声が認識されなかったときに、
音声対話装置が発するあらかじめ定められた定形文であ
る。認識結果判定部110は、認識文字列とその信頼度
Yのデータからなる入力文データ102Aに基づいて認
識に成功したか失敗したかの判定を行う。認識結果判定
部110は、信頼度Yが予め設定された値(例えば7
0)以上なら認識が成功したと判定し、そうでなければ
認識が失敗したと判定する。認識に成功したと判定した
場合は、認識文字列データ110Aを応答文出力部10
6に出力する。応答文出力部106は応答辞書107を
検索して認識文字列に対応する応答文を求めそのデータ
を音声出力部104に出力する。応答辞書107には、
認識が成功したと判定された場合に出力される多数の応
答文例のデータが格納されている。認識に失敗したと判
定された場合は、認識結果判定部110から認識リジェ
クト信号110Bが自律応答文出力部108に出力され
る。自律応答文出力部108は自律応答辞書109を検
索して適当な自律応答文を求めそのデータを音声出力部
104に出力する。自律応答辞書109には、認識が失
敗したと判定された場合に出力される多数の自律応答文
例のデータが格納されている。
【0009】認識結果出力部105にはタイマー111
とカウンタ112が含まれている。なお、カウンタ11
2は第1の実施例では使用しておらず、第3の実施例で
使用する。タイマー111は、認識結果に対応して応答
文が音声出力部104から出された後、次の音声が入力
されその認識結果の入力文データ102Aが認識結果判
定部110に入力されるまでの時間(以下、この時間を
認識待ち時間と呼ぶことにする)を計測する。また応答
文が出された後次の音声が入力されるまでの時間に閾値
を予め設定しておく(以下、この時間を音声入力待ち受
け時間と呼ぶことにする)。音声入力待ち受け時間内
(認識待ち時間<音声入力待ち受け時間)に認識が成功
しない場合は、認識結果判定部110は認識リジェクト
信号110Bを出力する。
【0010】図3は第1の実施例の音声対話処理の動作
の流れを示したフローチャートである。タイマー111
が時間計測を開始すると(ステップ201)、認識結果
判定部110は、音声待ち受け時間内に認識が成功する
か失敗するかを判定する(ステップ202)。認識が成
功した場合は認識文字列データ110Aを応答文出力部
106に出力する(ステップ203)。応答文出力部1
06は応答辞書107から認識文字列による入力文デー
タ102Aに対応する応答文データを検索し、音声出力
部104に出力する(ステップ204)。音声を出力し
た後(ステップ207)、タイマー111を初期化し
(ステップ208)、再び認識待ち時間の計測を開始す
る(ステップ201)。
【0011】ステップ202において、認識に失敗した
場合は、認識結果判定部110は、認識リジェクト信号
110Bを自律応答文出力部108に出力する(ステッ
プ205)。認識リジェクト信号110Bを受け取った
自律応答文出力部108は自律応答辞書109から自律
応答文を検索し、応答文データ103Aとして音声出力
部104に出力する(ステップ206)。自律応答文を
音声で出力した後(ステップ207)、タイマー111
を初期化し(ステップ208)、再び認識待ち時間の計
測を開始する(ステップ201)。これにより、音声入
力待ち受け時間内に音声入力がない場合には音声対話装
置から自律的に発話させることができ、ユーザーを対話
に飽きさせないようにすることができる。
【0012】《第2の実施例》第2の実施例の音声対話
装置は図1に示す第1の実施例と同様の構成を有する。
第2の実施例では、音声対話の動作が第1実施例と異な
っている。図1の認識結果出力部105に含まれるタイ
マー111が、認識待ち時間の計測とタイマー111が
初期化されてから認識が成功するまでの経過時間(以
下、認識成功待ち時間と呼ぶことにする)の計測をす
る。図4は第2の実施例の音声対話処理を示すフローチ
ャートである。ステップ301でタイマー111が時間
計測を開始すると、認識結果判定部110は、音声待ち
受け時間内に認識が成功するか失敗するかを判定する
(ステップ302)。認識が成功したと判定された場合
は認識文字列データ110Aを応答文出力部106に出
力する(ステップ303)。応答文出力部106は応答
辞書107から認識文字列に対応する応答文を検索し
(ステップ304)、応答文データ103Aを音声出力
部104に出力する(ステップ305)。タイマー11
1の認識成功待ち時間と認識待ち時間を初期化し(ステ
ップ306、ステップ310)、再び認識成功待ち時間
と認識待ち時間の計測を開始する(ステップ301)。
【0013】ステップ302において、認識に失敗した
と判定された場合は、認識結果判定部110は、認識リ
ジェクト信号110Bを自律応答文出力部108に出力
する(ステップ307)。認識リジェクト信号110B
を受け取った自律応答文出力部108は自律応答辞書1
09から自律応答文を検索し、応答文データ103Aと
して音声出力部104に出力する(ステップ308)。
音声出力後(ステップ309)、タイマー111の音声
入力待ち受け時間を初期化し(ステップ310)、再び
認識待ち時間の計測を開始する(ステップ301)。ス
テップ307において、認識リジェクト信号110Bの
出力時に、タイマー111から認識成功待ち時間のデー
タを自律応答文出力部108に出力する。このとき自律
応答文出力部108がタイマー111に記録されている
認識成功待ち時間を読み取ってもよい。
【0014】自律応答辞書109には認識成功待ち時間
のデータに対応した自律応答文のデータが格納されてい
る。図5の(a)は自律応答辞書109のデータ構造の
一例を示す表である。自律応答辞書109には認識成功
待ち時間データ401と自律応答文データ402が対に
なって格納されている。認識成功待ち時間は、タイマー
111が初期化されてからの経過時間を表し、認識が成
功するとタイマー111は再び初期化される。具体的な
自律応答辞書のデータの例を図5の(b)に示す。図5
の(b)に示すように、認識リジェクト信号が出力され
たとき、タイマー111に記録されている認識成功待ち
時間が「時間00」の場合は、「何か話して」という自
律応答文が出力される。「時間01」、「時間02」で
は何も出力されない。「時間03」のときは「誰かいな
いの?」という自律応答文が出力される。
【0015】なお、自律応答辞書109には必ずしも認
識待ち時間データ401が格納されていなくてもよい。
例えば、自律応答辞書109に認識成功待ち時間データ
の値が小さい順にそれらに対応する自律応答文データを
行ごとに格納しておき、認識成功待ち時間に対応する行
に格納されている自律応答文を出力してもよい。第2の
実施例では、タイマー111は音声待ち受け時間を計測
すると同時に、認識成功待ち時間を計測する。すなわ
ち、音声待ち受け時間ごとにステップ302の判定を行
う。ステップ306のタイマー111の初期化は、認識
成功待ち時間の初期化を行い、ステップ310のタイマ
ーの初期化は、音声入力待ち受け時間の初期化を行う。
この場合はステップ306はなくてもよい。このように
して、認識待ち時間に対応する自律応答文を出力するこ
とによって音声対話装置が自律的に発話する条件を設定
することができる。これにより発話タイミングや発話内
容に変化をつけることができるので、ユーザーを対話に
飽きさせないようにすることができる。
【0016】《第3の実施例》第3の実施例の音声対話
装置は図1に示すものと同じである。第3の実施例では
認識結果出力部105に含まれるタイマー111の動作
は第1の実施例と同様であるが、カウンタ112が、音
声入力待ち受け時間内に認識が失敗したと判定された回
数を数えて記録する。図6は第3の実施例の音声対話処
理を示すフローチャートである。ステップ501でタイ
マー111が時間計測を開始すると、認識結果判定部1
10は、音声待ち受け時間内に認識が成功するか失敗す
るかを判定する(ステップ502)。認識が成功したと
判定された場合は認識文字列データ110Aを応答文出
力部106に出力する(ステップ503)。応答文出力
部106は、応答辞書107から認識文字列データ11
0Aに対応する応答文のデータを検索し(ステップ50
4)、音声出力部104に応答文データ103Aとして
出力する(ステップ505)。ステップ505で音声を
出力した後、ステップ511でカウンタ112の記録回
数を初期化し、ステップ512でタイマー111を初期
化して、再び認識待ち時間の計測を開始する(ステップ
501)。
【0017】ステップ502において、認識に失敗した
場合は、カウンタ112に記録されている回数(以下、
カウンタ記録回数と呼ぶことにする)が1つ増える。ス
テップ507で、カウンタ記録回数が予め設定されてい
る一定の回数を超えたかどうかを判定する。超えている
場合は、認識結果判定部110は、認識リジェクト信号
110Bを自律応答文出力部108に出力する(ステッ
プ508)。認識リジェクト信号を受け取った自律応答
文出力部108は自律応答辞書109から自律応答文の
データを検索し(ステップ509)、音声出力部104
に出力する(ステップ510)。ステップ510で音声
を出力した後、ステップ511でカウンタ記録回数を初
期化し、ステップ512でタイマー111を初期化し、
再び認識待ち時間の計測を開始する(ステップ50
1)。ステップ507において、カウンタ記録回数が予
め設定されている回数を超えない場合は、ステップ51
2でタイマー111を初期化し、再び認識待ち時間の計
測を開始する(ステップ501)。なお、ステップ50
5の後、ステップ511を行わずにステップ512を行
ってもよい。このようにして、カウンタ112に記録さ
れた回数に対応する自律応答文を出力することによって
音声対話装置が自律的に発話する条件を設定することが
できる。これにより発話タイミングや発話内容に変化を
つけることができるので、ユーザーを対話に飽きさせな
いようにすることができる。
【0018】《第4の実施例》第4の実施例の音声対話
装置は図1に示すものと同じである。第4の実施例にお
いては、自律応答辞書109が、カウンタ112のカウ
ンタ記録回数データに対応する自律応答文のデータを格
納している。認識結果測定部110が認識リジェクト信
号110Bを出力すると、カウンタ112はカウンタ記
録回数データを自律応答文出力部108に出力する。こ
の場合自律応答文出力部108がカウンタ112にカウ
ンタ記録回数を読み取りに行ってもよい。図7の(a)
は自律応答辞書のデータ構造の一例を示す表である。自
律応答辞書にはカウンタ記録の回数データ601と自律
応答文のデータ602とが対になって格納されている。
図7の(b)に具体的な自律応答辞書109の内容の例
を示す。図7の(b)に示すように、認識リジェクト信
号110Bが出力されたときカウンタ112に記録され
ているカウンタ記録回数が「回数00」の場合は、「何
か話して」という自律応答文を出力し、「回数01」
「回数02」では何も出力しない。「回数03」のとき
は「誰かいないの?」という自律応答文を出力する。
【0019】なお、自律応答辞書109にはカウンタ記
録回数データ601は格納されていなくてもよい。例え
ば、自律応答辞書109にカウンタ記録回数データの小
さい順にそれらに対応する自律応答文データが行ごとに
格納されており、カウンタ記録回数データに対応する行
に格納されている自律応答文データを出力してもよい。
このようにして、カウンタ112に記録された回数に対
応する自律応答文を出力することによって音声対話装置
が自律的に発話する条件を設定することができる。これ
により、発話タイミングや発話内容に変化をつけること
ができるので、ユーザーを対話に飽きさせないようにす
ることができる。
【0020】《第5の実施例》第5の実施例の音声対話
装置は図1に示すものと同じである。第5の実施例では
自律応答辞書109が日時に対応した自律応答文を格納
している。例えば、認識結果判定部110から認識リジ
ェクト信号110Bが出力されたときの日時のデータに
対応する自律応答文のデータを自律応答辞書109から
検索する。図8の(a)は自律応答辞書109のデータ
構造の一例を示す表である。自律応答辞書109には時
刻あるいは日付のデータ701と自律応答文のデータ7
02が格納されている。図8の(b)に具体的な自律応
答辞書109の内容の一例を示す。図8の(b)におい
て、左欄には、時間または期日の範囲のデータが格納さ
れ、右欄には、各時間または期日の範囲に対応する自律
応答文のデータが格納されている。
【0021】例えば、図8の(b)において、認識リジ
ェクト信号110Bの発生時刻が7:00ならば、「お
はようございます」という自律応答文を出力し、20:
30ならば、「こんばんは」という自律応答文を出力す
る。また日付が1月1日ならば、「あけましておめでと
う」という自律応答文を出力する。一年のすべての日付
に対応する自律応答文がない場合でも、例えば、国民の
祝日や、12月25日(クリスマス)のような特別な日
には、その日に対応する自律応答文を格納しておき、そ
の日に対応する自律応答文を出力する。対応する自律応
答文がない日には時刻に対応した自律応答文を出力して
もよい。「あけましておめでとう」などの自律応答文は
同じ日には1度しか出力せず、あとは時刻に対応した自
律応答文を出力するようにしてもよい。また日付や時刻
に優先順位や出力条件をつけておいてもよい。これによ
り、ユーザーは音声対話装置との対話によって時間的・
季節的な変化を感じることができる。なお、前記の各実
施例において自律応答辞書を複数備えていてもよい。
【0022】
【発明の効果】以上の各実施例で詳細に説明したよう
に、本発明によれば、音声入力がない場合にも音声対話
装置から自律的に発話させることにより、ユーザーを対
話に飽きさせないようにすることができる。さらに、タ
イマーで計測した認識成功待ち時間データに対応する自
律応答文データを自律応答辞書に格納し、自律応答文出
力部が、自律応答辞書を検索して認識待ち時間データに
対応する自律応答文データを出力することができる。ま
た自律応答辞書にカウンタに記録された回数データに対
応する自律応答文データを格納し、自律応答文出力部で
自律応答辞書を検索し、カウンタに記録された回数に対
応する自律応答文を出力することによって、音声対話装
置が自律的に発話する条件を設定することができる。こ
れにより発話タイミングや発話内容に変化をつけること
ができるのでユーザーを対話に飽きさせないようにする
ことができる。さらに、認識リジェクト信号入力時の日
時データに対応する前記自律応答文データを自律応答辞
書に格納しておく。自律応答文出力部は自律応答辞書を
検索し、認識リジェクト信号入力時の日時に対応する自
律応答文を出力することによって時間や季節に応じた自
律応答を出力することができ、ユーザーは対話に時間的
・季節的な変化を感じることができる。
【図面の簡単な説明】
【図1】本発明の各実施例に共通の音声対話装置のブロ
ック図
【図2】音声認識部102のブロック図
【図3】本発明の第1の実施例における音声対話処理を
示すフローチャート
【図4】本発明の第2の実施例における音声対話処理を
示すフローチャート
【図5】本発明の第2の実施例における自律応答辞書の
構造を示す表
【図6】本発明の第3の実施例における音声対話処理を
示すフローチャート
【図7】本発明の第4の実施例における自律応答辞書の
構造を示す表
【図8】本発明の第5の実施例における自律応答辞書の
構造を示す表
【符号の説明】
100 マイクロフォン 101 音声入力部 102 音声認識部 103 対話処理部 104 音声出力部 105 認識結果出力部 106 応答文出力部 107 応答辞書 108 自律応答文出力部 109 自律応答辞書 110 認識結果判定部 111 タイマー 112 カウンタ 401 認識成功待ち時間 402 自律応答文 601 カウンタ記録回数 602 自律応答文 701 時刻・日付 702 自律応答文
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G10L 3/00 561A

Claims (8)

    【特許請求の範囲】
  1. 【請求項1】 音声を検出しそれに対応する音声信号を
    出力する音声入力部、 前記音声入力部から入力された音声信号から音声の文字
    列を認識する音声認識部、 前記音声認識部で認識された文字列による入力文データ
    に対する応答文データを出力する対話処理部、 前記応答文データを音声として出力する音声出力部を有
    し、 前記対話処理部は、 認識した文字列に基づいて、認識に成功したか認識に失
    敗したかを判定し、認識に成功した場合には認識文字列
    データを出力し、認識に失敗した場合には、自律応答文
    出力部に認識リジェクト信号を出力する認識結果判定部
    を含む認識結果出力部、 前記認識結果出力部において認識が成功したと判定され
    た場合に、音声で出力される応答文のデータを格納して
    いる応答辞書、 前記認識結果出力部において認識が失敗したと判定され
    た場合に、音声で出力される自律応答文のデータを格納
    している自律応答辞書、 前記認識文字列による入力文データが入力された場合
    に、前記応答辞書を検索し、前記入力文データに対応す
    る応答文データを出力する応答文出力部、及び前記認識
    リジェクト信号が入力された場合には、前記自律応答辞
    書を検索し、自律応答文データを出力する自律応答文出
    力部、 を有する音声対話装置。
  2. 【請求項2】 前記入力文データは認識文字列のデータ
    とその信頼度を示す信頼度データからなり、 前記認識結果判定部は、前記認識文字列の信頼度データ
    値が予め設定された所定値以上であれば認識が成功した
    と判定し、所定値より小さいとき認識が失敗したと判定
    することを特徴とする請求項1記載の音声対話装置。
  3. 【請求項3】 認識結果出力部は、前記音声出力部によ
    って音声が出力された後、前記認識結果判定部に次の認
    識結果を示す入力文データが入力されるまでの認識待ち
    時間を計測するタイマーを有し、 前記認識結果判定部は、前記認識待ち時間が予め設定さ
    れた音声入力待ち受け時間を超えるまでに認識が成功し
    たと判定されない場合に、前記認識リジェクト信号を出
    力することを特徴とする請求項2記載の音声対話装置。
  4. 【請求項4】 認識結果出力部は、前記認識待ち時間
    が、予め設定された音声入力待ち受け時間を超えるまで
    に、前記認識結果判定部において認識に失敗したと判定
    された回数を数えるカウンタを有し、 前記認識結果判定部は、前記カウンタに記録された回数
    が予め設定された回数を超えた場合に、前記認識リジェ
    クト信号を出力することを特徴とする請求項3記載の音
    声対話装置。
  5. 【請求項5】 前記認識結果判定部は、認識に成功した
    と判定された場合には、前記カウンタをリセットするこ
    とを特徴とする請求項4記載の音声対話装置。
  6. 【請求項6】 自律応答辞書は、前記タイマーにおいて
    計測した前記認識待ち時間に対応する自律応答文のデー
    タを格納しており、 前記自律応答文出力部は、前記自律応答辞書を検索し、
    前記認識待ち時間に対応する自律応答文のデータを出力
    することを特徴とする請求項3から請求項5のいずれか
    に記載の音声対話装置。
  7. 【請求項7】 自律応答辞書は、前記カウンタに記録さ
    れた回数に対応する前記自律応答文のデータを格納して
    おり、 前記自律応答文出力部は、前記自律応答辞書を検索し、
    前記カウンタに記録された回数に対応する自律応答文の
    データを出力することを特徴とする請求項4から請求項
    6のいずれかに記載の音声対話装置。
  8. 【請求項8】 自律応答辞書は、前記認識リジェクト信
    号入力時の日時に対応する前記自律応答文のデータを格
    納しており、 前記自律応答文出力部は、前記自律応答辞書を検索し、
    前記認識リジェクト信号入力時の日時に対応する自律応
    答文のデータを出力することを特徴とする請求項1から
    請求項7のいずれかに記載の音声対話装置。
JP2000392998A 2000-12-25 2000-12-25 音声対話装置 Pending JP2002196789A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000392998A JP2002196789A (ja) 2000-12-25 2000-12-25 音声対話装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000392998A JP2002196789A (ja) 2000-12-25 2000-12-25 音声対話装置

Publications (1)

Publication Number Publication Date
JP2002196789A true JP2002196789A (ja) 2002-07-12

Family

ID=18858893

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000392998A Pending JP2002196789A (ja) 2000-12-25 2000-12-25 音声対話装置

Country Status (1)

Country Link
JP (1) JP2002196789A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7734468B2 (en) 2002-12-11 2010-06-08 Samsung Electronics Co., Ltd. Method of and apparatus for managing dialog between user and agent
CN106331975A (zh) * 2016-08-18 2017-01-11 上海智臻智能网络科技股份有限公司 用于智能语音交互设备的故障检测方法、装置及系统
JP2017083713A (ja) * 2015-10-29 2017-05-18 シャープ株式会社 対話装置、対話機器、対話装置の制御方法、制御プログラム、および記録媒体

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7734468B2 (en) 2002-12-11 2010-06-08 Samsung Electronics Co., Ltd. Method of and apparatus for managing dialog between user and agent
JP2017083713A (ja) * 2015-10-29 2017-05-18 シャープ株式会社 対話装置、対話機器、対話装置の制御方法、制御プログラム、および記録媒体
CN106331975A (zh) * 2016-08-18 2017-01-11 上海智臻智能网络科技股份有限公司 用于智能语音交互设备的故障检测方法、装置及系统
CN106331975B (zh) * 2016-08-18 2020-02-21 上海智臻智能网络科技股份有限公司 用于智能语音交互设备的故障检测方法、装置及系统

Similar Documents

Publication Publication Date Title
JP6740504B1 (ja) 発話分類器
US5995928A (en) Method and apparatus for continuous spelling speech recognition with early identification
JP3284832B2 (ja) 音声認識対話処理方法および音声認識対話装置
US11823678B2 (en) Proactive command framework
US7228275B1 (en) Speech recognition system having multiple speech recognizers
US9640175B2 (en) Pronunciation learning from user correction
JP3968133B2 (ja) 音声認識対話処理方法および音声認識対話装置
US5913192A (en) Speaker identification with user-selected password phrases
US6088669A (en) Speech recognition with attempted speaker recognition for speaker model prefetching or alternative speech modeling
US5946658A (en) Cartridge-based, interactive speech recognition method with a response creation capability
CN114097026A (zh) 语音识别的上下文偏置
US20040210438A1 (en) Multilingual speech recognition
JP2002304190A (ja) 発音変化形生成方法及び音声認識方法
JPH0394299A (ja) 音声認識方法と音声認識装置訓練方法
JP2007233412A (ja) ユーザが定義したフレーズの話者に依存しない認識方法及びシステム
US11195522B1 (en) False invocation rejection for speech processing systems
EP1022725A1 (en) Selection of acoustic models using speaker verification
CN114385800A (zh) 语音对话方法和装置
US7031923B1 (en) Verbal utterance rejection using a labeller with grammatical constraints
US20170270923A1 (en) Voice processing device and voice processing method
US20010056345A1 (en) Method and system for speech recognition of the alphabet
JP7096707B2 (ja) 電子機器、電子機器を制御する制御装置、制御プログラムおよび制御方法
CN111145748A (zh) 音频识别置信度确定方法、装置、设备及存储介质
JP2002196789A (ja) 音声対話装置
JP3285704B2 (ja) 音声対話のための音声認識方法及び装置