JP2002297179A - 自動応答対話システム - Google Patents

自動応答対話システム

Info

Publication number
JP2002297179A
JP2002297179A JP2001095061A JP2001095061A JP2002297179A JP 2002297179 A JP2002297179 A JP 2002297179A JP 2001095061 A JP2001095061 A JP 2001095061A JP 2001095061 A JP2001095061 A JP 2001095061A JP 2002297179 A JP2002297179 A JP 2002297179A
Authority
JP
Japan
Prior art keywords
voice
utterance
recognition
user
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001095061A
Other languages
English (en)
Inventor
Sachiko Onodera
佐知子 小野寺
Ei Ito
映 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2001095061A priority Critical patent/JP2002297179A/ja
Publication of JP2002297179A publication Critical patent/JP2002297179A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Telephonic Communication Services (AREA)

Abstract

(57)【要約】 【課題】本発明は装置側からのシステム発話に対して入
力されるユーザ発話の音声を認識してデータを得る自動
応答対話システムに関し,未知語を処理するために余計
な知識を用意することなく,確実に自動応答対話を完結
することとその後の処理が短時間で行うことを目的とす
る。 【解決手段】ユーザ発話の中で認識できないことが検出
された未知語の音声データをその属性情報に対応して保
持し,前記保持した未知語音声データをシステム発話に
おいて,ユーザへの発話中で使用するよう構成する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明はテレマーケティング
分野で設けられたコールセンタ等で利用される自動応答
対話システムに関する。
【0002】近年,電話等によりユーザからの注文や,
各種のアンケート等を音声により自動応答しながら音声
による入力を認識して受け付けて予約,販売等の各種の
処理を行うシステムが広く利用されている。その場合,
ユーザから入力される音声を迅速,且つ正確に認識する
ことで,適格な応答を行うことで,注文等の処理が進め
ることができるが,全ての音声を常に認識することはで
きない。
【0003】
【従来の技術】これまでに提案されてきた自動応答シス
テムでは,入力可能な語句を認識辞書として用意し,そ
の語句とのマッチングを行うという音声認識エンジンを
利用する方式が一般的である。その場合,認識辞書にな
い未知語が発話されると,認識不可能となり,それ以上
対話を遂行することができなかった。
【0004】図9は一般的な自動応答対話システムの構
成を示す。図中,80は自動応答対話システム,81は
発話入力部,82は音声認識部,83は認識辞書とグラ
マ(文法等のルール)の格納部,84はユーザに対して
入力すべき事項を音声で出力するのに対し,ユーザから
の入力を認識した結果を受け取って次にユーザに対して
応答または指示を表すメッセージを出力する管理を行う
対話管理部,85は対話用ワーキングメモリ,86はユ
ーザに対する応答を出力するシステム応答出力部,86
0はテキストに対応する音声を出力する音声合成部であ
る。
【0005】図9において,自動応答対話システム80
に対し,電話等を介してユーザ発話が発話入力部81に
入力すると,音声認識部82において,認識辞書やグラ
マ(文法等のルール)の格納部83を参照しながら音声
認識が行われる。この認識結果は対話管理部84に送ら
れ,認識した内容に対応した新たなシステム応答内容
(テキスト)を対話用ワーキングメモリ85の中の対応
管理フォームを参照しながら作成して,システム応答出
力部86に供給される。システム応答出力部86はその
システム応答内容を音声合成部860に供給すると,テ
キストから音声が合成されてユーザに対してシステム応
答として出力される。以下,ユーザ発話とシステム応答
のやりとりを行うことで,処理が進められる。
【0006】上記した従来の自動応答対話システムにお
いて,認識辞書にない未知語が発話されると,対話管理
部に,認識結果として認識不能という結果が与えられ,
システム応答として再入力を指示する応答を出力するこ
とになる。この場合,何度も入力を行うと,ユーザが入
力を止めて,取り引きが成立しないという結果になる可
能性が高い。
【0007】このような未知語が検出された場合の問題
を解決するための従来の一手法が,特開平7−5891
号公報に記載されている。その方法では,未知語を検出
するとその前後の対話態様からどのような語句か推定
し,辞書を置き換えて再評価したり,未知語が認識語彙
となるような答えを誘導する問いを発生し,この誘導さ
れた答えにより未知語が認識語彙となったところで未知
語部分の再評価をして,ユーザが再度同じ答えを発声す
る必要をなくすようにしている。
【0008】
【発明が解決しようとする課題】上記従来の特開平7−
5891号公報に開示された未知語を検出した時の方法
では,認識語の前後に並ぶ属性を示したルールを利用
し,知識データを用いて未知語の属性を決めたり,新た
な問いを発生しているが,そのためにいくつかの背景,
ドメイン依存知識を用意しなければならないという問題
があった。
【0009】本発明は未知語を処理するために余計な知
識を用意することなく,確実に自動応答対話を完結する
こと(処理時間の削減)とその後の処理が短時間で行う
ことができる自動応答対話システムを実現することを目
的とする。
【0010】
【課題を解決するための手段】図1は本発明の原理構成
を示す。図中,1は本発明による自動応答対話システ
ム,10は発話入力部,11は音声認識部,12は認識
辞書とグラマ(文法等の規則)を格納した辞書格納部,
13は音声データ処理部,14は入力した音声データを
そのまま格納する音声データ格納部,15は未知語の音
声データを格納した未知語データベース,16は対話管
理部,17は対話用ワーキングメモリ,18はシステム
応答出力部,18aは音声合成部,18bはシステム音
声再生部である。
【0011】本発明では,未知語を処理するために余計
な知識を用意することなく,未知語を特に解決しようと
するのではなく,未知語を未知語のまま利用すること
で,自動応答対話の実現を行う方法を示している。自動
応答対話システムを実用化する目的として処理時間の削
減,処理人件費の削減を挙げることができることから,
確実に自動対話が完結して処理時間を削減し,その後の
処理が人手ではあっても短時間で実行できて人件費を削
減できることを特徴としている。
【0012】システム主導型(システムから出力された
問いに対しユーザが応答を行う形式)の音声応答対応シ
ステムでは,ユーザ発話直前までの対話内容から,ユー
ザが発話するであろう語句,語句の並びが特定できる。
このため,認識語の前後に並ぶ語の属性を示すルールを
予め用意し,未知語の直前または直後の認識語が得られ
れば,用意してあるルールと照合することで,先の手段
で検出した未知語の属性を推定することができる。ルー
ルとしては,ワードスポッティング(認識したい対象と
して予め「名前」と「住所」を入力することが分かって
いる場合,入力音声から認識したい「名前」と「住所」
の音声区間だけを探して,マッチするものがあると,そ
れを認識する方法)や,任意の語句を指し示す記号を導
入したルールの記述を行うことができる連続音声認識エ
ンジンを利用する。このようにして,認識以外の音声区
間を未知語音声データとして容易に検出できる。
【0013】図1の動作を説明すると,発話入力部10
に入力したユーザ発話は,音声認識部11において,辞
書格納部12を参照しながら音声認識を行う。この時,
音声認識部11で認識できた語句と認識できなかった未
知語とがあるが,何れの場合にも認識対象語句の判別さ
れた属性(上記のワードスポッティングによる)と,認
識対象語句(未知語と認識した語の何れでも)の音声デ
ータ(デジタル化した音声信号)及び認識した語(認識
語という)の認識結果であるテキストデータとが音声認
識部11から音声データ処理部13へ出力すると共に,
認識結果(テキストデータ)と未知語音声データを対話
管理部16へ出力する。対話管理部16は対話管理フォ
ームを格納した対話用ワーキングメモリ17を参照しな
がら,次にこのシステムからユーザに対して応答すべき
内容(システム応答内容)をシステム応答出力部18へ
供給する。
【0014】このシステム応答出力部18は,システム
応答内容としてテキストデータが入力すると,音声合成
部18aにおいて音声合成を行い,ユーザ発話により入
力した情報を,確認発話(ユーザが入力した音声の認識
結果をユーザに伝えて確認するための発話)としてシス
テムから出力する必要がある場合,保持している未知語
の音声データを音声データ格納部14から取り出してシ
ステム音声再生部18bで音声に変換してシステム応答
としてユーザへ送られる。また,未知語の音声データは
属性と共に音声データ格納部14から未知語データベー
ス15に蓄積される。この時,未知語の音声データだけ
でなく,認識語(テキストデータが発生)についても音
声データを,システム音声再生部18bから出力するこ
ともできる。
【0015】
【発明の実施の形態】図2に未知語の属性推定の例を示
し,本発明において未知語の属性をこの例に示す原理に
より判定する。図2の例1は,認識すべき語句が「姓」
「名」で,ユーザが「“姓”“名”」と発話することを
システム発話(システムから発生する音声)により要求
した時に,ユーザが「源五郎丸太郎です」という音声を
入力した例である。この場合,自動応答対話システム
は,「源五郎丸」の音声が未知語であることを検出する
と,その後に続く「太郎」という音声が,「名」を表す
(属性)の語句として認識することができると,その直
前の未知語の属性が“姓”であることが判別できる。ま
た,図2の例2では,認識すべき語句が「姓」で,ユー
ザが「“姓”さん」と発話することをシステム発話で要
求した時に,ユーザが「源五郎さんだよ」という音声を
入力した例である。この場合,自動応答対話システムで
は,未知語の後に続く語が「さん」であることから,直
前の未知語の属性が“姓”であると判断できる。
【0016】図3は実施例1のフローチャート,図4は
実施例2のフローチャートであり,この実施例1,実施
例2はいずれも上記図1に示す第1の原理構成において
実行され,実施例1は未知語についてだけ音声データを
確認発話に使用するのに対し,実施例2は未知語だけで
なく認識語についても音声データを確認発話に使用す
る。
【0017】なお,この図3,図4のフローチャート
は,コンピュータ(情報処理装置)の記憶装置に格納さ
れたプログラムにより実行される。
【0018】図3の実施例1のフローチャートを説明す
ると,自動応答対話システムからユーザに対して特定の
業務のためのシステム発話をユーザに対して開始し(図
3のS1),そのシステム発話に対応してユーザから入
力されることが予定される事項に対応する対象認識辞書
を音声認識のため用意する(同S2)。続いてユーザか
らの発話が入力されると(図3のS3),ワードスポッ
ティングで音声認識を行い(同S4),認識が成功した
か判別する(同S5)。認識が成功しない場合,未知語
音声を切り出し(図3のS6),ワードスポッティング
を用いて未知語音声の属性を特定し(同S7),音声デ
ータをそのまま属性に対応する対話用ワーキングメモリ
のフィールドに登録する(同S8)。また,認識が成功
した場合,認識結果(認識した音声の内容を表すテキス
トデータ)を対話用ワーキングメモリに登録する(図3
のS9)。続いて,対話が終了したか判別し(図3のS
10),終了すると対話処理が終了するが,対話が継続
する場合,対話用ワーキングメモリに今埋めた情報が認
識結果(テスキトデータ)であれば,テキスト音声合成
で音声を再生し,未知語であればその音声データ(対話
用ワーキングメモリに記録)をそのまま再生して確認発
話を生成する(同S11)。
【0019】この場合のシステムからの確認発話は,上
記の図2の例1の場合に,「源五郎丸」という姓の属性
であることは判別できているが音声認識ができない未知
語であることを検出し,「太郎」という名を音声認識し
た場合に,「源五郎丸」という音声データを再生して,
「さんですね」という語句を音声合成により付加して,
「源五郎丸さんですね」というメッセージとすることが
できる。
【0020】次に図4に示す実施例2のフローチャート
を説明する。
【0021】この実施例2では,対話処理開始によりシ
ステム発話を行って(図4のS1)その後,ユーザ発話
について音声認識が成功したかの判別するまでのフロー
(図4のS5)は,上記図3の実施例1と同様である。
このステップS5の判別で,認識が成功しなかった場合
のS6〜S8の動作も実施例1のS6〜S8と同じであ
り説明を省略する。ステップS5で音声認識が成功した
場合,認識結果(テキストデータ)および認識語句音声
データを対話用ワーキングメモリに登録する(図4のS
9)。続いて,対話が終了したか判別し(図4のS1
0),終了しない場合,対話用ワーキングメモリに今埋
めた情報の音声データをそのまま再生して確認発話を生
成し(同S11),S1に戻ってシステム発話が行われ
る。
【0022】この実施例2では,音声認識が成功した場
合と音声認識に失敗した場合の何れの場合にも音声デー
タを登録して,確認発話を生成する時には音声データを
再生する点で,実施例1のように音声認識に失敗した場
合だけ音声データを再生する方法と異なる。この実施例
2の方法により,未知語のみをシステム発話に利用する
場合に比べて,認識語もシステム発話に利用することに
よって,ユーザが未知語と認識語の差を意識しないで利
用することができる。
【0023】図5は実施例3の構成図であり,上記図1
に示す基本構成を改良したものである。図中,1aはこ
の実施例3の自動応答対話システム,10〜18は上記
図1の同一符号の各部に対応し,10は発話入力部,1
1は音声認識部,12は辞書格納部,13は音声データ
処理部,14は音声データ格納部,15は未知語の音声
データを格納した未知語データベース,16は対話管理
部,17は対話用ワーキングメモリ,18はシステム応
答出力部であり,音声データ格納部14の音声をシステ
ム応答として出力する場合は音声再生手段により行な
い,対話管理部16からのテキストデータを出力する場
合は,音声合成手段により行なう。19は辞書登録部,
20は格納音声データ再生部である。
【0024】図5の基本的な動作は上記図1と同様であ
り,ユーザ発話を受け取って,システム応答をユーザに
出力する時,認識語句と認識できない未知語の何れの場
合も,その情報をシステム応答出力部18からのシステ
ム応答において出力する必要があると,音声データ格納
部14の音声データが出力される。この図5の構成で
は,音声データ格納部14から未知語が未知語データベ
ース15に蓄積された状態で,オペレータはシステムの
中断時,または別システムで蓄積された未知語の音声デ
ータだけを格納音声データ再生部20から音声として出
力させる。これを聞いたオペレータは,辞書登録部19
からその語彙を属性に対応した辞書格納部12の認識辞
書に登録する。
【0025】この実施例3の構成により,オペレータは
対話内容を全部繰り返し聞きなおすのではなく,未知語
となった部分のみを聞けばよいので,全ての対話を聞き
直して辞書をメンテナンスするよりも効率が上がる。こ
れを繰り返すことによって,以前未知語であった語彙が
会話に現れても,次からは認識されて認識語として処理
できるようになり,システムの機能を向上することがで
きる。
【0026】本発明による自動応答対話システムの具体
例を説明する。この例は,パソコン購入したときに,姓
名,住所,電話,マシン機種を電話で登録するような自
動応答対話による登録システムを上記図5に示す構成に
より構築したものとする。
【0027】図6は登録システムに必要な情報フォーム
の構成であり,対話用ワーキングメモリ(図5の17)
に格納されている。この例は,ユーザから入力する必要
のある情報として,登録者の「姓」,「名」,「住
所」,「電話番号」,「マシン機種」等が設定されてお
り,これらの情報を順番に埋めることによって対話が完
結される。
【0028】まず,登録システムがフォームの“登録者
姓”と“登録者名”を埋めるために以下の発話を行う。
「お客様のお名前をおっしゃってください」このとき,
音声認識エンジンの認識辞書にあらかじめ,日本人の
「姓」「名」の辞書が登録されており,図7に認識辞書
の構成例を示す。
【0029】ワードスポッティングでは「姓」「名」の
データベース(DB)が認識辞書に登録され,認識が行
われる。ユーザからの「田中花子」という音声入力に対
しては「姓」の辞書から「田中」が,「名」の辞書から
「花子」が認識される。
【0030】辞書にないよう姓名,例えば「トーマス花
子」のような名前では,「名」の辞書から「花子」は認
識されるが,「トーマス」が辞書にないと「姓」を認識
できない。しかし,その直前の発話から,取得できなか
った情報が「姓」であることがわかる。このような自動
応答対話による登録システムの処理フローを図8に示
し,以下に概説する。
【0031】システム発話が実行されると(図8のS
1),対象認識辞書を音声認識のために用意する(同S
2)。この場合には,姓と名の辞書を用意する。ユーザ
が発話入力すると(図8のS3),入力音声をワードス
ポッティングにより音声認識する(同S4)。認識が成
功したか判別し(図8のS5),認識できなかった場合
にはできなかった部分を未知語音声データとして切出し
(同S6),未知語音声の属性を特定し(同S7),音
声データをその属性に対応する対話用ワーキングメモリ
(図5の17)のフィールドに登録する(同S8)。続
いて未知語データベースに属性と音声データを登録する
(図8のS9)。
【0032】ワードスポッティングにより,認識できた
場合には,その認識結果を対話用ワーキングメモリの
“登録者名”に登録し(図8のS10),次に対話が終
了したか判別して(同S11),終了した場合は対話処
理を終了し,終了しない場合は対話用ワーキングメモリ
に今埋めた情報を確認する発話を生成し(同S12),
S1に戻ってシステム発話を行う。
【0033】上記ステップS12では,認識結果が得ら
れた場合には音声合成により音声再生を行ってもよい
が,認識結果が得られた場合にも音声データを切出し,
それを再生させる(上記図4の処理フロー)ことも可能
であり,その方がアプリケーションとしてのバランスが
とれる。
【0034】辞書の再登録処理は,一連の対話を終了し
た時点でシステムを中断させる,あるいは,別スレッド
(別プロセス)で動作させる。未知語データベース(図
5の15)に登録されている未知語音声データを再生
し,その音声データをオペレータが聞き取り,その語彙
と属性を辞書登録部(図5の19)から認識辞書に登録
する。登録され音声認識時に利用されるようになった以
降は,その語彙は認識可能となる。このようにして,必
要な認識語を増やしていくことができる。
【0035】(付記1) 装置側からのシステム発話に
対して入力されるユーザ発話の音声を認識してデータを
得る自動応答対話システムにおいて,ユーザ発話の中で
認識できないことが検出された未知語の音声データをそ
の属性情報に対応して保持し,前記保持した未知語音声
データをシステム発話において,ユーザへの発話中で使
用することを特徴とする自動応答対話システム。
【0036】(付記2) 装置側からのシステム発話に
対して入力されるユーザ発話の音声を認識してデータを
得る自動応答対話システムにおいて,ユーザ発話の中で
認識できないことが検出された未知語の音声データをそ
の属性情報に対応して保持すると共に,音声認識によっ
て認識できた認識語に対応する音声データも属性情報と
共に保持し,システム発話にこの入力音声データを利用
することを特徴とする自動応答対話システム。
【0037】(付記3) ユーザ発話の中に検出した未
知語の音声データを未知語の属性情報をもとに対話処理
に必要な情報として保持する音声データ格納部を備え,
前記音声データ格納部に格納されている音声データをシ
ステム発話として再生出力するシステム応答出力部を有
することを特徴とする自動応答対話システム。
【0038】(付記4) 付記1乃至3のいずれかにお
いて,音声認識部で使用する認識辞書に新たな語句を登
録するための辞書登録部を設け,前記音声データ格納部
に格納されている未知語音声データを音声に再生して出
力する格納音声データ再生部と,前記再生された音声出
力に対応して入力された語彙を表すデータを前記辞書登
録部から前記認識辞書に登録することを特徴とする自動
応答対話システム。
【0039】
【発明の効果】本発明によれば,自動応答対話システム
において音声認識ができない未知語が現れた場合にも,
それ以上自動応答を継続することが可能となる。また,
未知語だけでなく,認識語についても,音声データを再
生してユーザに発話することにより,ユーザは未知語と
認識語の差を意識しないで利用することができる。
【0040】未知語が何であるかを検出し再登録するこ
とによってシステムの機能を向上することができる。ま
た,そのための工数も,すべての発話内容を聞きなおす
わけではないので効率よくメンテナンスが行える。
【図面の簡単な説明】
【図1】本発明の原理構成を示す図である。
【図2】未知語の属性推定の例を示す図である。
【図3】実施例1の処理フローを示す図である。
【図4】実施例2の処理フローを示す図である。
【図5】実施例3の構成を示す図である。
【図6】登録システムに必要な情報フォームの構成を示
す図である。
【図7】認識辞書の構成例を示す図である。
【図8】自動応答対話による登録システムの処理フロー
を示す図である。
【図9】一般的な自動応答対話システムの構成を示す図
である。
【符号の説明】
1 自動応答対話システム 10 発話入力部 11 音声認識部 12 辞書格納部 13 音声データ処理部 14 音声データ格納部 15 未知語データベース 16 対話管理部 17 対話用ワーキングメモリ 18 システム応答出力部 18a 音声合成部 18b システム音声再生部
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G10L 15/00 G10L 3/00 531W 15/22 551A H04M 3/42 571T 3/50 Fターム(参考) 5D015 AA04 GG03 GG04 HH00 LL00 5D045 AB04 AB30 5K015 AA06 AA07 AA10 AD02 AD05 GA11 5K024 AA76 AA77 BB01 BB03 BB04 BB07 CC01 DD01 DD02 EE09 FF06

Claims (3)

    【特許請求の範囲】
  1. 【請求項1】 装置側からのシステム発話に対して入力
    されるユーザ発話の音声を認識してデータを得る自動応
    答対話システムにおいて,ユーザ発話の中で認識できな
    いことが検出された未知語の音声データをその属性情報
    に対応して保持し,前記保持した未知語音声データをシ
    ステム発話において,ユーザへの発話中で使用すること
    を特徴とする自動応答対話システム。
  2. 【請求項2】 装置側からのシステム発話に対して入力
    されるユーザ発話の音声を認識してデータを得る自動応
    答対話システムにおいて,ユーザ発話の中で認識できな
    いことが検出された未知語の音声データをその属性情報
    に対応して保持すると共に,音声認識によって認識でき
    た認識語に対応する音声データも属性情報と共に保持
    し,システム発話にこの入力音声データを利用すること
    を特徴とする自動応答対話システム。
  3. 【請求項3】 請求項1または2のいずれかにおいて,
    音声認識部で使用する認識辞書に新たな語句を登録する
    ための辞書登録部を設け,前記音声データ格納部に格納
    されている未知語音声データを音声に再生して出力する
    格納音声データ再生部と,前記再生された音声出力に対
    応して入力された語彙を表すデータを前記辞書登録部か
    ら前記認識辞書に登録することを特徴とする自動応答対
    話システム。
JP2001095061A 2001-03-29 2001-03-29 自動応答対話システム Pending JP2002297179A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001095061A JP2002297179A (ja) 2001-03-29 2001-03-29 自動応答対話システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001095061A JP2002297179A (ja) 2001-03-29 2001-03-29 自動応答対話システム

Publications (1)

Publication Number Publication Date
JP2002297179A true JP2002297179A (ja) 2002-10-11

Family

ID=18949168

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001095061A Pending JP2002297179A (ja) 2001-03-29 2001-03-29 自動応答対話システム

Country Status (1)

Country Link
JP (1) JP2002297179A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005122144A1 (ja) * 2004-06-10 2005-12-22 Matsushita Electric Industrial Co., Ltd. 音声認識装置、音声認識方法、及びプログラム
JP2007187799A (ja) * 2006-01-12 2007-07-26 Nissan Motor Co Ltd 音声対話装置および音声対話方法
JP2010044240A (ja) * 2008-08-13 2010-02-25 Kddi Corp 音声認識装置およびプログラム
JP2012194337A (ja) * 2011-03-16 2012-10-11 Toshiba Corp 自動音声応答装置、音声応答処理システム及び自動音声応答方法
CN108364652A (zh) * 2018-01-16 2018-08-03 成都易讯呼科技有限公司 一种用于人工智能电话的智能语音对答交互控制系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000194386A (ja) * 1998-12-24 2000-07-14 Omron Corp 音声認識応答装置及び方法
JP2000349865A (ja) * 1999-06-01 2000-12-15 Matsushita Electric Works Ltd 音声通信装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000194386A (ja) * 1998-12-24 2000-07-14 Omron Corp 音声認識応答装置及び方法
JP2000349865A (ja) * 1999-06-01 2000-12-15 Matsushita Electric Works Ltd 音声通信装置

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005122144A1 (ja) * 2004-06-10 2005-12-22 Matsushita Electric Industrial Co., Ltd. 音声認識装置、音声認識方法、及びプログラム
JPWO2005122144A1 (ja) * 2004-06-10 2008-04-10 松下電器産業株式会社 音声認識装置、音声認識方法、及びプログラム
US7813928B2 (en) 2004-06-10 2010-10-12 Panasonic Corporation Speech recognition device, speech recognition method, and program
JP4705023B2 (ja) * 2004-06-10 2011-06-22 パナソニック株式会社 音声認識装置、音声認識方法、及びプログラム
JP2007187799A (ja) * 2006-01-12 2007-07-26 Nissan Motor Co Ltd 音声対話装置および音声対話方法
JP2010044240A (ja) * 2008-08-13 2010-02-25 Kddi Corp 音声認識装置およびプログラム
JP2012194337A (ja) * 2011-03-16 2012-10-11 Toshiba Corp 自動音声応答装置、音声応答処理システム及び自動音声応答方法
CN108364652A (zh) * 2018-01-16 2018-08-03 成都易讯呼科技有限公司 一种用于人工智能电话的智能语音对答交互控制系统

Similar Documents

Publication Publication Date Title
US7260537B2 (en) Disambiguating results within a speech based IVR session
US7711105B2 (en) Methods and apparatus for processing foreign accent/language communications
US8064573B2 (en) Computer generated prompting
JP4089148B2 (ja) 通訳サービス方法および通訳サービス装置
JP5042194B2 (ja) 話者テンプレートを更新する装置及び方法
US7783475B2 (en) Menu-based, speech actuated system with speak-ahead capability
US20060287868A1 (en) Dialog system
US20040190687A1 (en) Speech recognition assistant for human call center operator
JPH1031497A (ja) 音声対話制御方法および音声対話システム
US7624016B2 (en) Method and apparatus for robustly locating user barge-ins in voice-activated command systems
CN110807093A (zh) 语音处理方法、装置及终端设备
CN110602334A (zh) 一种基于人机协同的智能外呼方法及系统
US20040019488A1 (en) Email address recognition using personal information
US20010056345A1 (en) Method and system for speech recognition of the alphabet
JP3526101B2 (ja) 音声認識装置
US7460999B2 (en) Method and apparatus for executing tasks in voice-activated command systems
JP2002297179A (ja) 自動応答対話システム
CN109616116B (zh) 通话系统及其通话方法
JP2009104047A (ja) 情報処理方法及び情報処理装置
JPH1125112A (ja) 対話音声処理方法及び装置、記録媒体
JP4760452B2 (ja) 発話訓練装置、発話訓練システム、発話訓練支援方法およびプログラム
CN112565242B (zh) 基于声纹识别的远程授权方法、系统、设备及存储介质
JP2008216461A (ja) 音声認識・キーワード抽出・知識ベース検索連携装置
JPH10173769A (ja) 音声メッセージ検索装置
JP4042435B2 (ja) 音声自動質問応答装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100817

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20101214