JP4042435B2 - 音声自動質問応答装置 - Google Patents

音声自動質問応答装置 Download PDF

Info

Publication number
JP4042435B2
JP4042435B2 JP2002062604A JP2002062604A JP4042435B2 JP 4042435 B2 JP4042435 B2 JP 4042435B2 JP 2002062604 A JP2002062604 A JP 2002062604A JP 2002062604 A JP2002062604 A JP 2002062604A JP 4042435 B2 JP4042435 B2 JP 4042435B2
Authority
JP
Japan
Prior art keywords
voice
question
speech recognition
unit
speech
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002062604A
Other languages
English (en)
Other versions
JP2003263190A (ja
Inventor
佐知子 小野寺
亮 落谷
功 難波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2002062604A priority Critical patent/JP4042435B2/ja
Publication of JP2003263190A publication Critical patent/JP2003263190A/ja
Application granted granted Critical
Publication of JP4042435B2 publication Critical patent/JP4042435B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、コールセンタなどにおいて、ユーザの質問に対して自動応答する装置であり、特にユーザの質問の解析に関する。
【0002】
【従来の技術】
これまでの音声による自動応答装置では、ユーザの質問を受付ける場合には、あらかじめ自動応答装置側で用意しておいた対話スクリプトにそって、自動応答装置から問われる項目をユーザが答える形式でユーザの質問事項を取得し、その結果に基づいて回答する対話制御方法で行っていた。例えば、スロットフィリング形式の対話制御方法の場合、自動応答装置があらかじめ用意した項目について、順に自動応答装置がユーザに各項目を埋めるための質問を行い、ユーザがそれらの項目に答えることによって自動応答装置は質問内容を解析していた。
【0003】
【発明が解決しようとする課題】
この対話制御方法では、自動応答装置があらかじめ用意した項目に添った対話形式ではない質問を受付けることは不可能であるため、質問内容におのずと制限がかかる。
一方、特願平13−95061「自動応答対話システム」では、ユーザの自由フォーマットで記載された文字情報の質問を解析し、質問事項を抽出して回答検索を行い、ユーザに応答を返す自動応答システムが示されている。しかし、本システムを音声自動質問応答装置に利用し、自由に発話された自由発話型式の質問を音声認識すると、現在の音声認識技術では、多くの誤認識を含み、自由発話によって誤った句読点が挿入されたり、必要な句読点が挿入されなかったりするなど、文章の句切り位置に誤りが生じ、自由発話型式の質問を文字情報の解析のように音声認識を行うことは困難であった。
【0004】
【課題を解決するための手段】
上記問題を解決するため、従来の文字情報を入力とする自動応答システムに対して、音声認識による誤認識などを解決する質問内容解析部を設けることにより、自由発話型式の質問の入力が可能な音声自動質問応答装置とする。質問内容解析部は、音声認識結果に対して、特願平13−83518「質問回答方法及び質問回答プログラム」に示されているメールなどのテキストの質問文に用いる談話構造解析を行う。談話構造解析は、文末表現などに着目したルールをあらかじめ用意しておき、そのルールを適用して解析を行う。
例えば、下記の文末表現を次のような談話要素として定義するルールを作成する。
「〜ですか。」「〜教えて下さい。」・・・ → Question
「〜たいのですが。」「〜たいです。」 → Wish
「〜なりました。」「〜できなくなりました。」 → Statement
「〜しているのですが、」「〜すると、」 → Action
学習データにこのルールを適用してQuestion、Wishなどの談話要素を決定するものである。
【0005】
この談話解析の結果、自由発話型式の質問は談話要素毎に解析される。しかし、音声認識結果に直接、談話構造解析を行うと、例えば、文末表現の誤認識から、ルールを正しく適用することができない場合がある。そこで、図1のように音声認識結果の誤認識の傾向をあらかじめ分析することにより、誤認識をルール化し、誤認識を正しく訂正することができる。
【0006】
さらに、音声認識結果は、発話の間によって句読点が誤って挿入される場合や、必要なところに挿入されないなど、文章の句切り位置が誤る場合があり、文として不自然な形になっている場合が多い。また、話し言葉であるために、そもそも書き言葉で定義されるような文とならない場合も多い。例えば、発話中に挿入される話者独自の“間”によって,不適当な位置に句読点が挿入される。(音声認識部は,“間”とその前後の語句から句読点を推定する)という音声認識部特有の問題により、音声認識結果の談話解析が困難であった。
【0007】
話し言葉(書き言葉に比べて、文境界の判定が難しい)に対して文境界を推定する手法が“GLR*: A Robust Grammar-Focused Parser for Spontaneously Spoken Languages”(Alon Lavie 1996年、CMU-cs-96-126、 School of Computer Science、Carnegie Mellon University)と”発話単位の分割または接合による言語処理単位への変換手法“(竹沢寿幸,森元逞 1999年1月 自然言語処理、VOL.6 No.2)に示されている。これは,学習データとするテキストを形態素解析して形態素に分離し,句点前後の形態素の出現頻度を数え上げておき,入力テキスト(判定したいテキスト)の句点の出現確からしさがある閾値を超えた場合に,その箇所を句点位置と推定する方法である.出現頻度は以下の式で求める.
Figure 0004042435
ここで、C(WiWj)は学習データバイグラムのWiWjの出現回数。C(Wi・Wj)は・が句点位置を示し、この場合では、学習データバイグラムのWiとWjの間に句点位置がある出現回数を示す。
【0008】
ここで示す式では、前後2形態素に着目しているが、この数は変化させ、下記のように前n単語、後m単語として計算する。
Figure 0004042435
ここで、C(Wi…Wj●)の●は境界位置を示しており、C(W1…Wn●)は学習データセットのNグラムWi…Wjの右に境界が現れる総数で、C(Wi…Wj)はNグラムWi…Wjが現れる総数である。
【0009】
また、着目形態素の表層表現、品詞、活用形、活用型などの要素を組み合わせてみることができる。
【0010】
このようにして、多くの誤認識を含み、文章の句切り位置に誤りがある自由発話型式の質問の音声認識結果を質問内容解析部によって補正、解析することにより、文字情報を入力とする自動応答システムを自由発話型式の質問ための音声自動質問応答装置に利用することが可能となり、従来の対話制御方法による音声自動応答装置が処理できなかった自由発話型式の質問の音声自動応答処理が可能となる。
【0011】
また,従来の対話形式の質問を処理するには、直前の装置の発話に対して,ユーザの発話内容をより認識しなければならないため、自由発話型式の質問内容を解析するよりも、より厳密な処理が必要となる。よって、入力された質問を、自由発話型式の質問であれば、自由発話型式音声自動質問応答処理を行い、対話型式の質問であれば、対話型式音声自動質問応答処理を行うことにより、常に適切な音声自動質問応答処理が行うことが可能である。
【0012】
対話型音声認識部の音声認識結果と質問用音声認識部の音声認識結果を評価、判定する認識結果判定部を用いて、認識結果判定部が、音声入力の判定が特定の対話型式であると判定した場合には、対話型の質問解析を行い、音声入力の判定が自由発話形式であると判定した場合には、自由発話型の質問解析を行う。
【0013】
他の方法としては、音声入力の音声認識方法を選択する音声認識選択部を備え、音声認識選択部が音声自動質問応答装置の前回の応答に応じて、対話型音声認識部か質問用音声認識部のいずれかを選択して、音声認識処理を行ってもよい。
【0014】
また、対話型音声認識部の音声認識結果と質問用音声認識部の音声認識結果を評価、判定する認識結果判定部を備え、認識結果判定部が、音声自動質問応答装置の前回の応答に応じて、対話型音声認識部か質問用音声認識部の認識結果のいずれかを選択し、選択した認識結果を評価することによって、対話型の質問解析か、自由発話型の質問解析の選択を行ってもよい。
【0015】
話者認証やユーザの名前のIDを入力してもらうことによってユーザを確定し,あらかじめ記録してあるユーザ情報を、解析した質問内容に付加することにより質問解析の精度を向上させることができる。例えば,コンピュータに関する質問の場合、ユーザ情報にユーザの所有するコンピュータの機種、型名などが記載されていれば、質問発話にユーザの所有するコンピュータの機種、型名が陽に現れなくても、それらの情報を質問内容に付加する。
【0016】
音声自動質問応答装置による音声入力の解析結果を表示し、これを参照したオペレータによって、音声入力の解析結果の編集操作してもよい。
【0017】
【発明の実施の形態】
以下、図面を参照して本発明の好適な実施の形態を詳細に説明する。
【0018】
文章の句切り位置を補正するために、図2のように、文区切り前後の言語情報(品詞、表現、活用形など)を基に、複数の学習データ202の文区切り位置の出現頻度を計算し、出現頻度データベースA201を作成する。
【0019】
出現頻度データベースA201の作成フローチャートを図3に示す。質疑に関する複数の学習データ202をそれぞれ形態素毎に分離する(ステップ301)。形態素毎に分離した学習データ202を基に句点前後の形態素の出現頻度を計算し、出現頻度データベースA201を作成する(ステップ302)。
【0020】
出現頻度データベースA201を利用した質問内容解析部のフローチャートを図4に示す。誤認識修正データベース11を用いて、音声認識結果から誤認識を修正する(ステップ401)。ステップ401で修正した音声認識結果に対して形態素解析を行い、句読点を除去し、この結果をAとする(ステップ402)。Aテキストの最初の形態素を着目位置とする(ステップ403)。Aテキストの着目位置がAテキストの終端かどうか判定する(ステップ404)。着目位置が終端でなかった場合、出現頻度データベースA201を用いてAテキストの現在の着目位置の形態素の句点境界位置の確からしさを求める(ステップ405)。ステップ405で求めた句点境界位置の確からしさを予め設定した閾値と比較する(ステップ406)。句点境界位置の確からしさが閾値より大きければ、この句点境界位置を句点推定位置とする(ステップ407)。Aテキストの着目位置を次の着目位置へずらす(ステップ408)。音声認識結果に対してステップ407で定めた句点推定位置に句点を挿入する(ステップ409)。ステップ402で除去した音声認識結果の句読点で、句点推定位置でない位置には読点を挿入する(ステップ410)。この結果、音声認識結果の音声認識による誤りが修正され、出現頻度データベースA201を利用することで、音声認識結果の句切り位置の誤りを修正できたため、テキストの質問文の談話構造を解析する手法と同様の手法を用いて談話解析を行うことができ、質問内容を解析することができるようになる。(ステップ411)。
【0021】
文章の句切り位置の補正の方法としては、図5に示すように、まず複数の学習データ202に対してあらかじめ談話解析を行い、学習データ202の談話解析結果502を得る方法もある。談話解析結果502の談話構造の区切り前後の言語情報(品詞、表現、活用形など)を基に、この談話解析結果502の談話構造の区切り位置の出現頻度を計算し、出現頻度データベースB501を作成する。
【0022】
出現頻度データベースB501の作成フローチャートを図6に示す。質疑に関する複数の学習データ202を談話解析し、それぞれの談話解析結果502を得る(ステップ601)。それぞれ形態素毎に分離する(ステップ602)。形態素毎に分離した談話解析結果502を基に句点前後の形態素の出現頻度を計算し、出現頻度データベースB501を作成する(ステップ603)。
【0023】
出現頻度データベースB501を利用した質問内容解析部のフローチャートを図7に示す。誤認識修正データベース11を用いて、音声認識結果から誤認識を修正する(ステップ701)。ステップ701で修正した音声認識結果に対して形態素解析を行い、句読点を除去し、この結果をAとする(ステップ702)。Aテキストの最初の形態素を着目位置とする(ステップ703)。Aテキストの着目位置がAテキストの終端かどうか判定する(ステップ704)。着目位置が終端でなかった場合、出現頻度データベースB501を用いてAテキストの現在の着目位置の談話構造区切り位置の確からしさを求める(ステップ705)。ステップ705で求めた談話構造区切り位置の確からしさを予め設定した閾値と比較する(ステップ706)。談話構造区切り位置の確からしさが閾値より大きければ、この句点境界位置を句点推定位置とする(ステップ707)。Aテキストの着目位置を次の着目位置へずらす(ステップ708)。音声認識結果に対してステップ707で定めた談話構造区切り位置に句点を挿入する(ステップ709)。ステップ702で除去した音声認識結果の句読点で、句点推定位置でない位置には読点を挿入する(ステップ710)。この結果、音声認識結果の音声認識による誤りが修正され、出現頻度データベースB501を利用することで、音声認識結果の句切り位置の誤りを修正できたため、テキストの質問文の談話構造を解析する手法と同様の手法を用いて談話解析を行うことができ、質問内容を解析することができるようになる。(ステップ711)。
【0024】
更に他の方法として、図8に示すように、まず複数の学習データ202に対してあらかじめ談話解析を行い、学習データ202の談話解析結果502を得る。談話構造の区切り前後の言語情報(品詞、表現、活用形など)を基に、この談話解析結果502の談話要素毎の談話構造の文区切り位置の出現頻度を計算し、出現頻度データベースC801を作成する。
【0025】
この出現頻度データベースC801の作成フローチャートを図9に示す。質疑に関する複数の学習データ202を談話解析し、それぞれの談話解析結果502を得る(ステップ901)。それぞれ形態素毎に分離する(ステップ902)。形態素毎に分離した談話解析結果502を基に談話要素毎の談話構造の文区切り位置の出現頻度を計算し、出現頻度データベースC801を作成する(ステップ903)。
【0026】
出現頻度データベースC801を利用した質問内容解析部のフローチャートを図10に示す。誤認識修正データベース11を用いて、音声認識結果から誤認識を修正し、句読点を除去し、この結果をAとする(ステップ1001)。Aテキストの最初の形態素を着目位置とする(ステップ1002)。Aテキストの着目位置がAテキストの終端かどうか判定する(ステップ1003)。着目位置が終端でなかった場合、出現頻度データベースC801を用いてAテキストの現在の着目位置の句点境界位置の確からしさを求める(ステップ1004)。ステップ1004で求めた句点境界位置の確からしさを予め設定した閾値と比較する(ステップ1005)。句点境界位置の確からしさが閾値より大きければ、この句点境界位置を談話構造区切り位置と推定する(ステップ1006)。さらに出現頻度データベースC801を用いてこの談話構造区切り位置の、各談話要素の談話構造の文区切り位置の確からしさを求め、予め設定した閾値と比較する(ステップ1007)。この結果、この談話構造区切り位置の談話要素が推定できる(ステップ1008)。Aテキストの着目位置を次の着目位置へずらす(ステップ1009)。音声認識結果に対してステップ1006で定めた談話構造区切り位置に句点を挿入する(ステップ1010)。ステップ702で除去した音声認識結果の句読点で、句点推定位置でない位置には読点を挿入する(ステップ1011)。ステップ1008で推定した談話構造区切り位置毎の談話要素として決定する。この結果、音声認識結果の談話構造解析結果が得られる(ステップ1012)。
【0027】
上記のような方法で得られた談話構造解析結果を入力として、あらかじめ用意された回答事例事例データベースに対して検索を行い、質問に対する検索結果を得る。
<実施形態1>本発明に係る実施形態1は、質問内容解析部を設けることにより自由発話型式の質問の入力が可能な音声自動質問応答装置の実施形態である。
【0028】
図11に、実施形態1の音声自動質問応答装置の構成図を示す。
【0029】
音声受信部1101によって、ユーザの音声を受信する。音声入力部1102によって、音声をWav形式などの音声データに変換される。質問用音声認識部1103は、大語彙音声認識エンジンなどによって、前記音声データをテキスト形式の音声認識結果へ変換する。質問内容解析部1104は、誤認識修正データベース11を利用して音声認識結果を修正し、出現頻度データベースA201か出現頻度データベースB501か出現頻度データベースC801を使用し、不要な句読点を削除し、適切な句読点を挿入し、談話解析を行う。回答事例検索部1105は、談話解析が行われた音声認識結果のユーザの質問内容に対して、適切な回答事例を回答事例データベース1106から検索する。回答事例と適切な応答を作成する。結果出力部1107は、質問内容と検索された回答事例から、応答を作成する。応答生成部1108は、作成された回答を音声データに変換する。応答発信部1109は、音声データに変換された応答をユーザに聞き取れるように再生する。
【0030】
音声受信部1101−音声入力部1102間もしくは応答生成部1108−応答発信部1109間は、電話回線などの音声回線で構成してもよい。また、音声入力部1102−質問用音声認識部1103間もしくは、結果出力部1107−応答生成部1108間は、VoIP(Voice over Internet Protocol)などの技術によって音声データを転送してもよい。
【0031】
応答生成部1108で音声データを作成し、応答発信部1109によって発話することによって、ユーザに応答しているが、画面表示や印字、ファクシミリ送信などによってユーザに応答してもよい。
<実施形態2>本発明に係る実施形態2は、実施形態1を基に、個々のユーザに関するユーザ情報を音声認識結果に付加する実施形態である。図12に、実施形態2の音声自動質問応答装置の構成図を示す。
【0032】
ユーザ情報管理部1201は、話者認証により、音声入力したユーザを特定し、ユーザ情報データベース1202から、個々のユーザの情報を読み出し、音声認識結果に付加する。例えば、コンピュータに関する質問の場合、ユーザ情報にユーザの所有するコンピュータの機種、型名などが記載されていれば、質問発話にユーザの所有するコンピュータの機種、型名が陽に現れなくても、それらの情報を質問内容に付加する。
【0033】
ユーザ情報管理部1201は、あらかじめ入力されたユーザの名前、IDもしくは発信番号通知された電話番号などを基に、話者認証を用いずに、音声入力したユーザを特定してもよい。
【0034】
<実施形態3>本発明に係る実施形態3は、実施形態2を基に、対話型音声認識部の音声認識結果と質問用音声認識部の音声認識結果を評価、判定する認識結果判定部を備える実施形態である。図13に、実施形態3の音声自動質問応答装置の構成図を示す。
【0035】
図14に、実施形態3のフローチャートを示す。音声入力部1102において、入力される音声を音声データとして取り込む(ステップ1401)。対話用音声認識部1301と質問用音声認識部1103でそれぞれ音声認識を行う。対話用音声認識部1301は、音声自動質問応答装置との対話を進めるために、グラマーに基づく音声認識、ワードスポッティング、対話のための大語彙音声認識エンジンと言語処理部をあわせたものなどによって、システムの理解できる形でユーザの発話を認識する。対話用音声認識部1301と質問用音声認識部1103は、音声認識時の認識結果の確信性を示す確信度をそれぞれ算出する(ステップ1402)。認識結果判定部1302において、それぞれの確信度に応じて処理を分岐する(ステップ1403)。確信度によって、対話型式の質問であれば、対話制御部1303で対話制御を行い、対話応答生成部1304でユーザに対する応答を作成する(ステップ1404〜1405)。確信度によって、音声入力された質問が自由発話型式の質問であれば、質問内容解析部1104は、誤認識修正データベース11を利用して音声認識結果を修正し、出現頻度データベースA201か出現頻度データベースB501か出現頻度データベースC801を使用し、不要な句読点を削除し、適切な句読点を挿入し、談話解析を行う。次に回答事例検索部1105は、談話解析された質問内容に対して適切な回答を検索する(ステップ1406〜1408)。
【0036】
応答生成部1108で、それぞれの制御で作成された応答を音声データに変換すし、応答発信部1109は、音声データに変換された応答をユーザに聞き取れるように再生する(ステップ1409)。応答内容を対話制御部へ通知する(ステップ1410)。
【0037】
<実施形態4>本発明に係る実施形態4は、実施形態2を基に、前回作成した応答に応じて、対話型音声認識処理か質問用音声認識処理のいずれかを選択して、音声認識処理を行う実施形態である。図15に、実施形態4の音声自動質問応答装置の構成図を示す。
【0038】
図16に、実施形態4のフローチャートを示す。音声入力部1102において、入力される音声を音声データとして取り込む(ステップ1601)。音声認識選択部1501は、前回、ユーザに対して応答した内容が、次にユーザが対話用の発話すると予想できるなら、対話型音声認識処理を選択し、そうでない場合には、質問用音声認識処理を選択する。例えば、前回の音声自動質問応答装置の応答が、「行き先はどこですか?」という問いかけならば、ユーザは次に行き先についての対話形式の音声入力を行うことが予想できるため、音声認識選択部1501は、対話型音声認識処理を選択する。また、前回の音声自動質問応答装置の応答が、「これで全ての処理を終了します」という問いかけにつながらない応答であるならば、ユーザが次に入力する音声入力は、対話形式による音声入力ではないと予想できるため、音声認識選択部1501は、質問用音声認識処理を選択する(ステップ1602)。音声認識選択部1501が対話型式処理を選択した場合、対話用音声認識部1301で音声認識を行い、対話制御部1303で対話制御を行い、対話応答生成部1304でユーザに対する応答を作成する(ステップ1603〜1605)。音声認識選択部1501が自由発話型式処理を選択した場合、質問用音声認識部1103で音声認識を行い、質問内容解析部1104は、誤認識修正データベース11を利用して音声認識結果を修正し、出現頻度データベースA201か出現頻度データベースB501か出現頻度データベースC801を使用し、不要な句読点を削除し、適切な句読点を挿入し、談話解析を行う。次に回答事例検索部1105は、談話解析された質問内容に対して適切な回答を検索する(ステップ1606〜1609)。応答生成部1108で、それぞれの制御で作成された応答を音声データに変換する(ステップ1610)。応答発信部1109は、音声データに変換された応答をユーザに聞き取れるように再生する(ステップ1611)。対話制御部1303でこの応答内容を推定し、音声認識部選択情報を音声認識選択部1501へ通知し、ステップ1602の判定に用いられる(ステップ1612)。
【0039】
<実施形態5>本発明に係る実施形態5は、実施形態3と実施形態4を基に、音声認識処理を行う実施形態である。図17に、実施形態5の音声自動質問応答装置の構成図を示す。
【0040】
図18に、実施形態5のフローチャートを示す。音声入力部1102において、入力される音声を音声データとして取り込む(ステップ1801)。対話用音声認識部1301と質問用音声認識部1103でそれぞれ音声認識を行う。対話用音声認識部1301は、音声自動質問応答装置との対話を進めるために、グラマーに基づく音声認識、ワードスポッティング、対話のための大語彙音声認識エンジンと言語処理部をあわせたものなどによって、システムの理解できる形でユーザの発話を認識する。対話用音声認識部1301と質問用音声認識部1103は、音声認識時の認識結果の確信性を示す確信度をそれぞれ算出する(ステップ1802)。音声認識選択部1501は、直前の音声自動質問応答装置の応答の内容から、次に続くユーザの音声入力が対話型式となるか、質問型式となるかをあらかじめ推定し、選択する(ステップ1803)。ステップ1803において対話式型式を選択した場合、対話用音声認識部1301で得られた確信度が、予め設定した閾値より大きい時には、対話型式処理を行うことを選択し、そうでない時には、自由発話型式処理を行うことを認識結果判定部1302は選択する(ステップ1804)。対話型式処理を行うことを選択した場合には、対話制御部1303で対話制御を行い、対話応答生成部1304でユーザに対する応答を作成する(ステップ1805〜1806)。ステップ1803において自由発話型式を選択した場合、質問用音声認識部1103で得られた確信度が、予め設定した閾値より大きい時には、自由発話型式処理を行うことを選択し、そうでない時には、対話型式処理を行うことを選択する(ステップ1807)。自由発話型式処理を行うことを選択した場合には、質問内容解析部1104は、誤認識修正データベース11を利用して音声認識結果を修正し、出現頻度データベースA201か出現頻度データベースB501か出現頻度データベースC801を使用し、不要な句読点を削除し、適切な句読点を挿入し、談話解析を行う。回答事例検索部1105は、談話解析された質問内容に対して適切な回答を検索する(ステップ1808〜1810)。応答生成部1108で、それぞれの制御で作成された応答を音声データに変換する(ステップ1811)。応答発信部1109は、音声データに変換された応答をユーザに聞き取れるように再生する(ステップ1812)。対話制御部1303でこの応答内容から次のユーザの入力を推定し、音声認識部選択情報を音声認識選択部1501へ通知する(ステップ1813)。対話制御部1303において、次回のユーザ発話による入力が、対話型式であると推定できる場合、ステップ1804で用いられる対話用音声認識の閾値を質問用音声認識の閾値よりも高めに設定し(ステップ1815)、自然発話型式であると推定できる場合、ステップ1807で用いられる質問用音声認識の閾値を対話用音声認識の閾値よりも高めに設定する(ステップ1816)。
【0041】
本実施形態の情報キオスク端末における具体的な処理について示す。
【0042】
情報キオスク端末にはマイクを設置しておく。
【0043】
問い合わせスタートボタン(タッチパネルなど)をユーザに押下してもらうことにより、問い合わせを開始する。
【0044】
ここでは、東京から新宿への行き方案内をシステムとの対話で行い、それに続いて新宿の見所を自由に発話する場面を想定して説明する。
【0045】
まず、対話処理部の対話スクリプトに応じて
「道案内を致します。出発地と行き先を教えてください」と応答を生成し、応答送信部1109で発話する。
【0046】
対話制御部1303では、対話スクリプトから次に続くユーザの想定発話は、情報キオスク端末との対話に応じるものであることが予想されるので、対話発話であることを認識結果判定部1302へ伝える。
ユーザが
「東京から新宿まで」と発話すると、この音声入力を対話用認識部1301と質問用音声認識部1103の両方で音声認識を行う。この音声入力における対話用音声認識部1301の認識結果の信頼度が80%、質問要音声認識部1103の認識結果の信頼度が30%とする。信頼度の有効性を判断する閾値を75%と設定しておくと、認識結果判定部1302は、対話用音声認識部1301の認識結果の信頼度が閾値より高いため、対話に関わる発話と判断し、その結果を対話制御部1303へ通知して、対話処理を続行する。対話制御部1303では、ユーザ発話に対する応答
「中央快速で新宿まで直通でいけます」を生成する。
続いて、対話制御部1303では、対話スクリプトから、次に続くユーザの想定発話は、中央快速の時刻に関する問い合わせだと予想されるので、対話発話であることを認識結果判定部1302へ伝える。
ユーザが
「新宿の、できれば南口の近くの、イタめしの店を知りたいんですけど、どこかいいところありませんか」
と発話すると、入力音声を対話用音声認識部1301と質問用音声認識部1103の両方で処理する。対話用音声認識部1301の認識結果の信頼度が30%、質問用音声認識部1103の認識結果の信頼度が75%とする。信頼度の有効性を判断する閾値75%より、対話用音声認識部1301の認識結果の信頼度が低く、質問用音声認識部1103の認識結果の信頼度が75%以上であるため、認識結果判定部1302は、質問発話であったと判断し、この入力結果を質問内容解析部1104で解析し、回答事例検索部1105は得られた質問内容を入力として事例検索を行う。事例検索結果は、音声で読み上げるよりも場所などの案内も行う方がよいため、ディスプレイに結果を表示する。
【0047】
このとき、対話制御部1303へは、対話処理ではなく、質問応答処理が行われたことを通知し、質問応答結果の表示処理が終了するとそのことを対話制御部1303へ通知する。その通知に応じて、対話制御部1303は、対話処理を続行する。
【0048】
<実施形態6>本発明に係る実施形態5は、実施形態2を基に、音声受付け、回答表示をオペレータが行う実施形態である。図19に、実施形態6の音声自動質問応答装置の構成図を示す。解析結果表示部1901は、質問内容解析部1104の解析結果をオペレータに対して表示する。解析結果編集部1902は、オペレータの操作に応じて、解析結果の誤りを修正する。
【0049】
音声自動質問応答装置は、それぞれハードウェアとしては、図示は省略するが例えば1または複数のCPUと、主記憶装置と、ハードディスク等の外部記憶装置と、通信装置と、それらを接続するバス等からなるコンピュータによって実現される。このコンピュータを音声自動質問応答装置として機能させるためのソフトウェアプログラムは、コンピュータに読み取り可能な可搬媒体メモリ、半導体メモリ、ハードディスクなどの適当な記録媒体に格納することができる。
(付記1)音声入力を解析し、音声入力に対する応答を出力する音声自動質問応答装置において、
音声入力の音声認識結果に対して、文章の句切り位置の誤りを修正し、談話構造解析を行う質問内容解析部を備え、
発話された質問を認識することを特徴とする音声自動質問応答装置。
(付記2)音声入力を解析し、音声入力に対する応答を出力する音声自動質問応答装置において、
音声認識が誤りやすい事例から誤認識修正ルールをあらかじめ作成かつ記憶し、前記誤認識修正ルールにしたがって、前記音声認識結果の誤りの補正を行う質問内容解析部を備えることを特徴とする音声自動質問応答装置。
(付記3)音声入力を解析し、音声入力に対する応答を出力する音声自動質問応答装置において、
音声認識が誤りやすい事例から誤認識修正ルールをあらかじめ作成かつ記憶し、前記誤認識修正ルールにしたがって、前記音声認識結果の誤りの補正を行う質問内容解析部と、
音声入力の音声認識結果に対して、文章の句切り位置の誤りを修正し、談話構造解析を行う質問内容解析部を備え、
発話された質問を認識することを特徴とする音声自動質問応答装置。
(付記4)付記1及至3のいずれか記載の音声自動質問応答装置において、
様々な音声入力の学習データを解析し、文章の句切り位置の誤りをあらかじめ記憶した出現頻度データベースを用いて、前記音声認識結果の文章の句切り位置の補正を行う質問内容解析部を備えることを特徴とする音声自動質問応答装置。
(付記5)付記1及至3のいずれか記載の音声自動質問応答装置において、
様々な音声入力の学習データの談話解析を行い、談話構造の各区切りの出現頻度をあらかじめ記憶した出現頻度データベースを用いて、前記音声認識結果の文章の句切り位置の補正を行う質問内容解析部を備えることを特徴とする音声自動質問応答装置。
(付記6)付記1及至3のいずれか記載の音声自動質問応答装置において、
様々な音声入力の学習データの談話解析を行い、談話要素毎の談話構造の各区切りの出現頻度をあらかじめ記憶した出現頻度データベースを用いて、前記音声認識結果の談話解析を行う質問内容解析部を備えることを特徴とする音声自動質問応答装置。
(付記7)音声入力を解析し、音声入力に対する応答を出力する音声自動質問応答装置において、
特定の対話型式の音声入力の音声認識を行う対話型音声認識部と、
自由発話型式の音声入力の音声認識を行う質問用音声認識部と、
前記対話型音声認識部の音声認識結果と前記質問用音声認識部の音声認識結果を評価、判定する認識結果判定部を備え、
前記認識結果判定部が、音声入力が特定の対話型式であると判定した場合には、対話型の質問解析を行い、音声入力が自由発話形式であると判定した場合には、自由発話型の質問解析を行うことを特徴とする音声自動質問応答装置。
(付記8)音声入力を解析し、音声入力に対する応答を出力する音声自動質問応答装置において、
音声入力の音声認識方法を選択する音声認識選択部と、
特定の対話型式の音声入力の音声認識を行う対話型音声認識部と、
自由発話型式の音声入力の音声認識を行う質問用音声認識部とを備え、
前記音声認識選択部が前記音声自動質問応答装置の前回の応答に応じて、前記対話型音声認識部か前記質問用音声認識部のいずれかを選択して、音声認識処理を行うことを特徴とする音声自動質問応答装置。
(付記9)音声入力を解析し、音声入力に対する応答を出力する音声自動質問応答装置において、
特定の対話型式の音声入力の音声認識を行う対話型音声認識部と、
自由発話型式の音声入力の音声認識を行う質問用音声認識部と、
前記対話型音声認識部の音声認識結果と前記質問用音声認識部の音声認識結果を評価、判定する認識結果判定部を備え、
前記認識結果判定部が、前記音声自動質問応答装置の前回の応答に応じて、前記対話型音声認識部の認識結果と前記質問用音声認識部の認識結果のいずれかを選択し、選択した認識結果を評価することを特徴とする音声自動質問応答装置。
(付記10)付記1及至9のいずれか記載の音声自動質問応答装置において、
ユーザについての情報を格納するユーザ情報記憶装置と、
前記ユーザ情報記憶装置から、音声入力を行ったユーザに関する情報を読み込むユーザ情報管理部とを備え、音声認識結果に前記ユーザに関する情報を付加することを特徴とする音声自動質問応答装置。
(付記11)付記1及至10のいずれか記載の音声自動質問応答装置において、音声入力の解析結果を表示する解析結果表示部と、
音声入力の解析結果のオペレータによる編集操作を受け付ける解析結果編集部とを備えることを特徴とする音声自動質問応答装置。
(付記12)音声入力を解析し、音声入力に対する応答を出力する音声自動質問応答方法において、
音声入力の音声認識結果に対して、文章の句切り位置の誤りを修正し、談話構造解析を行う質問内容解析ステップを備え、
発話された質問を認識することを特徴とする音声自動質問応答方法。
(付記13)音声入力を解析し、音声入力に対する応答を出力する音声自動質問応答方法において、
音声認識が誤りやすい事例から誤認識修正ルールをあらかじめ作成かつ記憶し、前記誤認識修正ルールにしたがって、前記音声認識結果の誤りの補正を行う質問内容解析ステップを備えることを特徴とする音声自動質問応答方法。
(付記14)音声入力を解析し、音声入力に対する応答を出力する音声自動質問応答方法において、
音声認識が誤りやすい事例から誤認識修正ルールをあらかじめ作成かつ記憶し、前記誤認識修正ルールにしたがって、前記音声認識結果の誤りの補正を行う質問内容解析ステップと、
音声入力の音声認識結果に対して、文章の句切り位置の誤りを修正し、談話構造解析を行う質問内容解析ステップを備え、
発話された質問を認識することを特徴とする音声自動質問応答方法。
(付記15)付記12及至14のいずれか記載の音声自動質問応答方法において、
様々な音声入力の学習データを解析し、文章の句切り位置の誤りをあらかじめ記憶した出現頻度データベースを用いて、前記音声認識結果の文章の句切り位置の補正を行う質問内容解析ステップを備えることを特徴とする音声自動質問応答方法。
(付記16)付記12及至14のいずれか記載の音声自動質問応答方法において、
様々な音声入力の学習データの談話解析を行い、談話構造の各区切りの出現頻度をあらかじめ記憶した出現頻度データベースを用いて、前記音声認識結果の文章の句切り位置の補正を行う質問内容解析ステップを備えることを特徴とする音声自動質問応答方法。
(付記17)付記12及至14のいずれか記載の音声自動質問応答方法において、
様々な音声入力の学習データの談話解析を行い、談話要素毎の談話構造の各区切りの出現頻度をあらかじめ記憶した出現頻度データベースを用いて、前記音声認識結果の談話解析を行う質問内容解析ステップを備えることを特徴とする音声自動質問応答方法。
(付記18)音声入力を解析し、音声入力に対する応答を出力する音声自動質問応答方法において、
特定の対話型式の音声入力の音声認識を行う対話型音声認識ステップと、
自由発話型式の音声入力の音声認識を行う質問用音声認識ステップと、
前記対話型音声認識ステップの音声認識結果と前記質問用音声認識ステップの音声認識結果を評価、判定する認識結果判定ステップを備え、
前記認識結果判定ステップが、音声入力が特定の対話型式であると判定した場合には、対話型の質問解析を行い、音声入力が自由発話形式であると判定した場合には、自由発話型の質問解析を行うことを特徴とする音声自動質問応答方法。
(付記19)音声入力を解析し、音声入力に対する応答を出力する音声自動質問応答方法において、
音声入力の音声認識方法を選択する音声認識選択ステップと、
特定の対話型式の音声入力の音声認識を行う対話型音声認識ステップと、
自由発話型式の音声入力の音声認識を行う質問用音声認識ステップとを備え、
前記音声認識選択ステップが前回の応答に応じて、前記対話型音声認識ステップか前記質問用音声認識ステップのいずれかを選択して、音声認識処理を行うことを特徴とする音声自動質問応答方法。
(付記20)音声入力を解析し、音声入力に対する応答を出力する音声自動質問応答方法において、
特定の対話型式の音声入力の音声認識を行う対話型音声認識ステップと、
自由発話型式の音声入力の音声認識を行う質問用音声認識ステップと、
前記対話型音声認識ステップの音声認識結果と前記質問用音声認識ステップの音声認識結果を評価、判定する認識結果判定ステップを備え、
前記認識結果判定ステップが、前回の応答に応じて、前記対話型音声認識ステップの認識結果と前記質問用音声認識ステップの認識結果のいずれかを選択し、選択した認識結果を評価することを特徴とする音声自動質問応答方法。
(付記21)付記12及至20のいずれか記載の音声自動質問応答方法において、
ユーザについての情報をユーザ情報記憶装置に格納するユーザ情報記憶ステップと、
前記ユーザ情報記憶装置から、音声入力を行ったユーザに関する情報を読み込むユーザ情報管理ステップとを備え、音声認識結果に前記ユーザに関する情報を付加することを特徴とする音声自動質問応答ステップ。
(付記22)付記12及至21のいずれか記載の音声自動質問応答方法において、
音声入力の解析結果を表示する解析結果表示ステップと、
音声入力の解析結果のオペレータによる編集操作を受け付ける解析結果編集ステップとを備えることを特徴とする音声自動質問応答方法。
(付記23)コンピュータに
音声認識結果に対して、文章の句切り位置の誤りを修正し、談話構造解析を行う質問内容解析手順を実行させるためのプログラム。
(付記24)コンピュータに
音声認識が誤りやすい事例から誤認識修正ルールをあらかじめ作成かつ記憶し、前記誤認識修正ルールにしたがって、前記音声認識結果の誤りの補正を行う質問内容解析手順を実行させるためのプログラム。
(付記25)コンピュータに
音声認識が誤りやすい事例から誤認識修正ルールをあらかじめ作成かつ記憶し、前記誤認識修正ルールにしたがって、前記音声認識結果の誤りの補正を行う質問内容解析手順、
音声入力の音声認識結果に対して、文章の句切り位置の誤りを修正し、談話構造解析を行う質問内容解析手順とを実行させるためのプログラム。
(付記26)付記23及至25のいずれか記載のプログラムにおいて、
様々な音声入力の学習データを解析し、文章の句切り位置の誤りをあらかじめ記憶した出現頻度データベースを用いて、前記音声認識結果の文章の句切り位置の補正を行う質問内容解析手順を実行させるためのプログラム。
(付記27)付記23及至25のいずれか記載のプログラムにおいて、
様々な音声入力の学習データの談話解析を行い、談話構造の各区切りの出現頻度をあらかじめ記憶した出現頻度データベースを用いて、前記音声認識結果の文章の句切り位置の補正を行う質問内容解析手順を実行させるためのプログラム。
(付記28)付記23及至25のいずれか記載のプログラムにおいて、
様々な音声入力の学習データの談話解析を行い、談話要素毎の談話構造の各区切りの出現頻度をあらかじめ記憶した出現頻度データベースを用いて、前記音声認識結果の談話解析を行う質問内容解析手順を実行させるためのプログラム。
(付記29)コンピュータに
特定の対話型式の音声入力の音声認識を行う対話型音声認識手順、
自由発話型式の音声入力の音声認識を行う質問用音声認識手順、
前記認識結果判定手順が、音声入力が特定の対話型式であると判定した場合には、対話型の質問解析を行い、音声入力が自由発話形式であると判定した場合には、自由発話型の質問解析を行うことを判定する認識結果判定手順とを実行させるためのプログラム。
(付記30)コンピュータに
特定の対話型式の音声入力の音声認識を行う対話型音声認識手順、
自由発話型式の音声入力の音声認識を行う質問用音声認識手順、
前回の応答に応じて、前記対話型音声認識手順か前記質問用音声認識手順のいずれかを選択する音声認識選択手順とを実行させるためのプログラム。
(付記31)コンピュータに
特定の対話型式の音声入力の音声認識を行う対話型音声認識手順、
自由発話型式の音声入力の音声認識を行う質問用音声認識手順、
前回の応答に応じて、前記対話型音声認識ステップの認識結果と前記質問用音声認識ステップの認識結果のいずれかを選択し、選択した認識結果を評価する認識結果判定ステップとを実行させるためのプログラム。
(付記32)付記23及至31のいずれか記載のプログラムにおいて、
ユーザについての情報をユーザ情報記憶装置に格納するユーザ情報記憶手順、
前記ユーザ情報記憶装置から、音声入力を行ったユーザに関する情報を読み込むユーザ情報管理手順、
音声認識結果に前記ユーザに関する情報を付加手順とを実行させるためのプログラム。
(付記33)付記23及至32のいずれか記載のプログラムにおいて、
音声入力の解析結果を表示する解析結果表示手順、
音声入力の解析結果のオペレータによる編集操作を受け付ける解析結果編集手順とを実行させるためのプログラム。
【0050】
【発明の効果】
以上説明したように本発明によれば、自動応答システムに対して、音声認識による誤認識などを解決する質問内容解析部を設けることにより、自由発話型式の質問の入力が可能な音声自動質問応答装置とすることができる。また、自由発話型式の質問であれば、自由発話型式音声自動質問応答処理を行い、対話型式の質問であれば、対話型式音声自動質問応答処理を行うことにより、常に適切な音声自動質問応答処理が行うことが可能にする。
【図面の簡単な説明】
【図1】本発明に係る音声認識結果の訂正の概念図である。
【図2】本発明に係る出現頻度データベースAの構成図である。
【図3】本発明に係る出現頻度データベースAの作成フローチャートである。
【図4】本発明に係る出現頻度データベースAを使用した質問内容解析部のフローチャートである。
【図5】本発明に係る出現頻度データベースBの構成図である。
【図6】本発明に係る出現頻度データベースBの作成フローチャートである。
【図7】本発明に係る出現頻度データベースBを使用した質問内容解析部のフローチャートである。
【図8】本発明に係る出現頻度データベースCの構成図である。
【図9】本発明に係る出現頻度データベースCの作成フローチャートである。
【図10】本発明に係る出現頻度データベースCを使用した質問内容解析部のフローチャートである。
【図11】本発明に係る実施形態1の音声自動質問応答装置の構成図である。
【図12】本発明に係る実施形態2の音声自動質問応答装置の構成図である。
【図13】本発明に係る実施形態3の音声自動質問応答装置の構成図である。
【図14】本発明に係る実施形態3の音声自動質問応答装置のフローチャートである。
【図15】本発明に係る実施形態4の音声自動質問応答装置の構成図である。
【図16】本発明に係る実施形態4の音声自動質問応答装置のフローチャートである。
【図17】本発明に係る実施形態5の音声自動質問応答装置の構成図である。
【図18】本発明に係る実施形態5の音声自動質問応答装置のフローチャートである。
【図19】本発明に係る実施形態6の音声自動質問応答装置の構成図である。
【符号の説明】
11 誤認識修正データベース
201 出現頻度データベースA
202 学習データ
301 学習データの形態素解析ステップ
302 句境界位置の出現頻度計算ステップ
401 音声認識結果の修正ステップ
402 音声認識結果の形態素解析ステップ
403 初期形態素設定ステップ
404 終端判定ステップ
405 句点境界位置計算ステップ
406 句点境界位置判定ステップ
407 句点境界位置推定ステップ
408 着目位置移動ステップ
409 句点挿入ステップ
410 読点挿入ステップ
411 談話解析ステップ
501 出現頻度データベースB
502 談話解析結果
601 学習データの談話解析ステップ
602 学習データの形態素解析ステップ
603 談話構造区切り位置の出現頻度計算ステップ
701 音声認識結果の修正ステップ
702 音声認識結果の形態素解析ステップ
703 初期形態素設定ステップ
704 終端判定ステップ
705 談話構造区切り位置計算ステップ
706 談話構造区切り位置判定ステップ
707 談話構造区切り位置推定ステップ
708 着目位置移動ステップ
709 句点挿入ステップ
710 読点挿入ステップ
711 談話解析ステップ
801 出現頻度データベースC
901 学習データの談話解析ステップ
902 学習データの形態素解析ステップ
903 談話構造区切り位置の出現頻度計算ステップ
1001 音声認識結果の修正ステップ
1002 音声認識結果の形態素解析ステップ
1003 初期形態素設定ステップ
1004 句点境界位置計算ステップ
1004 終端判定ステップ
1005 句点境界位置計算ステップ
1006 句点境界位置判定ステップ
1007 談話構造区切り位置判定ステップ
1008 談話構造区切り位置推定ステップ
1009 着目位置移動ステップ
1010 句点挿入ステップ
1011 読点挿入ステップ
1012 談話解析ステップ
1101 音声受信部
1102 音声入力部
1103 質問用音声認識部
1104 質問内容解析部
1105 回答事例検索部
1106 回答事例データベース
1107 結果出力部
1108 応答作成部
1109 応答発信部
1201 ユーザ情報管理部
1202 ユーザ情報データベース
1301 対話用音声認識部
1302 認識結果判定部
1303 対話制御部
1304 対話応答生成部
1401 音声入力ステップ
1402 音声認識ステップ
1403 認識結果判定ステップ
1404 対話制御ステップ
1405 発話内容生成ステップ
1406 質問内容解析ステップ
1407 回答事例検索ステップ
1408 回答結果検索ステップ
1409 応答出力ステップ
1410 応答出力内容通知ステップ
1501 音声認識選択部
1601 音声入力ステップ
1602 音声認識選択ステップ
1603 対話型式音声認識ステップ
1604 対話制御ステップ
1605 発話内容生成ステップ
1606 自然発話型式音声認識ステップ
1607 質問内容解析ステップ
1608 回答事例検索ステップ
1609 回答結果検索ステップ
1610 応答出力ステップ
1611 応答出力内容通知ステップ
1612 音声認識選択ステップ
1801 音声入力ステップ
1802 音声認識ステップ
1602 音声認識選択ステップ
1804 対話形式判定ステップ
1805 対話制御ステップ
1806 発話内容生成ステップ
1807 自然発話形式判定ステップ
1808 質問内容解析ステップ
1809 回答事例検索ステップ
1810 回答結果検索ステップ
1811 応答出力ステップ
1812 応答出力内容通知ステップ
1813 ユーザ発話推定ステップ
1814 対話用発話判定ステップ
1815 対話用閾値設定ステップ
1816 質問用閾値設定ステップ
1901 解析結果表示部
1902 解析結果編集部

Claims (4)

  1. 音声入力を認識した結果である音声認識結果を解析し、該音声入力に対する応答を出力する音声自動質問応答装置において、
    音声入力の学習データの談話解析により、文末表現に基づいて Question Wish Statement Action のいずれかの類型に定義した談話要素毎の談話構造の区切りの出現頻度を前記談話構造の区切りの出現位置毎にあらかじめ記憶した出現頻度データベースを参照し、前記音声認識結果の談話構造の区切りの出現位置を求め、いずれの位置に談話構造の区切りが現れるかによって前記音声認識結果の談話解析を行う質問内容解析部
    を備えることを特徴とする音声自動質問応答装置。
  2. 前記質問内容解析部は、音声認識が誤りやすい事例から誤認識修正ルールをあらかじめ作成かつ記憶した誤認識修正データベースを参照し、前記音声認識結果の誤りの補正を行った後に文章の句切り位置の補正または談話解析を行うこと
    を特徴とする請求項1に記載の音声自動質問応答装置。
  3. 特定の対話型式の音声入力の音声認識を行う対話型音声認識部と、自由発話型式の音声入力の音声認識を行う質問用音声認識部と、
    前記対話型音声認識部の音声認識結果と前記質問用音声認識部の音声認識結果を評価、判定する認識結果判定部とをさらに備え、
    前記認識結果判定部が前記音声入力が自由発話形式であると判定した場合に、前記質問内容解析部が前記音声認識結果の文章の句切り位置の補正または談話解析を行うこと
    を特徴とする請求項1乃至2のいずれかに記載の音声自動質問応答装置。
  4. 前回の出力した応答の内容に応じて、前記対話型音声認識部か前記質問用音声認識部のいずれかに音声入力の音声認識を行わせることを選択する音声認識選択部をさらに備えることを特徴とする請求項3に記載の音声自動質問応答装置。
JP2002062604A 2002-03-07 2002-03-07 音声自動質問応答装置 Expired - Fee Related JP4042435B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002062604A JP4042435B2 (ja) 2002-03-07 2002-03-07 音声自動質問応答装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002062604A JP4042435B2 (ja) 2002-03-07 2002-03-07 音声自動質問応答装置

Publications (2)

Publication Number Publication Date
JP2003263190A JP2003263190A (ja) 2003-09-19
JP4042435B2 true JP4042435B2 (ja) 2008-02-06

Family

ID=29196298

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002062604A Expired - Fee Related JP4042435B2 (ja) 2002-03-07 2002-03-07 音声自動質問応答装置

Country Status (1)

Country Link
JP (1) JP4042435B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4953767B2 (ja) * 2006-11-02 2012-06-13 アルパイン株式会社 音声生成装置
JP5495968B2 (ja) * 2009-11-30 2014-05-21 株式会社野村総合研究所 談話構造解析システムおよび談話構造解析プログラム
JP6605105B1 (ja) * 2018-10-15 2019-11-13 株式会社野村総合研究所 文章記号挿入装置及びその方法
JP7229144B2 (ja) * 2019-10-11 2023-02-27 株式会社野村総合研究所 文章記号挿入装置及びその方法
US20230223017A1 (en) * 2020-04-20 2023-07-13 Ntt Docomo, Inc. Punctuation mark delete model training device, punctuation mark delete model, and determination device

Also Published As

Publication number Publication date
JP2003263190A (ja) 2003-09-19

Similar Documents

Publication Publication Date Title
US11037553B2 (en) Learning-type interactive device
US6718303B2 (en) Apparatus and method for automatically generating punctuation marks in continuous speech recognition
JP3782943B2 (ja) 音声認識装置、コンピュータ・システム、音声認識方法、プログラムおよび記録媒体
CN113614825A (zh) 用于自动语音识别的字词网格扩增
JP2000339314A (ja) 自動応答方法及び対話解析方法並びに応答文生成方法、その装置、そのプログラムを記録した媒体
JP5824829B2 (ja) 音声認識装置、音声認識方法及び音声認識プログラム
US20060020471A1 (en) Method and apparatus for robustly locating user barge-ins in voice-activated command systems
JP7107229B2 (ja) 情報処理装置および情報処理方法、並びにプログラム
US20200320976A1 (en) Information processing apparatus, information processing method, and program
JP5045486B2 (ja) 対話装置及びプログラム
CN112309406A (zh) 声纹注册方法、装置和计算机可读存储介质
JP6254504B2 (ja) 検索サーバ、及び検索方法
US20040019488A1 (en) Email address recognition using personal information
JP4042435B2 (ja) 音声自動質問応答装置
JP2005242891A (ja) 事例検索プログラム
JP3468572B2 (ja) 対話処理装置
JP7107228B2 (ja) 情報処理装置および情報処理方法、並びにプログラム
Lamel Spoken language dialog system development and evaluation at LIMSI
JP4220151B2 (ja) 音声対話装置
JP2009075249A (ja) 書き起こし内容確認方法、書き起こし内容確認装置、コンピュータプログラム
US6772116B2 (en) Method of decoding telegraphic speech
JP2003099089A (ja) 音声認識・合成装置および方法
KR102362815B1 (ko) 음성 인식 선곡 서비스 제공 방법 및 음성 인식 선곡 장치
CN113763921B (zh) 用于纠正文本的方法和装置
JP2019109424A (ja) 計算機、言語解析方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041006

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070123

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070326

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070508

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070706

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20070717

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070821

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070925

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20071023

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20071105

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101122

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101122

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111122

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111122

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121122

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121122

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131122

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees