JP2007233249A - 音声分岐装置、発話訓練装置、音声分岐方法、発話訓練支援方法およびプログラム - Google Patents

音声分岐装置、発話訓練装置、音声分岐方法、発話訓練支援方法およびプログラム Download PDF

Info

Publication number
JP2007233249A
JP2007233249A JP2006057769A JP2006057769A JP2007233249A JP 2007233249 A JP2007233249 A JP 2007233249A JP 2006057769 A JP2006057769 A JP 2006057769A JP 2006057769 A JP2006057769 A JP 2006057769A JP 2007233249 A JP2007233249 A JP 2007233249A
Authority
JP
Japan
Prior art keywords
utterance
unit
extraction
extracted
phrase
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006057769A
Other languages
English (en)
Other versions
JP4760452B2 (ja
Inventor
Shinichiro Kamei
真一郎 亀井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2006057769A priority Critical patent/JP4760452B2/ja
Publication of JP2007233249A publication Critical patent/JP2007233249A/ja
Application granted granted Critical
Publication of JP4760452B2 publication Critical patent/JP4760452B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】発話の技術の向上にかかるユーザの負担を軽減することが可能な音声分岐装置を提供する。
【解決手段】音声取得部11は、電話機101への発話を取得する。音声分岐部12は、音声取得部11が取得した発話を、電話機101と、発話訓練装置100と、の両方に出力する。
【選択図】図1

Description

本発明は、音声分岐装置、発話訓練装置、音声分岐方法、発話訓練支援方法およびプログラムに関し、特には、発話技術の向上を支援する音声分岐装置、発話訓練装置、音声分岐方法、発話訓練支援方法およびプログラムに関する。
電話で顧客からの問い合わせ等に対応するコンタクトセンターが、各所に設けられている。このコンタクトセンターでは、オペレータが、顧客に電話で対応している。
オペレータは、発話すべき語句を発話する必要がある。例えば、オペレータは、顧客との通話の冒頭で、自己の所属および名前を顧客に知らせ、かつ、その通話の最後にも、自己の所属および名前を知らせることが一般的である。この場合、オペレータは、自己の所属および名前を確実に発話する必要がある。
また、オペレータは、特定の語句の発話を抑制する必要がある。例えば、「えー」、「あのー」または「えっとですね」などのつなぎ言葉を頻繁に発話するオペレータが存在する。オペレータがつなぎ言葉を頻繁に発話すると、顧客にとって、そのオペレータの発話は、聞こえづらい。
オペレータは、発話すべき語句を確実に発話するなど、発話の技術を向上させるためには、自己の発話の確認すること、または、自己の発話の評価を聞くことが効果的である。
従来、オペレータの管理者など(以下では、スーパバイザという)が、例えば、オペレータと顧客との通話の録音を聞いて、そのオペレータの発話が妥当か否かなどを評価し、その評価をオペレータに伝えていた。
しかしながら、スーパバイザが通話の録音を聞いて発話を評価する評価方法では、時間がかかる。このため、スーパバイザは、数ヶ月に一回程度、オペレータの発話の評価していた。オペレータが自己の発話の評価を数ヶ月に一回程度聞いても、自己の発話の技術を向上させることは、困難である。
特許文献1(特開2004−309631号公報)には、自動的にユーザの発話を評価することが可能な対話練習支援装置が記載されている。この対話練習支援装置は、ユーザへの擬似的な質問を記憶し、その擬似的な質問に対するユーザの回答を取得する。対話練習支援装置は、その回答から特定の用語を抽出し、その用語を提示する。
これにより、自動的にユーザが特定の用語を発話するか否かを確認することが可能になり、オペレータの発話の評価を行なう時間を短くすることが可能になる。
特開2004−309631号公報
特許文献1に記載の対話練習支援装置では、オペレータは擬似的な質問を聞いて、その質問に応答しなければならない。このため、オペレータは、顧客との応対などの通常業務とは別に、この対話練習支援装置を使用して発話の技術を向上させなければならない。このため、オペレータの負担が増加する。
本発明の目的は、発話の技術の向上にかかるユーザの負担を軽減することが可能な音声分岐装置、発話訓練装置、音声分岐方法、発話訓練支援方法およびプログラムを提供することである。
前記目的を達成するために、本発明の音声分岐装置は、発発話から抽出すべき抽出対象語句を抽出し、該抽出された抽出対象語句を提示する発話訓練装置と、通話先の電話機と、に接続された音声分岐装置であって、前記電話機への発話を取得する取得部と、前記取得部が取得した発話を、前記電話機と前記発話訓練装置との両方に出力する分岐部と、を含む。
また、本発明の音声分岐方法は、発話から抽出すべき抽出対象語句を抽出し、該抽出された抽出対象語句を提示する発話訓練装置と、通話先の電話機と、に接続された音声分岐装置が行なう音声分岐方法であって、前記電話機への発話を取得する取得ステップと、前記取得された発話を、前記電話機と前記発話訓練装置との両方に出力する分岐ステップと、を含む。
また、本発明の発話訓練システムは、発話訓練装置と、前記発話訓練装置と通話先の電話機とに接続された音声分岐装置と、を含む発話訓練システムであって、前記音声分岐装置は、前記電話機への発話を取得する取得部と、前記取得部が取得した発話を、前記電話機と前記発話訓練装置との両方に出力する分岐部と、を含み、前記発話訓練装置は、前記発話から抽出すべき抽出対象語句を格納する対象格納部と、前記音声分岐装置が出力した発話を受け付け、該受け付けられた発話を文字情報に変換する認識部と、前記認識部が変換した文字情報から前記対象格納部に格納された抽出対象語句を抽出する抽出部と、前記抽出部が抽出した抽出対象語句を提示する提示部と、を含む。
また本発明の発話訓練システムが行う発話訓練支援方法は、発話から抽出すべき抽出対象語句を格納する対象格納部を含む発話訓練装置と、前記発話訓練装置と通話先の電話機とに接続された音声分岐装置と、を含む発話訓練システムが行なう発話訓練支援方法であって、前記音声分岐装置が、前記電話機への発話を取得する発話取得ステップと、前記音声分岐装置が、前記取得された発話を、前記電話機と前記発話訓練装置との両方に出力する出力ステップと、前記発話訓練装置が、前記出力された発話を受け付ける発話受付ステップと、前記発話訓練装置が、前記受け付けられた発話を文字情報に変換する認識ステップと、前記発話訓練装置が、前記変換された文字情報から前記対象格納部に格納された抽出対象語句を抽出する語句抽出ステップと、前記発話訓練装置が、前記抽出された抽出対象語句を提示する語句提示ステップと、を含む。
上記の発明によれば、通話先への発話が、通話先の電話機と、発話訓練装置と、の両方に出力される。発話訓練装置は、発話を受け付けると該発話から抽出対象語句を抽出し該抽出された抽出対象語句を提示する。
このため、ユーザは、顧客に応対しながら、発話訓練装置を見ることによって、抽出対象語句を発話したか否かを確認することが可能になる。よって、ユーザは、通常業務とは別に、例えば、擬似的な質問を聞いてその質問に応答するなどして自己の発話を確認しなくても、通常業務を行ないながら発話の技術を向上させることが可能になる。したがって、発話の技術の向上にかかるユーザの負担を軽減することが可能になる。
また、本発明の発話訓練装置は、前記音声分岐装置と接続された発話訓練装置であって、前記発話から抽出すべき抽出対象語句を格納する対象格納部と、前記音声分岐装置が出力した発話を受け付け、該受け付けられた発話を文字情報に変換する認識部と、前記認識部が変換した文字情報から前記対象格納部に格納された抽出対象語句を抽出する抽出部と、前記抽出部が抽出した抽出対象語句を提示する提示部と、を含む。
また、本発明の発話訓練支援方法は、発話から抽出すべき抽出対象語句を格納する対象格納部を含み、前期音声分岐装置と接続された発話訓練装置が行なう発話訓練支援方法であって、前記音声分岐装置が出力した発話を受け付ける受付ステップと、前記受け付けられた発話を文字情報に変換する変換ステップと、前記変換された文字情報から前記対象格納部に格納された抽出対象語句を抽出する抽出ステップと、前記抽出された抽出対象語句を提示する提示ステップと、を含む。
上記の発明によれば、音声分岐装置にて出力された電話機への発話から抽出対象語句が抽出され、その抽出対象語句が提示される。
このため、擬似的な質問が記憶されなくても、ユーザは、自己が抽出対象語句を発話したか否かを確認することが可能になる。
また、前記対象格納部は、ユーザを特定する識別子と、該識別子にて特定されるユーザの発話から抽出すべき抽出対象語句と、を前記識別子ごとに関連づけて格納し、前記識別子を受け付ける入力部、を含み、前記抽出部は、前記認識部が変換した文字情報から、前記入力部が受け付けた識別子と前記対象格納部にて関連づけられた抽出対象語句を抽出することが望ましい。
擬似的な質問に対するユーザの回答から特定の用語を抽出する方法では、その特定の用語は、その擬似的な質問に対応づけられて登録されている。このため、ユーザごとに、その特定の用語を設定することができない可能性がある。
上記の発明によれば、識別子が受け付けられると、その識別子と関連づけられた抽出対象語句が、文字情報から抽出される。
このため、例えば、ユーザの口癖などに応じて、個々のユーザに適した抽出対象語句を提示することが可能になる。
また、本発明のプログラムは、発話から抽出すべき抽出対象語句を格納する対象格納部と、前記音声分岐装置と、に接続されたコンピュータに発話訓練支援処理を実行させるプログラムであって、前記音声分岐装置が出力した発話を受け付ける受付処理と、前記受け付けられた発話を文字情報に変換する変換処理と、前記変換された文字情報から前記対象格納部に格納された抽出対象語句を抽出する抽出処理と、前記抽出された抽出対象語句を提示する提示処理と、を含む発話訓練支援処理を前記コンピュータに実行させる。
上記の発明によれば、前記発話訓練支援方法をコンピュータに実行させることが可能になる。
本発明によれば、発話の技術の向上にかかるユーザの負担を軽減することが可能になる。
以下、本発明の実施例について図面を参照して説明する。
図1は、本発明の一実施例の発話訓練システムを示したブロック図である。図1において、発話訓練システムは、音声入力装置1と、発話訓練装置10とを含む。なお、音声入力装置1は、電話網100および発話訓練装置10と接続される。さらに言えば、電話網100は、通話先の電話機101と接続され、音声入力装置1は、電話網100を介して電話機101と接続される。
音声入力装置1は、電話機101への発話を取得する。また、音声入力部1は、音声取得部11と、音声分岐部12とを含む。
音声取得部11は、例えば、マイクであり、電話機101への発話を取得する。具体的には、音声取得部11ユーザが電話機101に発話した音声を取得する。なお、音声取得部11は、その音声を、デジタル信号として取得しても良いし、アナログ信号として取得しても良い。
音声分岐部12は、音声取得部11が音声を取得すると、その音声を電話網100と、発話訓練装置10との両方に出力する。
発話訓練装置10は、発話を受け付けると、その発話から抽出対象語句を抽出し、抽出された抽出対象語句を出力する。また、発話訓練装置10は、抽出された抽出対象語句を提示する。
また、発話訓練装置10は、記憶部2と、指示入力部3と、通話検知部4と、出力部5と、データ処理部6とを含む。
記憶部2は、抽出用語格納部21と、抽出結果格納部22と、メモリ23とを含む。
抽出用語格納部21は、対象情報を格納する。対象情報では、ユーザが発話した音声から抽出すべき抽出対象語句と、該抽出対象語句の種別とが、抽出対象語句ごとに関連づけられている。抽出対象語句の種別は、例えば、その抽出対象語句が発話されるべき語句(例えば、ユーザの名前)であること、または、その抽出対象語句が発話を抑制すべき語句(例えば、「あのー」などのつなぎ言葉)であること、のどちらか一方を示す。
図2は、対象情報の一例を示した図である。図2において、対象情報200は、語句201と、種別202とを含む。語句201は、発話から抽出すべき抽出対象語句を示す。種別202は、語句201の種別であり、「必須」または「抑制」を示す。「必須」は、語句202が発話されるべき語句であることを示し、一方、「抑制」は、語句202が発話を抑制すべき語句であることを示す。
検出結果格納部22は、抽出情報を格納する。抽出情報は、少なくとも、用語抽出部62が音声から抽出した抽出語句を含む。なお、抽出情報では、抽出語句と、その抽出語句が抽出された抽出回数とが、抽出語句ごとに関連づけられてもよい。また、抽出情報では、抽出語句と、その抽出語句の種別とが、抽出語句ごとに関連づけられてもよい。また、抽出情報では、抽出語句と、その抽出語句を単位時間あたりにユーザが発話した回数(以下では、発話頻度という)とが、抽出語句ごとに関連づけられても良い。
さらに、抽出情報は、ユーザを識別する識別子(例えば、ユーザの名前)、ユーザが顧客との通話した応対年月日、ユーザが顧客との通話を開始した開始時刻、および、ユーザが顧客との通話を終了した終了時刻を含んでも良い。
図3は、抽出情報の一例を示した図である。具体的には、2005年10月10日の14時55分05秒ないし15時02分38秒に、名前が「高橋」であるユーザが行なった顧客との通話における抽出情報の一例を示した図である。
図3において、抽出情報300は、対応者301と、応対年月日302と、開始時刻303と、終了時刻304と、語句305と、種別306と、回数307とを含む。
対応者301は、識別子であり、ユーザの名前を示す。応対年月日302は、ユーザが顧客との通話した年月日を示す。開始時刻303は、ユーザが顧客との通話を開始した開始時刻を含む。終了時刻304は、ユーザが顧客との通話を終了した終了時刻を示す。語句305は、発話から抽出された抽出語句を示す。種別306は、語句305の種別を示す。回数307は、語句305が示す抽出語句が抽出された抽出回数を示す。
メモリ23は、CPUにて読み取り可能な記録媒体であり、データ処理部6の動作を規定するプログラムを記録する。また、メモリ23は、発話訓練装置を使用するユーザを特定する識別子を記録する。
指示入力部3は、例えば、キーボードまたはマウスであり、抽出情報を検索する旨の検索指示と、対象情報を変更する旨の更新指示とを受け付ける。
通話検知部4は、ユーザと顧客との通話の開始および終了を検知する。
出力部5は、各種情報をユーザに提示する。なお、出力部5は、例えば、ディスプレイである。
データ処理部6は、例えば、CPUであり、メモリ23に記録されたプログラムを読み取り、読み取ったプログラムを実行し、音声認識部61と、用語抽出部62と、時計部63と、抽出結果処理部64と、指示管理部65と、抽出結果検索部66と、設定部67とを実現する。
音声認識部61は、音声分岐部12が出力した音声を受け付け、その音声を文字情報に変換する。
用語抽出部62は、音声認識部61が音声を文字情報に変換すると、抽出用語格納部21に格納されている対象情報を確認する。また、用語抽出部62は、その対象情報が含む抽出対象語句が、その文字情報に含まれるか否かを調べる。
その抽出対象語句が文字情報に含まれると、用語抽出部62は、その抽出対象語句を文字情報から抽出語句として抽出する。一方、その抽出対象語句が文字情報に含まれないと、用語抽出部62は、抽音声認識部61が次に音声を文字情報に変換するまで待機する。
用語抽出部62は、抽出した抽出語句を抽出結果処理部5に出力する。なお、用語抽出部62は、抽出語句と、その抽出語句として抽出された抽出対象語句と抽出用語格納部21にて関連づけられた種別と、を抽出語句ごとに関連づけて抽出結果処理部5に出力しても良い。
時計部63は、現在の年月日および時刻を測定する。
抽出結果処理部64は、通話検知部4が通話の開始を検知すると、時計部63から、現在の年月日を応対年月日として取得すると共に、現在の時刻を開始時刻として取得する。また、抽出結果処理部64は、通話検知部4が通話の終了を検知すると、時計部63から現在の時刻を終了時刻として取得する。
抽出結果処理部64は、用語抽出部62が抽出語句を抽出すると、換言すれば、用語抽出部62が出力した抽出語句を受け付けると、その抽出語句を出力部5に出力させる。
例えば、出力部5が表示装置の場合、抽出結果処理部64は、その抽出語句を、抽出された順番で、全て出力部5に表示させる。
また、抽出結果処理部64は、同じ抽出語句を一度だけ出力部5に表示しても良い。この場合、抽出結果処理部64は、用語抽出部62が抽出語句を抽出すると、その抽出語句を既に出力部5に表示されているか否かを確認する。その抽出語句が表示されていないと、抽出結果処理部64は、その抽出語句を出力部5に表示させる。一方、その抽出語句が表示されていると、抽出結果処理部64は、次に抽出語句が抽出されるまで待機する。
また、検出結果処理部64は、抽出語句と、その抽出語句の発話頻度とを抽出語句ごとに関連づけて出力部5に表示させても良い。
この場合、検出結果処理部64は、用語抽出部62が抽出した抽出語句の抽出回数を、抽出語句ごとに算出する。その後、検出結果処理部64は、時計部63から終了時刻を取得すると、その終了時刻および開始時刻に基づいて、ユーザが顧客と通話した通話時間を算出する。検出結果処理部64は、その抽出回数と通話時間に基づいて、所定の時間(たとえば、1分間または10分間など)当たりの発話回数を発話頻度として算出する。検出結果処理部64は、その抽出語句と、その抽出語句の発話頻度と抽出語句ごとに関連づけて出力部5に表示させる。
抽出結果処理部64は、抽出語句を出力部5に出力させると、その抽出語句を含む抽出情報を作成する。
なお、抽出結果処理部64は、例えば、発話頻度を含む抽出情報を作成する場合、終了情報を取得した後で、抽出情報を作成する。
この場合、先ず、抽出結果処理部64は、終了情報を取得すると、抽出回数、通話時間および発話頻度を算出する。なお、結果処理部64は、発話頻度を出力部5に表示させる場合など、既に抽出回数、通話時間および発話頻度を算出している場合、改めて抽出回数、通話時間および発話頻度を算出する必要はない。
続いて、検出結果処理部64は、メモリ23から識別子を読み取る。抽出結果処理部64は、その識別子、応対年月日、開始時刻、終了時刻、通話時間、抽出語句、抽出語句の種別、発話回数および発話頻度を含む抽出情報を作成する。なお、抽出情報では、抽出語句と、その抽出語句の種別と、その抽出語句の抽出回数と、その抽出語句の発話頻度と、が抽出語句ごとに関連づけられている。
検出結果処理部64は、抽出情報を作成すると、その抽出情報を抽出結果格納部22に格納する。
指示管理部65は、指示入力部3が検索指示を受け付けると、その検索指示を抽出結果検索部66に出力する。また、指示管理部65は、指示入力部3が更新指示を受け付けると、その更新指示を設定部67に出力する。
抽出結果検索部66は、指示入力部3が検索指示を受け付けると、換言すると、指示管理部65から検索指示を受け付けると、その検索指示に応じた抽出情報を、抽出結果格納部22から検索する。
例えば、指示入力部3が検索指示として識別子を受け付けると、抽出結果検索部66は、その識別子を含む抽出情報を、抽出結果格納部22から検索する。また、指示入力部3が検索指示として年月日を受け付けると、抽出結果検索部66は、その年月日を含む抽出情報を、抽出結果格納部22から検索する。
抽出結果検索部66は、抽出情報を検索すると、検索された抽出情報を出力部5に出力させる。なお、抽出結果検索部66は、検索された抽出情報の一部(例えば、抽出語句およびその発話回数)だけを出力部5に出力させてもよい。
出力部5が表示装置の場合、抽出結果検索部66は、検索された抽出情報を出力部5に表示する。抽出結果検索部66は、検索された抽出情報を、ユーザが抽出情報の内容を把握しやすい情報に加工し、その加工した抽出情報を出力部5に表示してもよい。
例えば、指示入力部3が検索指示として年月日の範囲を受け付けると、抽出結果検索部66は、その年月日の範囲に含まれる応対年月日を含む抽出情報を検索し、その抽出情報が含む抽出語句および発話頻度(または、抽出回数)を、表またはグラフなどの形式に加工する。抽出結果検索部66は、その加工された発話頻度を出力部5に表示する。
図4は、表の形式に加工された抽出語句「あのー」の発話頻度の一例を示した図である。図4では、縦軸は、「あのー」の発話頻度を示し、横軸は、月日を示す。
設定部67は、指示入力部3が更新指示を受け付けると、換言すると、指示管理部65から更新指示を受け付けると、その更新指示に従って抽出用語格納部21に格納された対象情報を変更する。
例えば、指示入力部3が更新指示として抽出対象語句に追加すべき語句およびその語句の種別を受け付けると、設定部67は、その語句と種別とを関連づけて抽出用語格納部21に格納する。また、指示入力部3が更新指示として抽出対象語句から削除すべき語句を受け付けると、設定部67は、その語句とその語句に関連づけられた種別とを抽出用語格納部21から削除する。
次に、発話訓練システムの動作を説明する。
図5は、ユーザの発話を取得してから抽出語句を格納するまでの動作を説明するためのフローチャートである。
音声取得部11は、ユーザが発話した音声を取得すると、ステップS501を実行する。
ステップS501では、音声取得部11は、その音声を音声分岐部12に出力する。音声分岐部12は、その音声を受け付けると、ステップS502を実行する。
ステップS502では、音声分岐部12は、その音声を電話網7と、音声認識部61との両方に出力する。音声認識部61は、音声を受け付けると、ステップS503を実行する。
ステップS503では、音声認識部61は、その音声を文字情報に変換し、その文字情報を用語抽出部62に出力する。用語抽出部62は、音声認識部61から文字情報を受け付けると、ステップS504を実行する。
ステップS504では、用語抽出部62は、抽出用語格納部21に格納されている対象情報を確認する。用語抽出部62は、その対象情報に含まれる抽出対象語句が文字情報に含まれるか否かを調べる。用語抽出部62は、その抽出対象語句が文字情報に含まれると、ステップS505を実行し、その抽出対象語句が文字情報に含まれないと、動作を終了する。
ステップS505では、用語抽出部62は、文字情報から、抽出対象語句を抽出語句として抽出し、その抽出語句を抽出結果処理部64に出力する。抽出結果処理部64は、抽出語句を出力部5に提示させる。抽出結果処理部64は、ステップS505を終了すると、ステップS506を実行する。
ステップS506では、抽出結果処理部64は、抽出情報を作成し、その抽出情報を抽出結果格納部22に格納する。
次に、抽出結果格納部に格納された抽出語句を検索する動作を説明する。
指示入力部3は、検索指示を受け付けると、その検索指示を指示管理部65に出力する。指示管理部65は、検索指示を受け付けると、その検索指示を抽出結果検索部66に出力する。
抽出結果検索部66は、検索指示を受け付けると、その検索指示に従って、抽出結果格納部22から抽出情報を検索する。抽出結果検索部66は、検索された抽出情報を出力部5に出力させる。
次に、抽出対象語句の変更の動作を説明する。
指示入力部3は、更新指示を受け付けると、その更新指示を指示管理部65に出力する。指示管理部65は、更新指示を受け付けると、その更新指示を設定部67に出力する。
設定部67は、更新指示を受け付けると、その更新指示に従って、抽出用語格納部21に格納された抽出対象語句を変更する。
本実施例によれば、音声取得部11は、電話機101への発話を取得する。音声分岐部12は、音声取得部11が取得した発話を、電話機101と、発話訓練装置100と、の両方に出力する。
この場合、通話先への発話が、電話機101と、発話訓練装置10と、の両方に出力される。発話訓練装置10は、発話を受け付けると該発話から抽出対象語句を抽出し該抽出された抽出対象語句を提示する。
このため、ユーザは、顧客に応対しながら、発話訓練装置10を見ることによって、抽出対象語句を発話したか否かを確認することが可能になる。よって、ユーザは、通常業務とは別に、例えば、擬似的な質問を聞いてその質問に応答するなどして自己の発話を確認しなくても、通常業務を行ないながら発話の技術を向上させることが可能になる。したがって、発話の技術の向上にかかるユーザの負担を軽減することが可能になる。
また、音声認識部61は、音声分岐部12が出力した音声を文字情報に変換する。用語抽出部62は、その文字情報から、抽出用語格納部21が格納した抽出対象語句を抽出する。出力部5は、用語抽出部62が抽出した抽出対象語句を提示する。
この場合、音声入力装置1にて出力された電話機への発話が文字情報に変換される。また、その文字情報から抽出対象語句が抽出され、その抽出対象語句が提示される。
このため、擬似的な質問が記憶されなくても、ユーザは、自己が抽出対象語句を発話したか否かを確認することが可能になる。
次に、ユーザごとに抽出対象語句を設定することが可能な発話訓練システムを説明する。
この場合、抽出用語格納部21が格納する抽出情報では、識別子と、該識別子にて特定されるユーザの発話から抽出すべき抽出対象語句と、該抽出対象語句の種別と、が識別子ごとに関連づけられている。
図6は、ユーザごとに抽出対象語句を設定することが可能な発話訓練システムにおける、ユーザの発話を取得してから抽出語句を格納するまでの動作を説明するためのフローチャートである。なお、図6において、図5と同一の処理に付いては、同一の符号が付してある。
用語抽出部62は、ステップS503で音声認識部61から文字情報を受け付けると、ステップS601を実行する。
ステップS601では、用語抽出部62は、メモリ62に記録されている識別子を確認し、その識別子と抽出用語格納部21にて関連づけられている抽出対象語句を確認する。用語抽出部62は、その抽出対象語句が文字情報に含まれるか否かを調べる。用語抽出部62は、その抽出対象語句が文字情報に含まれると、ステップS505を実行し、その抽出対象語句が文字情報に含まれないと、動作を終了する。
その後、ステップS505およびS506が実行される。なお、ステップS506では、抽出結果処理部64は、少なくとも、識別子と抽出対象語句とが関連づけられた抽出情報を作成する。
次に、メモリ23が識別子を記録するまでの動作を説明する。
また、指示入力部3は、発話訓練装置10を使用するユーザを特定するための識別子を受け付けると、受け付けた識別子を指示管理部65に出力する。
指示管理部65は、指示入力部3から識別子を受け付けると、その識別子を設定部67に出力する。
設定部67は、指示管理部65から識別子を受け付けると、その識別子をメモリ23に記録する。なお、メモリ23が既に識別を記録している場合、設定部67は、指示入力部3が受け付けた識別子を、メモリ23に記録されている識別子に上書きする。
次に、ユーザごとに抽出対象語句を格納することが可能な発話訓練システムにおける、抽出対象語句を変更する動作を説明する。
指示入力部3は、識別子と、該識別子にて特定されるユーザの発話から抽出すべき抽出対象語句を変更する旨の変更指示と、を受け付けると、その識別子および変更指示を指示管理部65に出力する。
指示管理部65は、識別子および変更指示を受け付けると、その識別子および変更指示を設定部67に出力する。
設定部67は、識別子および変更指示を受け付けると、その識別子と抽出用語格納部21にて関連づけられた抽出対象語句を、その更新指示に従って変更する。
本実施例では、指示入力部3が識別子を受け付ける。用語抽出部62は、指示入力部3が受け付けた識別子と抽出用語格納部21にて関連づけられた抽出対象語句を、文字情報から抽出する。
この場合、例えば、ユーザの口癖などに応じて抽出対象語句を変更するなど、個々のユーザに適した抽出対象語句を設定することが可能になる。
以上説明した実施例において、図示した構成は単なる一例であって、本発明はその構成に限定されるものではない。
発話訓練システムの一実施例を示したブロック図である。 対象情報の一例を示した図である。 抽出情報の一例を示した図である。 表の形式に加工された発話頻度の一例を示した図である。 発話訓練システムの動作例を説明するためのフローチャートである。 発話訓練システムの他の動作例を説明するためのフローチャートである。
符号の説明
1 音声入力装置
2 記憶部
3 指示入力部
4 通話検知部
5 出力部
6 データ処理部
10 発話訓練装置
11 音声取得部
12 音声分岐部
21 抽出用語格納部
22 抽出結果格納部
23 メモリ
61 音声認識部
62 用語抽出部
63 時計部
64 抽出結果処理部
65 指示管理部
66 抽出結果検索部
67 設定部
100 電話網
101 電話機
200 対象情報
201 語句
202 種別
300 抽出情報
301 対応者
302 対応年月日
303 開始時刻
304 終了時刻
305 語句
306 種別
307 回数

Claims (9)

  1. 発話から抽出すべき抽出対象語句を抽出し、該抽出された抽出対象語句を提示する発話訓練装置と、通話先の電話機と、に接続された音声分岐装置であって、
    前記電話機への発話を取得する取得部と、
    前記取得部が取得した発話を、前記電話機と前記発話訓練装置との両方に出力する分岐部と、を含む音声分岐装置。
  2. 請求項1に記載の音声分岐装置と接続された発話訓練装置であって、
    前記発話から抽出すべき抽出対象語句を格納する対象格納部と、
    前記音声分岐装置が出力した発話を受け付け、該受け付けられた発話を文字情報に変換する認識部と、
    前記認識部が変換した文字情報から前記対象格納部に格納された抽出対象語句を抽出する抽出部と、
    前記抽出部が抽出した抽出対象語句を提示する提示部と、を含む発話訓練装置。
  3. 請求項2に記載の発話訓練装置において、
    前記対象格納部は、ユーザを特定する識別子と、該識別子にて特定されるユーザの発話から抽出すべき抽出対象語句と、を前記識別子ごとに関連づけて格納し、
    前記識別子を受け付ける入力部、を含み、
    前記抽出部は、前記認識部が変換した文字情報から、前記入力部が受け付けた識別子と前記対象格納部にて関連づけられた抽出対象語句を抽出する、発話訓練装置。
  4. 発話訓練装置と、前記発話訓練装置と通話先の電話機とに接続された音声分岐装置と、を含む発話訓練システムであって、
    前記音声分岐装置は、
    前記電話機への発話を取得する取得部と、
    前記取得部が取得した発話を、前記電話機と前記発話訓練装置との両方に出力する分岐部と、を含み、
    前記発話訓練装置は、
    前記発話から抽出すべき抽出対象語句を格納する対象格納部と、
    前記音声分岐装置が出力した発話を受け付け、該受け付けられた発話を文字情報に変換する認識部と、
    前記認識部が変換した文字情報から前記対象格納部に格納された抽出対象語句を抽出する抽出部と、
    前記抽出部が抽出した抽出対象語句を提示する提示部と、を含む、発話訓練システム。
  5. 発話から抽出すべき抽出対象語句を抽出し、該抽出された抽出対象語句を提示する発話訓練装置と、通話先の電話機と、に接続された音声分岐装置が行なう音声分岐方法であって、
    前記電話機への発話を取得する取得ステップと、
    前記取得された発話を、前記電話機と前記発話訓練装置との両方に出力する分岐ステップと、を含む音声分岐方法。
  6. 発話から抽出すべき抽出対象語句を格納する対象格納部を含み、請求項1に記載の音声分岐装置と接続された発話訓練装置が行なう発話訓練支援方法であって、
    前記音声分岐装置が出力した発話を受け付ける受付ステップと、
    前記受け付けられた発話を文字情報に変換する変換ステップと、
    前記変換された文字情報から前記対象格納部に格納された抽出対象語句を抽出する抽出ステップと、
    前記抽出された抽出対象語句を提示する提示ステップと、を含む発話訓練支援方法。
  7. 請求項6に記載の発話訓練支援方法において、
    前記対象格納部は、ユーザを特定する識別子と、該識別子にて特定されるユーザの発話から抽出すべき抽出対象語句と、を前記識別子ごとに関連づけて格納し、
    前記識別子を受け付ける入力ステップと、
    前記変換された文字情報から、前記受け付けられた識別子と前記対象格納部にて関連づけられた抽出対象語句を抽出する抜出ステップと、をさらに含む発話訓練支援方法。
  8. 発話から抽出すべき抽出対象語句を格納する対象格納部を含む発話訓練装置と、前記発話訓練装置と通話先の電話機とに接続された音声分岐装置と、を含む発話訓練システムが行なう発話訓練支援方法であって、
    前記音声分岐装置が、前記電話機への発話を取得する発話取得ステップと、
    前記音声分岐装置が、前記取得された発話を、前記電話機と前記発話訓練装置との両方に出力する出力ステップと、
    前記発話訓練装置が、前記出力された発話を受け付ける発話受付ステップと、
    前記発話訓練装置が、前記受け付けられた発話を文字情報に変換する認識ステップと、
    前記発話訓練装置が、前記変換された文字情報から前記対象格納部に格納された抽出対象語句を抽出する語句抽出ステップと、
    前記発話訓練装置が、前記抽出された抽出対象語句を提示する語句提示ステップと、を含む発話訓練支援方法。
  9. 発話から抽出すべき抽出対象語句を格納する対象格納部と、請求項1に記載の音声分岐装置と、に接続されたコンピュータに発話訓練支援処理を実行させるプログラムであって、
    前記音声分岐装置が出力した発話を受け付ける受付処理と、
    前記受け付けられた発話を文字情報に変換する変換処理と、
    前記変換された文字情報から前記対象格納部に格納された抽出対象語句を抽出する抽出処理と、
    前記抽出された抽出対象語句を提示する提示処理と、を含む発話訓練支援処理を前記コンピュータに実行させるプログラム。
JP2006057769A 2006-03-03 2006-03-03 発話訓練装置、発話訓練システム、発話訓練支援方法およびプログラム Active JP4760452B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006057769A JP4760452B2 (ja) 2006-03-03 2006-03-03 発話訓練装置、発話訓練システム、発話訓練支援方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006057769A JP4760452B2 (ja) 2006-03-03 2006-03-03 発話訓練装置、発話訓練システム、発話訓練支援方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2007233249A true JP2007233249A (ja) 2007-09-13
JP4760452B2 JP4760452B2 (ja) 2011-08-31

Family

ID=38553871

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006057769A Active JP4760452B2 (ja) 2006-03-03 2006-03-03 発話訓練装置、発話訓練システム、発話訓練支援方法およびプログラム

Country Status (1)

Country Link
JP (1) JP4760452B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2034724A2 (en) 2007-09-07 2009-03-11 Ricoh Company, Ltd. Projection optical system and image displaying apparatus
CN102103312B (zh) * 2007-09-07 2012-10-31 株式会社理光 投影光学设备和图像显示设备
CN112241628A (zh) * 2019-07-18 2021-01-19 本田技研工业株式会社 智能体装置、智能体装置的控制方法及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10322450A (ja) * 1997-03-18 1998-12-04 N T T Data:Kk 音声認識システム、コールセンタシステム、音声認識方法及び記録媒体
JP2002117135A (ja) * 2000-08-02 2002-04-19 Masunaga Sogo Keikaku:Kk ウェブサイトセキュリティシステム
JP2004157253A (ja) * 2002-11-05 2004-06-03 Kawasaki Steel Systems R & D Corp コンタクト・センタ・オペレータ訓練システム
JP2004192545A (ja) * 2002-12-13 2004-07-08 Toshiba Tec Corp 接客業務管理装置
JP2004252668A (ja) * 2003-02-19 2004-09-09 Fujitsu Ltd コンタクトセンタ運用管理プログラム、装置および方法
JP2005318101A (ja) * 2004-04-27 2005-11-10 Tokyo Electric Power Co Inc:The 電話応対診断装置および電話応対評価プログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10322450A (ja) * 1997-03-18 1998-12-04 N T T Data:Kk 音声認識システム、コールセンタシステム、音声認識方法及び記録媒体
JP2002117135A (ja) * 2000-08-02 2002-04-19 Masunaga Sogo Keikaku:Kk ウェブサイトセキュリティシステム
JP2004157253A (ja) * 2002-11-05 2004-06-03 Kawasaki Steel Systems R & D Corp コンタクト・センタ・オペレータ訓練システム
JP2004192545A (ja) * 2002-12-13 2004-07-08 Toshiba Tec Corp 接客業務管理装置
JP2004252668A (ja) * 2003-02-19 2004-09-09 Fujitsu Ltd コンタクトセンタ運用管理プログラム、装置および方法
JP2005318101A (ja) * 2004-04-27 2005-11-10 Tokyo Electric Power Co Inc:The 電話応対診断装置および電話応対評価プログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
""自然な会話を業界最高レベルの精度で認識してコンタクトセンター業務を革新する「Visual Voice」"", BUSINESS COMMUNICATION, vol. 42, no. 10, JPN6011004326, 1 October 2005 (2005-10-01), pages 84 - 85, ISSN: 0001834924 *
""音声認識で「会話」を活用し、コンタクトセンター業務を革新 〜NECの音声認識技術を結集したコンタクトセ", COMPUTER TELEPHONY, vol. 8, no. 10, JPN6011004327, 20 September 2005 (2005-09-20), pages 36 - 37, ISSN: 0001834925 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2034724A2 (en) 2007-09-07 2009-03-11 Ricoh Company, Ltd. Projection optical system and image displaying apparatus
CN102103312B (zh) * 2007-09-07 2012-10-31 株式会社理光 投影光学设备和图像显示设备
CN112241628A (zh) * 2019-07-18 2021-01-19 本田技研工业株式会社 智能体装置、智能体装置的控制方法及存储介质
JP2021018293A (ja) * 2019-07-18 2021-02-15 本田技研工業株式会社 エージェント装置、エージェント装置の制御方法、およびプログラム
JP7274376B2 (ja) 2019-07-18 2023-05-16 本田技研工業株式会社 エージェント装置、エージェント装置の制御方法、およびプログラム

Also Published As

Publication number Publication date
JP4760452B2 (ja) 2011-08-31

Similar Documents

Publication Publication Date Title
US20100217591A1 (en) Vowel recognition system and method in speech to text applictions
US7711105B2 (en) Methods and apparatus for processing foreign accent/language communications
US7013280B2 (en) Disambiguation method and system for a voice activated directory assistance system
US20080140398A1 (en) System and a Method For Representing Unrecognized Words in Speech to Text Conversions as Syllables
US20160240215A1 (en) System and Method for Text-to-Speech Performance Evaluation
WO2016194740A1 (ja) 音声認識装置、音声認識システム、当該音声認識システムで使用される端末、および、話者識別モデルを生成するための方法
US20130253932A1 (en) Conversation supporting device, conversation supporting method and conversation supporting program
JP2013073355A (ja) 対話支援装置、方法及びプログラム
KR20160081244A (ko) 자동 통역 시스템 및 이의 동작 방법
JP2009042968A (ja) 情報選別システム、情報選別方法及び情報選別用プログラム
US10216732B2 (en) Information presentation method, non-transitory recording medium storing thereon computer program, and information presentation system
CA2590739A1 (en) Method and apparatus for voice message editing
JP7026004B2 (ja) 会話補助装置、会話補助方法及びプログラム
JP4760452B2 (ja) 発話訓練装置、発話訓練システム、発話訓練支援方法およびプログラム
JP6254504B2 (ja) 検索サーバ、及び検索方法
JP2015118710A (ja) 対話装置、方法及びプログラム
US20190116260A1 (en) Voice recognition-based dialing
CN109616116B (zh) 通话系统及其通话方法
WO2019003395A1 (ja) コールセンター会話内容表示システム、方法及びプログラム
CN110602334A (zh) 一种基于人机协同的智能外呼方法及系统
JP4079275B2 (ja) 会話支援装置
JP5892598B2 (ja) 音声文字変換作業支援装置、音声文字変換システム、音声文字変換作業支援方法及びプログラム
JP2020113150A (ja) 音声翻訳対話システム
JP2006301967A (ja) 会話支援装置
KR102011595B1 (ko) 청각 장애인을 위한 소통 지원 장치 및 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090212

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110329

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110510

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110523

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140617

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4760452

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150